Databricks Runtime 13.1 (EoS)
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.1, da plataforma Apache Spark 3.4.0.
O Databricks lançou essa versão em maio de 2023.
Novos recursos e aprimoramentos
- Suporte ao cluster para o JDK 17 (Visualização Pública)
- Adicionar, alterar ou excluir dados em tabelas de streaming
- Ler Kafka com SQL
- Novas funções internas do SQL
- Suporte do Catálogo do Unity para bibliotecas do Python no escopo do cluster
- Habilitação padrão expandida para gravações otimizadas no Catálogo do Unity
- Suporte avançado para operadores com estado em cargas de trabalho de Streaming Estruturado
- O clone delta do Catálogo do Unity está em versão prévia pública
- Suporte de Pub/Sub para Streaming Estruturado
- Remover duplicatas dentro de marcas d'água no Streaming Estruturado
- Suporte expandido para conversões Delta de tabelas Iceberg com colunas de partição truncadas
- Alterações de esquema de streaming com mapeamento de coluna no Delta Lake
- Remover VERSÃO INICIAL
- Novas expressões H3 disponíveis com Python
Suporte ao cluster para JDK 17 (Visualização Pública)
O Databricks agora fornece suporte de cluster para o Kit de Desenvolvimento do Java (JDK) 17. Consulte o SDK do Databricks para Java.
Adicionar, alterar ou excluir dados em tabelas de streaming
Agora você pode usar instruções DML para modificar tabelas de streaming publicadas no Catálogo do Unity por pipelines do Delta Live Tables. Confira Adicionar, alterar ou excluir dados em uma tabela de streaming e Adicionar, alterar ou excluir dados em uma tabela de streaming de destino. Você também pode usar instruções DML para modificar tabelas de streaming criadas no Databricks SQL.
Ler Kafka com SQL
Agora você pode usar a função SQL read_kafka
para ler dados Kafka. O streaming com SQL tem suporte apenas no Delta Live Tables ou com tabelas de streaming no Databricks SQL. Consulte função read_kafka table-valued.
Novas funções internas do SQL
As seguintes funções foram adicionadas:
- array_prepend(array, elem) Retorna
array
precedido porelem
. - try_aes_decrypt(expr, key [, mode [, padding]]) Descriptografa um binário produzido usando a criptografia AES e retorna
NULL
se houver um erro. - sql_keywords() Retorna uma tabela de palavras-chave do SQL do Azure Databricks.
Suporte do Catálogo do Unity para bibliotecas do Python no escopo do cluster
O Catálogo do Unity tem algumas limitações no uso da biblioteca. No Databricks Runtime 13.1 e superior, há suporte para bibliotecas Python com escopo de cluster, incluindo arquivos de roda Python que são carregados como arquivos de espaço de trabalho. Não há suporte para bibliotecas referenciadas usando caminhos de arquivo DBFS, seja na raiz do DBFS ou em um local externo montado no DBFS. Não há suporte para bibliotecas não Python. Consulte as Bibliotecas de cluster.
No Databricks Runtime 13.0 e inferior, não há suporte para bibliotecas com escopo de cluster em clusters que usam o modo de acesso compartilhado em um workspace habilitado para o Catálogo do Unity.
Habilitação padrão expandida para gravações otimizadas no Catálogo do Unity
O suporte de gravação otimizado padrão para tabelas Delta registradas no Catálogo do Unity foi expandido para incluir instruções CTAS
e operações INSERT
para tabelas particionadas. Esse comportamento se alinha aos padrões em SQL warehouses. Consulte Gravações otimizadas para o Delta Lake no Azure Databricks.
Suporte avançado para operadores com estado em cargas de trabalho de Streaming Estruturado
Agora você pode encadear vários operadores com estado, o que significa que você pode alimentar a saída de uma operação, como uma agregação em janelas para outra operação com estado, como uma junção. Confira O que é streaming com estado?.
O clone delta do Catálogo do Unity está em versão prévia pública
Agora você pode usar o clone superficial para criar novas tabelas gerenciadas do Catálogo do Unity a partir de tabelas gerenciadas existentes do Catálogo do Unity. Confira Clone superficial para tabelas do Catálogo do Unity.
Suporte de Pub/Sub para Streaming Estruturado
Agora você pode usar um conector interno para assinar o Google Pub/Sub com Streaming Estruturado. Confira Assinar o Google Pub/Sub.
Remover duplicatas dentro de marcas d'água no Streaming Estruturado
Agora você pode usar dropDuplicatesWithinWatermark
em combinação com um limite de marca d'água especificado para eliminação de duplicação de registros no Streaming Estruturado. Confira Descartar duplicatas dentro da marca d'água.
Suporte expandido para conversões Delta de tabelas Iceberg com colunas de partição truncadas
Agora você pode usar CLONE
e CONVERT TO DELTA
com tabelas Iceberg que têm partições definidas em colunas truncadas dos tipos int
, long
e string
. Não há suporte para as colunas truncadas do tipo decimal
.
Alterações de esquema de streaming com mapeamento de coluna no Delta Lake
Agora você pode fornecer um local de acompanhamento de esquema para habilitar o streaming de tabelas Delta com o mapeamento de coluna habilitado. Confira Streaming com mapeamento de coluna e alterações de esquema.
Remover VERSÃO INICIAL
START VERSION
está preterido para ALTER SHARE
.
Novas expressões H3 disponíveis com Python
As expressões h3_coverash3
e h3_coverash3string
estão disponíveis com Python.
Correções de bug
Parquet failOnUnknownFields não remove mais dados silenciosamente na incompatibilidade de tipo
Se um arquivo Parquet foi lido apenas com a opção failOnUnknownFields
ou com o Carregador Automático no modo de evolução do esquema failOnNewColumns
, as colunas que têm tipos de dados diferentes agora falham e recomendam o uso de rescuedDataColumn
. O Carregador Automático agora lê corretamente e não resgata mais os tipos Inteiro, Curto ou Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos.
Alterações de quebra
Atualizar a versão do sqlite-jdbc para 3.42.0.0 para tratar do CVE-2023-32697
Atualize a versão do sqlite-jdbc de 3.8.11.2 para 3.42.0.0. As APIs da versão 3.42.0.0 não são totalmente compatíveis com a versão 3.8.11.2. Se estiver usando sqlite-jdbc em seu código, marcar o relatório de compatibilidade sqlite-jdbc para obter detalhes. Se você migrar para a versão 13.1 e usar o sqlite, confirme seus métodos e retorne o tipo na versão 3.42.0.0.
Atualizações da biblioteca
- Bibliotecas do Python atualizadas:
- facets-overview de 1.0.2 para 1.0.3
- filelock de 3.10.7 para 3.12.0
- pyarrow de 7.0.0 para 8.0.0
- tenacidade de 8.0.1 a 8.1.0
- Atualização das bibliotecas do R:
- Bibliotecas do Java atualizadas:
- com.github.ben-manes.cafeína.cafeína de 2.3.4 para 2.9.3
- io.delta.delta-sharing-spark_2.12 de 0.6.8 para 0.6.4
- net.snowflake.snowflake-jdbc de 3.13.29 para 3.13.22
- org.checkerframework.checker-qual de 3.5.0 a 3.19.0
- org.scalactic.scalactic_2.12 de 3.0.8 para 3.2.15
- org.scalatest.scalatest_2.12 de 3.0.8 para 3.2.15
- org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0
Apache Spark
O Databricks Runtime 13.1 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e os aprimoramentos do Spark adicionados ao Databricks Runtime 13.0 (EoS), bem como as seguintes correções de bugs e melhorias adicionais feitas no Spark:
- [SPARK-42719] [DBRRM-199][SC-131578] Reverter "[SC-125225] `MapOutputTracker#getMap…
- [SPARK-39696] [DBRRM-166][SC-130056][CORE] Reverter [SC-127830]/
- [SPARK-43331] [SC-130064][CONNECT] Adicionar Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][CONNECT][PYTHON] Possibilita estender ChannelBuilder para SparkConnectClient
- [SPARK-43323] [SC-129966][SQL][PYTHON] Corrigir DataFrame.toPandas com Seta habilitada para manipular exceções corretamente
- [SPARK-42940] [SC-129896][SS][CONNECT] Melhorar o gerenciamento de sessão para consultas de streaming
- [SPARK-43032] [SC-125756] [CONNECT][SS] Adicionar gerenciador de consultas de streaming
- [SPARK-16484] [SC-129975][SQL] Adicionar suporte para Datasketches HllSketch
- [SPARK-43260] [SC-129281][PYTHON] Migrar os erros de tipo de seta pandas do Spark SQL para a classe de erro.
- [SPARK-41766] [SC-129964][CORE] Manipular solicitação de encerramento enviada antes do registro do executor
- [SPARK-43307] [SC-129971][PYTHON] Migrar erros de valor PandasUDF para a classe de erro
- [SPARK-43206] [SC-129903] [SS] [CONNECT] exception() StreamingQuery inclui rastreamento de pilha
- [SPARK-43311] [SC-129905][SS] Adicionar aprimoramentos de gerenciamento de memória do provedor de armazenamento de estado RocksDB
- [SPARK-43237] [SC-129898][CORE] Manipular mensagem de exceção nula no log de eventos
- [SPARK-43320] [SC-129899][SQL][HIVE] Chamar diretamente a API do Hive 2.3.9
- [SPARK-43270] [SC-129897][PYTHON] Implementar
__dir__()
empyspark.sql.dataframe.DataFrame
para incluir colunas - [SPARK-43183] Reverter "[SC-128938][SS] Introduzir um novo retorno de chamada "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] awaitTermination() StreamingQuery de Scala
- [SPARK-43257] [SC-129675][SQL] Substituir a classe de erro _LEGACY_ERROR_TEMP_2022 por um erro interno
- [SPARK-43198] [SC-129470][CONNECT] Corrigir "Não foi possível inicializar a classe ammonite..." erro ao usar filtro
- [SPARK-43165] [SC-129777][SQL] Mover canWrite para DataTypeUtils
- [SPARK-43298] [SC-129729][PYTHON][ML] predict_batch_udf com entrada escalar falha com o tamanho do lote de um
- [SPARK-43298] [SC-129700]Reverter "[PYTHON][ML] predict_batch_udf com entrada escalar falha com o tamanho do lote de um"
- [SPARK-43052] [SC-129663][CORE] Manipular stacktrace com nome de arquivo nulo no log de eventos
- [SPARK-43183] [SC-128938][SS] Introduzir um novo retorno de chamada "onQueryIdle" ao StreamingQueryListener
- [SPARK-43209] [SC-129190][CONNECT][PYTHON] Migrar erros de expressão para a classe de erro
- [SPARK-42151] [SC-128754][SQL] Alinhar atribuições UPDATE com atributos de tabela
- [SPARK-43134] [SC-129468] [CONNECT] [SS] API exception() StreamingQuery do cliente JVM
- [SPARK-43298] [SC-129699][PYTHON][ML] predict_batch_udf com entrada escalar falha com o tamanho do lote de um
- [SPARK-43248] [SC-129660][SQL] Serializar/desserializar desnecessariamente o Caminho em estatísticas de partição de coleta paralela
- [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] Introduzir
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][CONNECT][PYTHON] Implementar avaliação ansiosa para repr e repr_html
- [SPARK-42953] [SC-129469][Connect][Acompanhamento] Corrigir o build de teste do maven para testes UDF do cliente Scala
- [SPARK-43144] [SC-129280] API table() DataStreamReader do Cliente Scala
- [SPARK-43136] [SC-129358][CONNECT] Adicionando funções groupByKey + mapGroup + coGroup
- [SPARK-43156] [SC-129672][SC-128532][SQL] Corrigir bug
COUNT(*) is null
em subconsulta escalar correlacionada - [SPARK-43046] [SC-129110] [SS] [Connect] Implementação da API do Python dropDuplicatesWithinWatermark para Spark Connect
- [SPARK-43199] [SC-129467][SQL] Tornar InlineCTE idempotente
- [SPARK-43293] [SC-129657][SQL]
__qualified_access_only
deve ser ignorado em colunas normais - [SPARK-43276] [SC-129461][CONNECT][PYTHON] Migrar erros de Janela do Spark Connect para a classe de erro
- [SPARK-43174] [SC-129109][SQL] Corrigir SparkSQLCLIDriver completer
- [SPARK-43084] [SC-128654] [SS] Adicionar suporte a applyInPandasWithState para o Spark Connect
- [SPARK-43119] [SC-129040][SQL] Suporte a Obter palavras-chave SQL dinamicamente por meio da API JDBC e TVF
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] UDFs do Python com otimização de seta no Spark Connect
- [SPARK-43085] [SC-128432][SQL] Suporte à atribuição padrão da coluna para nomes de tabela de várias partes
- [SPARK-43226] [LC-671] Definir extratores para metadados de constante de arquivo
- [SPARK-43210] [SC-129189][CONNECT][PYTHON] Introduzir
PySparkAssertionError
- [SPARK-43214] [SC-129199][SQL] Postar métricas do lado do driver para LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Correção de ReplE2ESuite falhando consistentemente com o JDK 17
- [SPARK-43268] [SC-129249][SQL] Usar classes de erro adequadas quando exceções forem construídas com uma mensagem
- [SPARK-43142] [SC-129299] Corrigir expressões DSL em atributos com caracteres especiais
- [SPARK-43129] [SC-128896] API do Scala Core para streaming do Spark Connect
- [SPARK-43233] [SC-129250] [SS] Adicionar registro em log para Leitura em Lote do Kafka para partição de tópicos, intervalo de deslocamento e ID da tarefa
- [SPARK-43249] [SC-129195][CONNECT] Corrigir estatísticas ausentes para o Comando SQL
- [SPARK-42945] [SC-129188][CONNECT] Suporte para PYSPARK_JVM_STACKTRACE_ENABLED no Spark Connect
- [SPARK-43178] [SC-129197][CONNECT][PYTHON] Migrar erros de UDF para a estrutura de erros do PySpark
- [SPARK-43123] [SC-128494][SQL] Metadados de campo internos não devem ser vazados para catálogos
- [SPARK-43217] [SC-129205] Recursar corretamente em mapas/matrizes aninhados em findNestedField
- [SPARK-43243] [SC-129294][PYTHON][CONNECT] Adicionar parâmetro de nível a printSchema para Python
- [SPARK-43230] [SC-129191][CONNECT] Simplificar
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][SQL] Respeitar RequiresDistributionAndOrdering em CTAS/RTAS
- [SPARK-43234] [SC-129192][CONNECT][PYTHON] Migrar
ValueError
do Conect DataFrame para a classe de erro - [SPARK-43212] [SC-129187][SS][PYTHON] Migrar erros de Streaming Estruturado para a classe de erro
- [SPARK-43239] [SC-129186][PS] Remover
null_counts
de info() - [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput deve ser consistente com a saída filho
- [SPARK-43191] [SC-128924][CORE] Substituir reflexão w/ chamada direta para Hadoop CallerContext
- [SPARK-43193] [SC-129042][SS] Remover solução alternativa para HADOOP-12074
- [SPARK-42657] [SC-128621][CONNECT] Suporte para localizar e transferir arquivos de classe REPL do lado do cliente para o servidor como artefatos
- [SPARK-43098] [SC-77059][SQL] Corrija o bug COUNT de correção quando a subconsulta escalar tiver cláusula group by
- [SPARK-43213] [SC-129062][PYTHON] Adicionar
DataFrame.offset
ao PySpark vanilla - [SPARK-42982] [SC-128400][CONNECT][PYTHON] Correção de createDataFrame para respeitar o ddl de esquema especificado
- [SPARK-43124] [SC-129011][SQL] Dataset.show projeta CommandResults localmente
- [SPARK-42998] [SC-127422][CONNECT][PYTHON] Corrigir DataFrame.collect com struct nulo
- [SPARK-41498] [SC-125343]Reverter "Propagar metadados por meio da União"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Adicionar API await_termination() e exception() para Consulta de Streaming no Python
- [SPARK-42552] [SC-128824][SQL] Corrigir a estratégia de análise de dois estágios do analisador antlr
- [SPARK-43207] [SC-128937][CONNECT] Adicionar funções auxiliares para extrair valor da expressão literal
- [SPARK-43186] [SC-128841][SQL][HIVE] Remover solução alternativa para FileSinkDesc
- [SPARK-43107] [SC-128533][SQL] Agrupar buckets em junção aplicados no lado do fluxo de junção de transmissão
- [SPARK-43195] [SC-128922][CORE] Remover wrapper serializável desnecessário no HadoopFSUtils
- [SPARK-43137] [SC-128828][SQL] Aprimorar ArrayInsert se a posição for dobrável e positiva.
- [SPARK-37829] [SC-128827][SQL] Junção externa Dataframe.joinWith deve retornar um valor nulo para linha sem correspondência
- [SPARK-43042] [SC-128602] [SS] [Connect] Adicionar suporte à API table() para DataStreamReader
- [SPARK-43153] [SC-128753][CONNECT] Ignorar a execução do Spark quando o dataframe for local
- [SPARK-43064] [SC-128496][SQL] A guia SQL da CLI do Spark SQL só deve mostrar uma instrução uma vez
- [SPARK-43126] [SC-128447][SQL] Marcar duas expressões UDF do Hive como com estado
- [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] Mesclar instruções aninhadas
if
em instruções simplesif
- [SPARK-43113] [SC-128749][SQL] Avaliar variáveis do lado do fluxo ao gerar código para uma condição associada
- [SPARK-42895] [SC-127258][CONNECT] Melhorar as mensagens de erro para sessões interrompidas do Spark
- [SPARK-42884] [SC-126662][CONNECT] Adicionar integração com o Ammonite REPL
- [SPARK-43168] [SC-128674][SQL] Remover o método get PhysicalDataType da classe Datatype
- [SPARK-43121] [SC-128455][SQL] Usar
BytesWritable.copyBytes
em vez de cópia manual em `HiveInspectors - [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog mantém a meta Char/Varchar no lado da leitura
- [SPARK-43050] [SC-128550][SQL] Corrigir expressões de agregação de constructo substituindo funções de agrupamento
- [SPARK-43095] [SC-128549][SQL] Evitar que a idempotência da estratégia seja interrompida para lote:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] Mover InternalType para PhysicalDataType
- [SPARK-43105] [SC-128456][CONNECT] Abreviar bytes e cadeias de caracteres na mensagem proto
- [SPARK-43099] [SC-128596][SQL] Usar
getName
em vez degetCanonicalName
para obter o nome da classe do construtor ao registrar udf em FunctionRegistry - [SPARK-42994] [SC-128586][ML][CONNECT] O Distribuidor PyTorch dá suporte ao Modo Local
- [SPARK-42859] Reverter "[SC-127935][CONNECT][PS] Suporte básico para a API do Pandas no Spark Connect"
- [SPARK-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
não funciona ao usar o AQE - [SPARK-43125] [SC-128477][CONNECT] Corrigir o Servidor de Conexão não pode lidar com exceção com mensagem nula
- [SPARK-43147] [SC-128594] Corrigir o lint flake8 para verificação local
- [SPARK-43031] [SC-128360] [SS] [Connect] Habilitar teste de unidade e doctest para streaming
- [SPARK-43039] [LC-67] Suporte a campos personalizados na coluna _metadata da origem do arquivo.
- [SPARK-43120] [SC-128407][SS] Adicionar suporte para rastrear o uso de memória de blocos fixados para o repositório de estado RocksDB
- [SPARK-43110] [SC-128381][SQL] Mover asIntegral para PhysicalDataType
- [SPARK-43118] [SC-128398][SS] Remover declaração desnecessária para UninterruptibleThread no KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][CONNECT][PYTHON] Suporte a nomes de campo aninhados duplicados
- [SPARK-42437] [SC-128339][PYTHON][CONNECT] Catálogo do PySpark.cacheTable permitirá especificar o nível de armazenamento
- [SPARK-42985] [SC-128332][CONNECT][PYTHON] Correção de createDataFrame para respeitar as configurações do SQL
- [SPARK-39696] [SC-127830][CORE] Correção da corrida de dados no acesso a TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][SQL] Movendo integral para PhysicalDataType
- [SPARK-42741] [SC-125547][SQL] Não desencapsular conversões em comparação binária quando literal for nulo
- [SPARK-43057] [SC-127948][CONNECT][PYTHON] Migrar erros de Coluna do Spark Connect para a classe de erro
- [SPARK-42859] [SC-127935][CONNECT][PS] Suporte básico para a API pandas no Spark Connect
- [SPARK-43013] [SC-127773][PYTHON] Migrar
ValueError
do DataFrame paraPySparkValueError
. - [SPARK-43089] [SC-128051][CONNECT] Cadeia de caracteres de depuração Redact na interface do usuário
- [SPARK-43028] [SC-128070][SQL] Adicionar classe de erro SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][Connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] Adicionar teste para dropDuplicates em JavaDatasetSuite
- [SPARK-43075] [SC-127939][CONNECT] Alterar
gRPC
paragrpcio
quando não estiver instalado. - [SPARK-42953] [SC-127809][Connect] Filtro com tipo, mapa, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][SQL] Suporte para desencapsular tipo de data para o tipo de carimbo de data/hora
- [SPARK-42931] [SC-127933][SS] Introduzir dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][CONNECT] Adicionar constantes de tipos de dados proto
- [SPARK-43077] [SC-128050][SQL] Melhorar a mensagem de erro de UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][SS][Connect] APIs DataStreamReader
- [SPARK-43049] [SC-127846][SQL] Usar CLOB em vez de VARCHAR(255) para StringType para Oracle JDBC
- [SPARK-43018] [SC-127762][SQL] Corrigir o bug para comandos INSERT com literais de carimbo de data/hora.
- [SPARK-42855] [SC-127722][SQL] Usar verificações nulas de runtime em TableOutputResolver
- [SPARK-43030] [SC-127847][SQL] Eliminação de duplicação de relações com colunas de metadados
- [SPARK-42993] [SC-127829][ML][CONNECT] Tornar o Distribuidor PyTorch compatível com o Spark Connect
- [SPARK-43058] [SC-128072][SQL] Mover Numérico e Fracionário para PhysicalDataType
- [SPARK-43056] [SC-127946][SS] A confirmação do repositório de estado RocksDB deve continuar o trabalho em segundo plano somente se sua pausa for pausada
- [SPARK-43059] [SC-127947][CONNECT][PYTHON] Migrar TypeError de DataFrame(Leitor|Gravador) na classe de erro
- [SPARK-43071] [SC-128018][SQL] Suporte a SELECT DEFAULT com ORDER BY, LIMIT, OFFSET para a relação de origem INSERT
- [SPARK-43061] [SC-127956][CORE][SQL] Introduzir PartitionEvaluator para execução do operador SQL
- [SPARK-43067] [SC-127938][SS] Corrigir o local do arquivo de recurso da classe de erro no conector Kafka
- [SPARK-43019] [SC-127844][SQL] Mover ordenação para PhysicalDataType
- [SPARK-43010] [SC-127759][PYTHON] Migrar erros de coluna para a classe de erro
- [SPARK-42840] [SC-127782][SQL] Alterar erro
_LEGACY_ERROR_TEMP_2004
para erro interno - [SPARK-43041] [SC-127765][SQL] Restaurar construtores de exceções para compatibilidade na API do conector
- [SPARK-42939] [SC-127761][SS][CONNECT] API do Python de streaming principal para Spark Connect
- [SPARK-42844] [SC-127766][SQL] Atualizar a classe de erro
_LEGACY_ERROR_TEMP_2008
paraINVALID_URL
- [SPARK-42316] [SC-127720][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][CONNECT][PYTHON] Migrar erros de DataFrame do Spark Connect para a classe de erro
- [SPARK-42983] [SC-127717][CONNECT][PYTHON] Correção de createDataFrame para manipular a matriz numpy de 0-dim corretamente
- [SPARK-42955] [SC-127476][SQL] Ignorar classifyException e encapsular AnalysisException para SparkThrowable
- [SPARK-42949] [SC-127255][SQL] Simplificar o código para NAAJ
- [SPARK-43011] [SC-127577][SQL]
array_insert
deve falhar com o índice 0 - [SPARK-42974] [SC-127487][CORE] Restaurar
Utils.createTempDir
para usar oShutdownHookManager
e limpar o métodoJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][SQL] PosgresDialect "42P07" também significa que a tabela já existe
- [SPARK-42978] [SC-127351][SQL] Derby&PG: RENAME não pode qualificar um new-table-Name com um schema-Name
- [SPARK-37980] [SC-127668][SQL] Acessar row_index por meio de _metadata, se possível, em testes
- [SPARK-42655] [SC-127591][SQL] Erro de referência de coluna ambígua incorreta
- [SPARK-43009] [SC-127596][SQL]
sql()
Parametrizado com constantesAny
- [SPARK-43026] [SC-127590][SQL] Aplicar o AQE com cache de tabela não exchange
- [SPARK-42963] [SC-127576][SQL] Estender SparkSessionExtensions para injetar regras no otimizador do estágio de consulta AQE
- [SPARK-42918] [SC-127357] Generalizar o tratamento de atributos de metadados no FileSourceStrategy
- [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] Adicionar suporte a
Catalog
- [SPARK-42997] [SC-127535][SQL] TableOutputResolver deve usar caminhos de coluna corretos em mensagens de erro para matrizes e mapas
- [SPARK-43006] [SC-127486][PYSPARK] Corrigir erro de digitação em StorageLevel eq()
- [SPARK-43005] [SC-127485][PYSPARK] Corrigir erro de digitação no pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][CORE] Corrigir erro de digitação em ResourceRequest.equals()
- [SPARK-42907] [SC-126984][CONNECT][PYTHON] Implementar funções Avro
- [SPARK-42979] [SC-127272][SQL] Definir construtores literais como palavras-chave
- [SPARK-42946] [SC-127252][SQL] Ocultar dados confidenciais que são aninhados por substituição variável
- [SPARK-42952] [SC-127260][SQL] Simplificar o parâmetro da regra do analisador PreprocessTableCreation e DataSourceAnalysis
- [SPARK-42683] [LC-75] Renomear automaticamente colunas de metadados conflitantes
- [SPARK-42853] [SC-126101][Acompanhamento] Corrigir conflitos
- [SPARK-42929] [SC-126748][CONNECT] fazer mapInPandas/ mapInArrow dar suporte a "is_barrier"
- [SPARK-42968] [SC-127271][SS] Adicionar opção para ignorar o coordenador de commit como parte da API streamingWrite para fontes/coletores DSv2
- [SPARK-42954] [SC-127261][PYTHON][CONNECT] Adicionar
YearMonthIntervalType
ao PySpark e ao Cliente Python do Spark Connect - [SPARK-41359] [SC-127256][SQL] Usar
PhysicalDataType
em vez de DataType em UnsafeRow - [SPARK-42873] [SC-127262][SQL] Definir tipos de SQL do Spark como palavras-chave
- [SPARK-42808] [SC-126302][CORE] Evitar obter availableProcessors todas as vezes em
MapOutputTrackerMaster#getStatistics
- [SPARK-42937] [SC-126880][SQL]
PlanSubqueries
deve definirInSubqueryExec#shouldBroadcast
como true - [SPARK-42896] [SC-126729][SQL][PYTHON] Fazer
mapInPandas
/mapInArrow
dar suporte a execução do modo de barreira - [SPARK-42874] [SC-126442][SQL] Habilite a nova estrutura de teste de arquivo de ouro para análise para todos os arquivos de entrada
- [SPARK-42922] [SC-126850][SQL] Mover de Aleatório para SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange refere-se a nós inexistentes
- [SPARK-40822] [SC-126274][SQL] Aliases de coluna derivadas estáveis
- [SPARK-42908] [SC-126856][PYTHON] Gerar RuntimeError quando SparkContext for necessário, mas não inicializado
- [SPARK-42779] [SC-126042][SQL] Permitir gravações V2 para indicar o tamanho da partição de embaralhamento de consultoria
- [SPARK-42914] [SC-126727][PYTHON] Reutilizar
transformUnregisteredFunction
paraDistributedSequenceID
. - [SPARK-42878] [SC-126882][CONNECT] A API de tabela no DataFrameReader também poderia aceitar opções
- [SPARK-42927] [SC-126883][CORE] Alterar o escopo de acesso de
o.a.spark.util.Iterators#size
paraprivate[util]
- [SPARK-42943] [SC-126879][SQL] Usar LONGTEXT em vez de TEXT for StringType para comprimento efetivo
- [SPARK-37677] [SC-126855][CORE] Descompactar pode manter permissões de arquivo
- [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] Implementar a API de Mapa Coagrupado
- [SPARK-41876] [SC-126849][CONNECT][PYTHON] Implementar DataFrame.toLocalIterator
- [SPARK-42930] [SC-126761][CORE][SQL] Alterar o escopo de acesso das implementações relacionadas de
ProtobufSerDe
paraprivate[protobuf]
- [SPARK-42819] [SC-125879][SS] Adicionar suporte para definir max_write_buffer_number e write_buffer_size para RocksDB usados no streaming
- [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] Esclarecer o comentário de args SQL parametrizados
- [SPARK-42748] [SC-126455][CONNECT] Gerenciamento de artefatos do lado do servidor
- [SPARK-42816] [SC-126365][CONNECT] Suporte ao tamanho máximo da mensagem até 128 MB
- [SPARK-42850] [SC-126109][SQL] Remover regra duplicada CombineFilters no Otimizador
- [SPARK-42662] [SC-126355][CONNECT][PS] Adicionar mensagem proto para a API do Pandas no índice padrão do Spark
- [SPARK-42720] [SC-126136][PS][SQL] Usa expressão para índice padrão de sequência distribuída em vez de plano
- [SPARK-42790] [SC-126174][SQL] Abstrair o método excluído para melhor teste para testes do docker JDBC.
- [SPARK-42900] [SC-126473][CONNECT][PYTHON] Corrigir createDataFrame para respeitar nomes de inferência e coluna
- [SPARK-42917] [SC-126657][SQL] Corrigir getUpdateColumnNullabilityQuery para DerbyDialect
- [SPARK-42684] [SC-125157][SQL] catálogo v2 não deve permitir o valor padrão da coluna por padrão
- [SPARK-42861] [SC-126635][SQL] Usar private[sql] em vez de protected[sql] para evitar gerar documento de API
- [SPARK-42920] [SC-126728][CONNECT][PYTHON] Habilitar testes para UDF com UDT
- [SPARK-42791] [SC-126617][SQL] Criar uma nova estrutura de teste de arquivo ouro para análise
- [SPARK-42911] [SC-126652][PYTHON] Introduzir exceções mais básicas
- [SPARK-42904] [SC-126634][SQL] Suporte a Char/Varchar para o Catálogo JDBC
- [SPARK-42901] [SC-126459][CONNECT][PYTHON] Mover
StorageLevel
para um arquivo separado para evitar potencialfile recursively imports
- [SPARK-42894] [SC-126451][CONNECT] Suporte
cache
/persist
/unpersist
/storageLevel
para o cliente jvm do Spark Connect - [SPARK-42792] [SC-125852][SS] Adicionar suporte para WRITE_FLUSH_BYTES para RocksDB usado em operadores com estado de streaming
- [SPARK-41233] [SC-126441][CONNECT][PYTHON] Adicionar array_prepend ao cliente Python do Spark Connect
- [SPARK-42681] [SC-125149][SQL] Relaxar a restrição de ordenação para o descritor de coluna ALTER TABLE ADD|REPLACE
- [SPARK-42889] [SC-126367][CONNECT][PYTHON] Implementar cache, persistir, não persistir e storageLevel
- [SPARK-42824] [SC-125985][CONNECT][PYTHON] Fornecer uma mensagem de erro clara para atributos JVM sem suporte
- [SPARK-42340] [SC-126131][CONNECT][PYTHON] Implementar a API de Mapa Agrupado
- [SPARK-42892] [SC-126454][SQL] Mover métodos sameType e relevantes para fora do DataType
- [SPARK-42827] [SC-126126][CONNECT] Dar suporte para
functions#array_prepend
para o cliente do Scala Connect - [SPARK-42823] [SC-125987][SQL] O shell
spark-sql
dá suporte a namespaces de várias partes para inicialização - [SPARK-42817] [SC-125960][CORE] Registrando o nome do serviço em ordem aleatória uma vez no ApplicationMaster
- [SPARK-42786] [SC-126438][Connect] Selecionar com tipo
- [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] Implementar função ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][SQL] Suporte de codegen para HiveSimpleUDF
- [SPARK-41233] [SC-126110][SQL][PYTHON] Adicionar função
array_prepend
- [SPARK-42864] [SC-126268][ML][3.4] Tornar
IsotonicRegression.PointsAccumulator
privado - [SPARK-42876] [SC-126281][SQL] O physicalDataType do DataType deve ser privado[sql]
- [SPARK-42101] [SC-125437][SQL] Tornar o suporte do AQE InMemoryTableScanExec
- [SPARK-41290] [SC-124030][SQL] Suporte a expressões GENERATED ALWAYS AS para colunas em instruções de criar/substituir tabela
- [SPARK-42870] [SC-126220][CONNECT] Mover
toCatalystValue
paraconnect-common
- [SPARK-42247] [SC-126107][CONNECT][PYTHON] Corrigir UserDefinedFunction para ter returnType
- [SPARK-42875] [SC-126258][CONNECT][PYTHON] Corrigir toPandas para manipular os tipos de fuso horário e mapa corretamente
- [SPARK-42757] [SC-125626][CONNECT] Implementar textFile para DataFrameReader
- [SPARK-42803] [SC-126081][CORE][SQL][ML] Usar a função getParameterCount em vez de getParameterTypes.length
- [SPARK-42833] [SC-126043][SQL] Refatorar
applyExtensions
emSparkSession
- [SPARK-41765] Reverter "[SC-123550][SQL] Extrair métricas de gravação v1...
- [SPARK-42848] [SC-126105][CONNECT][PYTHON] Implementar DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][CONNECT][PYTHON] Suporte a UserDefinedType no Spark Connect
- [SPARK-42818] [SC-125861][CONNECT][PYTHON] Implementar DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][CONNECT] Adicionar client_type à mensagem protobuf AddArtifactsRequest
- [SPARK-42772] [SC-125860][SQL] Alterar o valor padrão das opções JDBC sobre push down para true
- [SPARK-42771] [SC-125855][SQL] Refatorar HiveGenericUDF
- [SPARK-25050] [SC-123839][SQL] Avro: escrevendo uniões complexas
- [SPARK-42765] [SC-125850][CONNECT][PYTHON] Habilitar a importação de
pandas_udf
depyspark.sql.connect.functions
- [SPARK-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
deve respeitarspark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][SQL] Melhorar o desempenho das partições de remoção
- [SPARK-42689] [SC-125195][CORE][SHUFFLE] Permitir que ShuffleDriverComponent declare se os dados em ordem aleatória são armazenados de forma confiável
- [SPARK-42726] [SC-125279][CONNECT][PYTHON] Implementar
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][SQL] Extrair métricas de gravação v1 para WriteFiles
- [SPARK-41171] [SC-124191][SQL] Inferir e reduzir o limite da janela pela janela se partitionSpec estiver vazio
- [SPARK-42686] [SC-125292][CORE] Adiar a formatação para mensagens de depuração no TaskMemoryManager
- [SPARK-42756] [SC-125443][CONNECT][PYTHON] Função auxiliar para converter literal proto em valor no Cliente Python
- [SPARK-42793] [SC-125627][CONNECT] O módulo
connect
requerbuild_profile_flags
- [SPARK-42701] [SC-125192][SQL] Adicionar a função
try_aes_decrypt()
- [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame não funciona com esquema não anulável
- [SPARK-42733] [SC-125542][CONNECT][Acompanhamento] Gravação sem caminho ou tabela
- [SPARK-42777] [SC-125525][SQL] Suporte à conversão de estatísticas do catálogo timestampNTZ em estatísticas de plano
- [SPARK-42770] [SC-125558][CONNECT] Adicionar
truncatedTo(ChronoUnit.MICROS)
para fazerSQLImplicitsTestSuite
passar na tarefa de teste diário GA do Java 17 - [SPARK-42752] [SC-125550][PYSPARK][SQL] Tornar as exceções do PySpark imprimíveis durante a inicialização
- [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Suporte ao método getActiveSession da sessão do Spark Connect
- [SPARK-42755] [SC-125442][CONNECT] Conversão de valor literal do fator para
connect-common
- [SPARK-42747] [SC-125399][ML] Corrigir status internos incorretos de LoR e AFT
- [SPARK-42740] [SC-125439][SQL] Corrigir o bug de que o deslocamento ou a paginação de pushdown é inválido para algum dialeto interno
- [SPARK-42745] [SC-125332][SQL] O AliasAwareOutputExpression aprimorado funciona com DSv2
- [SPARK-42743] [SC-125330][SQL] Suporte à análise de colunas TimestampNTZ
- [SPARK-42721] [SC-125371][CONNECT] Interceptador de log RPC
- [SPARK-42691] [SC-125397][CONNECT][PYTHON] Implementar Dataset.semanticHash
- [SPARK-42688] [SC-124922][CONNECT] Renomear Solicitação proto do Connect de client_id para session_id
- [SPARK-42310] [SC-122792][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][CORE] Otimizar rotinas Utils.bytesToString
- [SPARK-42725] [SC-125296][CONNECT][PYTHON] Fazer literalExpression dar suporte a parâmetros de matriz
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] Suporte à consulta parametrizada em subconsulta e CTE
- [SPARK-42697] [SC-125189][WEBUI] Corrigir /api/v1/applications para retornar tempo de atividade total em vez de 0 para o campo de duração
- [SPARK-42733] [SC-125278][CONNECT][PYTHON] Corrigir DataFrameWriter.save para trabalhar sem parâmetro de caminho
- [SPARK-42376] [SC-124928][SS] Introduzir propagação de marca d'água entre operadores
- [SPARK-42710] [SC-125205][CONNECT][PYTHON] Renomear o proto FrameMap como MapPartitions
- [SPARK-37099] [SC-123542][SQL] Introduzir o limite de grupo da Janela para o filtro baseado em classificação para otimizar a computação top-k
- [SPARK-42630] [SC-125207][CONNECT][PYTHON] Introduzir UnparsedDataType e atrasar a análise da cadeia de caracteres DDL até que SparkConnectClient esteja disponível
- [SPARK-42690] [SC-125193][CONNECT] Implementar funções de análise CSV/JSON para o cliente Scala
- [SPARK-42709] [SC-125172][PYTHON] Remover a suposição de
__file__
estar disponível - [SPARK-42318] [SC-122648][SPARK-42319][SQL] Atribuir nome a LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][SQL] Suporte ao tipo de dados do analisador json "timestamp_ltz" como TimestampType
- [SPARK-42722] [SC-125175][CONNECT][PYTHON] O def schema() do Python Connect não deve armazenar em cache o esquema
- [SPARK-42643] [SC-125152][CONNECT][PYTHON] Registrar funções Java (agregação) definidas pelo usuário
- [SPARK-42656] [SC-125177][CONNECT][Acompanhamento] Corrigir o script spark-connect
- [SPARK-41516] [SC-123899] [SQL] Permitir que dialetos jdbc substituam a consulta usada para criar uma tabela
- [SPARK-41725] [SC-124396][CONNECT] Execução adiantada de DF.sql()
- [SPARK-42687] [SC-124896][SS] Mensagem de erro melhor para a operação sem suporte de
pivot
no Streaming - [SPARK-42676] [SC-124809][SS] Gravar pontos de verificação temporários para consultas de streaming no sistema de arquivos local, mesmo que o FS padrão seja definido de forma diferente
- [SPARK-42303] [SC-122644][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] Garantir pelo menos uma unidade de tempo após "intervalo"
- [SPARK-42649] [SC-124576][CORE] Remover o cabeçalho de Licença Apache padrão da parte superior dos arquivos de origem de terceiros
- [SPARK-42611] [SC-124395][SQL] Inserir verificações de comprimento char/varchar para campos internos durante a resolução
- [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrar para a estrutura de erro para a API de Coluna do Spark Connect.
- [SPARK-42637] [SC-124522][CONNECT] Adicionar SparkSession.stop()
- [SPARK-42647] [SC-124647][PYTHON] Alterar alias para tipos numpy preteridos e removidos
- [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver só deve fechar o hive sessionState iniciado
- [SPARK-42593] [SC-124405][PS] Preterir e remover as APIs que serão removidas no Pandas 2.0.
- [SPARK-41870] [SC-124402][CONNECT][PYTHON] Corrigir createDataFrame para lidar com nomes de coluna duplicados
- [SPARK-42569] [SC-124379][CONNECT] Gerar exceções para a API de sessão sem suporte
- [SPARK-42631] [SC-124526][CONNECT] Suporte a extensões personalizadas no cliente Scala
- [SPARK-41868] [SC-124387][CONNECT][PYTHON] Correção de createDataFrame para dar suporte a durações
- [SPARK-42572] [SC-124171][SQL][SS] Corrigir o comportamento de StateStoreProvider.validateStateRowFormat
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 13.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | clique | 8.0.4 | criptografia | 37.0.1 |
cycler | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0,12 | entrypoints | 0,4 |
em execução | 1.2.0 | facets-overview | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
empacotando | 21.3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Pillow | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | solicitações | 2.28.1 | rope | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | six | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
tenacity | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | unattended-upgrades | 0,1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | wheel | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R foram instaladas por meio do Instantâneo CRAN da Microsoft em 02/10/2023.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 10.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
broom | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
callr | 3.7.3 | sinal de interpolação | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | class | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credenciais | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
ellipsis | 0.3.2 | evaluate | 0,20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.6.1 | future | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | genéricos | 0.1.3 |
gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | elemento gráfico | 4.2.2 | grDevices | 4.2.2 |
grade | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0,10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | ciclo de vida | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
MASS | 7.3-58.2 | Matriz | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallelly | 1.34.0 | pillar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progress | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recipes | 1.0.4 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | spatial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0,44 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)
ID do Grupo | Artifact ID | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1,3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,22% |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | shims | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |