Tempo de execução do Databricks 16.2
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.2, alimentado pelo Apache Spark 3.5.2.
A Databricks lançou esta versão em fevereiro de 2025.
Dica
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
ANALYZE agora ignora colunas com tipos não suportados
ANALYZE TABLE
não resulta mais em uma mensagem de erro quando executado em uma tabela com tipos sem suporte, como ARRAY
ou MAP
. As colunas sem suporte agora são ignoradas automaticamente. Os usuários que implementaram a lógica que espera esses erros devem atualizar seu código.
No Compartilhamento Delta, o histórico da tabela é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table>
agora têm o compartilhamento de histórico (WITH HISTORY
) habilitado por padrão. Consulte ALTER SHARE.
As instruções SQL de credenciais retornam um erro quando há uma incompatibilidade de tipo de credencial
Com esta versão, se o tipo de credencial especificado em uma instrução SQL de gerenciamento de credenciais não corresponder ao tipo do argumento de credencial, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name'
, se credential-name
não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, essas instruções eram executadas com êxito, mesmo que uma credencial que não correspondesse ao tipo de credencial especificado tivesse sido passada. Por exemplo, a seguinte instrução removeria com sucesso storage-credential
: DROP SERVICE CREDENTIAL storage-credential
.
Esta alteração afeta as seguintes declarações:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… ON… CREDENCIAL
- REVOKE… ON… CREDENCIAL
- SHOW GRANTS SOBRE... CREDENCIAL
Novos recursos e melhorias
-
Crie aplicações com estado personalizadas com o
transformWithState
- Autentique-se no armazenamento de objetos na nuvem com credenciais de serviço
- acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
- Os cadernos são suportados como ficheiros de espaço de trabalho
-
Use o
timestampdiff
×tampadd
em expressões de coluna geradas - Suporte para sintaxe de pipeline SQL
-
Fazer solicitação HTTP usando a função
http_request
-
Atualização para
DESCRIBE TABLE
retorna metadados como JSON estruturado - Colações insensíveis a espaços em branco à direita
- Converter tabelas Iceberg com particionamento de bucket em tabelas Delta não particionadas
-
computação do modo de acesso padrão (anteriormente modo de acesso compartilhado) agora suporta os métodos Spark Scala
foreach
,foreachBatch
eflatMapGroupsWithState
Crie aplicativos com monitoração de estado personalizados com transformWithState
Agora pode usar o transformWithState
e APIs relacionadas para implementar aplicações com estado personalizado como parte de consultas estruturadas de Streaming. Consulte Criar uma aplicação com estado personalizado.
Autenticar no armazenamento de objetos na nuvem com credenciais de serviço
Agora você pode usar as credenciais do serviço Databricks para autenticar no armazenamento de objetos na nuvem com o Auto Loader. Consulte O que é o modo de notificação de ficheiros do Auto Loader?.
O acesso a serviços de nuvem externos controlado pelo Unity Catalog usando credenciais de serviço agora está em Disponibilidade Geral (GA)
As credenciais de serviço permitem uma autenticação simples e segura com os serviços do seu locatário de nuvem do Azure Databricks. Com o Databricks Runtime 16.2, as credenciais de serviço estão geralmente disponíveis e agora suportam SDKs Scala, além do SDK Python que era suportado na Visualização Pública. Consulte Gerenciar o acesso a serviços de nuvem externos usando credenciais de serviço.
Os blocos de notas são suportados como ficheiros de espaço de trabalho
No Databricks Runtime 16.2 e superior, os blocos de anotações são suportados como arquivos de espaço de trabalho. Agora você pode interagir programaticamente com blocos de anotações de qualquer lugar onde o sistema de arquivos do espaço de trabalho esteja disponível, incluindo gravação, leitura e exclusão de blocos de anotações como qualquer outro arquivo. Para saber mais, consulte Blocos de Anotações como arquivos de espaço de trabalho.
Usar o timestampdiff
& timestampadd
em expressões de coluna geradas
No Databricks Runtime 16.2 e superior, você pode usar as funções timestampdiff e timestampadd em expressões de coluna geradas pelo Delta Lake. Consulte colunas geradas pelo Lago Delta.
Suporte para sintaxe de pipeline SQL
Nas versões do Databricks Runtime 16.2 e superiores, pode compor pipelines SQL. Um pipeline SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5
, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe com suporte para pipelines SQL, consulte SQL Pipeline Syntax.
Para obter informações de base sobre esta extensão intersetorial, consulte SQL apresenta problemas. Podemos corrigi-los: Sintaxe de Pipe em SQL (por Google Research).
Fazer solicitação HTTP usando a função http_request
No Databricks Runtime 16.2 e superior, você pode criar conexões HTTP e, através delas, fazer solicitações HTTP usando a função http_request.
Atualização para DESCRIBE TABLE
retorna metadados como JSON estruturado
No Databricks Runtime 16.2 e superior, você pode usar o comando DESCRIBE TABLE AS JSON
para retornar metadados de tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório padrão legível por humanos e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Agrupamentos insensíveis em branco à direita
O Databricks Runtime 16.2 adiciona suporte para agrupamentos que não consideram espaços em branco à direita, complementando o suporte de agrupamento adicionado no Databricks Runtime 16.1. Por exemplo, esses agrupamentos tratam 'Hello'
e 'Hello '
como iguais. Para saber mais, consulte collation RTRIM.
Converter tabelas Iceberg com particionamento de bucket em tabelas Delta não particionadas
As instruções CONVERT TO DELTA e CREATE TABLE CLONE agora suportam a conversão de uma tabela Iceberg com particionamento de bucket em uma tabela Delta não particionada.
A computação do modo de acesso padrão (anteriormente modo de acesso compartilhado) agora suporta os métodos Spark Scala foreach
, foreachBatch
e flatMapGroupsWithState
No Databricks Runtime 16.2 e superior, a computação do modo de acesso padrão agora suporta os métodos Scala DataStreamWriter.foreachBatch
e KeyValueGroupedDataset.flatMapGroupsWithState
. No Databricks Runtime 16.1 ou superior, o modo de acesso padrão de computação agora suporta o método Scala DataStreamWriter.foreach
.
Correções de bugs
Processamento incremental de clones melhorado
Esta versão inclui uma correção para um caso limite em que um CLONE
incremental pode voltar a copiar os ficheiros já copiados de uma tabela de origem para uma tabela de destino. Ver Clonar uma tabela no Azure Databricks.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 a 4.0.7
Apache Spark
O Databricks Runtime 16.2 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.1, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
[SPARK-49966] Reverter "[SC-179501][sql] Use
Invoke
para implementarJsonToStructs
(from_json
)" - [SPARK-50904] [SC-186976][sql] Corrigir a execução da consulta walker da expressão de agrupamento
- [SPARK-49666] [SQL] Habilitar testes de corte para expressão InSet
- [SPARK-50669] [SC-184566][es-1327450][SQL] Alterar a assinatura da expressão TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Armazenar o carimbo de data/hora como tipo
long
emdescribe
LinkedHashMap - [SPARK-50870] [SC-186950][sql] Adicione o fuso horário ao converter para timestamp em V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][connect] Falha no ExecuteResponseObserver resulta em infinitas solicitações de reanexação
- [SPARK-50522] [SC-186500][sql] Suporte para agrupamento indeterminado
- [SPARK-50525] [SC-186058][sql] Definir a regra de otimização InsertMapSortInRepartitionExpressions
- [SPARK-50679] [SC-184572][sql] Expressões comuns duplicadas em diferentes cláusulas WITH devem ser selecionadas apenas uma vez
- [SPARK-50847] [SC-186916] [SQL] Negar a aplicação de ApplyCharTypePadding em expressões In específicas
- [SPARK-50714] [SC-186786][sql][SS] Ativar evolução do esquema para TransformWithState quando a codificação Avro for usada
-
[SPARK-50795] [SC-186390][sql] Mostrar todas as datas em DESCRIBE AS JSON no formato ISO-8601 e exibir tipos como
dataType.simpleString
- [SPARK-50561] [SC-185924][sql] DBR 16.x cherrypick: Melhorar a coerção de tipo e a verificação de limites na função UNIFORM do SQL
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalog
suportabuiltin
valor mágico - [SPARK-50831] [SC-186736][sql] Habilitar agrupamento de corte por padrão
-
[SPARK-50263] [SC-186793][connect] Substitua
System.currentTimeMillis
porSystem.nanoTime
- [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para funções escalares e de tabela SQL
- [SPARK-50830] [SC-186718] [SQL] Retornar o resultado de uma única passagem como o resultado da análise de execução dupla
- [SPARK-50707] [SC-186098][sql] Ativar conversão para e de char/varchar
- [SPARK-49490] [SC-182137][sql] Adicionar benchmarks para initCap
-
[SPARK-50529] [SC-184535][sql] Alterar o comportamento char/varchar na configuração
spark.sql.preserveCharVarcharTypeInfo
- [SPARK-49632] [SC-184179][sql] Remova a sugestão de configuração ANSI no CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Corrigir bug onde passar Variantes nulas em createDataFrame faz com que ele falhe e adicione suporte a Variant em createDataFrame no Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Descontinuar
pyspark.ml.connect
- [SPARK-50600] [SC-186057][connect][SQL] Definir como analisado após falha na análise
- [SPARK-50824] [SC-186472][python] Evite importar pacotes Python opcionais para verificação
- [SPARK-50755] [SC-185521][sql] Exibição de plano bonito para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] As entradas para agregações tipadas devem ser analisadas
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corrigir NPE no tratamento de erros do State Store
-
[SPARK-50801] [SC-186365] [SQL] Melhore
PlanLogger.logPlanResolution
para que mostre apenas planos resolvidos e não resolvidos - [SPARK-50749] [SC-185925][sql] Corrigir bug de ordenação no método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonicalize o nome e o layout do arquivo de resultados do criador de perfil JVM no DFS
- [SPARK-50790] [SC-186354][python] Implementar a análise de JSON no pyspark
- [SPARK-50738] [SC-184856][python] Atualizar black para 23.12.1
- [SPARK-50764] [SC-185930][python] Refinar o docstring de métodos relacionados ao xpath
-
[SPARK-50798] [SC-186277][sql] Melhorar
NormalizePlan
- [SPARK-49883] [SC-183787][ss] Estrutura de Checkpoint do Armazenamento de Estado V2: Integração com o RocksDB e o RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Adicionando flag de recurso para colações ao nível do objeto
- [SPARK-50778] [SC-186183][python] Adicionar metadataColumn ao PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] DBR 16.x cherrypick: Melhore aliases de expressão gerados automaticamente com operadores SQL de pipe
- [SPARK-50541] [16.x][sc-184937] Descrever tabela como JSON
- [SPARK-50772] [SC-185923][sql] DBR 16.x cherrypick: Manter aliases de tabela após SET, EXTEND, DROP operadores
- [SPARK-50769] [SC-185919][sql] Corrigir ClassCastException em HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar diferença de código Delta com DBR
- [SPARK-50752] [SC-185547][python][SQL] Introduza configurações para ajustar Python UDF sem seta
-
[SPARK-50705] [SC-185944][sql] Torne
QueryPlan
sem bloqueio - [SPARK-50690] [16.x][sc-184640][SQL] Corrigir discrepância no DESCRIBE TABLE exibir colunas de saída de consulta citando citações
- [SPARK-50746] [SC-184932][sql] Substitua Either por VariantPathSegment.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builder
define as configurações em lote - [SPARK-50480] [SC-183359][sql] Estender CharType e VarcharType a partir de StringType
- [SPARK-50675] [SC-184539][sql] Suporte a agrupamentos de nível de tabela e exibição
-
[SPARK-50409] [SC-184516][sql] Corrigir instrução set para ignorar
;
no final deSET;
,SET -v;
eSET key;
- [SPARK-50743] [SC-185528][sql] Normalizar IDs CTERelationDef e CTERelationRef
- [SPARK-50693] [SC-184684][connect] As entradas para TypedScalaUdf devem ser analisadas
- [SPARK-50744] [SC-184929][sql] Adicionar um caso de teste para precedência de resolução de nome de exibição/CTE
- [SPARK-50710] [SC-184767][connect] Adicionar suporte para reconexão de cliente opcional a sessões após o lançamento
- [SPARK-50703] [SC-184843][python] Refine o docstring de regexp_replace, regexp_substr e regexp_instr
-
[SPARK-50716] [SC-184823][core] Corrigir a lógica de limpeza para links simbólicos no método
JavaUtils.deleteRecursivelyUsingJavaIO
- [SPARK-50630] [SC-184443][sql] Corrija GROUP BY suporte ordinal para operadores de pipe SQL AGGREGATE
- [SPARK-50614] [SC-184729][sql] Adicionar suporte de trituração de variante para Parquet
- [SPARK-50661] [SASP-4936] Adicionar compatibilidade com versões anteriores para o cliente antigo FEB.
-
[SPARK-50676] [SC-184641][sql] Remover
private lazy val mapValueContainsNull
não utilizados doElementAt
-
[SPARK-50515] [SC-183813][core] Adicionar interface somente leitura ao
SparkConf
- [SPARK-50697] [SC-184702][sql] Ativar a recursão de cauda sempre que possível
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corrija o esquema de estado para FlatMapGroupsWithState no Spark Connect quando não há estado inicial
- [SPARK-50701] [SC-184704][python] Faça com que o plotly exija a versão mínima do plotly
- [SPARK-50702] [SC-184727][python] Refine o docstring de regexp_count, regexp_extract e regexp_extract_all
- [SPARK-50499] [SC-184177][python] Expor métricas do BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Adicionar suporte a RPAD pushdown
- [SPARK-50682] [SC-184579][sql] Alias interno deve ser canonicalizado
- [SPARK-50699] [SC-184695][python] Analise e gere a cadeia de caracteres DDL com uma sessão especificada
- [SPARK-50573] [SC-184568][ss] Adicionando ID de esquema de estado a linhas de estado para evolução do esquema
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Fix Spark Connect Scala foreachBatch impl. para dar suporte ao Dataset[T].
- [SPARK-50689] [SC-184591][sql] Impor ordenação determinística em listas de projetos LCA
- [SPARK-50696] [SC-184667][python] Otimizar chamada Py4J para método de análise DDL
- [SPARK-49670] [SC-182902][sql] Habilitar agrupamento de corte para todas as expressões de passagem
-
[SPARK-50673] [SC-184565][ml] Evitar percorrer os coeficientes do modelo duas vezes no construtor
Word2VecModel
- [SPARK-50687] [SC-184588][python] Otimize a lógica para obter rastros da pilha para o DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Armazene em cache o esquema analisado para MapInXXX e ApplyInXXX
- [SPARK-50674] [SC-184589][python] Corrigir a verificação da existência do método 'terminate' na avaliação UDTF
- [SPARK-50684] [SC-184582][python] Melhorar o desempenho do Py4J em DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Adicionar suporte para nova versão de metadados de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Corrigir a transposição para mostrar uma mensagem de erro adequada quando colunas de índice inválidas são especificadas
- [SPARK-50650] [SC-184532][sql] Melhorar o logging no analisador de passagem única
- [SPARK-50665] [SC-184533][sql] Substitua LocalRelation por ComparableLocalRelation em NormalizePlan
- [SPARK-50644] [SC-184486][sql] Leia a estrutura variante no leitor Parquet.
- [SPARK-49636] [SC-184089][sql] Remova a sugestão relativa à configuração ANSI no INVALID_ARRAY_INDEX e INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Refatoração do cálculo de saída da União para reutilização no analisador de passagem única
- [SPARK-50659] [SC-184512][sql] Mover erros relacionados a Union para QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrigir cálculo de contexto de tipo de cadeia implícita incorreta
- [SPARK-50546] [SC-183807][sql] Adicionar suporte de transmissão de subconsulta à coerção do tipo de agrupamento
- [SPARK-50405] [SC-182889][sql] Gerir a coerção do tipo de ordenação de tipos de dados complexos corretamente
- [SPARK-50637] [SC-184434][sql] Corrigir estilo de código para o analisador de passagem única
- [SPARK-50638] [SC-184435][sql] Refatore a resolução de exibição no arquivo separado para reutilizá-la no analisador de passagem única
- [SPARK-50615] [SC-184298][sql] Introduza a variante na análise.
- [SPARK-50619] [SC-184210][sql] Refactor VariantGet.cast para empacotar os argumentos de elenco
- [SPARK-50599] [SC-184058][sql] Crie a característica DataEncoder que permite a codificação Avro e UnsafeRow
- [SPARK-50076] [SC-183809] Corrigir chaves de log
- [SPARK-50597] [SC-183972][sql] Refatorar a construção de lote no Optimizer.scala e SparkOptimizer.scala
- [SPARK-50339] [SC-183063][spark-50360][SS] Habilitar o changelog para armazenar informações de linhagem
- [SPARK-50526] [SC-183811][ss] Adicionar configuração de formato de codificação de armazenamento no registo de deslocamento e impedir que operadores com estado não suportados usem avro
- [SPARK-50540] [SC-183810][python][SS] Corrigir esquema de cadeia de caracteres para StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Usando SQLConf fornecido pelo SparkSession primeiro.
- [SPARK-48898] [SC-183793][sql] Definir a nulidade corretamente no esquema Variant
- [SPARK-50559] [SC-183814][sql] Armazenar os resultados de Exceto, Intersect e Union como valores preguiçosos
- [SPARK-48416] [SC-183643][sql] Suporte para expressão 'With' aninhada e correlacionada
- [SPARK-50428] [SC-183566][ss][PYTHON] Suporte TransformWithStateInPandas em consultas em lote
- [SPARK-50063] [SC-183350][sql][CONNECT] Adicionar suporte para Variant no cliente Spark Connect Scala
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL
- [SPARK-50443] [SC-182590][ss] Corrigindo erros de compilação do Maven introduzidos pelo cache Guava no RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][sql] Corrigir bug onde blocos BEGIN END vazios lançam um erro
-
[SPARK-50536] [SC-183443][core] Registar tamanhos de arquivos de arquivo baixados em
SparkContext
eExecutor
- [SPARK-45891] [SC-183439][sql] Reconstruir variante binária a partir de dados triturados.
- [SPARK-49565] [SC-183465][sql] Adicionar sintaxe de pipe SQL para o operador FROM
- [SPARK-50497] [SC-183338][sql] Falhar as consultas com mensagem apropriada se MultiAlias contiver uma função que não é um gerador
- [SPARK-50460] [SC-183375][python][CONNECT] Generalizar e simplificar o tratamento de exceções do Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrigir opção de compactação que está sendo substituída no
df.write.parquet
- [SPARK-50329] [SC-183358][sql] corrigir InSet$toString
-
[SPARK-50524] [SC-183364][sql] Reduzir a mensagem de aviso de
RowBasedKeyValueBatch.spill
para o nível de depuração -
[SPARK-50528] [SC-183385][connect] Mover
InvalidCommandInput
para o módulo comum - [SPARK-50017] [SC-182438][ss] Suporte à codificação Avro para o operador TransformWithState
-
[SPARK-50463] [SC-182833][sql] Corrigir
ConstantColumnVector
com conversão de coluna para linha - [SPARK-50235] [SC-180786][sql] Limpar recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrija o teste relacionado ao estado de inicialização para usar o StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrigir a correspondência de StringType
- [SPARK-50492] [SC-183177][ss] Corrigir java.util.NoSuchElementException quando a coluna de tempo de evento é descartada após dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Adicionar sintaxe de pipe SQL para o operador SET
- [SPARK-50449] [SC-183178][sql] Corrigir a gramática de scripting SQL para permitir corpos vazios em loops, IF e CASE
-
[SPARK-50251] [SC-180970][python] Adicionar
getSystemProperty
à PySparkSparkContext
- [SPARK-50421] [SC-183091][core] Corrigir a configuração de memória relacionada ao Executor incorreta quando múltiplos perfis de recursos estão ativos
- [SPARK-49461] [SC-179572][ss] ID de ponto de verificação persistente para confirmar logs e lê-los novamente
- [SPARK-50343] [SC-183119][spark-50344][SQL] Adicionar sintaxe de pipe SQL para os operadores DROP e AS
-
[SPARK-50481] [SC-182880][core] Melhorar
SortShuffleManager.unregisterShuffle
para ignorar a lógica do ficheiro de soma de verificação se a soma de verificação estiver desativada -
[SPARK-50498] [SC-183090][python] Evite chamadas py4j desnecessárias no
listFunctions
-
[SPARK-50489] [SC-183053][sql][PYTHON] Corrigir auto-junção após
applyInArrow
- [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres corrigir xor push-down
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixar ODBC, baixar JDBC).
Atualizações de manutenção
Consulte as atualizações de manutenção do Databricks Runtime 16.2 .
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.1 LTS
- Java : Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
tipos anotados | 0.7.0 | AstTokens | 2.0.5 | Astunparse | 1.6.3 |
Comando automático | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-armazenamento-ficheiro-lago-de-dados | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | CFFI | 1.16.0 |
Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clique | 8.1.7 |
Cloudpickle | 2.2.1 | com | 0.2.1 | contorno | 1.2.0 |
Criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
Decorador | 5.1.1 | Preterido | 1.2.14 | Distlib | 0.3.8 |
docstring para markdown | 0.11 | pontos de entrada | 0.4 | executar | 0.8.3 |
facetas-visão geral | 1.1.1 | bloqueio de ficheiro | 3.15.4 | Fonttools | 4.51.0 |
GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
Google-Auth | 2.35.0 | Google Cloud Core | 2.4.1 | Google Cloud Storage | 2.18.2 |
Google-CRC32C | 1.6.0 | google-media-reutilizável | 2.7.2 | googleapis-common-protos | 1.65.0 |
Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
Idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
flexionar | 7.3.1 | ipyflow-core | 0.0.201 | Ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensões | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | OAuthlib | 3.2.2 |
OpenTelemetry API | 1.27.0 | OpenTelemetry-SDK | 1.27.0 | OpenTelemetria-Semântica-Convenções | 0,48b0 |
embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
PathSpec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
almofada | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
enredo | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
pyccolo | 0.0.65 | Pycparser | 2.21 | Pidântico | 2.8.2 |
pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | Pyodbc | 5.0.1 |
Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | SciPy | 1.13.1 |
Seaborn | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
dados de stack | 0.2.0 | modelos de estatísticas | 0.14.2 | tenacidade | 8.2.2 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 |
tipos-protobuf | 3.20.3 | tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
tipos-PyYAML | 6.0.0 | tipos de pedidos | 2.31.0.0 | tipos de setuptools | 68.0.0.0 |
seis tipos | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
Ujson | 5.10.0 | Atualizações sem intervenção | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
O que é o patch | 1.0.2 | roda | 0.43.0 | embrulhado | 1.14.1 |
Yapf | 0.33.0 | zipp | | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/
.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 16.1.0 | AskPass | 1.2.0 | afirmar que | 0.2.1 |
Retroportações | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
Bitops | 1.0-8 | mancha | 1.2.4 | Bota | 1.3-30 |
cerveja artesanal | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | Chamador | 3.7.6 |
Caret | 6.0-94 | Cellranger | 1.1.0 | Chron | 2.3-61 |
Classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
relógio | 0.7.1 | aglomeração | 2.1.6 | CodeTools | 0.2-20 |
espaço de cores | 2.1-1 | marca comum | 1.9.1 | Compilador | 4.4.0 |
Configuração | 0.3.2 | conflituosos | 1.2.0 | cpp11 | 0.4.7 |
giz de cera | 1.5.3 | Credenciais | 2.0.1 | ondulação | 5.2.1 |
tabela de dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
diagrama | 1.6.5 | diffobj | 0.3.5 | Resumo | 0.6.36 |
Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
E1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
Fãsi | 1.0.6 | cores | 2.1.2 | mapa rápido | 1.2.0 |
fontawesome | 0.5.2 | forçados | 1.0.0 | para cada elemento | 1.5.2 |
estrangeiro | 0.8-86 | forjar | 0.2.0 | FS | 1.6.4 |
Futuro | 1.34.0 | future.apply | 1.11.2 | gargarejo | 1.5.2 |
Genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0,7 | GT | 0.11.0 |
gtable | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
httr2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | Isoband | 0.2.7 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
KernSmooth | 2.23-22 | Knitr | 1.48 | rotulagem | 0.4.3 |
mais tarde | 1.3.2 | treliça | 0.22-5 | lava | 1.8.0 |
ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
Matriz | 1.6-5 | memorizar | 2.0.1 | Metodologia | 4.4.0 |
mgcv | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
unidades bonitas | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
progressr | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.7 | ronronar | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reativo | 0.4.4 |
reactR | 0.6.0 | Leitor | 2.1.5 | readxl | 1.4.3 |
receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
Controles remotos | 2.5.0 | Reprex | 2.1.1 | remodelação2 | 1.4.4 |
Rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
oxigénio2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
balanças | 1.3.0 | seletor | 0.4-2 | informações da sessão | 1.2.2 |
forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | espacial | 7.3-17 | estrias | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.4.0 |
Estatísticas4 | 4.4.0 | string | 1.8.4 | stringr | 1.5.1 |
Sobrevivência | 3.6-4 | Gingado | 5.17.14.1 | SYS | 3.4.2 |
fontes do sistema | 1.1.0 | TCLTK | 4.4.0 | testthat | 3.2.1.1 |
formatação de texto | 0.4.0 | Tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | Tidyverse | 2.0.0 | mudança de hora | 0.3.0 |
data e hora | 4032.109 | Tinytex | 0.52 | Ferramentas | 4.4.0 |
TZDB | 0.4.0 | verificador de URLs | 1.0.1 | usethis | 3.0.0 |
UTF8 | 1.2.4 | utilitários | 4.4.0 | UUID | 1.2-1 |
V8 | 4.4.2 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
vrum | 1.6.5 | Waldo | 0.5.2 | bigode | 0.4.1 |
murchar | 3.0.1 | xfun | 0.46 | XML2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
Zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
antlr | ANTLR | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | Kryo-sombreado | 4.0.2 |
com.esotericsoftware | Minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | Jackson-Annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | Jniloader | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | JSR305 | 3.0.0 |
com.google.code.gson | Gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | anotações propensas a erros | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | Goiaba | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | analisador de desempenho | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | JSCH | 0.1.55 |
com.jolbox | BONECP | 0.8.0.LANÇAMENTO |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | Json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
com.twitter | Chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | Configuração | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
coleções commons | Commons Collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
carregamento-de-ficheiros-comuns | carregamento-de-ficheiros-comuns | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
Commons-Logging | Commons-Logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | LAPACK | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressor de ar | 0.27 |
IO.Delta | delta-partilha-client_2.12 | 1.2.2 |
io.dropwizard.metrics | métricas-anotação | 4.2.19 |
io.dropwizard.metrics | métricas-núcleo | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
io.dropwizard.metrics | métricas-jmx | 4.2.19 |
io.dropwizard.metrics | métricas-json | 4.2.19 |
io.dropwizard.metrics | métricas JVM | 4.2.19 |
io.dropwizard.metrics | métricas-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-comum | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver (resolução do Netty) | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transporte Netty | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
io.prometeu | simpleclient | 0.7.0 |
io.prometeu | simpleclient_common | 0.7.0 |
io.prometeu | simpleclient_dropwizard | 0.7.0 |
io.prometeu | simpleclient_pushgateway | 0.7.0 |
io.prometeu | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jacarta.anotação | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | JDO-API | 3.0.1 |
javax.transaction | JTA | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | JAXB-API | 2.2.11 |
Javolution | Javolução | 5.5.1 |
Jline | Jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | conserva | 1.3 |
net.sf.jpam | JPAM | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | Super-CSV | 2.2.0 |
net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-tempo de execução | 3.5.2 |
org.antlr | antlr4-tempo de execução | 4.9.3 |
org.antlr | StringTemplate | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | ANT-JSCH | 1.10.11 |
org.apache.ant | lançador de formigas | 1.10.11 |
org.apache.arrow | formato de seta | 15.0.0 |
org.apache.arrow | seta-memória-núcleo | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | seta-vetor | 15.0.0 |
org.apache.avro | Avro | 1.11.3 |
org.apache.avro | AVRO-IPC | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-cripto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curador | curador-cliente | 2.13.0 |
org.apache.curador | Curador-estrutura | 2.13.0 |
org.apache.curador | curadoria de receitas | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | Dérbi | 10.14.2.0 |
org.apache.hadoop | tempo de execução do cliente Hadoop | 3.3.6 |
org.apache.hive | colmeia-abelha | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | Hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | Hera | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
org.apache.orc | Orc-calços | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.23 |
org.apache.yetus | anotações do público | 0.13.0 |
org.apache.zookeeper | tratador de jardins zoológicos | 3.9.2 |
org.apache.zookeeper | tratador-de-animais-juta | 3.9.2 |
org.checkerframework | verificador de qualidade | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | DataNucleus Core | 4.1.17 |
org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-coleções | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | Jetty-Cliente | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Continuação | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Segurança | 9.4.52.v20230823 |
org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | Aplicação web Jetty | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-XML | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | HK2-API | 2.6.1 |
org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | OSGI-Localizador de Recursos | 1.0.3 |
org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | Jersey-Comum | 2.40 |
org.glassfish.jersey.core | servidor Jersey | 2.40 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-converter | 1.7 |
org.jodd | JODD-CORE | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 4.0.7 |
org.json4s | JSON4S-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson_2.12 | 4.0.7 |
org.json4s | JSON4S-scalap_2.12 | 4.0.7 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2,12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | PostgreSQL | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | calços | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-sobre-slf4j | 2.0.7 |
org.slf4j | jul-para-slf4j | 2.0.7 |
org.slf4j | SLF4J-API | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | XZ | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | SQLITE-JDBC | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | Snakeyaml | 2.0 |
ouro | ouro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
Stax | Stax-API | 1.0.1 |