Partilhar via


Tempo de execução do Databricks 11.2 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.2, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em setembro de 2022.

Novos recursos e melhorias

Alteração para permissões ALTER TABLE nos controles de acesso à tabela (ACLs de tabela)

Agora, os utilizadores só precisam de MODIFY permissões para alterar o esquema ou as propriedades de uma tabela com ALTER TABLE. A propriedade ainda é necessária para conceder permissões numa tabela, alterar o seu dono e a sua localização, ou renomeá-la. Essa alteração torna o modelo de permissão para ACLs de tabela consistente com o Catálogo Unity. Ver ALTER TABLE.

Poda dinâmica para MERGE INTO

Ao usar a computação com Photon, o MERGE INTO agora utiliza a filtragem dinâmica de arquivos e partições quando adequado para melhorar o desempenho, por exemplo, quando uma pequena tabela de origem é combinada numa tabela de destino maior.

Deteção de conflitos aprimorada no Delta com remoção dinâmica de arquivos

Ao verificar possíveis conflitos durante commits, a deteção de conflitos agora considera arquivos que são removidos pela poda dinâmica de arquivos, mas que não teriam sido removidos por filtros estáticos. Isso resulta em uma diminuição do número de transações com falha.

Novo cartão de Integrações de Código Aberto nas homepages DSE/SQL

Introdução do novo cartão 'Open Source Integrations' nas homepages DSE/SQL que exibe opções de integração de código aberto, como DLT e dbt core.

CONVERT TO DELTA melhorias na deteção de partições

CONVERT TO DELTA infere automaticamente o esquema de partição para tabelas do Parquet registradas no metastore do Hive ou no Unity Catalog, eliminando a necessidade de fornecer a cláusula PARTITIONED BY.

CONVERT TO DELTA aproveita as informações de partição do metastore para descobrir arquivos para uma tabela Parquet em vez de listar todo o caminho base, garantindo que partições descartadas não sejam adicionadas à tabela Delta.

Consulte Converter para Delta Lake.

Os esquemas de tabela agora suportam valores padrão para colunas

Os esquemas de tabela agora suportam a configuração de valores padrão para colunas. INSERT, UPDATEe DELETE comandos para essas colunas podem se referir a esses valores com a palavra-chave DEFAULT. Por exemplo, CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET seguido por INSERT INTO t VALUES (1, DEFAULT) irá acrescentar a linha (1, 42). Esse comportamento é suportado para fontes de dados CSV, JSON, Orc e Parquet.

Novas funções geoespaciais H3

Agora você pode usar 28 novas expressões H3 integradas para processamento geoespacial em clusters habilitados para Photon, disponíveis em SQL, Scala e Python. Veja funções geoespaciais H3.

Nova dependência do Databricks Runtime

O Databricks Runtime agora depende da biblioteca Java H3 versão 3.7.0.

Traga sua própria chave: criptografia de credenciais Git

Você pode usar o Azure Key Vault para criptografar um token de acesso pessoal (PAT) do Git ou outra credencial do Git.

Consulte Configurar pastas Git do Databricks (Repos).

SQL: Nova função agregada any_value

A nova any_value função de agregação retorna qualquer valor aleatório de expr para um grupo de linhas. Consulte a função agregar any_value.

Permitem-se os comandos do sistema de arquivos das Databricks Utilities em mais tipos de clusters.

dbutils.fs Comandos (exceto comandos relacionados à montagem) agora são permitidos em clusters de isolamento para utilizadores com o Unity Catalog, bem como em clusters de ACL de tabela herdados quando o utilizador tem permissões ANY FILE.

Os privilégios CREATE agora podem ser concedidos nos metastores do Unity Catalog

Os privilégios CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENTe CREATE PROVIDER agora podem ser concedidos nos metastores do Unity Catalog.

Gravações otimizadas para tabelas não particionadas em clusters com Photon habilitado

As tabelas gerenciadas pelo Unity Catalog agora persistem automaticamente arquivos de um tamanho bem ajustado de tabelas não particionadas para melhorar a velocidade de consulta e otimizar o desempenho.

Suporte a fótons para mais fontes de dados

O Photon agora suporta mais fontes de dados, incluindo CSV e Avro, e também é compatível com quadros de dados armazenados em cache. Anteriormente, a análise dessas fontes de dados significava que toda a consulta não podia ser fotonizada, independentemente dos operadores ou expressões da consulta. Agora, as consultas que examinam essas fontes de dados podem ser fotonizadas, desbloqueando melhorias significativas de latência e TCO.

Esse recurso é habilitado por padrão pela spark.databricks.photon.photonRowToColumnar.enabled configuração.

Limitações:

  • Não há suporte para esquemas com tipos aninhados (ou seja, matrizes, mapas e estruturas) nesta versão.
  • As fontes ORC, RDD, Kinesis, Kafka e EventHub não são suportadas nesta versão.

SQL: ALTER SHARE agora suporta START VERSION

O comando ALTER SHARE agora suporta START VERSION, que permite que os provedores compartilhem dados a partir de uma versão específica da tabela. Ver ALTER SHARE.

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • distlib de 0.3.4 a 0.3.5
    • filelock de 3.7.1 a 3.8.0
    • plotly de 5.8.2 a 5.9.0
    • Protobuf de 4.21.2 a 4.21.5
  • Bibliotecas R atualizadas:
    • broom de 0.8.0 a 1.0.0
    • bslib de 0.3.1 a 0.4.0
    • callr da versão 3.7.0 para a 3.7.1
    • Aceno de 6.0-92 a 6.0-93
    • DBPLYR de 2.2.0 a 2.2.1
    • devtools de 2.4.3 a 2.4.4
    • avaliar de 0,15 a 0,16
    • Farver da versão 2.1.0 à versão 2.1.1
    • fontawesome de 0.2.2 a 0.3.0
    • futuro de 1.26.1 a 1.27.0
    • Genéricos de 0.1.2 a 0.1.3
    • gert de 1.6.0 para 1.7.0
    • globais de 0.15.1 a 0.16.0
    • googlesheets4 de 1.0.0 a 1.0.1
    • Hardhat de 1.1.0 para 1.2.0
    • htmltools de 0.5.2 a 0.5.3
    • paralelamente de 1.32.0 a 1.32.1
    • pilar de 1.7.0 a 1.8.0
    • pkgload de 1.2.4 a 1.3.0
    • processx de 3.6.1 a 3.7.0
    • Rcpp de 1.0.8.3 a 1.0.9
    • receitas de 0.2.0 a 1.0.1
    • RLANG de 1.0.2 a 1.0.4
    • roxigen2 de 7.2.0 a 7.2.1
    • RSQLite de 2.2.14 a 2.2.15
    • sass de 0.4.1 a 0.4.2
    • brilhante de 1.7.1 a 1.7.2
    • stringi de 1.7.6 a 1.7.8
    • Tibble de 3.1.7 a 3.1.8
    • Tidyverse de 1.3.1 a 1.3.2
    • timeDate de 3043.102 a 4021.104
    • xfun de 0,31 a 0,32
  • Bibliotecas Java atualizadas:
    • org.apache.orc.orc-core de 1.7.4 a 1.7.5
    • org.apache.orc.orc-mapreduce de 1.7.4 para 1.7.5
    • org.apache.orc.orc-shims de 1.7.4 para 1.7.5

Apache Spark

O Databricks Runtime 11.2 inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Retornar tipos de intervalo ANSI mais amplos das funções de percentil
  • [SPARK-40054] [SQL] Restaurar a sintaxe de tratamento de erros de try_cast()
  • [SPARK-39489] [CORE] Melhorar o desempenho do JsonProtocol no registo de eventos usando Jackson em vez de Json4s
  • [SPARK-39319] [CORE][sql] Crie contextos de consulta como parte do SparkThrowable
  • [FAÍSCA-40085] [SQL] Use a classe de erro INTERNAL_ERROR em vez de IllegalStateException para indicar bugs
  • [SPARK-40001] [SQL] Fazer gravações NULL em colunas JSON DEFAULT gravar 'null' no armazenamento
  • [SPARK-39635] [SQL] Suporte a métricas do driver na API de métricas personalizadas do DS v2
  • [SPARK-39184] [SQL] Manipular matriz de resultados subdimensionada em sequências de data e de carimbo de data e hora
  • [FAÍSCA-40019] [SQL] Refatore o comentário de ArrayType continsNull e refatore as lógicas de mal-entendido na expressão de collectionOperator sobre containsNull
  • [SPARK-39989] [SQL] Suporta estatísticas de coluna de estimativa se for expressão dobrável
  • [SPARK-39926] [SQL] Corrigir bug no suporte para DEFAULT em colunas para varreduras Parquet não vetorizadas
  • [SPARK-40052] [SQL] Manipular buffers de byte diretos em VectorizedDeltaBinaryPackedReader
  • [SPARK-40044] [SQL] Corrigir o tipo de intervalo de destino em erros de estouro de conversão
  • [SPARK-39835] [SQL] Corrigir erro onde EliminateSorts remove a classificação global abaixo da classificação local
  • [SPARK-40002] [SQL] Não empurre o limite através da janela usando ntile
  • [SPARK-39976] [SQL] ArrayIntersect deve manipular null na expressão à esquerda corretamente
  • [SPARK-39985] [SQL] Habilitar valores de coluna DEFAULT implícitos em inserções de DataFrames
  • [SPARK-39776] [SQL] JOIN string detalhada deve adicionar o tipo de Junção
  • [FAÍSCA-38901] [SQL] DS V2 suporta funções diversas de pushdown
  • [SPARK-40028] [SQL][followup] Melhorar exemplos de funções de cadeia de caracteres
  • [SPARK-39983] [CORE][sql] Não armazenar em cache relações de difusão não serializadas no driver
  • [c0][SPARK-39812][/c0] [SQL] O código que constrói AggregateExpression com toAggregateExpression deve ser simplificado.
  • [FAÍSCA-40028] [SQL] Adicionar exemplos binários para expressões de cadeia de caracteres
  • [SPARK-39981] [SQL] Lançar a exceção QueryExecutionErrors.castingCauseOverflowErrorInTableInsert no Cast
  • [SPARK-40007] [PYTHON][sql] Adicionar 'modo' a funções
  • [SPARK-40008] [SQL] Suportar conversão de inteiros para intervalos ANSI
  • [SPARK-40003] [PYTHON][sql] Adicionar 'mediana' às funções
  • [SPARK-39952] [SQL] SaveIntoDataSourceCommand deve recachear a relação de resultado
  • [SPARK-39951] [SQL] Atualizar verificação colunar do Parquet V2 para campos aninhados
  • [SPARK-33236] [shuffle] Retroportar para DBR 11.x: habilitar o serviço de shuffle baseado em push para armazenar o estado no banco de dados de nível NM para uma reinicialização do trabalho preservada.
  • [FAÍSCA-39836] [SQL] Simplifique o V2ExpressionBuilder ao extrair o método comum.
  • [SPARK-39873] [SQL] Remova OptimizeLimitZero e mescle-o em EliminateLimits
  • [FAÍSCA-39961] [SQL] DS V2 push-down traduzir Cast se o elenco é seguro
  • [SPARK-39872] [SQL] Alterar para usar BytePackerForLong#unpack8Values com a API de entrada de Array em VectorizedDeltaBinaryPackedReader
  • [SPARK-39858] [SQL] Remover AliasHelper ou PredicateHelper desnecessários para algumas regras
  • [FAÍSCA-39900] [SQL] Abordar condição parcial ou negada no rebaixamento de predicados do formato binário
  • [FAÍSCA-39904] [SQL] Renomeie inferDate para prefersDate e esclareça a semântica da opção na fonte de dados CSV
  • [FAÍSCA-39958] [SQL] Adicionar registro de aviso quando não seja possível carregar o objecto de métrica personalizado.
  • [SPARK-39932] [SQL] WindowExec deve limpar o buffer de partição final
  • [SPARK-37194] [SQL] Evitar o ordenamento desnecessário na escrita v1 se não for uma partição dinâmica
  • [SPARK-39902] [SQL] Adicionar detalhes do Scan ao nó de varredura do plano de spark no SparkUI
  • [SPARK-39865] [SQL] Mostrar mensagens de erro apropriadas sobre os erros de transbordamento ao inserir na tabela
  • [SPARK-39940] [SS] Atualizar tabela de catálogo na consulta de streaming com coletor DSv1
  • [SPARK-39827] [SQL] Use a classe ARITHMETIC_OVERFLOW de erro no overflow de int em add_months()
  • [SPARK-39914] [SQL] Adicionar Filtro DS V2 à conversão para Filtro V1
  • [SPARK-39857] [SQL] Backport manual DBR 11.x; V2ExpressionBuilder usa o tipo de dados LiteralValue errado no predicado In #43454
  • [SPARK-39840] [SQL][python] Extrair PythonArrowInput como um contraponto a PythonArrowOutput
  • [SPARK-39651] [SQL] Eliminar a condição do filtro se a comparação com rand for determinística
  • [SPARK-39877] [PYTHON] Adicionar função de unpivot à API DataFrame do PySpark
  • [SPARK-39909] [SQL] Organizar a verificação das informações de push down para JDBCV2Suite
  • [SPARK-39834] [SQL][ss] Inclua as estatísticas de origem e restrições para LogicalRDD se ele vier de DataFrame
  • [SPARK-39849] [SQL] Dataset.as(StructType) preenche novas colunas ausentes com valor nulo
  • [SPARK-39860] [SQL] Mais expressões devem expandir Predicado
  • [SPARK-39823] [SQL][python] Renomeie Dataset.as como Dataset.to e adicione DataFrame.to no PySpark
  • [SPARK-39918] [SQL][minor] Substitua a expressão "não comparável" por "incomparável" na mensagem de erro
  • [SPARK-39857] [SQL][3.3] V2ExpressionBuilder usa o tipo de dados LiteralValue errado para o predicado In
  • [SPARK-39862] [SQL] Backport manual do PR 43654 para o DBR 11.x: Atualizar SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS para permitir/negar ALTER TABLE ... Adicione os comandos COLUMN separadamente.
  • [SPARK-39844] [SQL] Backport manual para o PR 43652 direcionado ao DBR 11.x
  • [SPARK-39899] [SQL] Corrigir a passagem de parâmetros de mensagem para InvalidUDFClassException
  • [SPARK-39890] [SQL] Fazer com que TakeOrderedAndProjectExec herde AliasAwareOutputOrdering
  • [SPARK-39809] [PYTHON] Suporte para CharType no PySpark
  • [SPARK-38864] [SQL] Adicionar unpivot / melt ao Dataset
  • [SPARK-39864] [SQL] Registar ExecutionListenerBus de forma preguiçosa
  • [SPARK-39808] [SQL] Suporta a função agregada MODA
  • [SPARK-39875] [SQL] Alterar protected método na classe final para private ou package-visible
  • [SPARK-39731] [SQL] Corrigir problema em fontes de dados CSV e JSON ao interpretar datas no formato "yyyyMMdd" com a política de análise de tempo CORRIGIDA
  • [FAÍSCA-39805] [SS] Descontinuar Trigger.Once e Promover Trigger.AvailableNow
  • [SPARK-39784] [SQL] Coloque valores literais no lado direito do filtro da fonte de dados depois de traduzir o Catalyst Expression para o filtro da fonte de dados
  • [SPARK-39672] [SQL][3.1] Corrigir a remoção da projeção antes do filtro com subconsulta correlacionada
  • [SPARK-39552] [SQL] Unificar v1 e v2 DESCRIBE TABLE
  • [SPARK-39810] [SQL] Catalog.tableExists deverá lidar com namespace aninhado
  • [SPARK-37287] [SQL] Retire a partição dinâmica e a classificação de bucket de FileFormatWriter
  • [SPARK-39469] [SQL] Inferir tipo de data para inferência de esquema CSV
  • [SPARK-39148] [SQL] DS V2 aggregate push down pode funcionar com OFFSET ou LIMIT
  • [SPARK-39818] [SQL] Corrigir bug em tipos ARRAY, STRUCT e MAP com valores DEFAULT e campo(s) NULL
  • [SPARK-39792] [SQL] Adicionar DecimalDivideWithOverflowCheck para a média decimal
  • [SPARK-39798] [SQL] Replace toSeq.toArray com .toArray[Any] no construtor de GenericArrayData
  • [SPARK-39759] [SQL] Implementar listIndexes em JDBC (dialeto H2)
  • [SPARK-39385] [SQL] Suporta push down REGR_AVGX e REGR_AVGY
  • [FAÍSCA-39787] [SQL] Utilize a classe de erro no erro de análise da função to_timestamp
  • [SPARK-39760] [PYTHON] Suporte a Varchar no PySpark
  • [SPARK-39557] [SQL] retroversão manual para DBR 11.x: suporte a tipos ARRAY, STRUCT, MAP como valores pré-definidos
  • [SPARK-39758] [SQL][3.3] Corrigir NPE das funções regexp devido a padrões inválidos
  • [SPARK-39749] [SQL] Modo ANSI SQL: Use uma representação simples de string ao converter de Decimal para String
  • [SPARK-39704] [SQL] Implementar createIndex & dropIndex & indexExists em JDBC (dialeto H2)
  • [FAÍSCA-39803] [SQL] Utilizar LevenshteinDistance em vez de StringUtils.getLevenshteinDistance
  • [SPARK-39339] [SQL] Suporte para o tipo TimestampNTZ na fonte de dados JDBC
  • [SPARK-39781] [SS] Adicionar suporte para fornecimento de max_open_files ao fornecedor do armazenamento de estado rocksdb
  • Implementar databaseExists/getDatabase no apoio ao namespace 3L no SparkR
  • [SPARK-39751] [SQL] Renomear métrica de sondagem de chave de agregação de hash
  • [FAÍSCA-39772] [SQL] namespace deve ser null quando a base de dados for nula nos construtores antigos.
  • [SPARK-39625] [SPARK-38904][sql] Adicionar Dataset.as(StructType)
  • [FAÍSCA-39384] [SQL] Compilar funções de agregação de regressão linear integradas para o dialeto JDBC
  • [SPARK-39720] [R] Implementar tableExists/getTable no namespace SparkR para 3L
  • [FAÍSCA-39744] [SQL] Adicionar a REGEXP_INSTR função
  • [SPARK-39716] [R] Fazer com que currentDatabase/setCurrentDatabase/listCatalogs no SparkR suporte o namespace 3L
  • [FAÍSCA-39788] [SQL] Renomear catalogName para dialectName para JdbcUtils
  • [SPARK-39647] [CORE] Registe o executor no ESS antes de registar o BlockManager
  • [SPARK-39754] [CORE][sql] Remover import ou {} não utilizados ou desnecessários
  • [SPARK-39706] [SQL] Definir coluna ausente com defaultValue como constante no ParquetColumnVector
  • [SPARK-39699] [SQL] Tornar o CollapseProject mais eficaz em expressões de criação de coleções
  • [SPARK-39737] [SQL] PERCENTILE_CONT e PERCENTILE_DISC devem suportar filtro agregado
  • [SPARK-39579] [SQL][python][R] Tornar ListFunctions/getFunction/functionExists compatível com namespace de 3 camadas
  • [SPARK-39627] [SQL] O pushdown JDBC V2 deve unificar a API de compilação
  • [SPARK-39748] [SQL][ss] Inclua o plano lógico de origem para LogicalRDD se ele vier de DataFrame
  • [SPARK-39385] [SQL] Traduzir funções agregadas de regressão linear para pushdown
  • [FAÍSCA-39695] [SQL] Adicionar a função REGEXP_SUBSTR
  • [SPARK-39667] [SQL] Adicione outra solução alternativa quando não houver memória suficiente para criar e transmitir a tabela
  • [SPARK-39666] [ES-337834][sql] Utilize UnsafeProjection.create para respeitar spark.sql.codegen.factoryMode no ExpressionEncoder
  • [SPARK-39643] [SQL] Proibir expressões de subconsulta em valores predefinidos (DEFAULT)
  • [SPARK-38647] [SQL] Adicionar o mix-in SupportsReportOrdering na interface para Scan (DataSourceV2)
  • [SPARK-39497] [SQL] Melhorar a exceção de análise da coluna de chave de mapa ausente
  • [FAÍSCA-39661] [SQL] Evite criar SLF4J Logger desnecessário
  • [SPARK-39713] [SQL] Modo ANSI: adicionar sugestão de uso de try_element_at para erro INVALID_ARRAY_INDEX
  • [FAÍSCA-38899] [SQL]O DS V2 suporta funções push down datetime
  • [SPARK-39638] [SQL] Alterar para usar ConstantColumnVector para armazenar colunas de partição no OrcColumnarBatchReader
  • [SPARK-39653] [SQL] Limpar ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int) de ColumnVectorUtils
  • [SPARK-39231] [SQL] Use ConstantColumnVector em vez de On/OffHeapColumnVector para armazenar colunas de partição no VectorizedParquetRecordReader
  • [FAÍSCA-39547] [SQL] V2SessionCatalog não deve lançar NoSuchDatabaseException em loadNamespaceMetadata
  • [SPARK-39447] [SQL] Evite AssertionError em AdaptiveSparkPlanExec.doExecuteBroadcast
  • [SPARK-39492] [SQL] Revisão MISSING_COLUMN
  • [SPARK-39679] [SQL] TakeOrderedAndProjectExec deve respeitar a ordem de saída do filho
  • [FAÍSCA-39606] [SQL] Usar estatísticas filho para estimar o operador de ordem
  • [SPARK-39611] [PYTHON][ps] Corrigir aliases errados no array_ufunc
  • [SPARK-39656] [SQL][3.3] Corrigir namespace errado em DescribeNamespaceExec
  • [SPARK-39675] [SQL] Alterar a configuração 'spark.sql.codegen.factoryMode' do propósito de teste para o propósito interno
  • [SPARK-39139] [SQL] DS V2 suporta push down de funções definidas pelo usuário (UDF) usando DS V2.
  • [SPARK-39434] [SQL] Fornecer contexto de consulta de erro de tempo de execução quando o índice de matriz estiver fora do limite
  • [SPARK-39479] [SQL] DS V2 suporta a aplicação de funções matemáticas otimizadas (não ANSI)
  • [SPARK-39618] [SQL] Adicionar a REGEXP_COUNT função
  • [SPARK-39553] [CORE] O cancelamento multithread do shuffle não deve lançar NPE ao usar o Scala na versão 2.13.
  • [SPARK-38755] [PYTHON][3.3] Adicionar ficheiro para tratar funções gerais em falta do pandas
  • [SPARK-39444] [SQL] Adicionar OptimizeSubqueries na lista nonExcludableRules
  • [SPARK-39316] [SQL] Mesclar PromotePrecision e CheckOverflow em aritmética binária decimal
  • [SPARK-39505] [UI] Escapar o conteúdo dos logs renderizados na interface de utilizador
  • [SPARK-39448] [SQL] Adicionar ReplaceCTERefWithRepartition a nonExcludableRules lista
  • [SPARK-37961] [SQL] Sobrepor maxRows/maxRowsPerPartition para alguns operadores lógicos
  • [SPARK-35223] Reverter a Adição de Link de Navegação de Problemas
  • [SPARK-39633] [SQL] Suporte a timestamp em segundos para TimeTravel usando as opções de Dataframe
  • [SPARK-38796] [SQL] Atualizar a documentação para cadeias de formato numérico com as funções {try_}to_number
  • [SPARK-39650] [SS] Corrigir esquema de valores incorretos na desduplicação de streaming com compatibilidade retroativa
  • [SPARK-39636] [CORE][ui] Corrija vários bugs no JsonProtocol, afetando o heap StorageLevels e o Task/Executor ResourceRequests
  • [SPARK-39432] [SQL] Retorna ELEMENT_AT_BY_INDEX_ZERO de element_at(*, 0)
  • [FAÍSCA-39349] Adicionar um método CheckError centralizado para QA do caminho de erro
  • [FAÍSCA-39453] [SQL] DS V2 suporta a aplicação direta de várias funções não-agregadas (não ANSI)
  • [SPARK-38978] [SQL] DS V2 suporta a propagação para baixo do OFFSET operador
  • [SPARK-39567] [SQL] Suporta intervalos ANSI nas funções de percentil
  • [SPARK-39383] [SQL] suporte colunas DEFAULT em ALTER TABLE ALTER para fontes de dados V2
  • [SPARK-39396] [SQL] Corrigir exceção de login LDAP 'código de erro 49 - credenciais inválidas'
  • [SPARK-39548] [SQL] O comando CreateView com uma consulta que contém uma cláusula de janela encontrou um problema de definição de janela incorreta não encontrada.
  • [SPARK-39575] [AVRO] adicionar ByteBuffer#rewind após ByteBuffer#get no Avro...
  • [FAÍSCA-39543] A opção de DataFrameWriterV2 deve ser passada para propriedades de armazenamento se houver retrocesso para v1
  • [SPARK-39564] [SS] Expor as informações da tabela de catálogo ao plano lógico na consulta de streaming
  • [SPARK-39582] [SQL] Corrigir marcador "Since" para array_agg
  • [FAÍSCA-39388] [SQL] Reutilizar orcSchema quando empurrar predicados Orc para baixo
  • [SPARK-39511] [SQL] Aprimorar a aplicação descendente do limite local de 1 para o lado direito de uma junção semi-esquerda/anti-esquerda se a condição de junção estiver vazia
  • [SPARK-38614] [SQL] Não empurre o limite para baixo através da janela que está usando percent_rank
  • [SPARK-39551] [SQL] Adicionar verificação de plano inválido do AQE
  • [SPARK-39383] [SQL] Suporte de colunas DEFAULT em ALTER TABLE ADD COLUMNS a fontes de dados V2
  • [SPARK-39538] [SQL] Evite criar SLF4J Logger desnecessário
  • [SPARK-39383] [SQL] retrocessão manual para o DBR 11.x: refatorar o suporte à coluna DEFAULT para evitar a transferência do Analisador principal
  • [SPARK-39397] [SQL] Relaxar AliasAwareOutputExpression para suportar alias com expressão
  • [SPARK-39496] [SQL] Manipular a estrutura nula em Inline.eval
  • [SPARK-39545] [SQL] Substituir o método concat para ExpressionSet no Scala 2.13 para melhorar o desempenho
  • [SPARK-39340] [SQL] O agg pushdown do DS v2 deveria permitir pontos no nome das colunas de nível superior
  • [SPARK-39488] [SQL] Simplifique o tratamento de erros de TempResolvedColumn
  • [SPARK-38846] [SQL] Adicionar mapeamento explícito de dados entre Teradata Numeric Type e Spark DecimalType
  • [SPARK-39520] [SQL] Sobrescrever o método -- em ExpressionSet no Scala 2.13
  • [SPARK-39470] [SQL] Suporte para a conversão de intervalos ANSI para decimais
  • [SPARK-39477] [SQL] Remova as informações de "Número de consultas" dos arquivos dourados do SQLQueryTestSuite
  • [SPARK-39419] [SQL] Corrigir ArraySort para lançar uma exceção quando o comparador retornar null
  • [SPARK-39061] [SQL] Definir corretamente como anuláveis os Inline atributos de saída
  • [SPARK-39320] [SQL] Suporte à função de agregação MEDIAN
  • [SPARK-39261] [CORE] Melhorar a formatação de quebras de linha para mensagens de erro
  • [SPARK-39355] [SQL] Coluna única usa aspas para construir UnresolvedAttribute
  • [SPARK-39351] [SQL] SHOW CREATE TABLE deve redigir propriedades
  • [SPARK-37623] [SQL] Suporte à função de agregação ANSI: regr_intercept
  • [SPARK-39374] [SQL] Melhorar mensagem de erro para lista de colunas especificada pelo usuário
  • [SPARK-39255] [SQL][3.3] Melhorar as mensagens de erro
  • [SPARK-39321] [SQL] Refatore TryCast para usar RuntimeReplaceable
  • [SPARK-39406] [PYTHON] Aceitar matriz NumPy em createDataFrame
  • [SPARK-39267] [SQL] Limpar o símbolo desnecessário dsl
  • [SPARK-39171] [SQL] Unificar a expressão Cast
  • [SPARK-28330] [SQL] Suporte ANSI SQL: cláusula de deslocamento de resultado na expressão de consulta
  • [SPARK-39203] [SQL] Reescreva o local da tabela em um URI absoluto com base no URI do banco de dados
  • [SPARK-39313] [SQL] toCatalystOrdering deve falhar se V2Expression não puder ser traduzido
  • [SPARK-39301] [SQL][python] Aproveite o LocalRelation e respeite o tamanho do lote de Arrow em createDataFrame com otimização de Arrow
  • [SPARK-39400] [SQL] spark-sql deve, em todos os casos, remover o diretório de recursos do hive

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 11.2.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Píton: 3.9.5
  • R: 4.1.3
  • Lago Delta: 2.1.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Antergos Linux 2015.10 (ISO-Contínuo) argon2-cffi 20.1.0 gerador assíncrono 1.10
ATRs 21.2.0 chamada de retorno 0.2.0 backports.pontos de entrada-selecionáveis 1.1.1
preto 22.3.0 lixívia 4.0.0 boto3 1.21.18
botocore 1.24.18 certifi 2021.10.8 cffi 1.14.6
chardet 4.0.0 Normalizador de Charset 2.0.4 clicar 8.0.3
criptografia 3.4.8 ciclagem 0.10.0 Cython 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 decorador 5.1.0
defusedxml 0.7.1 Distlib 0.3.5 distro-info 0,23ubuntu1
pontos de entrada 0.3 facetas-visão geral 1.0.0 bloqueio de ficheiros 3.8.0
idna 3.2 Ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 Jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 Joblib 1.0.1
jsonschema 3.2.0 jupyter-client 6.1.12 Jupyter-core 4.8.1
Jupyterlab-Pygments 0.1.2 jupyterlab-widgets 1.0.0 Kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib em linha 0.1.2
Mistune 0.8.4 mypy-extensões 0.4.3 nbclient 0.5.3
nbconvert 6.1.0 nbformat 5.1.3 nest-asyncio 1.5.1
bloco de notas 6.4.5 numpy 1.20.3 embalagem 21.0
pandas 1.3.4 PandocFilters 1.4.3 Parso 0.8.2
PathSpec 0.9.0 bode expiatório 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Almofada 8.4.0 pip 21.2.4
platformdirs 2.5.2 enredo 5.9.0 prometheus-client 0.11.0
prompt-toolkit 3.0.20 protobuf 4.21.5 psutil 5.8.0
psycopg2 2.9.3 ptyprocess 0.7.0 pyarrow 7.0.0
pycparser 2,20 Pygments 2.10.0 PyGObject 3.36.0
Pyodbc 4.0.31 pyparsing 3.0.4 pyrsistent 0.18.0
python-apt 2.0.0+ubuntu0.20.4.7 python-dateutil 2.8.2 pytz 2021.3
Pyzmq 22.2.1 pedidos 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
seaborn 0.11.2 Enviar2Lixo 1.8.0 setuptools 58.0.4
seis 1.16.0 ssh-import-id 5.10 statsmodels 0.12.2
tenacidade 8.0.1 terminado 0.9.4 caminho de teste 0.5.0
ThreadPoolCtl 2.2.0 tokenize-rt 4.2.1 Tomli 2.0.1
tornado 6.1 traços 5.1.0 extensões de digitação 3.10.0.2
Atualizações automáticas 0.1 urllib3 1.26.7 virtualenv 20.8.0
largura de wc 0.2.5 WebEncodings 0.5.1 roda 0.37.0
widgetsnbextension 3.6.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo do Microsoft CRAN em 2022-08-15.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AskPass 1.1 asserçãoat 0.2.1 retrocessos 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 arranque 1.3-28
preparar 1.0-7 Brio 1.1.3 vassoura 1.0.0
BSLIB 0.4.0 cachem 1.0.6 Chamador 3.7.1
caret 6.0-93 Cellranger 1.1.0 crono 2.3-57
classe 7.3-20 cli 3.3.0 Clipr 0.8.0
aglomerado 2.1.3 codetools 0.2-18 espaço em cores 2.0-3
marca comum 1.8.0 compilador 4.1.3 configuração 0.3.1
cpp11 0.4.2 lápis de cor 1.5.1 Credenciais 1.3.2
curl 4.3.2 data.table (tabela de dados) 1.14.2 conjuntos de dados 4.1.3
DBI 1.1.3 DBPlyr 2.2.1 descrição 1.4.1
devtools 2.4.4 diffobj 0.3.5 resumo 0.6.29
Iluminação reduzida 0.4.2 dplyr 1.0.9 DTPlyr 1.2.1
e1071 1.7-11 reticências 0.3.2 avaliar 0,16
Fãsi 1.0.3 Farver 2.1.1 mapa rápido 1.1.0
fontawesome 0.3.0 FORCATS 0.5.1 foreach 1.5.2
estrangeiro 0.8-82 forjar 0.2.0 FS 1.5.2
Futuro 1.27.0 future.apply 1.9.0 gargarejo 1.2.0
Genéricos 0.1.3 Gert 1.7.0 ggplot2 3.3.6
GH 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
Globais 0.16.0 cola 1.6.2 GoogleDrive 2.0.0
googlesheets4 1.0.1 Gower 1.0.0 gráficos 4.1.3
grDevices 4.1.3 grelha 4.1.3 gridExtra 2.3
gsubfn 0.7 tabela g 0.3.0 capacete de segurança 1.2.0
Refúgio 2.5.0 mais alto 0,9 HMS (Navio de Sua Majestade) 1.1.1
htmltools 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.3 identificadores 1.0.1 ini 0.3.1
ipred 0.9-13 Isoband 0.2.5 iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
Knitr 1.39 etiquetagem 0.4.2 mais tarde 1.3.0
treliça 0.20-45 lava 1.6.10 ciclo de vida 1.0.1
ouvir 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Marcação 1.1 MASSA 7.3-56 Matriz 1.4-1
memorizar 2.0.1 métodos 4.1.3 mgcv 1.8-40
mime 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.8 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
paralelo 4.1.3 Paralelamente 1.32.1 pilar 1.8.0
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
elogiar 1.0.0 unidades elegantes 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 Profvis 0.3.7
Progresso 1.2.2 progressr 0.10.1 promessas 1.2.0.1
proto 1.0.0 procuração 0.4-27 PS 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
RAGG 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 Leitor 2.1.2 readxl 1.4.0
receitas 1.0.1 revanche 1.0.1 revanche2 2.1.2
Controles remotos 2.4.2 Exemplo Reproduzível 2.0.1 remodelar2 1.4.4
rlang 1.0.4 rmarkdown 2.14 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.15 rstudioapi 0,13
rversões 2.1.1 Rvest 1.0.2 Sass 0.4.2
escalas 1.2.0 seletor 0.4-2 informação de sessão 1.2.2
forma 1.4.6 brilhante 1.7.2 ferramentas de código-fonte 0.1.7
sparklyr 1.7.7 SparkR 3.3.0 espacial 7.3-11
splines 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
estatísticas 4.1.3 stats4 4.1.3 stringi 1.7.8
stringr 1.4.0 sobrevivência 3.2-13 sys 3.4
fontes do sistema 1.0.4 tcltk 4.1.3 testthat 3.1.4
formatação de texto 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 Tidyverse 1.3.2 data e hora 4021.104
Tinytex 0.40 ferramentas 4.1.3 TZDB 0.3.0
verificador de URLs 1.0.1 usethis 2.1.6 UTF8 1.2.2
utilitários 4.1.3 Identificador Único Universal (UUID) 1.1-0 VCTRS 0.4.1
viridisLite 0.4.0 vrum 1.5.7 Waldo 0.4.0
vibrissa 0.4 withr 2.5.0 xfun 0.32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 zip 2.2.0

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-suporte 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics transmissão 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.13.3
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib referência_nativa-java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben ZSTD-JNI 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger analista de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
carregamento-de-ficheiros-comuns commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib LAPACK 2.2.1
Hadoop3 JETS3T-0,7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0.21
IO.Delta delta-sharing-spark_2.12 0.5.0
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics verificações de saúde de métricas 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics métricas-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics métricas-JVM 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-comum 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transporte Netty 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-nativo-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jacarta.validação jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
MVN Hadoop3 liball_deps_2.12
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve Snowflake Ingest SDK 0.9.6
net.floco de neve Flocos de Neve-JDBC 3.13.14
net.floco de neve faísca-snowflake_2.12 2.10.0-spark_3.2
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr modelo de string 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato de seta 7.0.0
org.apache.arrow núcleo de memória Arrow 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow vetor de seta 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.9
org.apache.curator curador-cliente 2.13.0
org.apache.curator curador-framework 2.13.0
org.apache.curator curador de receitas 2.13.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.2-Databricks
org.apache.hadoop hadoop-client-runtime 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive hive-llap-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-sombreado-protobuf 1.4.0
org.apache.orc orc-core 1.7.5
org.apache.orc orc-mapreduce 1.7.5
org.apache.orc Orc-calços 1.7.5
org.apache.parquet parquet-coluna 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-common 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-encoding 1.12.0-DATABRICKS-0004
org.apache.parquet estruturas de formato parquet 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-hadoop 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-jackson 1.12.0-DATABRICKS-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus notas de audiência 0.5.0
org.apache.zookeeper guarda zoológico 3.6.2
org.apache.zookeeper zookeeper-juta 3.6.2
org.checkerframework verificador de qualidade 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty segurança-jetty 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-cliente 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-Comum 9.4.46.v20220331
org.eclipse.jetty.websocket servidor websocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,34
org.glassfish.jersey.containers jersey-container-servlet-core 2.34
org.glassfish.jersey.core jersey-client 2.34
org.glassfish.jersey.core jersey-common 2.34
org.glassfish.jersey.core servidor Jersey 2.34
org.glassfish.jersey.inject jersey-HK2 2.34
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl WildFly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1