Tempo de execução do Databricks 11.2 (EoS)
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.2, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em setembro de 2022.
Novos recursos e melhorias
- Alterar as permissões para ALTER TABLE nos controlos de acesso às tabelas (ACLs de tabela)
- Poda dinâmica para MERGE INTO
- Deteção de conflitos aprimorada no Delta com remoção dinâmica de arquivos
- Novo cartão de Integrações Open Source nas páginas iniciais DSE/SQL
- CONVERT TO DELTA melhorias na deteção de partições
- esquemas de tabela agora suportam valores padrão para colunas
- Novas funções geoespaciais H3
- Nova dependência do Databricks Runtime
- Traga sua própria chave: criptografia de credenciais Git
- SQL: Nova função agregada any_value
- Comandos do sistema de ficheiros das Utilidades Databricks permitidos em mais tipos de cluster
- Os privilégios CREATE agora podem ser concedidos nos metastores para o Unity Catalog
- Gravações otimizadas para tabelas não particionadas em clusters compatíveis com Photon
- Suporte a fótons para mais fontes de dados
- SQL: ALTER SHARE agora suporta START VERSION
Alteração para permissões ALTER TABLE nos controles de acesso à tabela (ACLs de tabela)
Agora, os utilizadores só precisam de MODIFY
permissões para alterar o esquema ou as propriedades de uma tabela com ALTER TABLE
. A propriedade ainda é necessária para conceder permissões numa tabela, alterar o seu dono e a sua localização, ou renomeá-la. Essa alteração torna o modelo de permissão para ACLs de tabela consistente com o Catálogo Unity. Ver ALTER TABLE.
Poda dinâmica para MERGE INTO
Ao usar a computação com Photon, o MERGE INTO
agora utiliza a filtragem dinâmica de arquivos e partições quando adequado para melhorar o desempenho, por exemplo, quando uma pequena tabela de origem é combinada numa tabela de destino maior.
Deteção de conflitos aprimorada no Delta com remoção dinâmica de arquivos
Ao verificar possíveis conflitos durante commits, a deteção de conflitos agora considera arquivos que são removidos pela poda dinâmica de arquivos, mas que não teriam sido removidos por filtros estáticos. Isso resulta em uma diminuição do número de transações com falha.
Novo cartão de Integrações de Código Aberto nas homepages DSE/SQL
Introdução do novo cartão 'Open Source Integrations' nas homepages DSE/SQL que exibe opções de integração de código aberto, como DLT e dbt core.
CONVERT TO DELTA melhorias na deteção de partições
CONVERT TO DELTA
infere automaticamente o esquema de partição para tabelas do Parquet registradas no metastore do Hive ou no Unity Catalog, eliminando a necessidade de fornecer a cláusula PARTITIONED BY
.
CONVERT TO DELTA
aproveita as informações de partição do metastore para descobrir arquivos para uma tabela Parquet em vez de listar todo o caminho base, garantindo que partições descartadas não sejam adicionadas à tabela Delta.
Consulte Converter para Delta Lake.
Os esquemas de tabela agora suportam valores padrão para colunas
Os esquemas de tabela agora suportam a configuração de valores padrão para colunas.
INSERT
, UPDATE
e DELETE
comandos para essas colunas podem se referir a esses valores com a palavra-chave DEFAULT
. Por exemplo, CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET
seguido por INSERT INTO t VALUES (1, DEFAULT)
irá acrescentar a linha (1, 42)
. Esse comportamento é suportado para fontes de dados CSV, JSON, Orc e Parquet.
Novas funções geoespaciais H3
Agora você pode usar 28 novas expressões H3 integradas para processamento geoespacial em clusters habilitados para Photon, disponíveis em SQL, Scala e Python. Veja funções geoespaciais H3.
Nova dependência do Databricks Runtime
O Databricks Runtime agora depende da biblioteca Java H3 versão 3.7.0.
Traga sua própria chave: criptografia de credenciais Git
Você pode usar o Azure Key Vault para criptografar um token de acesso pessoal (PAT) do Git ou outra credencial do Git.
Consulte Configurar pastas Git do Databricks (Repos).
SQL: Nova função agregada any_value
A nova any_value
função de agregação retorna qualquer valor aleatório de expr
para um grupo de linhas. Consulte a função agregar any_value
.
Permitem-se os comandos do sistema de arquivos das Databricks Utilities em mais tipos de clusters.
dbutils.fs
Comandos (exceto comandos relacionados à montagem) agora são permitidos em clusters de isolamento para utilizadores com o Unity Catalog, bem como em clusters de ACL de tabela herdados quando o utilizador tem permissões ANY FILE
.
Os privilégios CREATE agora podem ser concedidos nos metastores do Unity Catalog
Os privilégios CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENTe CREATE PROVIDER agora podem ser concedidos nos metastores do Unity Catalog.
Gravações otimizadas para tabelas não particionadas em clusters com Photon habilitado
As tabelas gerenciadas pelo Unity Catalog agora persistem automaticamente arquivos de um tamanho bem ajustado de tabelas não particionadas para melhorar a velocidade de consulta e otimizar o desempenho.
Suporte a fótons para mais fontes de dados
O Photon agora suporta mais fontes de dados, incluindo CSV e Avro, e também é compatível com quadros de dados armazenados em cache. Anteriormente, a análise dessas fontes de dados significava que toda a consulta não podia ser fotonizada, independentemente dos operadores ou expressões da consulta. Agora, as consultas que examinam essas fontes de dados podem ser fotonizadas, desbloqueando melhorias significativas de latência e TCO.
Esse recurso é habilitado por padrão pela spark.databricks.photon.photonRowToColumnar.enabled
configuração.
Limitações:
- Não há suporte para esquemas com tipos aninhados (ou seja, matrizes, mapas e estruturas) nesta versão.
- As fontes ORC, RDD, Kinesis, Kafka e EventHub não são suportadas nesta versão.
SQL: ALTER SHARE agora suporta START VERSION
O comando ALTER SHARE
agora suporta START VERSION
, que permite que os provedores compartilhem dados a partir de uma versão específica da tabela. Ver ALTER SHARE.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- distlib de 0.3.4 a 0.3.5
- filelock de 3.7.1 a 3.8.0
- plotly de 5.8.2 a 5.9.0
- Protobuf de 4.21.2 a 4.21.5
- Bibliotecas R atualizadas:
- broom de 0.8.0 a 1.0.0
- bslib de 0.3.1 a 0.4.0
- callr da versão 3.7.0 para a 3.7.1
- Aceno de 6.0-92 a 6.0-93
- DBPLYR de 2.2.0 a 2.2.1
- devtools de 2.4.3 a 2.4.4
- avaliar de 0,15 a 0,16
- Farver da versão 2.1.0 à versão 2.1.1
- fontawesome de 0.2.2 a 0.3.0
- futuro de 1.26.1 a 1.27.0
- Genéricos de 0.1.2 a 0.1.3
- gert de 1.6.0 para 1.7.0
- globais de 0.15.1 a 0.16.0
- googlesheets4 de 1.0.0 a 1.0.1
- Hardhat de 1.1.0 para 1.2.0
- htmltools de 0.5.2 a 0.5.3
- paralelamente de 1.32.0 a 1.32.1
- pilar de 1.7.0 a 1.8.0
- pkgload de 1.2.4 a 1.3.0
- processx de 3.6.1 a 3.7.0
- Rcpp de 1.0.8.3 a 1.0.9
- receitas de 0.2.0 a 1.0.1
- RLANG de 1.0.2 a 1.0.4
- roxigen2 de 7.2.0 a 7.2.1
- RSQLite de 2.2.14 a 2.2.15
- sass de 0.4.1 a 0.4.2
- brilhante de 1.7.1 a 1.7.2
- stringi de 1.7.6 a 1.7.8
- Tibble de 3.1.7 a 3.1.8
- Tidyverse de 1.3.1 a 1.3.2
- timeDate de 3043.102 a 4021.104
- xfun de 0,31 a 0,32
- Bibliotecas Java atualizadas:
- org.apache.orc.orc-core de 1.7.4 a 1.7.5
- org.apache.orc.orc-mapreduce de 1.7.4 para 1.7.5
- org.apache.orc.orc-shims de 1.7.4 para 1.7.5
Apache Spark
O Databricks Runtime 11.2 inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.1 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Retornar tipos de intervalo ANSI mais amplos das funções de percentil
- [SPARK-40054] [SQL] Restaurar a sintaxe de tratamento de erros de try_cast()
- [SPARK-39489] [CORE] Melhorar o desempenho do JsonProtocol no registo de eventos usando Jackson em vez de Json4s
-
[SPARK-39319] [CORE][sql] Crie contextos de consulta como parte do
SparkThrowable
- [FAÍSCA-40085] [SQL] Use a classe de erro INTERNAL_ERROR em vez de IllegalStateException para indicar bugs
- [SPARK-40001] [SQL] Fazer gravações NULL em colunas JSON DEFAULT gravar 'null' no armazenamento
- [SPARK-39635] [SQL] Suporte a métricas do driver na API de métricas personalizadas do DS v2
- [SPARK-39184] [SQL] Manipular matriz de resultados subdimensionada em sequências de data e de carimbo de data e hora
-
[FAÍSCA-40019] [SQL] Refatore o comentário de ArrayType continsNull e refatore as lógicas de mal-entendido na expressão de collectionOperator sobre
containsNull
- [SPARK-39989] [SQL] Suporta estatísticas de coluna de estimativa se for expressão dobrável
- [SPARK-39926] [SQL] Corrigir bug no suporte para DEFAULT em colunas para varreduras Parquet não vetorizadas
- [SPARK-40052] [SQL] Manipular buffers de byte diretos em VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Corrigir o tipo de intervalo de destino em erros de estouro de conversão
- [SPARK-39835] [SQL] Corrigir erro onde EliminateSorts remove a classificação global abaixo da classificação local
- [SPARK-40002] [SQL] Não empurre o limite através da janela usando ntile
- [SPARK-39976] [SQL] ArrayIntersect deve manipular null na expressão à esquerda corretamente
- [SPARK-39985] [SQL] Habilitar valores de coluna DEFAULT implícitos em inserções de DataFrames
- [SPARK-39776] [SQL] JOIN string detalhada deve adicionar o tipo de Junção
- [FAÍSCA-38901] [SQL] DS V2 suporta funções diversas de pushdown
- [SPARK-40028] [SQL][followup] Melhorar exemplos de funções de cadeia de caracteres
- [SPARK-39983] [CORE][sql] Não armazenar em cache relações de difusão não serializadas no driver
- [c0][SPARK-39812][/c0] [SQL] O código que constrói
AggregateExpression
comtoAggregateExpression
deve ser simplificado. - [FAÍSCA-40028] [SQL] Adicionar exemplos binários para expressões de cadeia de caracteres
- [SPARK-39981] [SQL] Lançar a exceção QueryExecutionErrors.castingCauseOverflowErrorInTableInsert no Cast
- [SPARK-40007] [PYTHON][sql] Adicionar 'modo' a funções
- [SPARK-40008] [SQL] Suportar conversão de inteiros para intervalos ANSI
- [SPARK-40003] [PYTHON][sql] Adicionar 'mediana' às funções
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand deve recachear a relação de resultado
- [SPARK-39951] [SQL] Atualizar verificação colunar do Parquet V2 para campos aninhados
- [SPARK-33236] [shuffle] Retroportar para DBR 11.x: habilitar o serviço de shuffle baseado em push para armazenar o estado no banco de dados de nível NM para uma reinicialização do trabalho preservada.
- [FAÍSCA-39836] [SQL] Simplifique o V2ExpressionBuilder ao extrair o método comum.
-
[SPARK-39873] [SQL] Remova
OptimizeLimitZero
e mescle-o emEliminateLimits
- [FAÍSCA-39961] [SQL] DS V2 push-down traduzir Cast se o elenco é seguro
-
[SPARK-39872] [SQL] Alterar para usar
BytePackerForLong#unpack8Values
com a API de entrada de Array emVectorizedDeltaBinaryPackedReader
-
[SPARK-39858] [SQL] Remover
AliasHelper
ouPredicateHelper
desnecessários para algumas regras - [FAÍSCA-39900] [SQL] Abordar condição parcial ou negada no rebaixamento de predicados do formato binário
- [FAÍSCA-39904] [SQL] Renomeie inferDate para prefersDate e esclareça a semântica da opção na fonte de dados CSV
- [FAÍSCA-39958] [SQL] Adicionar registro de aviso quando não seja possível carregar o objecto de métrica personalizado.
- [SPARK-39932] [SQL] WindowExec deve limpar o buffer de partição final
- [SPARK-37194] [SQL] Evitar o ordenamento desnecessário na escrita v1 se não for uma partição dinâmica
- [SPARK-39902] [SQL] Adicionar detalhes do Scan ao nó de varredura do plano de spark no SparkUI
- [SPARK-39865] [SQL] Mostrar mensagens de erro apropriadas sobre os erros de transbordamento ao inserir na tabela
- [SPARK-39940] [SS] Atualizar tabela de catálogo na consulta de streaming com coletor DSv1
-
[SPARK-39827] [SQL] Use a classe
ARITHMETIC_OVERFLOW
de erro no overflow de int emadd_months()
- [SPARK-39914] [SQL] Adicionar Filtro DS V2 à conversão para Filtro V1
- [SPARK-39857] [SQL] Backport manual DBR 11.x; V2ExpressionBuilder usa o tipo de dados LiteralValue errado no predicado In #43454
- [SPARK-39840] [SQL][python] Extrair PythonArrowInput como um contraponto a PythonArrowOutput
- [SPARK-39651] [SQL] Eliminar a condição do filtro se a comparação com rand for determinística
- [SPARK-39877] [PYTHON] Adicionar função de unpivot à API DataFrame do PySpark
- [SPARK-39909] [SQL] Organizar a verificação das informações de push down para JDBCV2Suite
- [SPARK-39834] [SQL][ss] Inclua as estatísticas de origem e restrições para LogicalRDD se ele vier de DataFrame
- [SPARK-39849] [SQL] Dataset.as(StructType) preenche novas colunas ausentes com valor nulo
- [SPARK-39860] [SQL] Mais expressões devem expandir Predicado
- [SPARK-39823] [SQL][python] Renomeie Dataset.as como Dataset.to e adicione DataFrame.to no PySpark
- [SPARK-39918] [SQL][minor] Substitua a expressão "não comparável" por "incomparável" na mensagem de erro
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder usa o tipo de dados LiteralValue errado para o predicado In
- [SPARK-39862] [SQL] Backport manual do PR 43654 para o DBR 11.x: Atualizar SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS para permitir/negar ALTER TABLE ... Adicione os comandos COLUMN separadamente.
- [SPARK-39844] [SQL] Backport manual para o PR 43652 direcionado ao DBR 11.x
-
[SPARK-39899] [SQL] Corrigir a passagem de parâmetros de mensagem para
InvalidUDFClassException
- [SPARK-39890] [SQL] Fazer com que TakeOrderedAndProjectExec herde AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Suporte para CharType no PySpark
- [SPARK-38864] [SQL] Adicionar unpivot / melt ao Dataset
- [SPARK-39864] [SQL] Registar ExecutionListenerBus de forma preguiçosa
- [SPARK-39808] [SQL] Suporta a função agregada MODA
-
[SPARK-39875] [SQL] Alterar
protected
método na classe final paraprivate
oupackage-visible
- [SPARK-39731] [SQL] Corrigir problema em fontes de dados CSV e JSON ao interpretar datas no formato "yyyyMMdd" com a política de análise de tempo CORRIGIDA
- [FAÍSCA-39805] [SS] Descontinuar Trigger.Once e Promover Trigger.AvailableNow
- [SPARK-39784] [SQL] Coloque valores literais no lado direito do filtro da fonte de dados depois de traduzir o Catalyst Expression para o filtro da fonte de dados
- [SPARK-39672] [SQL][3.1] Corrigir a remoção da projeção antes do filtro com subconsulta correlacionada
-
[SPARK-39552] [SQL] Unificar v1 e v2
DESCRIBE TABLE
- [SPARK-39810] [SQL] Catalog.tableExists deverá lidar com namespace aninhado
- [SPARK-37287] [SQL] Retire a partição dinâmica e a classificação de bucket de FileFormatWriter
- [SPARK-39469] [SQL] Inferir tipo de data para inferência de esquema CSV
- [SPARK-39148] [SQL] DS V2 aggregate push down pode funcionar com OFFSET ou LIMIT
- [SPARK-39818] [SQL] Corrigir bug em tipos ARRAY, STRUCT e MAP com valores DEFAULT e campo(s) NULL
- [SPARK-39792] [SQL] Adicionar DecimalDivideWithOverflowCheck para a média decimal
-
[SPARK-39798] [SQL] Replace
toSeq.toArray
com.toArray[Any]
no construtor deGenericArrayData
- [SPARK-39759] [SQL] Implementar listIndexes em JDBC (dialeto H2)
-
[SPARK-39385] [SQL] Suporta push down
REGR_AVGX
eREGR_AVGY
- [FAÍSCA-39787] [SQL] Utilize a classe de erro no erro de análise da função to_timestamp
- [SPARK-39760] [PYTHON] Suporte a Varchar no PySpark
- [SPARK-39557] [SQL] retroversão manual para DBR 11.x: suporte a tipos ARRAY, STRUCT, MAP como valores pré-definidos
- [SPARK-39758] [SQL][3.3] Corrigir NPE das funções regexp devido a padrões inválidos
- [SPARK-39749] [SQL] Modo ANSI SQL: Use uma representação simples de string ao converter de Decimal para String
- [SPARK-39704] [SQL] Implementar createIndex & dropIndex & indexExists em JDBC (dialeto H2)
-
[FAÍSCA-39803] [SQL] Utilizar
LevenshteinDistance
em vez deStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Suporte para o tipo TimestampNTZ na fonte de dados JDBC
- [SPARK-39781] [SS] Adicionar suporte para fornecimento de max_open_files ao fornecedor do armazenamento de estado rocksdb
Implementar databaseExists/getDatabase no apoio ao namespace 3L no SparkR - [SPARK-39751] [SQL] Renomear métrica de sondagem de chave de agregação de hash
- [FAÍSCA-39772] [SQL] namespace deve ser null quando a base de dados for nula nos construtores antigos.
- [SPARK-39625] [SPARK-38904][sql] Adicionar Dataset.as(StructType)
- [FAÍSCA-39384] [SQL] Compilar funções de agregação de regressão linear integradas para o dialeto JDBC
- [SPARK-39720] [R] Implementar tableExists/getTable no namespace SparkR para 3L
-
[FAÍSCA-39744] [SQL] Adicionar a
REGEXP_INSTR
função - [SPARK-39716] [R] Fazer com que currentDatabase/setCurrentDatabase/listCatalogs no SparkR suporte o namespace 3L
-
[FAÍSCA-39788] [SQL] Renomear
catalogName
paradialectName
paraJdbcUtils
- [SPARK-39647] [CORE] Registe o executor no ESS antes de registar o BlockManager
-
[SPARK-39754] [CORE][sql] Remover
import
ou{}
não utilizados ou desnecessários -
[SPARK-39706] [SQL] Definir coluna ausente com defaultValue como constante no
ParquetColumnVector
- [SPARK-39699] [SQL] Tornar o CollapseProject mais eficaz em expressões de criação de coleções
-
[SPARK-39737] [SQL]
PERCENTILE_CONT
ePERCENTILE_DISC
devem suportar filtro agregado - [SPARK-39579] [SQL][python][R] Tornar ListFunctions/getFunction/functionExists compatível com namespace de 3 camadas
- [SPARK-39627] [SQL] O pushdown JDBC V2 deve unificar a API de compilação
- [SPARK-39748] [SQL][ss] Inclua o plano lógico de origem para LogicalRDD se ele vier de DataFrame
- [SPARK-39385] [SQL] Traduzir funções agregadas de regressão linear para pushdown
-
[FAÍSCA-39695] [SQL] Adicionar a função
REGEXP_SUBSTR
- [SPARK-39667] [SQL] Adicione outra solução alternativa quando não houver memória suficiente para criar e transmitir a tabela
-
[SPARK-39666] [ES-337834][sql] Utilize UnsafeProjection.create para respeitar
spark.sql.codegen.factoryMode
no ExpressionEncoder - [SPARK-39643] [SQL] Proibir expressões de subconsulta em valores predefinidos (DEFAULT)
- [SPARK-38647] [SQL] Adicionar o mix-in SupportsReportOrdering na interface para Scan (DataSourceV2)
- [SPARK-39497] [SQL] Melhorar a exceção de análise da coluna de chave de mapa ausente
- [FAÍSCA-39661] [SQL] Evite criar SLF4J Logger desnecessário
- [SPARK-39713] [SQL] Modo ANSI: adicionar sugestão de uso de try_element_at para erro INVALID_ARRAY_INDEX
- [FAÍSCA-38899] [SQL]O DS V2 suporta funções push down datetime
-
[SPARK-39638] [SQL] Alterar para usar
ConstantColumnVector
para armazenar colunas de partição noOrcColumnarBatchReader
-
[SPARK-39653] [SQL] Limpar
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
deColumnVectorUtils
-
[SPARK-39231] [SQL] Use
ConstantColumnVector
em vez deOn/OffHeapColumnVector
para armazenar colunas de partição noVectorizedParquetRecordReader
- [FAÍSCA-39547] [SQL] V2SessionCatalog não deve lançar NoSuchDatabaseException em loadNamespaceMetadata
- [SPARK-39447] [SQL] Evite AssertionError em AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Revisão MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec deve respeitar a ordem de saída do filho
- [FAÍSCA-39606] [SQL] Usar estatísticas filho para estimar o operador de ordem
- [SPARK-39611] [PYTHON][ps] Corrigir aliases errados no array_ufunc
- [SPARK-39656] [SQL][3.3] Corrigir namespace errado em DescribeNamespaceExec
- [SPARK-39675] [SQL] Alterar a configuração 'spark.sql.codegen.factoryMode' do propósito de teste para o propósito interno
- [SPARK-39139] [SQL] DS V2 suporta push down de funções definidas pelo usuário (UDF) usando DS V2.
- [SPARK-39434] [SQL] Fornecer contexto de consulta de erro de tempo de execução quando o índice de matriz estiver fora do limite
- [SPARK-39479] [SQL] DS V2 suporta a aplicação de funções matemáticas otimizadas (não ANSI)
-
[SPARK-39618] [SQL] Adicionar a
REGEXP_COUNT
função - [SPARK-39553] [CORE] O cancelamento multithread do shuffle não deve lançar NPE ao usar o Scala na versão 2.13.
- [SPARK-38755] [PYTHON][3.3] Adicionar ficheiro para tratar funções gerais em falta do pandas
- [SPARK-39444] [SQL] Adicionar OptimizeSubqueries na lista nonExcludableRules
- [SPARK-39316] [SQL] Mesclar PromotePrecision e CheckOverflow em aritmética binária decimal
- [SPARK-39505] [UI] Escapar o conteúdo dos logs renderizados na interface de utilizador
-
[SPARK-39448] [SQL] Adicionar
ReplaceCTERefWithRepartition
anonExcludableRules
lista - [SPARK-37961] [SQL] Sobrepor maxRows/maxRowsPerPartition para alguns operadores lógicos
- [SPARK-35223] Reverter a Adição de Link de Navegação de Problemas
- [SPARK-39633] [SQL] Suporte a timestamp em segundos para TimeTravel usando as opções de Dataframe
- [SPARK-38796] [SQL] Atualizar a documentação para cadeias de formato numérico com as funções {try_}to_number
- [SPARK-39650] [SS] Corrigir esquema de valores incorretos na desduplicação de streaming com compatibilidade retroativa
- [SPARK-39636] [CORE][ui] Corrija vários bugs no JsonProtocol, afetando o heap StorageLevels e o Task/Executor ResourceRequests
- [SPARK-39432] [SQL] Retorna ELEMENT_AT_BY_INDEX_ZERO de element_at(*, 0)
- [FAÍSCA-39349] Adicionar um método CheckError centralizado para QA do caminho de erro
- [FAÍSCA-39453] [SQL] DS V2 suporta a aplicação direta de várias funções não-agregadas (não ANSI)
- [SPARK-38978] [SQL] DS V2 suporta a propagação para baixo do OFFSET operador
- [SPARK-39567] [SQL] Suporta intervalos ANSI nas funções de percentil
- [SPARK-39383] [SQL] suporte colunas DEFAULT em ALTER TABLE ALTER para fontes de dados V2
- [SPARK-39396] [SQL] Corrigir exceção de login LDAP 'código de erro 49 - credenciais inválidas'
- [SPARK-39548] [SQL] O comando CreateView com uma consulta que contém uma cláusula de janela encontrou um problema de definição de janela incorreta não encontrada.
- [SPARK-39575] [AVRO] adicionar ByteBuffer#rewind após ByteBuffer#get no Avro...
- [FAÍSCA-39543] A opção de DataFrameWriterV2 deve ser passada para propriedades de armazenamento se houver retrocesso para v1
- [SPARK-39564] [SS] Expor as informações da tabela de catálogo ao plano lógico na consulta de streaming
-
[SPARK-39582] [SQL] Corrigir marcador "Since" para
array_agg
-
[FAÍSCA-39388] [SQL] Reutilizar
orcSchema
quando empurrar predicados Orc para baixo - [SPARK-39511] [SQL] Aprimorar a aplicação descendente do limite local de 1 para o lado direito de uma junção semi-esquerda/anti-esquerda se a condição de junção estiver vazia
- [SPARK-38614] [SQL] Não empurre o limite para baixo através da janela que está usando percent_rank
- [SPARK-39551] [SQL] Adicionar verificação de plano inválido do AQE
- [SPARK-39383] [SQL] Suporte de colunas DEFAULT em ALTER TABLE ADD COLUMNS a fontes de dados V2
- [SPARK-39538] [SQL] Evite criar SLF4J Logger desnecessário
- [SPARK-39383] [SQL] retrocessão manual para o DBR 11.x: refatorar o suporte à coluna DEFAULT para evitar a transferência do Analisador principal
- [SPARK-39397] [SQL] Relaxar AliasAwareOutputExpression para suportar alias com expressão
-
[SPARK-39496] [SQL] Manipular a estrutura nula em
Inline.eval
-
[SPARK-39545] [SQL] Substituir o método
concat
paraExpressionSet
no Scala 2.13 para melhorar o desempenho - [SPARK-39340] [SQL] O agg pushdown do DS v2 deveria permitir pontos no nome das colunas de nível superior
- [SPARK-39488] [SQL] Simplifique o tratamento de erros de TempResolvedColumn
- [SPARK-38846] [SQL] Adicionar mapeamento explícito de dados entre Teradata Numeric Type e Spark DecimalType
-
[SPARK-39520] [SQL] Sobrescrever o método
--
emExpressionSet
no Scala 2.13 - [SPARK-39470] [SQL] Suporte para a conversão de intervalos ANSI para decimais
- [SPARK-39477] [SQL] Remova as informações de "Número de consultas" dos arquivos dourados do SQLQueryTestSuite
- [SPARK-39419] [SQL] Corrigir ArraySort para lançar uma exceção quando o comparador retornar null
-
[SPARK-39061] [SQL] Definir corretamente como anuláveis os
Inline
atributos de saída -
[SPARK-39320] [SQL] Suporte à função de agregação
MEDIAN
- [SPARK-39261] [CORE] Melhorar a formatação de quebras de linha para mensagens de erro
- [SPARK-39355] [SQL] Coluna única usa aspas para construir UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE deve redigir propriedades
- [SPARK-37623] [SQL] Suporte à função de agregação ANSI: regr_intercept
- [SPARK-39374] [SQL] Melhorar mensagem de erro para lista de colunas especificada pelo usuário
- [SPARK-39255] [SQL][3.3] Melhorar as mensagens de erro
- [SPARK-39321] [SQL] Refatore TryCast para usar RuntimeReplaceable
- [SPARK-39406] [PYTHON] Aceitar matriz NumPy em createDataFrame
- [SPARK-39267] [SQL] Limpar o símbolo desnecessário dsl
- [SPARK-39171] [SQL] Unificar a expressão Cast
- [SPARK-28330] [SQL] Suporte ANSI SQL: cláusula de deslocamento de resultado na expressão de consulta
- [SPARK-39203] [SQL] Reescreva o local da tabela em um URI absoluto com base no URI do banco de dados
-
[SPARK-39313] [SQL]
toCatalystOrdering
deve falhar se V2Expression não puder ser traduzido - [SPARK-39301] [SQL][python] Aproveite o LocalRelation e respeite o tamanho do lote de Arrow em createDataFrame com otimização de Arrow
- [SPARK-39400] [SQL] spark-sql deve, em todos os casos, remover o diretório de recursos do hive
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 11.2.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Píton: 3.9.5
- R: 4.1.3
- Lago Delta: 2.1.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Contínuo) | argon2-cffi | 20.1.0 | gerador assíncrono | 1.10 |
ATRs | 21.2.0 | chamada de retorno | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.1.1 |
preto | 22.3.0 | lixívia | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clicar | 8.0.3 |
criptografia | 3.4.8 | ciclagem | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | decorador | 5.1.0 |
defusedxml | 0.7.1 | Distlib | 0.3.5 | distro-info | 0,23ubuntu1 |
pontos de entrada | 0.3 | facetas-visão geral | 1.0.0 | bloqueio de ficheiros | 3.8.0 |
idna | 3.2 | Ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | Joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | Jupyter-core | 4.8.1 |
Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | Kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib em linha | 0.1.2 |
Mistune | 0.8.4 | mypy-extensões | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
bloco de notas | 6.4.5 | numpy | 1.20.3 | embalagem | 21.0 |
pandas | 1.3.4 | PandocFilters | 1.4.3 | Parso | 0.8.2 |
PathSpec | 0.9.0 | bode expiatório | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Almofada | 8.4.0 | pip | 21.2.4 |
platformdirs | 2.5.2 | enredo | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
Pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
Pyzmq | 22.2.1 | pedidos | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Enviar2Lixo | 1.8.0 | setuptools | 58.0.4 |
seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.1 | traços | 5.1.0 | extensões de digitação | 3.10.0.2 |
Atualizações automáticas | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
largura de wc | 0.2.5 | WebEncodings | 0.5.1 | roda | 0.37.0 |
widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo do Microsoft CRAN em 2022-08-15.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
AskPass | 1.1 | asserçãoat | 0.2.1 | retrocessos | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | arranque | 1.3-28 |
preparar | 1.0-7 | Brio | 1.1.3 | vassoura | 1.0.0 |
BSLIB | 0.4.0 | cachem | 1.0.6 | Chamador | 3.7.1 |
caret | 6.0-93 | Cellranger | 1.1.0 | crono | 2.3-57 |
classe | 7.3-20 | cli | 3.3.0 | Clipr | 0.8.0 |
aglomerado | 2.1.3 | codetools | 0.2-18 | espaço em cores | 2.0-3 |
marca comum | 1.8.0 | compilador | 4.1.3 | configuração | 0.3.1 |
cpp11 | 0.4.2 | lápis de cor | 1.5.1 | Credenciais | 1.3.2 |
curl | 4.3.2 | data.table (tabela de dados) | 1.14.2 | conjuntos de dados | 4.1.3 |
DBI | 1.1.3 | DBPlyr | 2.2.1 | descrição | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | resumo | 0.6.29 |
Iluminação reduzida | 0.4.2 | dplyr | 1.0.9 | DTPlyr | 1.2.1 |
e1071 | 1.7-11 | reticências | 0.3.2 | avaliar | 0,16 |
Fãsi | 1.0.3 | Farver | 2.1.1 | mapa rápido | 1.1.0 |
fontawesome | 0.3.0 | FORCATS | 0.5.1 | foreach | 1.5.2 |
estrangeiro | 0.8-82 | forjar | 0.2.0 | FS | 1.5.2 |
Futuro | 1.27.0 | future.apply | 1.9.0 | gargarejo | 1.2.0 |
Genéricos | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
GH | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
Globais | 0.16.0 | cola | 1.6.2 | GoogleDrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | gráficos | 4.1.3 |
grDevices | 4.1.3 | grelha | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0.7 | tabela g | 0.3.0 | capacete de segurança | 1.2.0 |
Refúgio | 2.5.0 | mais alto | 0,9 | HMS (Navio de Sua Majestade) | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | identificadores | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | Isoband | 0.2.5 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
Knitr | 1.39 | etiquetagem | 0.4.2 | mais tarde | 1.3.0 |
treliça | 0.20-45 | lava | 1.6.10 | ciclo de vida | 1.0.1 |
ouvir | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Marcação | 1.1 | MASSA | 7.3-56 | Matriz | 1.4-1 |
memorizar | 2.0.1 | métodos | 4.1.3 | mgcv | 1.8-40 |
mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
paralelo | 4.1.3 | Paralelamente | 1.32.1 | pilar | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
elogiar | 1.0.0 | unidades elegantes | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | Profvis | 0.3.7 |
Progresso | 1.2.2 | progressr | 0.10.1 | promessas | 1.2.0.1 |
proto | 1.0.0 | procuração | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
RAGG | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | Leitor | 2.1.2 | readxl | 1.4.0 |
receitas | 1.0.1 | revanche | 1.0.1 | revanche2 | 2.1.2 |
Controles remotos | 2.4.2 | Exemplo Reproduzível | 2.0.1 | remodelar2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversões | 2.1.1 | Rvest | 1.0.2 | Sass | 0.4.2 |
escalas | 1.2.0 | seletor | 0.4-2 | informação de sessão | 1.2.2 |
forma | 1.4.6 | brilhante | 1.7.2 | ferramentas de código-fonte | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | espacial | 7.3-11 |
splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
estatísticas | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | sobrevivência | 3.2-13 | sys | 3.4 |
fontes do sistema | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
formatação de texto | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | Tidyverse | 1.3.2 | data e hora | 4021.104 |
Tinytex | 0.40 | ferramentas | 4.1.3 | TZDB | 0.3.0 |
verificador de URLs | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utilitários | 4.1.3 | Identificador Único Universal (UUID) | 1.1-0 | VCTRS | 0.4.1 |
viridisLite | 0.4.0 | vrum | 1.5.7 | Waldo | 0.4.0 |
vibrissa | 0.4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-suporte | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | transmissão | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.3 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | núcleo | 1.1.2 |
com.github.fommil.netlib | referência_nativa-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1 |
com.github.fommil.netlib | native_system-java-nativos | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | ZSTD-JNI | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | analista de perfil | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
carregamento-de-ficheiros-comuns | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | LAPACK | 2.2.1 |
Hadoop3 | JETS3T-0,7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressor de ar | 0.21 |
IO.Delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | verificações de saúde de métricas | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | métricas-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | métricas-JVM | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-comum | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transporte Netty | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jacarta.validação | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
MVN | Hadoop3 | liball_deps_2.12 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
net.floco de neve | Flocos de Neve-JDBC | 3.13.14 |
net.floco de neve | faísca-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | modelo de string | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato de seta | 7.0.0 |
org.apache.arrow | núcleo de memória Arrow | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | vetor de seta | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.9 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador de receitas | 2.13.0 |
org.apache.derby | derbi | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-Databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | hive-llap-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | hera | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | Orc-calços | 1.7.5 |
org.apache.parquet | parquet-coluna | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-common | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-encoding | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | estruturas de formato parquet | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-DATABRICKS-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.20 |
org.apache.yetus | notas de audiência | 0.5.0 |
org.apache.zookeeper | guarda zoológico | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | verificador de qualidade | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | segurança-jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | servidor Jersey | 2.34 |
org.glassfish.jersey.inject | jersey-HK2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | calços | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | WildFly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |