Tempo de execução do Databricks 14.3 LTS
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 14.3 LTS, alimentado pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em fevereiro de 2024.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte as Notas de versão do Databricks Runtime com fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Novos recursos e melhorias
- Suporte ao sistema de arquivos Workspace no PySpark User-Defined Functions (UDFs) em clusters de modo de acesso padrão (anteriormente modo de acesso compartilhado)
- Suporte para otimizações do vetor de eliminação sem Photon
- APIs de catálogo do Spark agora totalmente suportadas no modo de acesso padrão
- Delta UniForm agora está disponível para o público em geral
- Nova função SQL EXECUTE IMMEDIATE
- Recalcular estatísticas de pulo de dados para tabelas Delta
- Informações de estado de consulta para consultas de streaming com estado
- Usar o Microsoft Entra ID para autenticação Kafka em clusters padrão
- Suporte adicionado para remoção de arquivos e partições para melhorar o desempenho da consulta
- Declarar variáveis temporárias em uma sessão SQL
- Atualizações do Thriftserver para remover recursos não utilizados
- Utilize os ficheiros truststore e keystore em volumes do Unity Catalog
- Suporte ao formato de arquivo XML nativo (Visualização pública)
- Suporte para armazenamento Cloudflare R2 (visualização pública)
- Acesso ao Spark e ao dbutils aos ficheiros do espaço de trabalho em clusters de acesso padrão do Unity Catalog
- Scripts de inicialização e suporte de biblioteca de cluster em clusters do Unity Catalog com acesso padrão
Suporte ao sistema de arquivos de espaço de trabalho no PySpark User-Defined Functions (UDFs) em clusters de modo de acesso padrão (anteriormente modo de acesso compartilhado)
UDFs do PySpark em clusters padrão agora podem importar módulos Python de pastas Git, arquivos de espaço de trabalhoou volumes UC.
Para obter mais informações sobre como trabalhar com módulos em pastas Git ou arquivos de espaço de trabalho, consulte Trabalhar com módulos Python e R.
Suporte para otimizações de vetores MERGE
de exclusão sem Photon
Já não é necessário utilizar o Photon para que as operações MERGE
tirem partido das otimizações de vetores de eliminação. Consulte O que são vetores de exclusão?.
APIs de catálogo do Spark agora totalmente suportadas no modo de acesso padrão
Agora você pode usar todas as funções na API spark.catalog
em Python e Scala na computação configurada com o modo de acesso padrão.
Delta UniForm agora está disponível para o público em geral
O UniForm está agora geralmente disponível e utiliza o recurso de tabela IcebergCompatV2
. Agora você pode habilitar ou atualizar o UniForm em tabelas existentes. Veja Ler tabelas Delta com clientes Iceberg.
Nova função SQL EXECUTE IMMEDIATE
Agora você pode usar a sintaxe EXECUTE IMMEDIATE para dar suporte a consultas parametrizadas em SQL. Veja EXECUTE IMMEDIATE.
Recalcular estatísticas de salto de dados para as tabelas Delta
Agora você pode recalcular as estatísticas armazenadas no log Delta depois de alterar as colunas usadas para pular dados. Consulte Especificar colunas de estatísticas delta.
Informações de estado de consulta para consultas de streaming com monitoração de estado
Agora você pode consultar dados e metadados de estado do Streaming Estruturado. Consulte Ler informações de estado do Structured Streaming.
Usar o Microsoft Entra ID para autenticação Kafka em clusters padrão
Agora pode autenticar serviços do Event Hubs via OAuth com o Microsoft Entra ID em sistema computacional configurado com o modo de acesso padrão. Consulte Autenticação do Principal do Serviço com o Microsoft Entra ID e Azure Event Hubs.
Suporte adicionado para remoção de arquivos e partições para melhorar o desempenho da consulta
Para acelerar algumas consultas que dependem da igualdade tolerante a nulos em condições JOIN, agora oferecemos suporte a DynamicFilePruning
e DynamicPartitionPruning
para o operador EqualNullSafe
em JOINs.
Declarar variáveis temporárias em uma sessão SQL
Esta versão introduz a capacidade de declarar variáveis temporárias em uma sessão que pode ser definida e, em seguida, referida a partir de consultas. Consulte Variáveis.
Atualizações do Thriftserver para remover recursos não utilizados
O código do Thriftserver foi atualizado para remover o código relacionado a funcionalidades obsoletas. Devido a essas alterações, as seguintes configurações não são mais suportadas:
- Os JARs auxiliares do Hive, configurados usando a
hive.aux.jars.path
propriedade, não são mais suportados parahive-thriftserver
conexões. - O arquivo de inicialização global do Hive (
.hiverc
), cujo local é configurado usando ahive.server2.global.init.file.location
propriedade ou aHIVE_CONF_DIR
variável de ambiente, não é mais suportado parahive-thriftserver
conexões.
Utilizar arquivos de truststore e keystore em volumes do Unity Catalog
Agora, pode usar ficheiros truststore e keystore nos volumes do Unity Catalog para autenticar num Confluent Schema Registry para dados avro ou de buffer de protocolo. Consulte a documentação para avro ou protocol buffers.
Suporte ao formato de arquivo XML nativo (Visualização pública)
O suporte ao formato de arquivo XML nativo agora está em Visualização Pública. O suporte ao formato de arquivo XML permite a ingestão, consulta e análise de dados XML para processamento em lote ou streaming. Ele pode inferir e evoluir automaticamente esquemas e tipos de dados, suporta expressões SQL como from_xml
, e pode gerar documentos XML. Não requer bibliotecas externas e funciona perfeitamente com Auto Loader, read_files
, COPY INTO
e DLT. Consulte Ler e gravar arquivos XML.
Suporte para armazenamento Cloudflare R2 (visualização pública)
Agora você pode usar o Cloudflare R2 como armazenamento em nuvem para dados registrados no Unity Catalog. O Cloudflare R2 destina-se principalmente a casos de uso do Delta Sharing nos quais você deseja evitar as taxas de saída de dados cobradas pelos provedores de nuvem quando os dados cruzam regiões. O armazenamento R2 suporta todos os dados Databricks e ativos de IA compatíveis com AWS S3, Azure Data Lake Storage Gen2 e Google Cloud Storage. Consulte Usar réplicas do Cloudflare R2 ou migrar o armazenamento para o R2 e Criar uma credencial de armazenamento para se conectar ao Cloudflare R2.
Acesso do Spark e dbutils ao suporte para ficheiros no espaço de trabalho em clusters de acesso padrão do Unity Catalog
O acesso de leitura e gravação do Spark e dbutils
aos arquivos do espaço de trabalho agora é suportado nos clusters do Unity Catalog no modo de acesso padrão . Consulte Trabalhar com ficheiros de espaço de trabalho.
Suporte a scripts de inicialização e biblioteca de clusters em clusters do Unity Catalog de acesso padrão
A instalação de scripts init com escopo de cluster e bibliotecas Python e JAR em clusters do Unity Catalog em modo de acesso padrão, incluindo a instalação usando políticas de cluster , agora está disponível ao público em geral. O Databricks recomenda a instalação de scripts init e bibliotecas a partir de volumes do Unity Catalog.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- fastjsonschema de 2.19.0 para 2.19.1
- filelock de 3.12.4 a 3.13.1
- googleapis-common-protos de 1.61.0 a 1.62.0
- embalagem de 22,0 a 23,2
- Bibliotecas R atualizadas:
- estrangeiro de 0,8-82 a 0,8-85
- nlme de 3.1-162 a 3.1-163
- parte de 4.1.19 a 4.1.21
- Bibliotecas Java atualizadas:
- com.databricks.databricks-sdk-java de 0.7.0 a 0.13.0
- org.apache.orc.orc-core de 1.9.1-shaded-protobuf para 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.1-shaded-protobuf para 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.1 a 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 de 2.9.0 a 2.11.0
Apache Spark
O Databricks Runtime 14.3 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 14.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-46541] [SC-153546][sql][CONNECT] Corrigir a referência de coluna ambígua na auto-união
- [SPARK-45433] Revert "[SC-145163][sql] Corrigir CSV/JSON schema infer...
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Tornar addArtifact retryable
- [SPARK-46660] [SC-153391][connect] ReattachExecute solicita atualizações sobre a vitalidade do SessionHolder
- [SPARK-46670] [SC-153273][python][SQL] Torne o DataSourceManager autoclonável separando fontes de dados Python estáticas e de tempo de execução
- [SPARK-46720] [SC-153410][sql][PYTHON] Refatore a fonte de dados Python para alinhar com outras fontes de dados internas do DSv2
- [SPARK-46684] [SC-153275][python][CONNECT] Corrija CoGroup.applyInPandas/Arrow para passar argumentos corretamente
- [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Gerar erro em várias fontes de dados XML
- [SPARK-46382] [SC-151881][sql]XML: Padrão ignoreSurroundingSpaces para verdadeiro
-
[SPARK-46382] [SC-153178][sql] XML: Documento de atualização para
ignoreSurroundingSpaces
- [SPARK-45292] Reverter "[SC-151609][sql][HIVE] Remover Guava de classes compartilhadas de IsolatedClientLoader"
- [SPARK-45292] [SC-151609][sql][HIVE] Remover Guava de classes compartilhadas de IsolatedClientLoader
-
[SPARK-46311] [SC-150137][core] Registe o estado final dos drivers durante
Master.removeDriver
- [SPARK-46413] [SC-151052][python] Validar o returnType do Python UDF do Arrow
- [SPARK-46633] [WARMFIX][sc-153092][SQL] Corrija o leitor Avro para lidar com blocos de comprimento zero
- [SPARK-46537] [SC-151286][sql] Converter NPE e declarações de comandos para erros internos
- [SPARK-46179] [SC-151678][sql] Adicione CrossDbmsQueryTestSuites, que executa testes em outros DBMS contra ficheiros de referência com outros DBMS, começando com Postgres
- [SPARK-44001] [SC-151413][protobuf] Adicionar opção para permitir desembrulhar os tipos de invólucro bem conhecidos do protobuf
- [SPARK-40876] [SC-151786][sql] Expansão da promoção de tipo para decimais com maior escala em leitores Parquet
-
[SPARK-46605] [SC-151769][connect] Fazer com que
lit/typedLit
função no módulo de conexão suportes.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005][sql] validação literal não deve aprofundar em campos nulos
-
[SPARK-37039] [SC-153094][ps] Corrigir
Series.astype
para funcionar corretamente quando há um valor em falta -
[SPARK-46312] [SC-150163][core] Use
lower_camel_case
nostore_types.proto
- [SPARK-46630] [SC-153084][sql] XML: Validar nome do elemento XML na gravação
- [SPARK-46627] [SC-152981][ss][UI] Corrigir conteúdo de dica de ferramenta da linha do tempo na interface do usuário de streaming
- [SPARK-46248] [SC-151774][sql] XML: Suporte para as opções ignoreCorruptFiles e ignoreMissingFiles
- [SPARK-46386] [SC-150766][python] Melhorar asserções de observação (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][core] Comentário de atualização sobre isZero no AccumulatorV2
- [SPARK-46601] [SC-151785] [CORE] Corrigir erro de log em handleStatusMessage
- [SPARK-46568] [SC-151685][python] Tornar as opções de fonte de dados Python um dicionário que não diferencia maiúsculas de minúsculas
- [SPARK-46611] [SC-151783][core] Remova ThreadLocal substituindo SimpleDateFormat por DateTimeFormatter
-
[SPARK-46604] [SC-151768][sql] Suportar
Literal.apply
as.c.immuable.ArraySeq
- [SPARK-46324] [SC-150223][sql][PYTHON] Corrija o nome de saída de pyspark.sql.functions.user e session_user
- [SPARK-46621] [SC-151794][python] Endereço null de Exception.getMessage na exceção capturada pelo Py4J
- [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader deve respeitar o modo de memória ao criar vetores de coluna para a coluna ausente
- [SPARK-46613] [SC-151778][sql][PYTHON] Registar exceção completa ao falhar em procurar fontes de dados em Python
-
[SPARK-46559] [SC-151364][mllib] Envolva o
export
no nome do pacote com backticks - [SPARK-46522] [SC-151784][python] Bloquear o registo de uma fonte de dados Python com conflitos de nome
- [SPARK-45580] [SC-149956][sql] Gerir a situação em que uma subconsulta aninhada se torna uma junção de existência
- [SPARK-46609] [SC-151714][sql] Evite explosão exponencial em PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][sql] Corrigir NPE ao descrever detalhadamente uma coluna sem estatísticas de coluna
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Use TypeCoercion.findTightestCommonType para verificação de compatibilidade
- [SPARK-40876] [SC-151129][sql] Ampliando promoções de tipo em leitores Parquet
- [SPARK-46179] [SC-151069][sql] Extrair código para funções reutilizáveis no SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][sql] Suporte
s.c.immutable.ArraySeq
comocustomCollectionCls
emMapObjects
-
[SPARK-46585] [SC-151622][core] Construir diretamente
metricPeaks
como umimmutable.ArraySeq
em vez de usarmutable.ArraySeq.toSeq
emExecutor
- [SPARK-46488] [SC-151173][sql] Ignorando a chamada da função trimAll durante a análise de carimbos de data/hora
-
[SPARK-46231] [SC-149724][python] Migrar todos os
NotImplementedError
&TypeError
restantes para a estrutura de erro do PySpark -
[SPARK-46348] [SC-150281][core] Suporte
spark.deploy.recoveryTimeout
-
[SPARK-46313] [SC-150164][core] Duração da recuperação do log
Spark HA
-
[SPARK-46358] [SC-150307][connect] Simplifique a verificação de condições no
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][sql]Substitua a data/hora atual antes de avaliar expressões de tabela internas.
- [SPARK-46563] [SC-151441][sql] Vista simpleString não segue conf spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Reduzir a profundidade da pilha ao substituir (string|array).size por (string|array).length
- [SPARK-46539] [SC-151469][sql] SELECT * EXCETO(todos os campos de uma estrutura) resulta numa falha de asserção
- [SPARK-46565] [SC-151414][python] Refine classes de erro e mensagens de erro para fontes de dados Python
- [SPARK-46576] [SC-151614][sql] Melhorar mensagens de erro para o modo de salvamento de fonte de dados sem suporte
- [SPARK-46540] [SC-151355][python] Respeitar os nomes das colunas quando a fonte de dados Python ler saídas de função denominadas Row objects
- [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite vaza SessionState do Hive
-
[SPARK-44556] [SC-151562][sql] Reutilizar
OrcTail
ao ativar vectorizedReader - [SPARK-46587] [SC-151618][sql] XML: Corrigir conversão de inteiro grande XSD
- [SPARK-46382] [SC-151297][sql] XML: Capturar valores intercalados entre elementos
- [SPARK-46567] [SC-151447][core] Remover ThreadLocal para ReadAheadInputStream
- [SPARK-45917] [SC-151269][python][SQL] Registro automático de Python Data Source na inicialização
- [SPARK-28386] [SC-151014][sql] Não é possível resolver ORDER BY colunas com GROUP BY e HAVING
- [SPARK-46524] [SC-151446][sql] Melhorar mensagens de erro para modo de salvamento inválido
- [SPARK-46294] [SC-150672][sql] Clarificar a semântica de init em comparação com valor zero
-
[SPARK-46301] [SC-150100][core] Suporte
spark.worker.(initial|max)RegistrationRetries
-
[SPARK-46542] [SC-151324][sql] Remova a verificação de
c>=0
doExternalCatalogUtils#needsEscaping
, pois é sempre verdadeira -
[SPARK-46553] [SC-151360][ps]
FutureWarning
parainterpolate
com objeto dtype - [SPARK-45914] [SC-151312][python] Suporte para confirmação e anulação de API para gravação de fonte de dados em Python
-
[SPARK-46543] [SC-151350][python][CONNECT] Faça
json_tuple
lance PySparkValueError para campos vazios - [SPARK-46520] [SC-151227][python] Suporte para modo de substituição na gravação da fonte de dados Python
- [SPARK-46502] [SC-151235][sql] Suporta tipos de carimbo de data/hora em UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][connect] Transmitir parâmetros de mensagem no metadado de
ErrorInfo
-
[SPARK-46397] Revert "[SC-151311][python][CONNECT] Função
sha2
deve lançarPySparkValueError
paranumBits
inválido" - [SPARK-46170] [SC-149472][sql] Suportar a injeção de regras de estratégia de pós-planeamento de consulta adaptável em SparkSessionExtensions
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable não deve carregar a tabela
-
[SPARK-46397] [SC-151311][python][CONNECT] Função
sha2
deve lançarPySparkValueError
paranumBits
inválidos - [SPARK-46145] [SC-149471][sql] spark.catalog.listTables não lança exceção quando a tabela ou exibição não é encontrada
- [SPARK-46272] [SC-151012][sql] Suporte CTAS usando fontes DSv2
- [SPARK-46480] [SC-151127][core][SQL] Corrigir NPE ao tentar tarefa de cache de tabela
- [SPARK-46100] [SC-149051][core][PYTHON] Reduza a profundidade da pilha substituindo (string|array).size por (string|array).length
- [SPARK-45795] [SC-150764][sql] DS V2 suporta o modo push down
- [SPARK-46485] [SC-151133][sql] V1Write não deve adicionar Sort quando não for necessário
- [SPARK-46468] [SC-151121] [SQL] Resolver o bug COUNT para subconsultas EXISTS com Aggregate sem grupos de chaves
- [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE suporte SQL
-
[SPARK-46498] [SC-151199][core] Remover
shuffleServiceEnabled
doo.a.spark.util.Utils#getConfiguredLocalDirs
-
[SPARK-46440] [SC-150807][sql] Definir as configurações de rebase para o modo
CORRECTED
por padrão - [SPARK-45525] [SC-151120][sql][PYTHON] Suporte para gravação de fonte de dados Python usando DSv2
-
[SPARK-46505] [SC-151187][connect] Torne o limite de bytes configurável no
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][sql] Remova as configurações SQL herdadas de data/hora
- [SPARK-46443] [SC-151123][sql] A precisão decimal e a escala devem ser decididas pelo dialeto H2.
- [SPARK-46384] [SC-150694][spark-46404][SS][ui] Corrigir gráfico de pilha de duração da operação na página de streaming estruturado
- [SPARK-46207] [SC-151068][sql] Suporte MergeInto em DataFrameWriterV2
- [SPARK-46452] [SC-151018][sql] Adicionar uma nova API no DataWriter para escrever um iterador de registros
- [SPARK-46273] [SC-150313][sql] Suporte INSERT INTO/OVERWRITE usando fontes DSv2
- [SPARK-46344] [SC-150267][core] Avisar corretamente quando um driver existe com êxito, mas o mestre está desconectado
-
[SPARK-46284] [SC-149944][python][CONNECT] Adicionar
session_user
função ao Python - [SPARK-46043] [SC-149786][sql] Suporte criar tabela usando fontes DSv2
- [SPARK-46323] [SC-150191][python] Corrigir o nome de saída de pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][python][CONNECT] Adicionar
Column.isNaN
no PySpark -
[SPARK-46456] [SC-151050][core] Adicione
spark.ui.jettyStopTimeout
para definir o tempo limite de parada do servidor Jetty para desbloquear o desligamento do SparkContext - [SPARK-43427] [SC-150356][protobuf] Spark Protobuf: permitir a transmissão de tipos inteiros não assinados
- [SPARK-46399] [SC-151013][14.x][Núcleo] Adicionar código de saída ao evento Application End para uso do Spark Listener
- [SPARK-46423] [SC-150752][python][SQL] Crie a instância Python Data Source em DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][python][SQL] Suporte a métricas Python em Python Data Source
- [SPARK-46330] [SC-151015] Carregamento de blocos da UI do Spark demorando muito tempo quando o HybridStore está ativado
- [SPARK-46378] [SC-150397][sql] Continuar a remover ordenação após converter agregação em projeto
- [SPARK-45506] [SC-146959][connect] Adicionar suporte a URI de Ivy no SparkConnect addArtifact
- [SPARK-45814] [SC-147871][connect][SQL]Make ArrowConverters.createEmptyArrowBatch call close() para evitar vazamento de memória
- [SPARK-46427] [SC-150759][python][SQL] Altere a descrição da fonte de dados Python para ser bonita na explicação
- [SPARK-45597] [SC-150730][python][SQL] Suporte à criação de tabela usando uma fonte de dados Python em SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][python] Adicionar suporte a getMessageParameters e getQueryContext
-
[SPARK-46453] [SC-150897][connect] Lançar exceção de
internalError()
emSessionHolder
- [SPARK-45758] [SC-147454][sql] Introduzir um mapeador para codecs de compressão hadoop
-
[SPARK-46213] [PYTHON] Introduzir
PySparkImportError
para a estrutura de erros -
[SPARK-46230] [SC-149960][python] Migrar
RetriesExceeded
para erro no PySpark - [SPARK-45035] [SC-145887][sql] Corrigir ignoreCorruptFiles/ignoreMissingFiles com várias linhas CSV / JSON relatará erro
- [SPARK-46289] [SC-150846][sql] Suporte para ordenação de UDTs no modo interpretado
- [SPARK-46229] [SC-150798][python][CONNECT] Adicionar applyInArrow ao groupBy e cogroup em Spark Connect
- [SPARK-46420] [SC-150847][sql] Remover transporte não utilizado no SparkSQLCLIDriver
- [SPARK-46226] [PYTHON] Migrar o restante para a estrutura de erros do PySpark
- [SPARK-45796] [SC-150613][sql] Suporte para MODE() dentro do grupo (ORDER BY col)
- [SPARK-40559] [SC-149686][python][14.X] Adicionar applyInArrow ao groupBy e ao cogroup
- [SPARK-46069] [SC-149672][sql] Suporte desembrulhar tipo de carimbo de data/hora para tipo de data
- [SPARK-46406] [SC-150770][sql] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss] Converter
IllegalStateException
eminternalError
em iteradores de sessão - [SPARK-45807] [SC-150751][sql] Melhorar a API ViewCatalog
- [SPARK-46009] [SC-149771][sql][CONNECT] Mesclar a regra de análise de PercentileCont e PercentileDisc em functionCall
- [SPARK-46403] [SC-150756][sql] Decodificar binário de Parquet com o método getBytesUnsafe
-
[SPARK-46389] [SC-150779][core] Feche manualmente a instância de
RocksDB/LevelDB
quandocheckVersion
lançar exceção -
[SPARK-46360] [SC-150376][python] Melhorar a depuração de mensagens de erro com a nova API
getMessage
-
[SPARK-46233] [SC-149766][python] Migrar todos os restantes
AttributeError
para o quadro de erros do PySpark -
[SPARK-46394] [SC-150599][sql] Corrija problemas spark.catalog.listDatabases() em esquemas com caracteres especiais quando
spark.sql.legacy.keepCommandOutputSchema
definido como true - [SPARK-45964] [SC-148484][sql] Remover o acessor SQL privado nos pacotes XML e JSON sob o pacote catalyst
- [SPARK-45856] [SC-148691] Move o ArtifactManager do Spark Connect para o SparkSession (sql/core)
- [SPARK-46409] [SC-150714][connect] Corrigir script de inicialização spark-connect-scala-client
-
[SPARK-46416] [SC-150699][core] Adicionar
@tailrec
aHadoopFSUtils#shouldFilterOutPath
-
[SPARK-46115] [SC-149154][sql] Restringir conjuntos de caracteres no
encode()
- [SPARK-46253] [SC-150416][python] Planejar a leitura da fonte de dados Python usando MapInArrow
- [SPARK-46339] [SC-150266][ss] Diretório com nome de número de lote não deve ser tratado como log de metadados
-
[SPARK-46353] [SC-150396][core] Refatorar para melhorar a cobertura do teste de unidade
RegisterWorker
- [SPARK-45826] [SC-149061][sql] Adicionar uma configuração SQL para rastreamentos de pilha no contexto de consulta DataFrame
- [SPARK-45649] [SC-150300][sql] Unifique a estrutura de preparação para OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][core] Corrigir o Master para atualizar um worker de
UNKNOWN
paraALIVE
na mensagemRegisterWorker
-
[SPARK-46388] [SC-150496][sql] HiveAnalysis falha em reconhecer a verificação de padrão de
query.resolved
-
[SPARK-46401] [SC-150609][core] Use
!isEmpty()
noRoaringBitmap
em vez degetCardinality() > 0
noRemoteBlockPushResolver
- [SPARK-46393] [SC-150603][sql] Classificar exceções no catálogo de tabelas JDBC
- [SPARK-45798] [SC-150513][connect] Seguimento: adicionar serverSessionId a SessionHolderInfo
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML: Adicionar suporte a TimestampNTZType
- [SPARK-46075] [SC-150393][connect] Melhorias no SparkConnectSessionManager
- [FAÍSCA-46357] [SC-150596] Substituir o uso incorreto de setConf na documentação por conf.set
- [SPARK-46202] [SC-150420][connect] Expor novas APIs do ArtifactManager para oferecer suporte a diretórios de destino personalizados
-
[SPARK-45824] [SC-147648][sql] Aplicar a classe de erro no
ParseException
- [SPARK-45845] [SC-148163][ss][UI] Adicionar número de linhas de estado removidas à interface do usuário de streaming
-
[SPARK-46316] [SC-150181][core] Ativar
buf-lint-action
no módulocore
-
[SPARK-45816] [SC-147656][sql] Retornar
NULL
em caso de estouro durante a conversão de carimbo de data/hora para inteiros -
[SPARK-46333] [SC-150263][sql] Substitua
IllegalStateException
porSparkException.internalError
no catalisador - [SPARK-45762] [SC-148486][core] Suporte a gerenciadores de shuffle definidos em jars de usuário alterando a ordem de inicialização
-
[SPARK-46239] [SC-149752][core] Ocultar informações
Jetty
-
[SPARK-45886] [SC-148089][sql] Exibir rastreamento completo da pilha em
callSite
no contexto de DataFrame - [SPARK-46290] [SC-150059][python] Alterar saveMode para um sinalizador booleano para DataSourceWriter
- [SPARK-45899] [SC-148097][connect] Definir errorClass em errorInfoToThrowable
-
[SPARK-45841] [SC-147657][sql] Expor rastreamento de pilha através de
DataFrameQueryContext
-
[SPARK-45843] [SC-147721][core] Suporte
killall
na API de envio REST -
[SPARK-46234] [SC-149711][python] Introduza
PySparkKeyError
para a estrutura de erro do PySpark - [SPARK-45606] [SC-147655][sql] Levantar restrições no filtro de tempo de execução multicamadas
- [SPARK-45725] [SC-147006][sql] Remover o filtro de tempo de execução da subconsulta IN não padrão
-
[SPARK-45694] [SC-147314][spark-45695][SQL] Eliminar
View.force
eScalaNumberProxy.signum
do uso de APIs preteridas -
[SPARK-45805] [SC-147488][sql] Tornar
withOrigin
mais genérico - [SPARK-46292] [SC-150086][core][UI] Mostrar um resumo dos trabalhadores na MasterPage
-
[SPARK-45685] [SC-146881][core][SQL] Use
LazyList
em vez deStream
- [SPARK-45888] [SC-149945][ss] Aplicar estrutura de classe de erro à fonte de dados de estado (metadados)
-
[SPARK-46261] [SC-150111][connect]
DataFrame.withColumnsRenamed
deve manter a ordem do dicionário/mapa -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Limpar
SeqOps.view
eArrayOps.view
conversões -
[SPARK-46029] [SC-149255][sql] Fuja da cotação simples,
_
e%
para DS V2 pushdown - [FAÍSCA-46275] [SC-150189] Protobuf: Retorna nulo em modo permissivo quando a desserialização falha.
-
[SPARK-46320] [SC-150187][core] Suporte
spark.master.rest.host
- [SPARK-46092] [SC-149658][sql] Não empurre para baixo os filtros de grupo de linhas do Parquet que transbordam
- [SPARK-46300] [SC-150097][python][CONNECT] Ajustar correspondência de comportamento menor em coluna com cobertura total de testes
- [SPARK-46298] [SC-150092][python][CONNECT] Aviso de descontinuação, caso de teste e erro relacionados com Catalog.createExternalTable
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Limpar o uso obsoleto da API relacionado a
StringContext/StringOps/RightProjection/LeftProjection/Either
e o uso de tipo deBufferedIterator/CanBuildFrom/Traversable
- [SPARK-33393] [SC-148407][sql] Suporte SHOW TABLE EXTENDED na v2
-
[SPARK-45737] [SC-147011][sql] Remover
.toArray[InternalRow]
desnecessário noSparkPlan#executeTake
- [SPARK-46249] [SC-149797][ss] Exigir bloqueio de instância para adquirir métricas do RocksDB para evitar corridas com operações em segundo plano
-
[SPARK-46260] [SC-149940][python][SQL]
DataFrame.withColumnsRenamed
deve respeitar a ordem do ditado - [FAÍSCA-46274] [SC-150043] [SQL] Corrigir o operador Intervalo computeStats() para verificar a validade do tipo long antes de converter
- [SPARK-46040] [SC-149767][sql][Python] Atualize a API UDTF para 'analisar' colunas de particionamento/ordenação para suportar expressões gerais
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmpty
deve funcionar com todos os tipos de dados - [SPARK-45678] [SC-146825][core] Capa BufferReleasingInputStream.available/reset em tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][core][SQL][connect] Limpe o uso preterido da API relacionado ao
IterableOnceExtensionMethods
. -
[SPARK-43980] [SC-148992][sql] introdução
select * except
sintaxe - [SPARK-46269] [SC-149816][ps] Ativar mais testes de compatibilidade com funções NumPy
- [SPARK-45807] [SC-149851][sql] Adicionar createOrReplaceView(..) / replaceView(..) a ViewCatalog
-
[SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Introduza uma função implícita para o Scala Array ser encapsulado em
immutable.ArraySeq
. -
[SPARK-46205] [SC-149655][core] Melhore o desempenho
PersistenceEngine
comKryoSerializer
- [SPARK-45746] [SC-149359][python] Retorna mensagens de erro específicas se o método UDTF 'analyze' ou 'eval' aceitar ou retornar valores errados
- [SPARK-46186] [SC-149707][connect] Corrigir a transição de estado ilegal quando o ExecuteThreadRunner foi interrompido antes de iniciar
-
[SPARK-46262] [SC-149803][ps] Habilite o teste para
np.left_shift
para o objeto Pandas-on-Spark. - [SPARK-45093] [SC-149679][connect][PYTHON] Suporta corretamente a manipulação e conversão de erros para AddArtifactHandler
- [SPARK-46188] [SC-149571][doc][3.5] Corrigir o CSS das tabelas geradas pelo Spark doc
- [SPARK-45940] [SC-149549][python] Adicionar InputPartition à interface DataSourceReader
- [SPARK-43393] [SC-148301][sql] Erro de estouro de expressão de sequência de endereço.
- [SPARK-46144] [SC-149466][sql] Falha INSERT EM ... Instrução SE a condição contiver uma subconsulta REPLACE
-
[SPARK-46118] [SC-149096][sql][SS][connect] Use
SparkSession.sessionState.conf
em vez deSQLContext.conf
e marqueSQLContext.conf
como preterido - [SPARK-45760] [SC-147550][sql] Adicionar com expressão para evitar duplicação de expressões
- [SPARK-43228] [SC-149670][sql] As chaves de junção também correspondem a PartitioningCollection em CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][ps] Teste SparkPandasNotImplementedError com limpeza de código não utilizado
-
[SPARK-46119] [SC-149205][sql] Redefinir o método
toString
paraUnresolvedAlias
- [SPARK-46206] [SC-149674][ps] Usar uma exceção de escopo mais restrito para o processador SQL
-
[SPARK-46191] [SC-149565][core] Melhorar
FileSystemPersistenceEngine.persist
mensagem de erro no caso do arquivo existente - [SPARK-46036] [SC-149356][sql] Remover a classe de erro da função raise_error
- [SPARK-46055] [SC-149254][sql] Reescrever a implementação das APIs do Catálogo de Base de Dados
- [SPARK-46152] [SC-149454][sql] XML: Adicionar suporte a DecimalType na inferência de esquema XML
- [SPARK-45943] [SC-149452][sql] Mover DetermineTableStats para regras de resolução
-
[SPARK-45887] [SC-148994][sql] Alinhar codegen e implementação não-codegen de
Encode
- [SPARK-45022] [SC-147158][sql] Fornecer contexto para erros de API de conjunto de dados
-
[SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Substitua
toIterator
poriterator
paraIterableOnce
- [SPARK-46141] [SC-149357][sql] Alterar o padrão de spark.sql.legacy.ctePrecedencePolicy para CORRIGIDO
-
[SPARK-45663] [SC-146617][core][MLLIB] Substitua
IterableOnceOps#aggregate
porIterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][sql] Reutilizar objetos literais na regra ComputeCurrentTime
-
[SPARK-45803] [SC-147489][core] Remova o
RpcAbortException
não mais usado - [SPARK-46148] [SC-149350][ps] Fix pyspark.pandas.mlflow.load_model test (Python 3.12)
- [SPARK-46110] [SC-149090][python] Utilize categorias de erro nos módulos catalog, conf, connect, observation, pandas
- [SPARK-45827] [SC-149203][sql] Correções de variantes com codegen e leitor vetorizado desativados
- [SPARK-46080] Reverter "[SC-149012][python] Atualizar Cloudpickle para 3.0.0"
-
[SPARK-45460] [SC-144852][sql] Substitua
scala.collection.convert.ImplicitConversions
porscala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][sql] Remover a resolução especial de UnresolvedNamespace para determinados comandos
- [SPARK-45600] [SC-148976][python] Tornar o nível da sessão de registro da fonte de dados Python
- [SPARK-46074] [SC-149063][connect][SCALA] Detalhes insuficientes na mensagem de erro sobre falha UDF
- [SPARK-46114] [SC-149076][python] Adicionar PySparkIndexError para a estrutura de erro
-
[SPARK-46120] [SC-149083][connect][PYTHON] Remover a função auxiliar
DataFrame.withPlan
- [SPARK-45927] [SC-148660][python] Atualização do gerenciamento de caminhos para fonte de dados Python
- [SPARK-46062] [14.x][sc-148991][SQL] Sincronize o sinalizador isStreaming entre a definição e a referência CTE
-
[SPARK-45698] [SC-146736][core][SQL][ss] Limpe o uso preterido da API relacionado ao
Buffer
- [SPARK-46064] [SC-148984][sql][SS] Mover EliminateEventTimeWatermark para o analisador e alterar para ter efeito apenas no filho resolvido
- [SPARK-45922] [SC-149038][connect][CLIENT] Refatoração de tentativas mínimas (acompanhamento de várias políticas)
- [SPARK-45851] [SC-148419][connect][SCALA] Suporte a várias políticas no cliente scala
- [SPARK-45974] [SC-149062][sql] Adicionar verificação para garantir que scan.filterAttributes não esteja vazio no RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][connect] Dataset.groupingSets no cliente Scala Spark Connect
- [SPARK-45136] [SC-146607][connect] Melhore o ClosureCleaner com suporte para amonite
- [SPARK-46084] [SC-149020][ps] Refatore a operação de conversão de tipos de dados para o tipo Categórico.
- [SPARK-46083] [SC-149018][python] Faça SparkNoSuchElementException como uma API de erro canônico
- [SPARK-46048] [SC-148982][python][CONNECT] Suporte para DataFrame.groupingSets no Python Spark Connect
- [SPARK-46080] [SC-149012][python] Atualize o Cloudpickle para 3.0.0
- [SPARK-46082] [SC-149015][python][CONNECT] Corrigir a representação de cadeia de caracteres protobuf para a API do Pandas Functions com o Spark Connect
-
[SPARK-46065] [SC-148985][ps] Refatorar
(DataFrame|Series).factorize()
para usarcreate_map
. - [SPARK-46070] [SC-148993][sql] Compilar padrão regex em SparkDateTimeUtils.getZoneId fora do hot loop
- [SPARK-46063] [SC-148981][python][CONNECT] Melhorar mensagens de erro relacionadas aos tipos de argumento em cute, rollup, groupby e pivot
- [SPARK-44442] [SC-144120][mesos] Remover o suporte do Mesos
- [SPARK-45555] [SC-147620][python] Inclui um objeto depurável para asserção com falha
- [SPARK-46048] [SC-148871][python][SQL] Suporta DataFrame.groupingSets no PySpark
- [SPARK-45768] [SC-147304][sql][PYTHON] Tornar o faulthandler uma configuração de tempo de execução para execução Python em SQL
- [SPARK-45996] [SC-148586][python][CONNECT] Mostrar mensagens de requisito de dependência adequadas para o Spark Connect
- [SPARK-45681] [SC-146893][ui] Clone uma versão js de UIUtils.errorMessageCell para renderização consistente de erros na UI
-
[SPARK-45767] [SC-147225][core] Excluir
TimeStampedHashMap
e sua UT - [SPARK-45696] [SC-148864][core] Corrigir método tryCompleteWith no traço Promise foi preterido
- [SPARK-45503] [SC-146338][ss] Adicionar Conf para definir a compressão RocksDB
-
[SPARK-45338] [SC-143934][core][SQL] Substitua
scala.collection.JavaConverters
parascala.jdk.CollectionConverters
-
[SPARK-44973] [SC-148804][sql] Corrigir
ArrayIndexOutOfBoundsException
noconv()
- [SPARK-45912] [SC-144982][sc-148467][SQL] Aprimoramento da API XSDToSchema: Alterar para a API HDFS para acessibilidade de armazenamento em nuvem
-
[SPARK-45819] [SC-147570][core] Suporte a
clear
na API de submissão REST -
[SPARK-45552] [14.x][sc-146874][PS] Introduza parâmetros flexíveis para
assertDataFrameEqual
-
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Fornecer uma interface para que outras fontes de streaming possam adicionar
_metadata
colunas - [SPARK-45929] [SC-148692][sql] Suporte a operação groupingSets na api de dataframe
- [SPARK-46012] [SC-148693][core] O EventLogFileReader não deve ler logs contínuos se o arquivo de status do aplicativo estiver ausente
- [SPARK-45965] [SC-148575][sql] Mover expressões de particionamento DSv2 para functions.partitioning
-
[SPARK-45971] [SC-148541][core][SQL] Corrija o nome do pacote de
SparkCollectionUtils
paraorg.apache.spark.util
-
[SPARK-45688] [SC-147356][spark-45693][CORE] Limpe o uso preterido da API relacionado ao
MapOps
& Fixmethod += in trait Growable is deprecated
-
[SPARK-45962] [SC-144645][sc-148497][SQL] Remova
treatEmptyValuesAsNulls
e use a opçãonullValue
em substituição no XML -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] Corrigir dicas de tipo para lidar com
list
GenericAlias em Python 3.11+ -
[SPARK-45999] [SC-148595][ps] Usar
PandasProduct
dedicado emcumprod
-
[SPARK-45986] [SC-148583][ml][PYTHON] Corrigir
pyspark.ml.torch.tests.test_distributor
no Python 3.11 -
[SPARK-45994] [SC-148581][python] Alterar
description-file
paradescription_file
- [SPARK-45575] [SC-146713][sql] Suporte a opções de viagem no tempo para a df read API
- [SPARK-45747] [SC-148404][ss] Usar informações de chave de prefixo em metadados de estado para manipular o estado de leitura para agregação de janela de sessão
- [SPARK-45898] [SC-148213][sql] Reescrever APIs de tabela de catálogo para utilizar um plano lógico não resolvido
- [SPARK-45828] [SC-147663][sql] Remover método preterido em dsl
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Atualize
protobuf
para 4.25.1 para suportarPython 3.11
- [SPARK-45911] [SC-148226][core] Tornar TLS1.3 o padrão para RPC SSL
- [SPARK-45955] [SC-148429][ui] Fechar Suporte para Flamegraph e detalhes de despejo de thread
-
[SPARK-45936] [SC-148392][ps] Otimizar
Index.symmetric_difference
- [SPARK-45389] [SC-144834][sql][3.5] Regra de correspondência MetaException correta ao obter metadados de partição
- [SPARK-45655] [SC-148085][sql][SS] Permitir expressões não determinísticas dentro de AggregateFunctions em CollectMetrics
- [SPARK-45946] [SC-148448][ss] Corrigir o uso dos métodos de gravação do FileUtils que foram preteridos para passar o charset padrão no RocksDBSuite
- [SPARK-45511] [SC-148285][ss] Fonte de Dados de Estado - Leitor
-
[SPARK-45918] [SC-148293][ps] Otimizar
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][connect][PYTHON] Retornar as métricas observadas dos comandos
-
[SPARK-45867] [SC-147916][core] Suporte
spark.worker.idPattern
-
[SPARK-45945] [SC-148418][connect] Adicionar uma função auxiliar para
parser
- [SPARK-45930] [SC-148399][sql] Suporta UDFs não determinísticas em MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][python] Criar API UDTF Python para parar de consumir linhas da tabela de entrada
-
[SPARK-45731] [SC-147929][sql] Atualize também as estatísticas de partição com
ANALYZE TABLE
comando -
[SPARK-45868] [SC-148355][connect] Certifique-se
spark.table
usar o mesmo analisador com faísca de baunilha - [SPARK-45882] [SC-148161][sql] A propagação do particionamento em BroadcastHashJoinExec deve respeitar o CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][sql] Atribuir nomes ao erro _LEGACY_ERROR_TEMP_21[59,60,61,62]
-
[SPARK-45915] [SC-148306][sql] Trate decimal(x, 0) da mesma forma que IntegralType em
PromoteStrings
- [SPARK-45786] [SC-147552][sql] Corrigir resultados imprecisos de multiplicação e divisão decimal
-
[SPARK-45871] [SC-148084][connect] Otimizações na conversão de coleção relacionadas a
.toBuffer
nos módulosconnect
- [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager pode tentar aceder um sparkcontext que foi parado
- [SPARK-45913] [SC-148289][python] Torne os atributos internos privados de erros do PySpark.
- [SPARK-45827] [SC-148201][sql] Adicionar tipo de dados Variant no Spark.
- [SPARK-44886] [SC-147876][sql] Introduza CLUSTER BY cláusula para CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][core] Suporte
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][connect] Afirmar ID de sessão do lado do servidor
-
[SPARK-45896] [SC-148091][sql] Construa
ValidateExternalType
com o tipo esperado correto -
[SPARK-45902] [SC-148123][sql] Remover funções não utilizadas do
resolvePartitionColumns
deDataSource
-
[SPARK-45909] [SC-148137][sql] Remova
NumericType
cast se puder ser convertido com segurança noIsNotNull
- [SPARK-42821] [SC-147715][sql] Remover parâmetros não utilizados em métodos splitFiles
-
[SPARK-45875] [SC-148088][core] Remover
MissingStageTableRowData
do módulocore
- [SPARK-45783] [SC-148120][python][CONNECT] Melhorar as mensagens de erro quando o modo Spark Connect está ativado, mas o URL remoto não está definido
- [SPARK-45804] [SC-147529][ui] Adicionar configuração spark.ui.threadDump.flamegraphEnabled para ativar/desativar o gráfico de chama
- [SPARK-45664] [SC-146878][sql] Introduzir um mapeador para codecs de compressão orc
- [SPARK-45481] [SC-146715][sql] Introduzir um mapeador para codecs de compressão de parquet
- [SPARK-45752] [SC-148005][sql] Simplifique o código para verificar relações CTE não referenciadas
- [SPARK-44752] [SC-146262][sql] XML: Atualizar o Spark Docs
- [SPARK-45752] [SC-147869][sql] CTEs não referenciados devem ser todos verificados por meio de CheckAnalysis0
- [SPARK-45842] [SC-147853][sql] Refatorar APIs das Funções do Catálogo para usar analisador
- [SPARK-45639] [SC-147676][sql][PYTHON] Suporte ao carregamento de fontes de dados Python no DataFrameReader
- [SPARK-45592] [SC-146977][sql] Problema de precisão no AQE com InMemoryTableScanExec
- [SPARK-45794] [SC-147646][ss] Introduzir fonte de metadados de estado para consultar as informações de metadados de estado de streaming
- [SPARK-45739] [SC-147059][python] Catch IOException em vez de apenas EOFException para faulthandler
- [FAÍSCA-45677] [SC-146700] Melhor registro de erros para a API de observação
- [SPARK-45544] [SC-146873][core] Integrar suporte SSL no TransportContext
- [SPARK-45654] [SC-147152][python] Adicionar API de escrita da origem de dados Python
-
[SPARK-45771] [SC-147270][core] Ativar
spark.eventLog.rolling.enabled
por padrão - [SPARK-45713] [SC-146986][python] Suporte ao registro de fontes de dados Python
- [SPARK-45656] [SC-146488][sql] Corrigir observação quando observações nomeadas com o mesmo nome em conjuntos de dados diferentes
- [SPARK-45808] [SC-147571][connect][PYTHON] Melhor tratamento de erros para exceções SQL
-
[SPARK-45774] [SC-147353][core][UI] Suporte
spark.master.ui.historyServerUrl
emApplicationPage
-
[SPARK-45776] [SC-147327][core] Remova a verificação de nulidade defensiva para
MapOutputTrackerMaster#unregisterShuffle
adicionada em SPARK-39553 - [SPARK-45780] [SC-147410][connect] Propagar todos os threadlocals do cliente Spark Connect em InheritableThread
-
[SPARK-45785] [SC-147419][core] Suporte
spark.deploy.appNumberModulo
para alterar o número da aplicação - [SPARK-45793] [SC-147456][core] Melhorar os codecs de compressão incorporados
- [SPARK-45757] [SC-147282][ml] Evite o recálculo da NNZ no Binarizer
- [SPARK-45209] [SC-146490][core][UI] Suporte para gráfico de chamas na página de registo de threads do executor
-
[SPARK-45777] [SC-147319][core] Suporte
spark.test.appId
emLocalSchedulerBackend
- [SPARK-45523] [SC-146331][python] Refatore a verificação de nulos para ter atalhos
- [SPARK-45711] [SC-146854][sql] Introduzir um mapeador para codecs de compressão avro
- [SPARK-45523] [SC-146077][python] Retornar uma mensagem de erro útil se a UDTF devolver None para qualquer coluna não anulável
- [SPARK-45614] [SC-146729][sql] Atribuir nomes ao erro _LEGACY_ERROR_TEMP_215[6,7,8]
-
[SPARK-45755] [SC-147164][sql] Melhore
Dataset.isEmpty()
aplicando limite global1
- [SPARK-45569] [SC-145915][sql] Atribuir um nome ao erro _LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][core][WEBUI] Corrigir
Spark History Server
para classificar corretamente a colunaDuration
-
[SPARK-45754] [SC-147169][core] Suporte
spark.deploy.appIdPattern
-
[SPARK-45707] [SC-146880][sql] Simplifique
DataFrameStatFunctions.countMinSketch
comCountMinSketchAgg
-
[SPARK-45753] [SC-147167][core] Suporte
spark.deploy.driverIdPattern
-
[SPARK-45763] [SC-147177][core][UI] Melhorar
MasterPage
para mostrar a colunaResource
apenas quando ela existir - [SPARK-45112] [SC-143259][sql] Usar a resolução baseada em UnresolvedFunction em funções de conjunto de dados SQL
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixe ODBC, baixe JDBC).
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 14.3.
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.3 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Píton: 3.10.12
- R: 4.3.1
- Lago Delta: 3.1.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-ligações | 21.2.0 |
AstTokens | 2.0.5 | ATRs | 22.1.0 | retorno de chamada | 0.2.0 |
beautifulsoup4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
pisca | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | comunicações | 0.1.2 |
contorno | 1.0.5 | criptografia | 39.0.1 | ciclador | 0.11.0 |
Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorador | 5.1.1 | defusedxml | 0.7.1 |
Distlib | 0.3.7 | convertendo docstring em markdown | 0,11 | pontos de entrada | 0.4 |
executar | 0.8.3 | facetas-visão geral | 1.1.1 | fastjsonschema | 2.19.1 |
bloqueio de ficheiros | 3.13.1 | Fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
Grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | Ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | Joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-servidor | 1.23.4 | jupyter_core | 5.2.0 |
Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | porta-chaves | 23.5.0 |
Kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
Mistune | 0.8.4 | mais-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
bloco de notas | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
OAuthlib | 3.2.0 | embalagem | 23.2 | pandas | 1.5.3 |
PandocFilters | 1.5.0 | Parso | 0.8.3 | PathSpec | 0.10.3 |
bode expiatório | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Almofada | 9.4.0 | pip | 22.3.1 | plataformadirs | 2.5.2 |
enredo | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0.5 | pycparser | 2.21 |
Pidântico | 1.10.6 | Pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | Pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-servidor | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | Pyzmq | 23.2.0 |
pedidos | 2.28.1 | corda | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | seaborn | 0.12.2 |
Armazenamento Secreto | 3.3.1 | EnviarParaLixo | 1.8.0 | setuptools | 65.6.3 |
seis | 1.16.0 | sniffio | 1.2.0 | Soupsieve | 2.3.2.post1 |
ssh-import-id | 5.11 | dados da estrutura de pilha | 0.2.0 | statsmodels | 0.13.5 |
tenacidade | 8.1.0 | terminado | 0.17.1 | ThreadPoolCtl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.1 | traços | 5.7.1 | typing_extensions | 4.4.0 |
Ujson | 5.4.0 | Atualizações automáticas | 0.1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | largura de wc | 0.2.5 |
WebEncodings | 0.5.1 | Websocket-cliente | 0.58.0 | whatthepatch | 1.0.2 |
roda | 0.38.4 | widgetsnbextension | 3.6.1 | Yapf | 0.33.0 |
zipp | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do snapshot do CRAN do Posit Package Manager em 13/07/2023: https://packagemanager.posit.co/cran/2023-07-13/
.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 12.0.1 | AskPass | 1.1 | asserçãoat | 0.2.1 |
retroportações | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
arranque | 1.3-28 | preparar | 1.0-8 | Brio | 1.1.3 |
vassoura | 1.0.5 | BSLIB | 0.5.0 | cachem | 1.0.8 |
Chamador | 3.7.3 | sinal de inserção | 6.0-94 | Cellranger | 1.1.0 |
crono | 2.3-61 | classe | 7.3-22 | cli | 3.6.1 |
Clipr | 0.8.0 | relógio | 0.7.0 | aglomerado | 2.1.4 |
codetools | 0.2-19 | espaço de cores | 2.1-0 | marca comum | 1.9.0 |
compilador | 4.3.1 | configuração | 0.3.1 | conflituosos | 1.2.0 |
cpp11 | 0.4.4 | lápis de cor | 1.5.2 | credenciais | 1.3.2 |
curl | 5.0.1 | tabela de dados | 1.14.8 | conjuntos de dados | 4.3.1 |
DBI | 1.1.3 | DBPlyr | 2.3.3 | descrição | 1.4.2 |
devtools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
resumo | 0.6.33 | Iluminação reduzida | 0.4.3 | dplyr | 1.1.2 |
DTPlyr | 1.3.1 | e1071 | 1.7-13 | reticências | 0.3.2 |
avaliar | 0.21 | Fansi | 1.0.4 | Farver | 2.1.1 |
mapa rápido | 1.1.1 | fontawesome | 0.5.1 | FORCATS | 1.0.0 |
foreach | 1.5.2 | externa | 0.8-85 | forjar | 0.2.0 |
FS | 1.6.2 | Futuro | 1.33.0 | future.apply | 1.11.0 |
gargarejo | 1.5.1 | Genéricos | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | GH | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | Globais | 0.16.2 | cola | 1.6.2 |
GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
gráficos | 4.3.1 | grDevices | 4.3.1 | grelha | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
capacete de segurança | 1.3.0 | Refúgio | 2.5.3 | mais alto | 0.10 |
HMS | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | HTTR2 | 0.2.3 |
Identificações | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
Isoband | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | Knitr | 1.43 |
etiquetagem | 0.4.2 | mais tarde | 1.3.1 | grelha | 0.21-8 |
lava | 1.7.2.1 | ciclo de vida | 1.0.3 | ouvir | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | Marcação | 1.7 |
MASSA | 7.3-60 | Matriz | 1.5-4.1 | memorizar | 2.0.1 |
métodos | 4.3.1 | mgcv | 1.8-42 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | paralelo | 4.3.1 |
Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | elogiar | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | Profvis | 0.3.8 | Progresso | 1.2.2 |
progressr | 0.13.0 | promessas | 1.2.0.1 | proto | 1.0.0 |
procuração | 0.4-27 | P.S. | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
Leitor | 2.1.4 | Readxl | 1.4.3 | receitas | 1.0.6 |
revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
Reprex | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversões | 2.1.2 |
Rvest | 1.0.3 | Sass | 0.4.6 | balanças | 1.2.1 |
seletor | 0.4-2 | informação de sessão | 1.2.2 | forma | 1.4.6 |
brilhante | 1.7.4.1 | ferramentas de código-fonte | 0.1.7-1 | sparklyr | 1.8.1 |
espacial | 7.3-15 | splines | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | estatísticas | 4.3.1 | stats4 | 4.3.1 |
stringi | 1.7.12 | stringr | 1.5.0 | sobrevivência | 3.5-5 |
sys | 3.4.2 | fontes do sistema | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | formatação de texto | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | Tidyverse | 2.0.0 |
mudança de hora | 0.2.0 | timeDate | 4022.108 | Tinytex | 0,45 |
ferramentas | 4.3.1 | TZDB | 0.4.0 | verificador de URL | 1.0.1 |
usethis | 2.2.2 | UTF8 | 1.2.3 | utilitários | 4.3.1 |
uuid | 1.1-0 | VCTRS | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | Waldo | 0.5.1 | whisker | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
zip | 2.3.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | referência_nativa-java | 1.1 |
com.github.fommil.netlib | referência_nativa-java | 1.1-Nativos |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | anotações_sujeitas_a_erros | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | analista de perfis | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | carregamento de ficheiros comuns | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | Lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressor de ar | 0.25 |
IO.Delta | delta-compartilhamento-client_2.12 | 1.0.3 |
io.dropwizard.metrics | métricas-anotação | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | métricas-verificações de saúde | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | métricas-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-comum | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | Netty-Transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jacarta.validação | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | formato de seta | 12.0.1 |
org.apache.arrow | seta-memória-núcleo | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | vetor de seta | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador de receitas | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | dérbi | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | hive-shims-escalonador | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | hera | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
org.apache.orc | Orc-calços | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.23 |
org.apache.yetus | notas de audiência | 0.13.0 |
org.apache.zookeeper | guarda de zoológico | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | verificador de qualidade | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | servidor Jersey | 2.40 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
org.hibernate.validator | hibernate-validator (verificador de hibernação) | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mlflow | mlflow-spark_2,12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | calços | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |