Compartilhar via


Databricks Runtime 16.1

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.1, alimentado pelo Apache Spark 3.5.0.

O Databricks lançou esta versão em dezembro de 2024.

Dica

Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão de fim de suporte do Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.

Alterações comportamentais

Alteração significativa: o tratamento de expressões regulares do Photon agora é consistente com o Apache Spark

No Databricks Runtime 15.4 e posteriores, o tratamento de expressões regulares no Photon é atualizado para corresponder ao comportamento do tratamento de expressões regulares do Apache Spark. Anteriormente, as funções de expressão regular executadas pelo Photon, como split() e regexp_extract(), aceitavam algumas expressões regulares rejeitadas pelo analisador spark. Para manter a consistência com o Apache Spark, as consultas do Photon agora falharão para expressões regulares que o Spark considera não válidas.

Devido a essa alteração, você poderá ver erros se o código do Spark incluir expressões regulares inválidas. Por exemplo, a expressão split(str_col, '{'), que contém uma chave não correspondente e foi aceita anteriormente pelo Photon, agora falha. Para corrigir essa expressão, você pode escapar o caractere de chave: split(str_col, '\\{').

O comportamento de Photon e Spark também difere para algumas correspondências de expressões regulares de caracteres não ASCII. Isso também é atualizado para que o Photon corresponda ao comportamento do Apache Spark.

O tipo de dados VARIANT não pode mais ser usado com operações que exigem comparações

No Databricks Runtime 16.1 e posteriores, você não pode usar as seguintes cláusulas ou operadores em consultas que incluem um tipo de dados VARIANT:

  • DISTINCT
  • INTERSECT
  • EXCEPT
  • UNION
  • DISTRIBUTE BY

Além disso, você não pode usar essas funções DataFrame:

  • df.dropDuplicates()
  • df.repartition()

Essas operações executam comparações e comparações que usam o tipo de dados VARIANT produzem resultados indefinidos e não têm suporte no Databricks. Se você usar o tipo VARIANT em suas cargas de trabalho ou tabelas do Azure Databricks, o Databricks recomendará as seguintes alterações:

  • Atualize consultas ou expressões para fazer a conversão explícita de valores VARIANT em tipos de dados nãoVARIANT.
  • Se você tiver campos que devem ser usados com qualquer uma das operações acima, extraia esses campos do tipo de dados VARIANT e armazene-os usando tipos de dados nãoVARIANT.

Para saber mais, consulte os Dados variantes da consulta.

Novos recursos e melhorias

O suporte para ordenações no Apache Spark está em Versão Prévia Pública

Agora você pode atribuir ordenações que não diferenciam o acesso, que consideram a linguagem e que não diferenciam maiúsculas de minúsculas a colunas e expressões STRING. Essas ordenações são usadas em comparações de cadeia de caracteres, classificação, operações de agrupamento e muitas funções de cadeia de caracteres. Consulte Ordenação.

O suporte para ordenações no Delta Lake está em Versão Prévia Pública

Agora você pode definir ordenações para colunas ao criar ou alterar uma tabela Delta. Consulte Suporte de ordenação para Delta Lake.

O modo LITE para funcionamento a vácuo está em Visualização Pública

Agora você pode usar VACUUM table_name LITE para executar uma operação de vácuo de peso mais leve que aproveita os metadados no log de transações Delta. Consulte modo completo versus modo leve e VACUUM.

Suporte para parametrizar a cláusula USE CATALOG with IDENTIFIER

No Databricks Runtime 16.1 e versões posteriores, suporte é fornecido para a cláusula IDENTIFIER na instrução USE CATALOG. Com esse suporte, você pode parametrizar o catálogo atual com base em uma variável de cadeia de caracteres ou marcador de parâmetro.

COMMENT ONCOLUMN suporte para tabelas e exibições

No Databricks Runtime 16.1 e posterior, a instrução COMMENT ON dá suporte à alteração de comentários para colunas de exibição e tabela.

Novas funções SQL

No Databricks Runtime 16.1 e posterior, as seguintes novas funções SQL internas estão disponíveis:

  • dayname(expr) retorna o acrônimo inglês de três letras para o dia da semana para a data determinada.
  • uniform(expr1, expr2 [,seed]) retorna um valor aleatório com valores independentes e distribuídos de forma idêntica dentro do intervalo de números especificado.
  • randstr(length) retorna uma cadeia de caracteres aleatória de length caracteres alfanuméricos.

Invocação de parâmetro nomeado para mais funções

No Databricks Runtime 16.1 e posterior, as seguintes funções dão suporte à invocação de parâmetro nomeada:

O parâmetro SYNC METADATA para o comando REPAIR TABLE é compatível com o metastore do Hive

No Databricks Runtime 16.1 e superior, você pode usar o parâmetro SYNC METADATA com o comando REPAIR TABLE para atualizar os metadados de uma tabela gerenciada de metastore do Hive. Consulte REPAIR TABLE.

Integridade de dados aprimorada para lotes compactados do Apache Arrow

No Databricks Runtime 16.1 e posterior, para proteger ainda mais contra a corrupção de dados, cada lote compactado de Arrow LZ4 agora inclui o conteúdo LZ4 e as somas de verificação de bloco. Consulte a descrição do formato de quadro LZ4.

Suporte adicionado para métodos Scala na execução em modo de acesso compartilhado do Unity Catalog

A partir do Databricks Runtime 16.1 e versões posteriores, na computação do modo de acesso compartilhado do Unity Catalog, foi adicionado suporte aos seguintes métodos Scala: Dataset.flatMapGroups(), Dataset.mapGroups()e DataStreamWriter.foreach().

Driver JDBC interno do Teradata

No Databricks Runtime 16.1 e superior, o Driver JDBC do Teradata é integrado ao Azure Databricks. Se você usar um JAR de driver JDBC carregado pelo cliente por meio de DriverManager, será necessário reescrever scripts para usar explicitamente o JAR personalizado. Caso contrário, o driver interno será usado. Este driver só suporta a Federação Lakehouse. Para outros casos de uso, você precisa fornecer seu driver.

Suporte do StreamingQueryListener para Scala

Agora você pode usar StreamingQueryListener no Scala na computação configurada com o modo de acesso compartilhado.

Driver interno JDBC do Oracle

No Databricks Runtime 16.1 e superior, o Driver JDBC do Oracle é integrado ao Azure Databricks. Se você usar um JAR de driver JDBC carregado pelo cliente por meio de DriverManager, será necessário reescrever scripts para usar explicitamente o JAR personalizado. Caso contrário, o driver interno será usado. Este driver só suporta a Federação Lakehouse. Para outros casos de uso, você precisa fornecer seu driver.

Erros mais detalhados para tabelas Delta acessadas com caminhos

Uma nova experiência de mensagem de erro para tabelas Delta acessadas usando caminhos agora está disponível. Todas as exceções agora são encaminhadas para o usuário. A exceção DELTA_MISSING_DELTA_TABLE agora está reservada para quando não for possível ler os arquivos subjacentes como uma tabela Delta.

Outras alterações

Códigos de erro renomeados para a fonte de Streaming Estruturado do cloudFiles

Esta versão inclui uma alteração para renomear os seguintes códigos de erro:

  • _LEGACY_ERROR_TEMP_DBR_0143 é renomeado para CF_INCORRECT_STREAM_USAGE.
  • _LEGACY_ERROR_TEMP_DBR_0260 é renomeado para CF_INCORRECT_BATCH_USAGE .

Correções

Os tipos aninhados agora aceitam corretamente restrições NULL

Esta versão corrige um bug que afeta algumas colunas geradas por Delta de tipos aninhados, por exemplo, STRUCT. Essas colunas às vezes rejeitavam incorretamente expressões com base em restrições NULL ou NOT NULL de campos aninhados. Isso foi corrigido.

Atualizações de biblioteca

  • Bibliotecas do Python atualizadas:
    • ipyflow-core de 0.0.198 a 0.0.201
    • pyccolo de 0.0.52 a 0.0.65
  • Bibliotecas R atualizadas:
  • Bibliotecas Java atualizadas:
    • io.delta.delta-sharing-client_2.12 de 1.2.1 a 1.2.2
    • org.lz4.lz4-java de 1.8.0 a 1.8.0-databricks-1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.2-linux-x86_64 para 2.4.1-linux-x86_64

Apache Spark

O Databricks Runtime 16.1 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.0, bem como as seguintes correções de bug adicionais e melhorias feitas no Spark:

  • [SPARK-50482] [SC-182879][CORE] Configuração no-op spark.shuffle.spill preterida
  • [SPARK-50032] [SC-182706][SQL][16.x] Permissão para o uso do nome de ordenação totalmente qualificado
  • [SPARK-50467] [SC-182823][PYTHON] Adicionar __all__ para funções internas
  • [SPARK-48898] [SC-182828][SQL] Correção de bug de fragmentação de variantes
  • [SPARK-50441] [SC-182668][SQL] Corrigir identificadores parametrizados que não funcionam ao referenciar CTEs
  • [SPARK-50446] [SC-182639][PYTHON] Nível de simultaneidade no UDF do Python otimizado com Arrow
  • [SPARK-50430] [SC-182536][CORE] Use o método padrão Properties.clone em vez de clonar manualmente
  • [SPARK-50471] [SC-182790][PYTHON] Suporte para escritor de fonte de dados em Python baseado em Arrow
  • [SPARK-50466] [SC-182791][PYTHON] Refinar o docstring para funções de cadeia de caracteres - parte 1
  • [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] Integração da API do Novo Temporizador e API de Estado Inicial com o Temporizador
  • [SPARK-50437] [SC-182586][SS] Redução da sobrecarga da criação de desserializadores em TransformWithStateExec
  • [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Adicionar suporte para encadeamento de…
  • [SPARK-49294] [SC-182730][interface do usuário] Adicionar atributo de largura para a caixa de seleção shuffle-write-time.
  • [SPARK-50426] [SC-182540][PYTHON] Evitar pesquisa estática de fontes de dados do Python ao usar fontes de dados integradas ou Java.
  • [SPARK-48356] [SC-182603][SQL] Suporte para instrução FOR
  • [SPARK-50333] [SC-182136][SQL] Suporte para Codegen para CsvToStructs (por Invoke e RuntimeReplaceable)
  • [SPARK-50285] [SC-182575] Métricas para confirmações em instâncias de StagedTable
  • [SPARK-50081] [SC-182344][SQL] Suporte Codegen para XPath* (por Invoke e RuntimeReplaceable)
  • [SPARK-50440] [SC-182592] [SQL] Refatoração de AttributeSeq.resolveCandidates
  • [SPARK-50067] [SC-179648][SQL] Suporte a Codegen para SchemaOfCsv (por Invoke e RuntimeReplaceable)
  • [SPARK-49873] [SC-178577][SQL] Correção de falha após a mesclagem no teste de erros
  • [SPARK-50118] [SC-181259][CONNET] Redefinir o cache de estado isolado quando as tarefas estiverem em execução
  • [SPARK-49873] [SC-178577][SQL] Atribuir classe de erro adequada para _LEGACY_ERROR_TEMP_1325
  • [SPARK-50381] [SC-182197][CORE] Suporte a spark.master.rest.maxThreads
  • [SPARK-46725] [SC-182448][SQL] Adicionar função DAYNAME
  • [SPARK-50270] [SC-181179][SS][PYTHON] Adicionadas métricas de estado personalizadas para TransformWithStateInPandas
  • [SPARK-50118] Reversão de "[SC-181259][CONNET] Redefinir o cache de estado isolado quando as tarefas estiverem em execução"
  • [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] Adicionar APIs dataframe para funções com valor de tabela
  • [SPARK-49470] [SC-175736][interface do usuário] Atualizar folhas de estilo e scripts JavaScript de dataTables de 1.13.5 para 1.13.11
  • [SPARK-50235] Reversão de "[SC-180786][SQL] Liberar o recurso ColumnVector após processar todas as linhas no ColumnarToRowExec"
  • [SPARK-50324] [SC-182278][PYTHON][CONNECT] Fazer createDataFrame disparar o RPC Config no máximo uma vez
  • [SPARK-50387] [SC-182441][SS] Condição de atualização para expiração do temporizador e teste relevante
  • [SPARK-50287] [SC-182400][SQL] Mesclar opções de tabela e relação ao criar WriteBuilder no FileTable
  • [SPARK-50066] [SC-181484][SQL] Suporte Codegen para SchemaOfXml (por Invoke e RuntimeReplaceable)
  • [SPARK-50092] [SC-181568][SQL] Corrigir o comportamento do conector postgreSQL para matrizes multidimensionais
  • [SPARK-50318] [SC-181641][SQL] Adição de IntervalUtils.makeYearMonthInterval para remover a duplicação de código entre interpretado e codegen
  • [SPARK-50312] [SC-181646][SQL] Erro de passagem de parâmetro do SparkThriftServer createServer quando kerberos é true
  • [SPARK-50246] [SC-181468][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2167: INVALID_JSON_RECORD_TYPE
  • [SPARK-50214] [SC-180692][SQL] De json/xml não deve alterar ordenações no esquema fornecido
  • [SPARK-50250] [SC-181466][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2075: UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
  • [SPARK-50248] [SC-181467][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2058: INVALID_PARTITION_VALUE
  • [SPARK-50118] [SC-181259][CONNET] Redefinir o cache de estado isolado quando as tarefas estiverem em execução
  • [SPARK-50235] [SC-180786][SQL] Limpar o recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
  • [SPARK-50156] [SC-180781][SQL] Integrar _LEGACY_ERROR_TEMP_2113 ao UNRECOGNIZED_STATISTIC
  • [SPARK-50069] [SC-180163][SQL] Integrar _LEGACY_ERROR_TEMP_0028 ao UNSUPPORTED_FROM_TO_EXPRESSION
  • [SPARK-50154] [SC-180663][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_0043: INVALID_RESET_COMMAND_FORMAT
  • [SPARK-49967] [SC-179534][SQL] Suporte para Codegen de StructsToJson(to_json)
  • [SPARK-50055] [SC-180978][SQL] Adicionar alternativa TryMakeInterval
  • [SPARK-50397] [SC-182367][CORE] Remover argumentos --ip e -i descontinuados de Master/Worker
  • [SPARK-50238] [SC-181434][PYTHON] Adicionar suporte a variantes em UDFs/UDTFs/UDAFs do PySpark e UDFs UC do Python
  • [SPARK-50079] [SC-179830][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2013: NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
  • [SPARK-50182] [SC-180346][EXEMPLO] Adicionar submit-sql.sh exemplo de API REST
  • [SPARK-49966] [SC-179501][SQL] Use Invoke para implementar JsonToStructs(from_json)
  • [SPARK-50302] [SC-182518][SS] Garantir tamanhos de índice secundários iguais a tamanhos de índice primário para variáveis com estado TransformWithState com TTL
  • [SPARK-50301] [SC-182241][SS][16.x] Fazer com que as métricas TransformWithState reflitam seus significados intuitivos
  • [SPARK-50175] [SC-182140][SQL] Alteração de cálculo de precedência de ordenação
  • [SPARK-50148] [SC-180292][SQL] Tornar StaticInvoke compatível com o método que declara a exceção de lançamento
  • [SPARK-50280] [SC-181214][PYTHON] Refatoração da classificação de resultados e o preenchimento de compartimento vazio em compute_hist
  • [SPARK-50190] [SC-182458][PYTHON] Remover a dependência direta do Numpy do Histograma
  • [SPARK-50382] [SC-182368][CONNECT] Adicione documentação para obter informações gerais sobre o desenvolvimento de aplicativos com/estendendo o Spark Connect
  • [SPARK-50296] [SC-181464][PYTHON][CONNECT] Evite usar uma classe no threadpool para o cliente do Python Connect
  • [SPARK-49566] [SC-182239][SQL] Adicionar sintaxe de pipe SQL para o operador EXTEND
  • [SPARK-50036] [SC-179533][CORE][PYTHON] Adicionar SPARK_LOG_SCHEMA no contexto do shell REPL
  • [SPARK-49859] [SC-178259][CONNECT] Substituição de multiprocessing.ThreadPool por ThreadPoolExecutor
  • [SPARK-50141] [SC-182378][PYTHON] Fazer lpad e rpad aceitar argumentos de tipo coluna
  • [SPARK-50379] [SC-182142][SQL] Corrigir manipulação de DayTimeIntevalType no WindowExecBase
  • [SPARK-49954] [SC-179110][SQL] Suporte a Codegen para SchemaOfJson (por Invoke e RuntimeReplaceable)
  • [SPARK-50398] [SC-182341][CORE] Usar o 0 do ExitCode para uso de --help em scripts Spark
  • [SPARK-50377] [SC-182238][SQL] Permitir avaliação de RuntimeReplaceable dobrável
  • [SPARK-50241] [SC-181444][SQL] Substitua NullIntolerant Mixin pelo método Expression.nullIntolerant
  • [SPARK-50084] [SC-179672][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_3168: MISSING_TIMEOUT_CONFIGURATION
  • [SPARK-50078] [SC-179649][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_0038: DUPLICATED_CTE_NAMES
  • [SPARK-50057] [SC-179573][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_1049: INVALID_ATTRIBUTE_NAME_SYNTAX
  • [SPARK-50070] [SC-179579][SQL] Integrar _LEGACY_ERROR_TEMP_0039 ao UNSUPPORTED_SQL_STATEMENT
  • [SPARK-50378] [SC-182235][SS] Adicionar métrica personalizada para acompanhar os gastos com o estado inicial do proc em transformWithState
  • [SPARK-50029] [SC-179531][SQL] Tornar StaticInvoke compatível com o método que retorna Any
  • [SPARK-49990] [SC-179497][SQL] Melhorar o desempenho do randStr
  • [SPARK-50048] [SC-179528][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2114: UNRECOGNIZED_STATISTIC
  • [SPARK-50053] [SC-179532][SQL] Transforme _LEGACY_ERROR_TEMP_2104 em INTERNAL_ERROR
  • [SPARK-49665] [SC-180054][SQL] Suporte à ordenação de corte para funções de cadeia de caracteres
  • [SPARK-48549] [SC-176472][SQL][PYTHON] Melhorar a função SQL sentences
  • [SPARK-50022] [SC-179503][CORE][UI] Ajuste MasterPage para ocultar links da UI do aplicativo quando a UI estiver desabilitada
  • [SPARK-50087] [SC-182152] Manipulação robusta de expressões boolianas em CASE WHEN para MsSqlServer e conectores futuros
  • [SPARK-49991] [SC-179481][SQL] Fazer com que o HadoopMapReduceCommitProtocol siga 'mapreduce.output.basename' para gerar nomes de arquivo
  • [SPARK-50038] [SC-179521][SQL] Atribuir condição de erro apropriada para _LEGACY_ERROR_TEMP_0008: MERGE_WITHOUT_WHEN
  • [SPARK-50236] [SC-181671][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_1156: COLUMN_NOT_DEFINED_IN_TABLE
  • [SPARK-50021] [SC-179500][CORE][UI] Corrigir ApplicationPage para ocultar links da UI do aplicativo quando a UI estiver desabilitada
  • [SPARK-49911] [SC-179111][SQL] Corrigir a semântica do suporte à igualdade binária
  • [SPARK-50025] [SC-179496][SQL] Integrar _LEGACY_ERROR_TEMP_1253 ao EXPECT_VIEW_NOT_TABLE
  • [SPARK-49829] [SC-179480][SS] Correção do bug na otimização na adição de entrada ao repositório de estado na junção fluxo/fluxo
  • [SPARK-50004] [SC-179499][SQL] Integrar _LEGACY_ERROR_TEMP_3327 ao FIELD_NOT_FOUND
  • [SPARK-50380] [SC-182210][SQL] ReorderAssociativeOperator deve respeitar o contrato de ConstantFolding
  • [SPARK-50340] [SC-181859][SQL] Descompactar UDT na consulta de entrada INSERT
  • [SPARK-50237] [SC-181660][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2138-9: CIRCULAR_CLASS_REFERENCE
  • [SPARK-50258] [SC-181993][SQL] Correção do problema de alteração da ordem da coluna de saída após a otimização do AQE
  • [SPARK-49773] [SC-178369][SQL] Exceção Java não capturada de make_timestamp() com fuso horário incorreto
  • [SPARK-49977] [SC-179265][SQL] Uso da computação iterativa baseada em pilha para evitar a criação de muitos objetos Scala List para árvores de expressão complexas
  • [SPARK-50153] [SC-181591][SQL] Adição de name a RuleExecutor para tornar a impressão dos logs de QueryExecutionMetricsmais claros
  • [SPARK-50320] [SC-181668][CORE] Tornar --remote uma opção oficial removendo o aviso experimental
  • [SPARK-49909] [SC-179492]Reversão de "[SQL] Corrigir o nome bonito de algumas expressões"
  • [SPARK-50330] [SC-180720][SC-181764][SQL] Adição de dicas aos nós de Classificação e Janela
  • [SPARK-50364] [SC-182003][SQL] Implementar serialização para o tipo LocalDateTime em Row.jsonValue
  • [SPARK-50016] [SC-182139][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_2067: UNSUPPORTED_PARTITION_TRANSFORM
  • [SPARK-49899] [SC-181175][PYTHON][SS] Suporte para deleteIfExists em TransformWithStateInPandas
  • [SPARK-49757] [SC-177824][SQL] Suporte à expressão IDENTIFIER na instrução SETCATALOG
  • [SPARK-50315] [SC-181886][SQL] Suporte a métricas personalizadas para gravações do V1Fallback
  • [SPARK-42838] [SC-181509][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2000
  • [SPARK-50353] [SC-181985][SQL] Refatoração de ResolveSQLOnFile
  • [SPARK-48344] [SC-181967][SQL] Preparar o script SQL para adição da Estrutura de Execução
  • [SPARK-49345] [SC-174786][CONNECT] Certifique-se de usar a sessão spark em execução atual
  • [SPARK-49925] [SC-178882][SQL] Adicionar testes para ordem com cadeias de caracteres agrupadas
  • [SPARK-50167] [SC-181199][PYTHON][CONNECT] Aprimoramento de mensagens de erro e importações do PySpark
  • [SPARK-49368] [SC-174999][CONNECT] Evite acessar classes protobuf lite diretamente
  • [SPARK-50056] [SC-181378][SQL] Suporte Codegen para ParseUrl (por Invoke e RuntimeReplaceable)
  • [SPARK-49601] [SC-180770][SS][PYTHON] Suporte ao tratamento de estado inicial para TransformWithStateInPandas
  • [SPARK-49908] [SC-178768][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_0044
  • [SPARK-50144] [SC-180307][SS] Resolva a limitação do cálculo de métricas com fontes de streaming DSv1
  • [SPARK-49874] [SC-178303][SQL] Remoção de especificadores de ordenação de corte e ltrim.
  • [SPARK-49513] [SC-180339][SS] Adicionar suporte para temporizador na API transformWithStateInPandas
  • [SPARK-49119] [SC-175607][SQL] Corrigir a inconsistência de show columns de sintaxe entre v1 e v2
  • [SPARK-49206] [SC-173704][CORE][UI] Adição da tabela Environment Variables ao EnvironmentPage Mestre
  • [SPARK-49934] [SC-179581][SQL] Adição de conversão implícita para acessar o mapa agrupado com literal
  • [SPARK-50049] [SC-181659][SQL] Suporte a métricas de driver personalizadas ao gravar na tabela v2
  • [SPARK-50171] [SC-180295][PYTHON] Tornar numpy opcional para plotagem KDE
  • [SPARK-49962] [SC-179320][SQL] Simplificar hierarquia de classe AbstractStringTypes
  • [SPARK-50226] [SC-181483][SQL] Corrigir MakeDTInterval e MakeYMInterval para capturar exceções Java
  • [SPARK-48775] [SC-170801][SQL][STS] Substituir SQLContext por SparkSession no STS
  • [SPARK-49015] [SC-175688][CORE] O Servidor de Conexão deve respeitar spark.log.structuredLogging.enabled
  • [SPARK-50327] [SC-181667][SQL][16.x] Fatorar a resolução de função para ser reutilizada no Analisador de passagem única
  • [SPARK-49995] [SC-180762][SQL] Adicionar suporte de argumento nomeado a mais TVFs
  • [SPARK-49268] [SC-174903][CORE] Exceções de E/S de log no provedor de histórico do SHS
  • [SPARK-48123] [SC-164989][Core] Forneça um esquema de tabela constante para consultar logs estruturados
  • [SPARK-49217] [SC-174904][CORE] Suporte a configuração de tamanho de buffer separada em UnsafeShuffleWriter
  • [SPARK-50325] [SC-181664][SQL][16.x] Fatorar a resolução de alias para ser reutilizada no Analisador de passagem única
  • [SPARK-50322] [SC-181665][SQL] Corrigir identificador parametrizado em uma subconsulta
  • [SPARK-48400] [SC-175283][CORE] Promover PrometheusServlet para DeveloperApi
  • [SPARK-50118] Reversão de "[SC-181259][CONNET] Redefinir o cache de estado isolado quando as tarefas estiverem em execução"
  • [SPARK-50306] [SC-181564][PYTHON][CONNECT] Suporte ao Python 3.13 no Spark Connect
  • [SPARK-50152] [SC-181264][SS] Suporte a handleInitialState com leitor de fonte de dados de estado
  • [SPARK-50260] [SC-181271][CONNECT] Refatorar e otimizar o Spark C...
  • [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: Migrar logInfo com variáveis para estrutura de log estruturada
  • [SPARK-49312] [SC-174672][PYTHON] Melhorar a mensagem de erro para assertSchemaEqual
  • [SPARK-49439] [SC-175236][SQL] Corrigir o nome bonito da expressão FromProtobuf & ToProtobuf
  • [SPARK-50092] [ES-1258521] Corrigir o comportamento do conector postgreSQL para matrizes multidimensionais
  • [SPARK-49913] [SC-181565][SQL] Adição de verificação para nomes de rótulo únicos em escopos rotulados aninhados
  • [SPARK-49563] [SC-181465][SQL] Adicionar sintaxe de pipe SQL para o operador WINDOW
  • [SPARK-49661] [SC-179021][SQL] Implementação de hash e comparação de ordenação de corte.
  • [SPARK-38912] [SC-181543][PYTHON] Remoção do comentário relacionado a classmethod e property
  • [SPARK-49770] [16.x][SC-179802][SC-179270][SS][Endurecimento do RocksDB] Aprimoramento do gerenciamento de mapeamento de arquivos do RocksDB SST e correção do problema com o recarregamento da mesma versão com instantâneo existente
  • [SPARK-49002] Reversão de “[SC-172846][SQL] Manipulação consistente de locais inválidos em WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
  • [SPARK-49668] [SC-178268][SQL] Implementação de suporte à chave de ordenação para ordenação de corte
  • [SPARK-50262] [SC-181193][SQL] Proibição da especificação de tipos complexos durante a alteração da ordenação
  • [SPARK-48898] [SC-181435][SQL] Adição de funções de fragmentação de variantes
  • [SPARK-48273] [SC-181381] Reversão de “[SQL] Correção da regravação tardia de PlanWithUnresolvedIdentifier
  • [SPARK-50222] [SC-180706][CORE] Suporte a spark.submit.appName
  • [SPARK-50208] [SC-180662][CORE] Suporte a spark.master.useDriverIdAsAppName.enabled
  • [SPARK-50224] [SC-180689][SQL] As substituições de IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 devem ser NullIntolerant
  • [SPARK-50247] [SC-180962][CORE] Definir BLOCK_MANAGER_REREGISTRATION_FAILED como ExecutorExitCode
  • [SPARK-50282] [SC-181221][ML] Simplificação de TargetEncoderModel.transform
  • [SPARK-50112] [SC-180763][SQL] Permitindo que o operador TransformWithState use a codificação Avro
  • [SPARK-50267] [SC-181180][ML] Aprimorar TargetEncoder.fit com APIs de DataFrame
  • [SPARK-37178] [SC-180939][ML] Adição de codificação de destino ao ml.feature
  • [SPARK-50118] [SC-181259][CONNET] Redefinir o cache de estado isolado quando as tarefas estiverem em execução
  • [SPARK-50085] [BEHAVE-176][SC-179809][PYTHON] Fazer lit(ndarray) com np.int8 respeitar o tipo de dado do numpy
  • [SPARK-50256] [SC-181048][SQL] Adicionar validação leve para verificar se um plano lógico se torna não resolvido após cada regra de otimizador
  • [SPARK-50196] [SC-180932][CONNECT] Corrigir o contexto de erro do Python para usar um contexto adequado
  • [SPARK-50274] [SC-181181][CORE] Proteger contra uso após fechamento em DirectByteBufferOutputStream
  • [SPARK-49999] [SC-180063][PYTHON][CONNECT] Suporte ao parâmetro opcional "column" em gráficos de caixa, kde e de histograma
  • [SPARK-50273] [SC-181178][SS] Aprimoramento do registro em log para casos de aquisição/liberação de bloqueio do RocksDB
  • [SPARK-50033] [SC-180720][SC-180659][SQL] Adição de uma dica ao nó logical.Aggregate()
  • [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Correção da liberação extra de acquireLock no RocksDB devido ao ouvinte de conclusão
  • [SPARK-50253] [SC-180969][SS] Stream-Stream Join não deverá buscar a ID do ponto de verificação se não houver suporte.
  • [SPARK-50255] [SC-180964][PYTHON] Evitar a conversão desnecessária em compute_hist
  • [SPARK-50228] [SC-180780][SQL] Mover a regra de RewriteCollationJoin para FinishAnalysis
  • [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] Ajuste da "precisão" para fazer parte de kwargs para gráficos de caixa
  • [SPARK-49637] [SC-180160][SQL] Mensagem de erro para INVALID_FRACTION_OF_SECOND foi alterada
  • [SPARK-49530] [SC-180658][PYTHON] Obter sessão ativa a partir de dataframes
  • [SPARK-50195] [SC-180654][CORE] Corrigir StandaloneRestServer para propagar spark.app.name para SparkSubmit corretamente
  • [SPARK-50229] [SC-180773] Reduza o uso de memória no driver para esquemas largos reduzindo o tempo de vida dos objetos AttributeReference criados durante o planejamento lógico
  • [SPARK-50231] [SC-180815][PYTHON] Fazer a função instr aceitar Coluna substring
  • [SPARK-49854] [SC-179812][16.x][SQL] Clonagem do gerenciador de artefatos durante a clonagem da sessão
  • [SPARK-50219] [SC-180694][SQL] Refatorar ApplyCharTypePadding para que os métodos auxiliares possam ser usados no resolvedor de passagem única
  • [SPARK-50077] [SC-179827][SQL] Introduza um novo objeto padrão para LogicalRelation para ajudar a evitar o padrão padrão de parâmetros completos
  • [SPARK-50128] [Backport][16x][SC-180677][SS] Adicionar APIs de identificador de processador com estado usando codificadores implícitos no Scala
  • [SPARK-50061] [SC-179961][SQL] Habilitar tabela de análise para colunas agrupadas
  • [SPARK-49993] [SC-180084][SQL] Melhorar as mensagens de erro para Soma e Média
  • [SPARK-49638] [SC-179665][SQL] Remova a sugestão de configuração ANSI no INVALID_URL
  • [SPARK-50204] [SC-180660][SQL] Fatorar a resolução do caminho de leitura HiveTableRelation
  • [SPARK-50193] [SC-180651][SS] Correção do tratamento de exceção para validação de modos de tempo
  • [SPARK-50179] [SC-180342][CORE] Tornar a propriedade spark.app.name opcional na API REST
  • [SPARK-50068] [SC-180300][SQL] Refatoração de TypeCoercion e AnsiTypeCoercion para separar transformações de nós individuais
  • [SPARK-49411] [SC-179483][SS] Comunicar ID de Ponto de Verificação do Armazenamento de Estado entre o driver e os operadores com estado
  • [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET deve preservar a ordenação de dados
  • [SPARK-49506] [SC-180165][SQL] Otimizar ArrayBinarySearch para matriz dobrável
  • [SPARK-50097] [SC-179908][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_1248: ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
  • [SPARK-50071] [SC-180159][SQL][PYTHON] Adicionar try_make_timestamp(_ltz e _ntz) e testes relacionados
  • [SPARK-50054] [SC-180228][PYTHON][CONNECT] Suporte a gráficos de histograma
  • [SPARK-50015] [SC-179964][SQL] Atribuir a condição de erro apropriada para _LEGACY_ERROR_TEMP_1125: MISSING_DATABASE_FOR_V1_SESSION_CATALOG
  • [SPARK-50155] [SC-180240][3.5] Mover arquivos scala e java para suas pastas padrão
  • [SPARK-49980] [SC-180353][CORE][SQL] Corrigir possíveis vazamentos de fluxo de arquivos causados pela interrupção em tarefas canceladas
  • [SPARK-49010] [SC-172304][SQL][XML] Adição de testes unitários para sensibilidade a maiúsculas/minúsculas na inferência de esquema XML
  • [SPARK-49562] [SC-180211][SQL] Adição de sintaxe de pipe SQL para agregação
  • [SPARK-49663] [SC-180239][SQL] Habilitação de sugestões RTRIM em expressões de ordenação
  • [SPARK-48965] [SC-175926][SQL] Use o esquema correto em Dataset#toJSON
  • [SPARK-48493] [SC-175893][PYTHON] Aprimorar o leitor de fonte de dados do Python com suporte direto ao batch do Arrow para melhorar o desempenho
  • [SPARK-49734] [SC-180226][PYTHON] Adicionar seed argumento para a função shuffle
  • [SPARK-50174] [16.x][SC-180253][SQL] Fatorar a resolução de UnresolvedCatalogRelation
  • [SPARK-49989] [SC-179512][PYTHON][CONNECT] Suporte a gráficos de kde/densidade
  • [SPARK-49805] [SC-180218][SQL][ML] Remoção de funções privadas[xxx] de function.scala
  • [SPARK-49808] [SC-179490][SQL] Corrigir um deadlock na execução da subconsulta devido a vals lentas
  • [SPARK-49929] [SC-180144][PYTHON][CONNECT] Suporte a gráficos de caixa
  • [SPARK-50008] [SC-179290][PS][CONNECT] Evite operações desnecessárias no attach_distributed_sequence_column
  • [SPARK-49767] [SC-180161][PS][CONNECT] Refatoração da invocação de função interna
  • [SPARK-49683] [SC-178341][SQL] Bloqueio da ordenação de corte
  • [SPARK-49939] [SC-178941][SQL] Suporte Codegen para json_object_keys (por Invoke e RuntimeReplaceable)
  • [SPARK-50031] [SC-179582][SQL] Adicionar a expressão TryParseUrl
  • [SPARK-49766] [SC-178933][SQL] Suporte Codegen para json_array_length (por Invoke e RuntimeReplaceable)
  • [SPARK-50046] [SC-180026][SS] Uso da ordem estável do nó EventTimeWatermark para calcular a marca d'água
  • [SPARK-49540] [SC-180145][PS] Unificar o uso de distributed_sequence_id
  • [SPARK-50060] [SC-179965][SQL] Conversão desabilitada entre diferentes tipos agrupados em TypeCoercion e AnsiTypeCoercion
  • [SPARK-49004] [SC-173244][CONNECT] Uso de um registro separado para funções internas da API de Colunas
  • [SPARK-49811] [SC-177888][SQL]Renomear StringTypeAnyCollation
  • [SPARK-49202] [SC-180059][PS] Aplicar ArrayBinarySearch para histograma
  • [SPARK-49203] [SC-175734][SQL] Adicionar expressão para java.util.Arrays.binarySearch
  • [SPARK-50034] [SC-179816][CORE] Corrigir a interpretação errônea de erros fatais como exceções não capturadas em SparkUncaughtExceptionHandler
  • [SPARK-50093] [SC-179836][SQL] Ordenações que usam ICU devem ter a versão da biblioteca ICU usada
  • [SPARK-49985] [SC-179644][SQL] Remoção de suporte para tipos de intervalo em variantes
  • [SPARK-49103] [SC-173066][CORE] Suporte a spark.master.rest.filters
  • [SPARK-50090] [SC-179819] Refatorar ResolveBinaryArithmetic para separar a transformação de apenas um nó
  • [SPARK-49902] [SC-179650][SQL] Capturar erros de runtime subjacentes em RegExpReplace
  • [SPARK-49126] [SC-173342][CORE] Mover a definição de configuração spark.history.ui.maxApplications para History.scala
  • [SPARK-50094] [SC-179820][PYTHON][CONNECT] Mensagem de erro mais clara ao usar a ferramenta de análise de memória em editores sem números de linha
  • [SPARK-50062] [SC-179835][SQL] Suporte a ordenações por InSet
  • [SPARK-50035] [Backport][16x][SC-179530][SS] Adicionar suporte para a função explícita handleExpiredTimer como parte do processador com estado
  • [SPARK-49982] [SC-179814][SQL] Correção de cache negativo em InMemoryRelation
  • [SPARK-49082] [SC-173350][SQL] Ampliando a promoção de tipos em AvroDeserializer
  • [SPARK-50088] [SC-179680][SQL] Refatorar UnresolvedStarBase.expand
  • [SPARK-49802] [SC-179482][SS] Adicionar suporte para feed de alterações de leitura para tipos de mapa e de lista usados em processadores com estado
  • [SPARK-49846] [SC-179506][SS] Adicionar métricas numUpdatedStateRows e numRemovedStateRows para uso com o operador transformWithState
  • [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] Fazer com que o lit aceite ndarray numpy do tipo str e bool
  • [SPARK-49821] [SC-179527][SS][PYTHON] Implementar suporte a MapState e TTL para TransformWithStateInPandas
  • [SPARK-49558] [SC-179485][SQL] Adicionar sintaxe de pipe SQL para LIMIT/OFFSET e ORDER/SORT/CLUSTER/DISTRIBUTE BY
  • [SPARK-48144] [SC-165725][LC-4080][SQL] Corrigir canPlanAsBroadcastHashJoin para respeitar dicas de junção em ordem aleatória
  • [SPARK-50051] [SC-179571][PYTHON][CONNECT] Fazer lit funcionar com ndarray do numpy vazio
  • [SPARK-50018] [SC-179488][SQL] Tornar AbstractStringType serializável
  • [SPARK-50016] [SC-179491][SQL] Aprimorar erro de incompatibilidade de ordenação explícita
  • [SPARK-50010] [SC-179487][SQL] Expandir erro de incompatibilidade de ordenação implícita
  • [SPARK-48749] [SC-170116][SQL] Simplificar UnaryPositive e eliminar suas regras do Catalyst com RuntimeReplaceable
  • [SPARK-49857] [SC-178576][SQL] Adicionar storageLevel à API localCheckpoint do conjunto de dados
  • [SPARK-50058] [SC-179538][SQL] Fatorar funções de normalização do plano para uso posterior no teste do Analisador de passagem única
  • [SPARK-50052] [SC-179535][PYTHON][16.X] Fazer com que NumpyArrayConverter dê suporte ndarray de str vazia
  • [SPARK-47261] [SC-173665][SQL] Atribuir melhor nome para erros _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 e _LEGACY_ERROR_TEMP_1174
  • [SPARK-49147] [SC-173471][CORE] Marcar KryoRegistrator com a interface DeveloperApi
  • [SPARK-48949] [SC-173070][SQL] SPJ: filtragem de partição em tempo de execução
  • [SPARK-50044] [SC-179523][PYTHON] Refinar a docstring de várias funções matemáticas
  • [SPARK-48757] [SC-170113][CORE] Fazer com que IndexShuffleBlockResolver tenha construtores explícitos
  • [SPARK-50037] [SQL] Refatorar AttributeSeq.resolve(...)
  • [SPARK-48782] [SC-177056][SQL] Adicionar suporte para executar procedimentos em catálogos
  • [SPARK-49057] [SC-173081][SQL] Não bloqueie o loop do AQE ao enviar estágios de consulta
  • [SPARK-48824] [SC-176772][BEHAVE-167][SQL] Adicionar sintaxe SQL da Coluna de Identidade
  • [SPARK-48773] [SC-170773] Configuração do documento "spark.default.parallelism" pela estrutura do construtor de configurações
  • [SPARK-48735] [SC-169810][SQL] Melhoria de desempenho para a função BIN
  • [SPARK-48900] [SC-172433] Adicionar campo reason para todas as chamadas internas de cancelamento de trabalho/estágio
  • [SPARK-48488] [SC-167605][CORE] Corrigir métodos log[info|warning|error] em SparkSubmit
  • [SPARK-48708] [SC-169809][CORE] Remover três registros de tipo desnecessários de KryoSerializer
  • [SPARK-49958] [SC-179312][PYTHON] API do Python para funções de validação de cadeia de caracteres
  • [SPARK-49979] [SC-179264][SQL] Correção do problema de suspensão do AQE ao coletar duas vezes em um plano com falha
  • [SPARK-48729] [SC-169795][SQL] Adicionar uma interface UserDefinedFunction para representar uma função SQL
  • [SPARK-49997] [SC-179279][SQL] Integrar _LEGACY_ERROR_TEMP_2165 ao MALFORMED_RECORD_IN_PARSING
  • [SPARK-49259] [SC-179271][SS]Criação de partição com base em tamanho durante a leitura do Kafka
  • [SPARK-48129] [SC-165006][PYTHON] Forneça um esquema de tabela constante no PySpark para consultar logs estruturados
  • [SPARK-49951] [SC-179259][SQL] Atribuir condição de erro adequada para LEGACY_ERROR_TEMP(1099|3085)
  • [SPARK-49971] [SC-179278][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_1097
  • [SPARK-49998] [SC-179277][SQL] Integrar _LEGACY_ERROR_TEMP_1252 ao EXPECT_TABLE_NOT_VIEW
  • [SPARK-49876] [SC-179262][CONNECT] Livre-se dos bloqueios globais do Serviço Spark Connect
  • [SPARK-49957] [SC-179202][SQL] API Scala para funções de validação de cadeia de caracteres
  • [SPARK-48480] [SC-173055][SS][CONNECT] StreamingQueryListener não deve ser afetado por spark.interrupt()
  • [SPARK-49643] [SC-179239][SQL] Mesclar _LEGACY_ERROR_TEMP_2042 em ARITHMETIC_OVERFLOW
  • [SPARK-49959] [SC-179109][SQL] Correção de ColumnarArray.copy() para acessar valores nulos a partir do deslocamento correto
  • [SPARK-49956] Reverter “[SC-179070] Ordenações desabilitadas com a expressão collect_set”
  • [SPARK-49987] [SC-179180][SQL] Correção do prompt de erro quando seedExpression não for dobrável no randstr
  • [SPARK-49948] [SC-179158][PS][CONNECT] Adicionar parâmetro "precisão" ao pandas no gráfico de caixa do Spark
  • [SPARK-49970] [SC-179167][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2069
  • [SPARK-49916] [SC-179108][SQL] Gerar exceção apropriada para incompatibilidade de tipo entre ColumnType e tipo de dados em algumas linhas
  • [SPARK-49956] [SC-179070] Ordenações desabilitadas com expressão collect_set
  • [SPARK-49974] [16.x][SC-179071][SQL] Mover resolveRelations(...) para fora de Analyzer.scala
  • [SPARK-47259] [SC-176437][SQL] Atribuição de nomes a condições de erro para erros de intervalo
  • [SPARK-47430] [SC-173679][SQL] Retrabalhar agrupamento por tipo de mapa para corrigir erro de referência de associação
  • [SPARK-49067] [SC-172616][SQL] Mover literal utf-8 para métodos internos da classe UrlCodec
  • [SPARK-49955] [SC-178989][SQL] valor nulo não significa arquivo corrompido ao analisar RDD da cadeia de caracteres JSON
  • [SPARK-49393] [SC-175212][SQL] Falha por padrão em APIs de plug-in de catálogo preteridas
  • [SPARK-49952] [SC-178985][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_1142
  • [SPARK-49405] [SC-175224][SQL] Restringir conjuntos de caracteres em JsonOptions
  • [SPARK-49892] [SC-178975][SQL] Atribuir classe de erro adequada para _LEGACY_ERROR_TEMP_1136
  • [SPARK-49904] [SC-178973][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2140
  • [SPARK-47257] [SC-174244][SQL] Atribuir nomes a classes de erro _LEGACY_ERROR_TEMP_105[3-4] e _LEGACY_ERROR_TEMP_1331
  • [SPARK-49915] [SC-178869][SQL] Tratar zeros e uns no ReorderAssociativeOperator
  • [SPARK-49891] [SC-178970][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2271
  • [SPARK-49918] [SC-178748][CORE] Uso de acesso somente leitura para configuração em SparkContext quando apropriado
  • [SPARK-49666] [SC-177891][SQL] Adição de sinalizador de recurso para a funcionalidade de recorte na ordenação
  • [SPARK-48885] [SC-171050][SQL] Fazer algumas subclasses do RuntimeReplaceable substituírem a substituição por val lenta
  • [SPARK-49932] [SC-178931][CORE] Usar recursos JsonUtils#toJsonString de liberação tryWithResource para evitar vazamentos de memória
  • [SPARK-49949] [SC-178978][PS] Evite uma tarefa de análise desnecessária no attach_sequence_column
  • [SPARK-49924] [SC-178935][SQL] Manter containsNull após substituição de ArrayCompact
  • [SPARK-49121] [SC-174787][SQL] Suporte from_protobuf e to_protobuf para funções SQL
  • [SPARK-47496] [SC-160529][SQL] Suporte a JAVA SPI para registro dinâmico de dialeto JDBC
  • [SPARK-49359] [SC-174895][SQL] Permitir que implementações StagedTableCatalog retornem à gravação não atômica
  • [SPARK-49895] [SC-178543][SQL][ES-1270338] Aprimorar o erro ao encontrar vírgula à direita na cláusula SELECT
  • [SPARK-47945] [SC-163457][SQL] MsSQLServer: Mapeamento de documentos de tipos de dados SQL do Spark do Microsoft SQL Server e adicionar testes
  • [SPARK-46037] [SC-175495][SQL] Correção para construção de Junção de Hash embaralhado deixada sem geração de código
  • [SPARK-47813] [SC-162615][SQL] Substituição de getArrayDimension por updateExtraColumnMeta
  • [SPARK-49542] [SC-178765][SQL] Erro na avaliação da exceção de transformação de partição
  • [SPARK-47172] [SC-169537][CORE] Adicionar suporte para AES-GCM para criptografia RPC
  • [SPARK-47666] [SC-161476][SQL] Correção de NPE ao ler a matriz de bits mysql como LongType
  • [SPARK-48947] [SC-174239][SQL] Use o nome do conjunto de caracteres em letras minúsculas para diminuir o cache ausente em Charset.forName
  • [SPARK-49909] [SC-178552][SQL] Corrigir o nome bonito de algumas expressões
  • [SPARK-47647] [SC-161377][SQL] Tornar a fonte de dados MySQL capaz de ler bit(n>1) como BinaryType, assim como o Postgres.
  • [SPARK-46622] [SC-153004][CORE] Sobrescrever método toString para o.a.s.network.shuffledb.StoreVersion
  • [SPARK-48961] [SC-171910][PYTHON] Tornar a nomenclatura de parâmetro de PySparkException consistente com JVM
  • [SPARK-49889] [SC-178474][PYTHON] Adicionar trim de argumento para funçõestrim/ltrim/rtrim
  • [SPARK-47537] [SC-160747][SQL] Corrigir mapeamento de tipo de dados de erro no Conector MySQL/J
  • [SPARK-47628] [SC-161257][SQL] Corrigir o problema da matriz de bits do Postgres 'Não é possível converter em booleano'
  • [SPARK-49843] [SC-178084][ES-1268164][SQL] Corrigir comentário sobre alterações em colunas char/varchar
  • [SPARK-49549] [SC-178764][SQL] Atribuir um nome às condições de erro _LEGACY_ERROR_TEMP_3055, 3146
  • [SPARK-49791] [SC-177730][SQL] Tornar DelegatingCatalogExtension mais extensível
  • [SPARK-49559] [SC-178551][SQL] Adicionar sintaxe de pipe SQL para operações definidas
  • [SPARK-49906] [SC-178536][SQL] Apresentar e usar o erro CONFLICTING_DIRECTORY_STRUCTURES para PartitioningUtils
  • [SPARK-49877] [SC-178392][SQL] Alterar assinatura da função classifyException: adicionar argumento isRuntime
  • [SPARK-47501] [SC-160532][SQL] Adicionar convertDateToDate como o convertTimestampToTimestamp existente para JdbcDialect
  • [SPARK-49044] [SC-175746][SQL] ValidateExternalType deve retornar o filho em caso de erro
  • [SPARK-47462] [SC-160460][SQL] Alinhar mapeamentos de outros tipos numéricos não assinados com TINYINT no MySQLDialect
  • [SPARK-47435] [SC-160129][SQL] Corrigir problema de estouro do MYSQL UNSIGNED TINYINT causado pelo SPARK-45561
  • [SPARK-49398] [SC-176377][SQL] Melhorar o erro de parâmetros na consulta de CACHE TABLE e CREATE VIEW
  • [SPARK-47263] [SC-177012][SQL] Atribuir nomes às condições herdadas _LEGACY_ERROR_TEMP_13[44-46]
  • [SPARK-49605] [SC-176605][SQL] Corrigir o prompt quando ascendingOrder for DataTypeMismatch no SortArray
  • [SPARK-49806] [SC-178304][SQL][CONNECT] Remover blank space redundantes após show em clientes Scala e Connect
  • [SPARK-47258] [SC-175032][SQL] Atribuir nomes a classes de erro _LEGACY_ERROR_TEMP_127[0-5]
  • [SPARK-49564] [SC-178461][SQL] Adicionar sintaxe de pipe SQL para o operador JOIN
  • [SPARK-49836] [SC-178339][SQL][SS] Corrigir a consulta possivelmente quebrada quando a janela é fornecida à função janela/session_window
  • [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] Manipular mapeamento de timestamps SQL para Postgres e MySQL
  • [SPARK-49776] [SC-177818][PYTHON][CONNECT] Suporte a gráficos de pizza
  • [SPARK-49824] [SC-178251][SS][CONNECT] Aprimorar o registro em log no SparkConnectStreamingQueryCache
  • [SPARK-49894] [SC-178460][PYTHON][CONNECT] Refinar a representação de string das operações de campo de coluna
  • [SPARK-49764] [SC-177491][PYTHON][CONNECT] Gráficos de área de suporte
  • [SPARK-49694] [SC-177376][PYTHON][CONNECT] Suporte a gráficos de dispersão
  • [SPARK-49744] [SC-178363][SS][PYTHON] Implementar suporte TTL para ListState em TransformWithStateInPandas
  • [SPARK-49879] [SC-178334][CORE] Mover TransportCipherUtil para um arquivo separado para eliminar avisos de compilação Java
  • [SPARK-49866] [SC-178353][SQL] Melhorar a mensagem de erro para descrever a tabela com colunas de partição
  • [SPARK-49867] [SC-178302][ES-1260570][SQL] Melhorar a mensagem de erro quando o índice estiver fora dos limites ao chamar GetColumnByOrdinal
  • [SPARK-49607] [SC-177373][PYTHON] Atualizar a abordagem de amostragem para gráficos baseados em amostras
  • [SPARK-49626] [SC-177276][PYTHON][CONNECT] Suporte a gráficos de barras horizontais e verticais
  • [SPARK-49531] [SC-177770][PYTHON][CONNECT] Suporte para gráfico de linha com back-end do plotly
  • [SPARK-49444] [SC-177692][ES-1203248][SQL] UnivocityParser modificado para gerar exceções de runtime causadas por ArrayIndexOutOfBounds com mensagens mais orientadas ao usuário
  • [SPARK-49870] [SC-178262][PYTHON] Adicionar suporte ao Python 3.13 no Spark Classic
  • [SPARK-49560] [SC-178121][SQL] Adicionar sintaxe de pipe SQL para o operador TABLESAMPLE
  • [SPARK-49864] [SC-178305][SQL] Aprimporar a mensagem do BINARY_ARITHMETIC_OVERFLOW
  • [SPARK-48780] [SC-170274][SQL] Tornar os erros no NamedParametersSupport genéricos para lidar com funções e procedimentos
  • [SPARK-49358] [SC-178158][SQL] Expressão de modo para tipos de mapa com cadeias de caracteres agrupadas
  • [SPARK-47341] [SC-178157][SQL] Corrigir documentação imprecisa de RuntimeConfig#get
  • [SPARK-48357] [SC-178153][SQL] Suporte para instrução LOOP
  • [SPARK-49845] [SC-178059][CORE] Tornar appArgs e environmentVariables opcional na API REST
  • [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable deve indicar se é para gravação
  • [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Adicionado suporte ao ouvinte do lado do cliente para Scala
  • [SPARK-48700] [SC-177978][SQL] Expressão de modo para tipos complexos (todas as ordenações)
  • [SPARK-48196] [SC-177899][SQL] Transformar planos val lentos de QueryExecution em LazyTry
  • [SPARK-49749] [16.x][SC-177877][CORE] Alterar o nível de log para depuração no BlockManagerInfo
  • [SPARK-49561] [SC-177897][SQL] Adicionar sintaxe de pipe SQL para os operadores PIVOT e UNPIVOT
  • [SPARK-49823] [SC-177885][SS] Evitar liberação durante o desligamento no caminho de fechamento do rocksdb
  • [SPARK-49820] [SC-177855] [PYTHON] Alterar raise IOError para raise OSError
  • [SPARK-49653] [SC-177266][SQL] Junção única para subconsultas escalares correlacionadas
  • [SPARK-49552] [SC-177477][PYTHON] Adicionar suporte à API de DataFrame para as novas funções SQL 'randstr' e 'uniform'
  • [SPARK-48303] [16.x][SC-166251][CORE] Reorganizar LogKeys
  • [SPARK-49656] [16x][Backport][SS] Adicionar suporte a variáveis de estado com tipos de coleção para estado de valor e ler opções de feed de alterações
  • [SPARK-48112] [SC-165129][CONNECT] Expor sessão no SparkConnectPlanner a plug-ins
  • [SPARK-48126] [16.x][SC-165309][Core] Tornar o spark.log.structuredLogging.enabled efetivo
  • [SPARK-49505] [SC-176873][SQL] Criar novas funções SQL "randstr" e "uniforme" para gerar cadeias de caracteres aleatórias ou números dentro de intervalos
  • [SPARK-49463] [SC-177474] Suporte a ListState para TransformWithStateInPandas
  • [SPARK-48131] [SC-165007][Core] Unificar a chave MDC mdc.taskName e task_name
  • [SPARK-49557] [SC-177227][SQL] Adicionar sintaxe de pipe SQL para o operador WHERE
  • [SPARK-49323] [16.x][SC-174689][CONNECT] Mover o MockObserver da pasta de teste do Spark Connect Server para a pasta principal do servidor
  • [SPARK-49745] [SC-177501][SS] Adicionar alteração para ler temporizadores registrados usando o leitor de fonte de dados de estado
  • [SPARK-49772] [16.x][SC-177478][SC-177214][SS] Remover ColumnFamilyOptions e adicionar configurações diretamente ao dbOptions no RocksDB

Suporte ao driver ODBC/JDBC do Databricks

O Databricks dá suporte a drivers ODBC/JDBC lançados nos últimos 2 anos. Baixe os drivers e a atualização lançados recentemente (baixe o ODBC, baixe o JDBC).

Consulte Atualizações de manutenção do Databricks Runtime 16.1.

Ambiente do sistema

  • sistema operacional: Ubuntu 24.04.1 LTS
  • Java: Zulu17.54+21-CA
  • Scala: 2.12.18
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.2.1

Bibliotecas do Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
annotated-types 0.7.0 asttokens 2.0.5 astunparse 1.6.3
autocommand 2.2.2 azure-core 1.31.0 azure-storage-blob 12.23.0
azure-storage-file-datalake 12.17.0 backports.tarfile 1.2.0 black 24.4.2
blinker 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools 5.3.3 certifi 2024.6.2 cffi 1.16.0
chardet 4.0.0 charset-normalizer 2.0.4 click 8.1.7
cloudpickle 2.2.1 comm 0.2.1 contourpy 1.2.0
criptografia 42.0.5 cycler 0.11.0 Cython 3.0.11
databricks-sdk 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
decorator 5.1.1 Deprecado 1.2.14 distlib 0.3.8
docstring-to-markdown 0.11 pontos de entrada 0.4 em execução 0.8.3
Visão geral de facetas 1.1.1 bloqueio de arquivo 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
google-auth 2.35.0 google-cloud-core 2.4.1 google-cloud-storage 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
inflect 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-semantic-conventions 0.48b0
empacotamento 24.1 Pandas 1.5.3 parso 0.8.3
pathspec 0.10.3 patsy 0.5.6 pexpect 4.8.0
almofada 10.3.0 pip 24.2 platformdirs 3.10.0
plotly 5.22.0 pluggy 1.0.0 prompt-toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.65 pycparser 2.21 pydantic 2.8.2
pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing 3.0.9 pyright 1.1.294 python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6
pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
Solicitações 2.32.2 rope 1.12.0 rsa 4.9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1
seaborn 0.13.2 setuptools 74.0.0 six 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
stack-data 0.2.0 statsmodels 0.14.2 tenacidade 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.4.1 traitlets 5.14.3 typeguard 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 tipos de solicitações 2.31.0.0 types-setuptools 68.0.0.0
types-six 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 unattended-upgrades 0.1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5
whatthepatch 1.0.2 wheel 0.43.0 wrapt 1.14.1
yapf 0.33.0 zipp 3.17.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do snapshot CRAN do Posit Package Manager em 2024-08-04.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
flecha 16.1.0 askpass 1.2.0 assertthat 0.2.1
backports 1.5.0 base 4.4.0 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-8 blob 1.2.4 ciar 1.3-30
brew 1.0-10 brio 1.1.5 broom 1.0.6
bslib 0.8.0 cachem 1.1.0 callr 3.7.6
caret 6.0-94 cellranger 1.1.0 chron 2.3-61
classe 7.3-22 cli 3.6.3 clipr 0.8.0
relógio 0.7.1 cluster 2.1.6 codetools 0.2-20
colorspace 2.1-1 commonmark 1.9.1 compilador 4.4.0
config 0.3.2 conflicted 1.2.0 cpp11 0.4.7
crayon 1.5.3 credentials 2.0.1 curl 5.2.1
data.table 1.15.4 conjuntos de dados 4.4.0 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 digerir 0.6.36
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 ellipsis 0.3.2 evaluate 0.24.0
fansi 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
estrangeiro 0.8 - 86 forge 0.2.0 fs 1.6.4
futuro 1.34.0 future.apply 1.11.2 gargle 1.5.2
generics 0.1.3 gert 2.1.0 ggplot2 3.5.1
gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.3 glue 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
Gráficos 4.4.0 grDevices 4.4.0 grid 4.4.0
gridExtra 2.3 gsubfn 0,7 gt 0.11.0
gtable 0.3.5 hardhat 1.4.0 refúgio 2.5.4
highr 0.11 hms 1.1.3 htmltools 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1.48 labeling 0.4.3
later 1.3.2 lattice 0.22-5 lava 1.8.0
ciclo de vida 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matriz 1.6-5 memoise 2.0.1 Métodos 4.4.0
mgcv 1.9-1 mime 0.12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 parallel 4.4.0
parallelly 1.38.0 coluna 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 louvar 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 progresso 1.2.3
progressr 0.14.0 Promessas 1.3.0 proto 1.0.0
proxy 0.4-27 ps 1.7.7 purrr 1.0.2
R6 2.5.1 ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 capaz de reagir 0.4.4
reactR 0.6.0 readr 2.1.5 readxl 1.4.3
Receitas 1.1.0 rematch 2.0.0 revanche2 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.4 rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
scales 1.3.0 selectr 0.4-2 informações de sessão 1.2.2
shape 1.4.6.1 shiny 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 espacial 7.3-17 splines 4.4.0
sqldf 0.4-11 SQUAREM 2021.1 estatísticas 4.4.0
stats4 4.4.0 stringi 1.8.4 stringr 1.5.1
sobrevivência 3.6-4 swagger 5.17.14.1 sys 3.4.2
systemfonts 1.1.0 tcltk 4.4.0 testthat 3.2.1.1
formatação de texto 0.4.0 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.1 tidyverse 2.0.0 mudança de horário 0.3.0
timeDate 4032.109 tinytex 0.52 Ferramentas 4.4.0
tzdb 0.4.0 verificador de URL 1.0.1 usethis 3.0.0
utf8 1.2.4 utils 4.4.0 identificador único universal (UUID) 1.2-1
V8 4.4.2 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 Waldo 0.5.2 whisker 0.4.1
withr 3.0.1 xfun 0.46 xml2 1.3.6
xopen 1.0.1 xtable 1.8-4 yaml 2.3.10
zeallot 0.1.0 zip 2.3.1

Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.12)

ID do grupo ID do artefato Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws SDK Java para o ECS da AWS 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de classe 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.datatype jackson-module-paranamer 2.15.2
com.fasterxml.jackson.datatype jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone anotações propensas a erros 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp VERSÃO.0.8.0.
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressor de ar 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty Netty-all 4.1.108.Final
io.netty netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-socks 4.1.108.Final
io.netty netty-common 4.1.108.Final
io.netty netty-handler 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty netty-resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collector 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper guarda zoológico 3.9.2
org.apache.zookeeper zookeeper-jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket API de WebSockets 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket servidor WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
stax stax-api 1.0.1