Tempo de execução do Databricks 16.1
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.1, alimentado pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em dezembro de 2024.
Dica
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de lançamento do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
Mudança crítica: A manipulação de expressões regulares do Photon agora é consistente com o Apache Spark
No Databricks Runtime 15.4 e superior, a manipulação de expressões regulares no Photon é atualizada para corresponder ao comportamento do tratamento de expressões regulares do Apache Spark. Anteriormente, as funções de expressão regular executadas pelo Photon, como split()
e regexp_extract()
, aceitavam algumas expressões regulares rejeitadas pelo analisador Spark. Para manter a consistência com o Apache Spark, as consultas Photon agora falharão para expressões regulares que o Spark considera não válidas.
Devido a essa alteração, você poderá ver erros se o código do Spark incluir expressões regulares inválidas. Por exemplo, a expressão split(str_col, '{')
, que contém uma chave incomparável e foi anteriormente aceita por Photon, agora falha. Para corrigir essa expressão, você pode escapar do caractere de chave: split(str_col, '\\{')
.
O comportamento de Photon e Spark também diferiu para algumas correspondências de expressões regulares de caracteres não-ASCII. Isso também é atualizado para que o Photon corresponda ao comportamento do Apache Spark.
O tipo de dados VARIANT
não pode mais ser usado com operações que exigem comparações
No Databricks Runtime 16.1 e superior, você não pode usar as seguintes cláusulas ou operadores em consultas que incluem um tipo de dados VARIANT
:
DISTINCT
INTERSECT
EXCEPT
UNION
DISTRIBUTE BY
Além disso, você não pode usar essas funções de DataFrame:
df.dropDuplicates()
df.repartition()
Essas operações executam comparações e comparações que usam o tipo de dados VARIANT produzem resultados indefinidos e não são suportadas no Databricks. Se você usar o tipo VARIANT em suas cargas de trabalho ou tabelas do Azure Databricks, o Databricks recomenda as seguintes alterações:
- Atualize consultas ou expressões para converter explicitamente valores de
VARIANT
para tipos de dados nãoVARIANT
. - Se você tiver campos que devem ser usados com qualquer uma das operações acima, extraia esses campos do tipo de dados
VARIANT
e armazene-os usando tipos de dados nãoVARIANT
.
Para saber mais, consulte Consultar dados de variante.
Novos recursos e melhorias
- Suporte para agrupamentos no Apache Spark está em Public Preview
- Suporte para intercalações no Delta Lake está em Pré-visualização Pública
-
LITE
o modo para vácuo está em Pré-visualização Pública -
Suporte para parametrização da cláusula
USE CATALOG with IDENTIFIER
- COMMENT ON COLUMN suporte para tabelas e visualizações
- Novas funções SQL
- Uso de parâmetro nomeado para mais funções
-
O parâmetro
SYNC METADATA
para o comando REPAIR TABLE é suportado pelo metastore do Hive - Integridade de dados aprimorada para lotes de Apache Arrow compactados
- Suporte adicionado para métodos Scala no modo de acesso partilhado de computação do Unity Catalog
- Driver JDBC Teradata integrado
- Suporte para StreamingQueryListener em Scala
- Driver Oracle JDBC integrado
- Erros mais detalhados para tabelas Delta acessadas através de caminhos
O suporte para agrupamentos no Apache Spark está em visualização pública
Agora é possível atribuir agrupamentos sensíveis a idioma, sem distinção entre maiúsculas e minúsculas e sem distinção de acesso a colunas e expressões STRING
. Esses agrupamentos são usados em comparações de cadeia de caracteres, classificação, operações de agrupamento e muitas funções de cadeia de caracteres. Consulte Classificação.
O suporte para agrupamentos no Delta Lake está em visualização pública
Agora você pode definir agrupamentos para colunas ao criar ou alterar uma tabela Delta. Consulte Suporte de agrupamento para Delta Lake.
LITE
modo para vácuo está em Prévia Pública
Agora você pode usar VACUUM table_name LITE
para executar uma operação de vácuo mais leve que aproveita os metadados no log de transações Delta. Consulte modo completo vs. modo ligeiro e VACUUM.
Suporte para parametrização da cláusula USE CATALOG with IDENTIFIER
Nas versões Databricks Runtime 16.1 e superiores, a cláusula IDENTIFIER é suportada para a instrução USE CATALOG. Com esse suporte, você pode parametrizar o catálogo atual com base em uma variável de cadeia de caracteres ou marcador de parâmetro.
COMMENT ON COLUMN suporte para tabelas e vistas
No Databricks Runtime 16.1 e superior, a instrução COMMENT ON suporta a alteração de comentários para colunas de exibição e tabela.
Novas funções SQL
No Databricks Runtime 16.1 e superior, as seguintes novas funções SQL internas estão disponíveis:
- dayname(expr) retorna o acrônimo inglês de três letras para o dia da semana para a data determinada.
- uniforme(expr1, expr2 [,semente]) retorna um valor aleatório com valores independentes e distribuídos de forma idêntica dentro do intervalo especificado de números.
-
randstr(length) retorna uma sequência aleatória de caracteres alfanuméricos
length
.
Invocação de parâmetro nomeado para mais funções
No Databricks Runtime 16.1 e superior, as seguintes funções suportam de invocação de parâmetro nomeado:
O parâmetro SYNC METADATA
do comando REPAIR TABLE é suportado com o Hive metastore
No Databricks Runtime 16.1 e superior, você pode usar o parâmetro SYNC METADATA
com o comando REPAIR TABLE
para atualizar os metadados de uma tabela gerenciada de metastore do Hive. Ver REPAIR TABLE.
Integridade de dados aprimorada para conjuntos compactados do Apache Arrow
No Databricks Runtime 16.1 e superior, para proteger ainda mais contra a corrupção de dados, cada lote compactado de Arrow LZ4
agora inclui o conteúdo LZ4
e os checksums de bloco. Consulte LZ4 Frame Format Description.
Suporte adicionado para métodos Scala na computação em modo de acesso compartilhado do Unity Catalog
No Databricks Runtime 16.1 e superior, é adicionado suporte aos seguintes métodos Scala na computação em modo de acesso compartilhado do Unity Catalog: Dataset.flatMapGroups()
, Dataset.mapGroups()
e DataStreamWriter.foreach()
.
Driver JDBC Teradata integrado
No Databricks Runtime 16.1 e superior, o Teradata JDBC Driver é incorporado ao Azure Databricks. Se usares um JAR de driver JDBC carregado pelo cliente via DriverManager
, deves reescrever os scripts para usar explicitamente o JAR personalizado. Caso contrário, o driver interno é usado. Este driver suporta apenas Lakehouse Federation. Para outros casos de uso, você deve fornecer seu próprio driver.
Suporte StreamingQueryListener para Scala
Agora você pode usar StreamingQueryListener
no Scala na computação configurada com o modo de acesso compartilhado.
Driver JDBC da Oracle integrado
No Databricks Runtime 16.1 e superior, o Oracle JDBC Driver é incorporado ao Azure Databricks. Se usares um JAR de driver JDBC carregado pelo cliente via DriverManager
, deves reescrever os scripts para usar explicitamente o JAR personalizado. Caso contrário, o driver interno é usado. Este driver suporta apenas Lakehouse Federation. Para outros casos de uso, você deve fornecer seu próprio driver.
Erros mais detalhados para tabelas Delta acessadas através de caminhos
Uma nova experiência de mensagem de erro para tabelas Delta acessadas usando caminhos já está disponível. Todas as exceções agora são encaminhadas para o usuário. A exceção DELTA_MISSING_DELTA_TABLE
agora está reservada para quando os arquivos subjacentes não podem ser lidos como uma tabela Delta.
Outras alterações
Códigos de erro renomeados para a fonte Structured Streaming cloudFiles
Esta versão inclui uma alteração para renomear os seguintes códigos de erro:
-
_LEGACY_ERROR_TEMP_DBR_0143
é renomeado paraCF_INCORRECT_STREAM_USAGE
. -
_LEGACY_ERROR_TEMP_DBR_0260
é renomeado paraCF_INCORRECT_BATCH_USAGE
.
Correções de bugs
Os tipos aninhados agora aceitam corretamente restrições NULL
Esta versão corrige um bug que afeta algumas colunas geradas pelo Delta de tipos aninhados, por exemplo, STRUCT
. Às vezes, essas colunas rejeitavam incorretamente expressões com base em restrições NULL
ou NOT NULL
de campos aninhados. Isso foi corrigido.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- ipyflow-core de 0.0.198 a 0.0.201
- pyccolo de 0.0.52 a 0.0.65
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- io.delta.delta-sharing-client_2.12 de 1.2.1 a 1.2.2
- org.lz4.lz4-java de 1.8.0 a 1.8.0-databricks-1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.2-linux-x86_64 para 2.4.1-linux-x86_64
Apache Spark
O Databricks Runtime 16.1 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.0, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
[SPARK-50482] [SC-182879][CORE] Configuração no-op
spark.shuffle.spill
preterida - [SPARK-50032] [SC-182706][SQL][16.x] Permitir o uso de nome de agrupamento totalmente qualificado
-
[SPARK-50467] [SC-182823][PYTHON] Adicionar
__all__
para funções incorporadas - [SPARK-48898] [SC-182828][SQL] Corrigir bug de fragmentação de variante
- [SPARK-50441] [SC-182668][SQL] Corrigir identificadores parametrizados que não funcionam ao fazer referência a CTEs
- [SPARK-50446] [SC-182639][PYTHON] Nível de concorrência em UDF Python otimizado para Arrow
- [SPARK-50430] [SC-182536][CORE] Use o padrão Properties.clone em vez do clone manual
- [SPARK-50471] [SC-182790][PYTHON] Escritora de Fonte de Dados em Python Baseada em Arrow
- [SPARK-50466] [SC-182791][PYTHON] Refinar o docstring para funções de string - parte 1
- [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] Integração de Nova API de Timer e API de Estado Inicial com Timer
- [SPARK-50437] [SC-182586][SS] Reduza a sobrecarga de criação de desserializadores em TransformWithStateExec
- [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Adicionar suporte para encadeamento de...
- [SPARK-49294] [SC-182730][UI] Adicionar atributo width para a caixa de seleção shuffle-write-time.
- [SPARK-50426] [SC-182540][PYTHON] Evite a pesquisa de fontes de dados Python estáticas ao usar fontes de dados incorporadas ou Java
- [SPARK-48356] [SC-182603][SQL] Suporte para a instrução FOR
-
[SPARK-50333] [SC-182136][SQL] Codegen Suporte para
CsvToStructs
(invocando & RuntimeReplaceable) - [SPARK-50285] [SC-182575] Métricas para confirmações em instâncias StagedTable
-
[SPARK-50081] [SC-182344][SQL] Codegen Suporte para
XPath*
(invocando & RuntimeReplaceable) - [SPARK-50440] [SC-182592] [SQL] Refactor AttributeSeq.resolveCandidates
- [SPARK-50067] [SC-179648][SQL] Suporte de Codegen para SchemaOfCsv (por invocar & RuntimeReplaceable)
- [SPARK-49873] [SC-178577][SQL] corrigir falha após a mesclagem no teste de erro
- [SPARK-50118] [SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução
- [SPARK-49873] [SC-178577][SQL] Atribuir classe de erro adequada para _LEGACY_ERROR_TEMP_1325
-
[SPARK-50381] [SC-182197][CORE] Suporte
spark.master.rest.maxThreads
- [SPARK-46725] [SC-182448][SQL] Adicionar função DAYNAME
- [SPARK-50270] [SC-181179][SS][PYTHON] Adicionadas métricas de estado personalizadas para TransformWithStateInPandas
- [SPARK-50118] Reverter “[SC-181259][CONNET] Reiniciar cache de estado isolado quando as tarefas estão em execução”
- [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] Adicionar APIs DataFrame para funções com valor de tabela
- [SPARK-49470] [SC-175736][UI] Atualizar dataTables, folhas de estilo e javascripts de 1.13.5 para 1.13.11
- [SPARK-50235] Reverter “[SC-180786][SQL] Liberar o recurso ColumnVector após o processamento de todas as linhas em ColumnarToRowExec”
-
[SPARK-50324] [SC-182278][PYTHON][CONNECT] Faça
createDataFrame
acionarConfig
RPC no máximo uma vez - [SPARK-50387] [SC-182441][SS] Condição de atualização para expiração do temporizador e teste relevante
- [SPARK-50287] [SC-182400][SQL] Opções de mesclagem de tabela e relação ao criar o WriteBuilder em FileTable
-
[SPARK-50066] [SC-181484][SQL] Suporte para Codegen para
SchemaOfXml
(invocando & RuntimeReplaceable) - [SPARK-50092] [SC-181568][SQL] Corrigir o comportamento do conector PostgreSQL para matrizes multidimensionais
- [SPARK-50318] [SC-181641][SQL] Adicionar IntervalUtils.makeYearMonthInterval para eliminar a duplicação de código entre interpretados e codegen
- [SPARK-50312] [SC-181646][SQL] Erro de passagem de parâmetro na função createServer do SparkThriftServer quando kerberos é verdade
-
[SPARK-50246] [SC-181468][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2167
:INVALID_JSON_RECORD_TYPE
- [SPARK-50214] [SC-180692][SQL] A partir de json/xml não deve alterar os intercalamentos no esquema fornecido
-
[SPARK-50250] [SC-181466][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2075
:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
-
[SPARK-50248] [SC-181467][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2058
:INVALID_PARTITION_VALUE
- [SPARK-50118] [SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução
- [SPARK-50235] [SC-180786][SQL] Limpar recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
-
[SPARK-50156] [SC-180781][SQL] Integre
_LEGACY_ERROR_TEMP_2113
noUNRECOGNIZED_STATISTIC
-
[SPARK-50069] [SC-180163][SQL] Integre
_LEGACY_ERROR_TEMP_0028
noUNSUPPORTED_FROM_TO_EXPRESSION
-
[SPARK-50154] [SC-180663][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_0043
:INVALID_RESET_COMMAND_FORMAT
-
[SPARK-49967] [SC-179534][SQL] Suporte de Codegen para
StructsToJson
(to_json
) - [SPARK-50055] [SC-180978][SQL] Adicionar alternativa TryMakeInterval
-
[SPARK-50397] [SC-182367][CORE] Remover argumentos
--ip
e-i
preteridos deMaster/Worker
- [SPARK-50238] [SC-181434][PYTHON] Adicionar suporte a variantes em UDFs/UDTFs/UDAFs do PySpark e UDFs de UC Python
-
[SPARK-50079] [SC-179830][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_2013
:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
-
[SPARK-50182] [SC-180346][EXEMPLO] Adicionar
submit-sql.sh
exemplo de API REST -
[SPARK-49966] [SC-179501][SQL] Use
Invoke
para implementarJsonToStructs
(from_json
) - [SPARK-50302] [SC-182518][SS] Garanta tamanhos de índice secundário iguais aos tamanhos de índice primário para variáveis com estado TransformWithState com TTL
- [SPARK-50301] [SC-182241][SS][16.x] Faça com que as métricas TransformWithState reflitam seus significados intuitivos
- [SPARK-50175] [SC-182140][SQL] Alterar cálculo de precedência de agrupamento
-
[SPARK-50148] [SC-180292][SQL] Tornar
StaticInvoke
compatível com o método que declara exceção throw -
[SPARK-50280] [SC-181214][PYTHON] Refatore a classificação dos resultados e o preenchimento do recipiente vazio
compute_hist
- [SPARK-50190] [SC-182458][PYTHON] Remover a dependência direta do Numpy do histograma
- [SPARK-50382] [SC-182368][CONNECT] Adicionar documentação para obter informações gerais sobre o desenvolvimento de aplicativos com/extensão do Spark Connect
- [SPARK-50296] [SC-181464][PYTHON][CONNECT] Evite usar uma propriedade de classe no threadpool para o cliente Python Connect
- [SPARK-49566] [SC-182239][SQL] Adicionar sintaxe de pipe SQL para o operador EXTEND
- [SPARK-50036] [SC-179533][CORE][PYTHON] Incluir SPARK_LOG_SCHEMA no contexto do shell REPL
- [SPARK-49859] [SC-178259][CONNECT] Substitua multiprocessing.ThreadPool com ThreadPoolExecutor
-
[SPARK-50141] [SC-182378][PYTHON] Fazer
lpad
erpad
aceitarem argumentos do tipo coluna - [SPARK-50379] [SC-182142][SQL] Corrigir manipulação DayTimeIntevalType no WindowExecBase
- [SPARK-49954] [SC-179110][SQL] Geração de código suporte para SchemaOfJson (invocando & RuntimeReplaceable)
-
[SPARK-50398] [SC-182341][CORE] Use o
0
ExitCode para uso--help
em scripts do Spark - [SPARK-50377] [SC-182238][SQL] Permitir avaliar o RuntimeReplaceable dobrável
- [SPARK-50241] [SC-181444][SQL] Substitua NullIntolerant Mixin pelo método Expression.nullIntolerant
-
[SPARK-50084] [SC-179672][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_3168
:MISSING_TIMEOUT_CONFIGURATION
-
[SPARK-50078] [SC-179649][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_0038
:DUPLICATED_CTE_NAMES
-
[SPARK-50057] [SC-179573][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_1049
:INVALID_ATTRIBUTE_NAME_SYNTAX
-
[SPARK-50070] [SC-179579][SQL] Integre
_LEGACY_ERROR_TEMP_0039
noUNSUPPORTED_SQL_STATEMENT
- [SPARK-50378] [SC-182235][SS] Adicionar métrica personalizada para rastrear gastos para o estado inicial proc em transformWithState
-
[SPARK-50029] [SC-179531][SQL] Tornar
StaticInvoke
compatível com o método que retornaAny
-
[SPARK-49990] [SC-179497][SQL] Melhorar o desempenho do
randStr
-
[SPARK-50048] [SC-179528][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_2114
:UNRECOGNIZED_STATISTIC
-
[SPARK-50053] [SC-179532][SQL] Transforme
_LEGACY_ERROR_TEMP_2104
emINTERNAL_ERROR
- [SPARK-49665] [SC-180054][SQL] Suporte de agrupamento de corte para funções de cadeia de caracteres
-
[SPARK-48549] [SC-176472][SQL][PYTHON] Melhorar a função SQL
sentences
-
[SPARK-50022] [SC-179503][CORE][UI] Corrigir
MasterPage
para ocultar links da interface do aplicativo quando a interface está desabilitada - [SPARK-50087] [SC-182152] Manipulação robusta de expressões booleanas em CASE WHEN para MsSqlServer e conectores futuros
- [SPARK-49991] [SC-179481][SQL] Faça HadoopMapReduceCommitProtocol respeitar 'mapreduce.output.basename' para gerar nomes de arquivo
-
[SPARK-50038] [SC-179521][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_0008
:MERGE_WITHOUT_WHEN
-
[SPARK-50236] [SC-181671][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_1156
:COLUMN_NOT_DEFINED_IN_TABLE
-
[SPARK-50021] [SC-179500][CORE][UI] Corrigir
ApplicationPage
para ocultar links da interface da aplicação quando a interface está desativada - [SPARK-49911] [SC-179111][SQL] Corrigir semântica de suporte à igualdade binária
-
[SPARK-50025] [SC-179496][SQL] Integre
_LEGACY_ERROR_TEMP_1253
noEXPECT_VIEW_NOT_TABLE
- [SPARK-49829] [SC-179480][SS] Corrigir o bug na otimização ao adicionar entrada ao armazenamento de estado na junção de fluxos
-
[SPARK-50004] [SC-179499][SQL] Integre
_LEGACY_ERROR_TEMP_3327
noFIELD_NOT_FOUND
- [SPARK-50380] [SC-182210][SQL] ReorderAssociativeOperator deve cumprir o contrato em ConstantFolding
- [SPARK-50340] [SC-181859][SQL] Descompactar UDT na consulta de entrada INSERT
-
[SPARK-50237] [SC-181660][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2138-9
:CIRCULAR_CLASS_REFERENCE
- [SPARK-50258] [SC-181993][SQL] Corrigir problema alterado na ordem da coluna de saída após a otimização do AQE
-
[SPARK-49773] [SC-178369][SQL] Exceção Java não detetada de
make_timestamp()
com fuso horário incorreto - [SPARK-49977] [SC-179265][SQL] Use computação iterativa baseada em pilha para evitar a criação de muitos objetos Scala List para árvores de expressões profundas
-
[SPARK-50153] [SC-181591][SQL] Adicione
name
aoRuleExecutor
para clarificar a impressão dos registos deQueryExecutionMetrics
-
[SPARK-50320] [SC-181668][CORE] Torne
--remote
uma opção oficial removendo o avisoexperimental
- [SPARK-49909] [SC-179492]Reverter "[SQL] Corrigir o nome bonito de algumas expressões"
- [SPARK-50330] [SC-180720][SC-181764][SQL] Adicionar dicas aos nós de Ordenação e Janela
- [SPARK-50364] [SC-182003][SQL] Implementar serialização para o tipo LocalDateTime em Row.jsonValue
-
[SPARK-50016] [SC-182139][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_2067
:UNSUPPORTED_PARTITION_TRANSFORM
- [SPARK-49899] [SC-181175][PYTHON][SS] Suporte para eliminarSeExistir no TransformWithStateInPandas
- [SPARK-49757] [SC-177824][SQL] Suporte IDENTIFIER expressão em SETCATALOG instrução
- [SPARK-50315] [SC-181886][SQL] Suporte a métricas personalizadas para gravações V1Fallback
- [SPARK-42838] [SC-181509][SQL] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][SQL] Refactor ResolveSQLOnFile
- [SPARK-48344] [SC-181967][SQL] Preparar scripts SQL para adição do Execution Framework
- [SPARK-49345] [SC-174786][CONNECT] Certifique-se de usar a Sessão Spark em execução atual
- [SPARK-49925] [SC-178882][SQL] Adicionar testes para ordem com cadeias de caracteres agrupadas
- [SPARK-50167] [SC-181199][PYTHON][CONNECT] Melhorar as mensagens de erro ao plotar e as importações no PySpark
- [SPARK-49368] [SC-174999][CONNECT] Evite acessar classes protobuf lite diretamente
- [SPARK-50056] [SC-181378][SQL] Suporte Codegen para ParseUrl (invocando & RuntimeReplaceable)
- [SPARK-49601] [SC-180770][SS][PYTHON] Suporta manipulação de estado inicial para TransformWithStateInPandas
- [SPARK-49908] [SC-178768][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_0044
- [SPARK-50144] [SC-180307][SS] Resolva a limitação do cálculo de métricas com fontes de streaming DSv1
- [SPARK-49874] [SC-178303][SQL] Remova os especificadores de agrupamento trim e ltrim.
- [SPARK-49513] [SC-180339][SS] Adicionar suporte para temporizador na API transformWithStateInPandas
-
[SPARK-49119] [SC-175607][SQL] Corrigir a inconsistência da sintaxe
show columns
entre v1 e v2 -
[SPARK-49206] [SC-173704][CORE][UI] Adicionar tabela
Environment Variables
ao MasterEnvironmentPage
- [SPARK-49934] [SC-179581][SQL] Adicionar elenco implícito para acessar mapa agrupado com literal
- [SPARK-50049] [SC-181659][SQL] Suporte para métricas de driver personalizadas ao escrever na tabela v2
- [SPARK-50171] [SC-180295][PYTHON] Tornar o numpy opcional para o gráfico do KDE
- [SPARK-49962] [SC-179320][SQL] Simplifique a hierarquia de classes AbstractStringTypes
- [SPARK-50226] [SC-181483][SQL] Corrigir MakeDTInterval e MakeYMInterval para capturar exceções Java
- [SPARK-48775] [SC-170801][SQL][STS] Substitua SQLContext por SparkSession no STS
-
[SPARK-49015] [SC-175688][CORE] O Connect Server deve respeitar
spark.log.structuredLogging.enabled
- [SPARK-50327] [SC-181667][SQL][16.x] Extração da resolução de função para reutilização no analisador de passagem única
- [SPARK-49995] [SC-180762][SQL] Adicionar suporte a argumentos nomeados a mais TVFs
- [SPARK-49268] [SC-174903][CORE] Registar exceções de E/S no provedor de histórico do SHS
- [SPARK-48123] [SC-164989][Core] Fornecer um esquema de tabela constante para consultar logs estruturados
- [SPARK-49217] [SC-174904][CORE] Suporta configuração de tamanho de buffer separado no UnsafeShuffleWriter
- [SPARK-50325] [SC-181664][SQL][16.x] Isolar a resolução de alias para ser reutilizada no Analisador de Passagem Única
- [SPARK-50322] [SC-181665][SQL] Corrigir identificador parametrizado em uma subconsulta
-
[SPARK-48400] [SC-175283][CORE] Promova
PrometheusServlet
paraDeveloperApi
- [SPARK-50118] Reverter “[SC-181259][CONNET] Reiniciar cache de estado isolado quando as tarefas estão em execução”
- [SPARK-50306] [SC-181564][PYTHON][CONNECT] Suportar Python 3.13 no Spark Connect
- [SPARK-50152] [SC-181264][SS] Suporte a handleInitialState com leitor de dados de estado.
- [SPARK-50260] [SC-181271][CONNECT] Refatore e otimize o Spark C...
- [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: Migrar logInfo com variáveis para o framework de logging estruturado
-
[SPARK-49312] [SC-174672][PYTHON] Melhorar mensagem de erro para
assertSchemaEqual
-
[SPARK-49439] [SC-175236][SQL] Corrija o nome bonito da expressão
FromProtobuf
&ToProtobuf
- [SPARK-50092] [ES-1258521] Corrigir o comportamento do conector PostgreSQL para matrizes multidimensionais
- [SPARK-49913] [SC-181565][SQL] Adicionar verificação de nomes de rótulos exclusivos em escopos rotulados aninhados
- [SPARK-49563] [SC-181465][SQL] Adicionar sintaxe de pipe SQL para o operador WINDOW
- [SPARK-49661] [SC-179021][SQL] Implemente o hashing e a comparação do agrupamento de cortes.
- [SPARK-38912] [SC-181543][PYTHON] Remova o comentário relacionado com classmethod e propriedade
- [SPARK-49770] [16.x][SC-179802][SC-179270][SS][RocksDB Hardening] Melhore o gerenciamento de mapeamento de arquivos SST do RocksDB e corrija o problema de recarregar a mesma versão com o snapshot existente
- [SPARK-49002] Reverter "[SC-172846][SQL] Tratar de forma consistente os locais inválidos em WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
- [SPARK-49668] [SC-178268][SQL] Implementar suporte de chave de agrupamento para agrupamento de corte
- [SPARK-50262] [SC-181193][SQL] Proibir a especificação de tipos complexos durante a alteração do agrupamento
- [SPARK-48898] [SC-181435][SQL] Adicionar funções de destruição de variantes
- [SPARK-48273] [SC-181381] Reverter "[SQL] Corrigir a reescrita tardia de PlanWithUnresolvedIdentifier
-
[SPARK-50222] [SC-180706][CORE] Suporte
spark.submit.appName
-
[SPARK-50208] [SC-180662][CORE] Suporte
spark.master.useDriverIdAsAppName.enabled
- [SPARK-50224] [SC-180689][SQL] As substituições de IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 devem ser NullIntolerant
-
[SPARK-50247] [SC-180962][CORE] Defina
BLOCK_MANAGER_REREGISTRATION_FAILED
comoExecutorExitCode
-
[SPARK-50282] [SC-181221][ML] Simplifique
TargetEncoderModel.transform
- [SPARK-50112] [SC-180763][SQL] Permitindo que o operador TransformWithState use a codificação Avro
-
[SPARK-50267] [SC-181180][ML] Melhorar
TargetEncoder.fit
com APIs de DataFrame - [SPARK-37178] [SC-180939][ML] Adicionar codificação de destino a ml.feature
- [SPARK-50118] [SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução
-
[SPARK-50085] [BEHAVE-176][SC-179809][PYTHON] Fazer com que
lit(ndarray)
com np.int8 respeite o tipo de dados numpy - [SPARK-50256] [SC-181048][SQL] Adicione uma validação leve para verificar se um plano lógico fica sem solução após cada regra de otimização
- [SPARK-50196] [SC-180932][CONNECT] Corrija o contexto de erro Python para usar um contexto adequado
- [SPARK-50274] [SC-181181][CORE] Proteção contra uso após fechamento em DirectByteBufferOutputStream
- [SPARK-49999] [SC-180063][PYTHON][CONNECT] Suporta parâmetro opcional "coluna" em gráficos de caixa, kde e hist
- [SPARK-50273] [SC-181178][SS] Melhorar o registo para os casos de aquisição e libertação de bloqueio no RocksDB
- [SPARK-50033] [SC-180720][SC-180659][SQL] Adicione uma dica ao nó lógico de Aggregate()
- [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Corrigir a liberação extra do acquireLock do RocksDB devido ao listener de conclusão
- [SPARK-50253] [SC-180969][SS] Stream-Stream Join não deve buscar o ID do ponto de verificação caso não seja suportado.
-
[SPARK-50255] [SC-180964][PYTHON] Evite fundição desnecessária no
compute_hist
-
[SPARK-50228] [SC-180780][SQL] Mover a regra de
RewriteCollationJoin
paraFinishAnalysis
- [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] Ajuste a "precisão" para fazer parte dos kwargs para gráficos de caixa
- [SPARK-49637] [SC-180160][SQL] Alterou-se a mensagem de erro para INVALID_FRACTION_OF_SECOND
- [SPARK-49530] [SC-180658][PYTHON] Obter sessão ativa a partir de dataframes
-
[SPARK-50195] [SC-180654][CORE] Corrigir
StandaloneRestServer
para propagarspark.app.name
paraSparkSubmit
corretamente - [SPARK-50229] [SC-180773] Reduza o uso de memória no driver para esquemas amplos reduzindo a vida útil dos objetos AttributeReference criados durante o planejamento lógico
-
[SPARK-50231] [SC-180815][PYTHON] Permitir que a função
instr
aceite Colunasubstring
- [SPARK-49854] [SC-179812][16.x][SQL] Clonar o gestor de artefatos durante a clonagem da sessão
-
[SPARK-50219] [SC-180694][SQL] Refatore
ApplyCharTypePadding
para que métodos auxiliares possam ser usados em um resolvedor de passagem única - [SPARK-50077] [SC-179827][SQL] Introduza um novo objeto pattern para LogicalRelation para ajudar a evitar o padrão padrão de parâmetros completos
- [SPARK-50128] [Backport][16x][SC-180677][SS] Adicionar APIs para processadores com gestão de estado usando codificadores implícitos em Scala
- [SPARK-50061] [SC-179961][SQL] Habilitar tabela de análise para colunas agrupadas
- [SPARK-49993] [SC-180084][SQL] Melhorar mensagens de erro para Soma e Média
- [SPARK-49638] [SC-179665][SQL] Remova a sugestão de configuração ANSI no INVALID_URL
-
[SPARK-50204] [SC-180660][SQL] Fator out
HiveTableRelation
resolução do caminho de leitura - [SPARK-50193] [SC-180651][SS] Corrigir o tratamento de exceções para validar modos de tempo
-
[SPARK-50179] [SC-180342][CORE] Tornar
spark.app.name
propriedade opcional na API REST -
[SPARK-50068] [SC-180300][SQL] Refatorar
TypeCoercion
eAnsiTypeCoercion
para separar transformações de nó único - [SPARK-49411] [SC-179483][SS] Comunicar o ID do ponto de verificação do State Store entre o driver e os operadores com estado
- [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET deve preservar a ordenação de dados
- [SPARK-49506] [SC-180165][SQL] Otimizar ArrayBinarySearch para array simples
-
[SPARK-50097] [SC-179908][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_1248
:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
- [SPARK-50071] [SC-180159][SQL][PYTHON] Adicionar try_make_timestamp(_ltz e _ntz) e testes relacionados
- [SPARK-50054] [SC-180228][PYTHON][CONNECT] Suporte para gráficos de histograma
-
[SPARK-50015] [SC-179964][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_1125
:MISSING_DATABASE_FOR_V1_SESSION_CATALOG
- [SPARK-50155] [SC-180240][3.5] Mover arquivos scala e java para suas pastas padrão
- [SPARK-49980] [SC-180353][CORE][SQL] Corrigir possíveis vazamentos de fluxo de arquivos causados por interrupção em tarefas canceladas
- [SPARK-49010] [SC-172304][SQL][XML] Adicionar testes unitários para a inferência de esquema XML sensível a maiúsculas e minúsculas
- [SPARK-49562] [SC-180211][SQL] Adicionar sintaxe de pipe SQL para agregação
- [SPARK-49663] [SC-180239][SQL] Habilitar sugestões RTRIM em expressões de agrupamento
-
[SPARK-48965] [SC-175926][SQL] Use o esquema correto no
Dataset#toJSON
- [SPARK-48493] [SC-175893][PYTHON] Melhore o leitor de fontes de dados Python com suporte direto a Batch de Arrow para melhorar o desempenho
-
[SPARK-49734] [SC-180226][PYTHON] Adicionar
seed
argumento para a funçãoshuffle
- [SPARK-50174] [16.x][SC-180253][SQL] Fatorar resolução UnresolvedCatalogRelation
- [SPARK-49989] [SC-179512][PYTHON][CONNECT] Suporte a gráficos de densidade kde
-
[SPARK-49805] [SC-180218][SQL][ML] Remover funções private[xxx] do
function.scala
- [SPARK-49808] [SC-179490][SQL] Corrigir um impasse na execução de subconsultas devido a vals preguiçosos
- [SPARK-49929] [SC-180144][PYTHON][CONNECT] Gráficos de caixa de suporte
-
[SPARK-50008] [SC-179290][PS][CONNECT] Evite operações desnecessárias no
attach_distributed_sequence_column
- [SPARK-49767] [SC-180161][PS][CONNECT] Refatorar a invocação da função interna
- [SPARK-49683] [SC-178341][SQL] Agrupamento de corte de bloco
- pt-PT: [SPARK-49939] [SC-178941][SQL] Suporte para Codegen no json_object_keys (através de Invoke & RuntimeReplaceable)
-
[SPARK-50031] [SC-179582][SQL] Adicionar a expressão
TryParseUrl
-
[SPARK-49766] [SC-178933][SQL] Suporte de Codegen para
json_array_length
(porInvoke
&RuntimeReplaceable
) - [SPARK-50046] [SC-180026][SS] Usa a ordem estável do nó EventTimeWatermark para calcular a marca d'água
-
[SPARK-49540] [SC-180145][PS] Unifique o uso de
distributed_sequence_id
- [SPARK-50060] [SC-179965][SQL] Conversão desabilitada entre diferentes tipos agrupados em TypeCoercion e AnsiTypeCoercion
- [SPARK-49004] [SC-173244][CONNECT] Usar registro separado para funções internas da API de coluna
- [SPARK-49811] [SC-177888][SQL]Renomear StringTypeAnyCollation
-
[SPARK-49202] [SC-180059][PS] Aplicar
ArrayBinarySearch
para histograma -
[SPARK-49203] [SC-175734][SQL] Adicionar expressão para
java.util.Arrays.binarySearch
-
[SPARK-50034] [SC-179816][CORE] Corrigir relatórios incorretos de erros fatais como exceções não detetadas em
SparkUncaughtExceptionHandler
- [SPARK-50093] [SC-179836][SQL] As classificações que usam ICU devem indicar a versão da biblioteca ICU utilizada.
- [SPARK-49985] [SC-179644][SQL] Remover suporte para tipos de intervalo em Variant
-
[SPARK-49103] [SC-173066][CORE] Suporte
spark.master.rest.filters
- [SPARK-50090] [SC-179819] Refatorar ResolveBinaryArithmetic para separar a transformação de nó único
-
[SPARK-49902] [SC-179650][SQL] Detetar erros de tempo de execução subjacentes no
RegExpReplace
-
[SPARK-49126] [SC-173342][CORE] Mover
spark.history.ui.maxApplications
definição de configuração paraHistory.scala
- [SPARK-50094] [SC-179820][PYTHON][CONNECT] Melhor mensagem de erro ao usar a ferramenta de perfil de memória em editores sem números de linha
-
[SPARK-50062] [SC-179835][SQL] Suporta agrupamentos por
InSet
- [SPARK-50035] [Backport][16x][SC-179530][SS] Adicionar suporte para a função explícita handleExpiredTimer do processador de estado
- [SPARK-49982] [SC-179814][SQL] Corrigir cache negativo em InMemoryRelation
-
[SPARK-49082] [SC-173350][SQL] Alargamento das promoções de tipo em
AvroDeserializer
-
[SPARK-50088] [SC-179680][SQL] Refatorar
UnresolvedStarBase.expand
- [SPARK-49802] [SC-179482][SS] Adicionar suporte para feed de alteração de leitura para tipos de mapa e lista usados em processadores com monitoração de estado
- [SPARK-49846] [SC-179506][SS] Adicione métricas numUpdatedStateRows e numRemovedStateRows para uso com o operador transformWithState
- [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] Permitir que lit aceite ndarray do tipo str e bool do numpy
- [SPARK-49821] [SC-179527][SS][PYTHON] Implemente o suporte MapState e TTL para TransformWithStateInPandas
- [SPARK-49558] [SC-179485][SQL] Adicionar sintaxe de pipe SQL para LIMIT/OFFSET e ORDER/SORT/CLUSTER/DISTRIBUTE BY
-
[SPARK-48144] [SC-165725][LC-4080][SQL] Corrija
canPlanAsBroadcastHashJoin
para respeitar as dicas de junção aleatória -
[SPARK-50051] [SC-179571][PYTHON][CONNECT] Torne
lit
compatível com ndarray numpy vazio - [SPARK-50018] [SC-179488][SQL] Tornar AbstractStringType serializável
- [SPARK-50016] [SC-179491][SQL] Melhorar erro de incompatibilidade de agrupamento explícito
- [SPARK-50010] [SC-179487][SQL] Detalhar erro de incompatibilidade de agrupamento implícito
- [SPARK-48749] [SC-170116][SQL] Simplifique o UnaryPositive e elimine suas regras do Catalyst com RuntimeReplaceable
- [SPARK-49857] [SC-178576][SQL] Adicionar StorageLevel à API localCheckpoint do DataSet
- [SPARK-50058] [SC-179538][SQL] Extrair funções de normalização do plano para usá-las posteriormente no teste do analisador de passagem única.
- [SPARK-50052] [SC-179535][PYTHON][16.X] Fazer com que o NumpyArrayConverter suporte ndarray de string vazio
- [SPARK-47261] [SC-173665][SQL] Atribua um nome melhor para erros _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 e _LEGACY_ERROR_TEMP_1174
-
[SPARK-49147] [SC-173471][CORE] Identificar
KryoRegistrator
com a interface DeveloperApi - [SPARK-48949] [SC-173070][SQL] SPJ: Filtragem de partição em tempo de execução
- [SPARK-50044] [SC-179523][PYTHON] Refinar o docstring de várias funções matemáticas
-
[SPARK-48757] [SC-170113][CORE] Fazer
IndexShuffleBlockResolver
ter construtores explícitos - [SPARK-50037] [SQL] Refactor AttributeSeq.resolve(...)
- [SPARK-48782] [SC-177056][SQL] Adicionar suporte para executar procedimentos em catálogos
- [SPARK-49057] [SC-173081][SQL] Não bloqueie o loop AQE ao enviar estágios de consulta
- [SPARK-48824] [SC-176772][BEHAVE-167][SQL] Adicionar coluna de identidade Sintaxe SQL
- [SPARK-48773] [SC-170773] Configuração do documento "spark.default.parallelism" por config builder framework
- [SPARK-48735] [SC-169810][SQL] Melhoria de desempenho para a função BIN
-
[SPARK-48900] [SC-172433] Adicionar campo
reason
para todas as chamadas internas para cancelamento de trabalho/estágio -
[SPARK-48488] [SC-167605][CORE] Corrigir métodos
log[info|warning|error]
noSparkSubmit
-
[SPARK-48708] [SC-169809][CORE] Remova três registros de tipo desnecessários do
KryoSerializer
- [SPARK-49958] [SC-179312][PYTHON] API Python para funções de validação de cadeia de caracteres
- [SPARK-49979] [SC-179264][SQL] Corrigir problema de suspensão do AQE ao coletar duas vezes em um plano com falha
- [SPARK-48729] [SC-169795][SQL] Adicionar uma interface UserDefinedFunction para representar uma função SQL
-
[SPARK-49997] [SC-179279][SQL] Integrar
_LEGACY_ERROR_TEMP_2165
noMALFORMED_RECORD_IN_PARSING
- [SPARK-49259] [SC-179271][SS]Criação de partição baseada em tamanho durante a leitura do Kafka
- [SPARK-48129] [SC-165006][PYTHON] Fornecer um esquema de tabela constante no PySpark para consultar logs estruturados
- [SPARK-49951] [SC-179259][SQL] Atribuir condição de erro adequada para LEGACY_ERROR_TEMP(1099|3085)
- [SPARK-49971] [SC-179278][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_1097
-
[SPARK-49998] [SC-179277][SQL] Integração de
_LEGACY_ERROR_TEMP_1252
noEXPECT_TABLE_NOT_VIEW
- [SPARK-49876] [SC-179262][CONNECT] Livre-se das fechaduras globais do Serviço Spark Connect
- [SPARK-49957] [SC-179202][SQL] API Scala para funções de validação de cadeia de caracteres
- [SPARK-48480] [SC-173055][SS][CONNECT] StreamingQueryListener não deve ser afetado por spark.interrupt()
- [SPARK-49643] [SC-179239][SQL] Mesclar _LEGACY_ERROR_TEMP_2042 em ARITHMETIC_OVERFLOW
- [SPARK-49959] [SC-179109][SQL] Corrigir ColumnarArray.copy() para ler nulos do deslocamento correto
- [SPARK-49956] Reverter "[SC-179070] Agrupamentos desativados com expressão collect_set"
-
[SPARK-49987] [SC-179180][SQL] Corrija o prompt de erro quando
seedExpression
não é dobrável norandstr
- [SPARK-49948] [SC-179158][PS][CONNECT] Adicionar parâmetro "precision" aos pandas no gráfico de caixa Spark
- [SPARK-49970] [SC-179167][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2069
- [SPARK-49916] [SC-179108][SQL] Lançar exceção apropriada para incompatibilidade de tipo entre ColumnType e tipo de dados em algumas linhas
- [SPARK-49956] [SC-179070] Agrupamentos desativados com expressão collect_set
- [SPARK-49974] [16.x][SC-179071][SQL] Mover resolveRelations(...) para fora do Analyzer.scala
- [SPARK-47259] [SC-176437][SQL] Atribuir nomes a condições de erro para erros de intervalo
- [SPARK-47430] [SC-173679][SQL] Revisão do agrupamento por tipo de mapa para corrigir exceção de referência de associação
- [SPARK-49067] [SC-172616][SQL] Mover utf-8 literal para métodos internos da classe UrlCodec
- [SPARK-49955] [SC-178989][SQL] valor nulo não significa arquivo corrompido ao analisar JSON string RDD
- [SPARK-49393] [SC-175212][SQL] Falha por padrão em APIs de plug-in de catálogo preteridas
- [SPARK-49952] [SC-178985][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_1142
- [SPARK-49405] [SC-175224][SQL] Restringir conjuntos de caracteres em JsonOptions
- [SPARK-49892] [SC-178975][SQL] Atribuir classe de erro adequada para _LEGACY_ERROR_TEMP_1136
- [SPARK-49904] [SC-178973][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2140
- [SPARK-47257] [SC-174244][SQL] Atribuir nomes a classes de erro _LEGACY_ERROR_TEMP_105[3-4] e _LEGACY_ERROR_TEMP_1331
- [SPARK-49915] [SC-178869][SQL] Manipular zeros e uns em ReorderAssociativeOperator
- [SPARK-49891] [SC-178970][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2271
-
[SPARK-49918] [SC-178748][CORE] Utilize o acesso somente leitura para configuração em
SparkContext
quando apropriado - [SPARK-49666] [SC-177891][SQL] Adicionar sinalizador de recurso para o recurso de agrupamento de corte
- [SPARK-48885] [SC-171050][SQL] Alterar algumas subclasses de RuntimeReplaceable para que utilizem lazy val na substituição
-
[SPARK-49932] [SC-178931][CORE] Use
tryWithResource
liberar recursosJsonUtils#toJsonString
para evitar vazamentos de memória -
[SPARK-49949] [SC-178978][PS] Evite tarefas de análise desnecessárias no
attach_sequence_column
-
[SPARK-49924] [SC-178935][SQL] Manter
containsNull
apósArrayCompact
substituição -
[SPARK-49121] [SC-174787][SQL] Suporte
from_protobuf
eto_protobuf
para funções SQL - [SPARK-47496] [SC-160529][SQL] Suporte Java SPI para registro dinâmico de dialetos JDBC
- [SPARK-49359] [SC-174895][SQL] Permitir que implementações StagedTableCatalog retornem à gravação não atômica
- [SPARK-49895] [SC-178543][SQL][ES-1270338] Melhorar o erro ao encontrar vírgula no final na cláusula SELECT
- [SPARK-47945] [SC-163457][SQL] MsSQLServer: Documentar o mapeamento de Data Types do Spark SQL para o Microsoft SQL Server e adicionar testes
- [SPARK-46037] [SC-175495][SQL] Correção de exatidão para Shuffled Hash Join construção à esquerda sem geração de código
- [SPARK-47813] [SC-162615][SQL] Substitua getArrayDimension por updateExtraColumnMeta
- [SPARK-49542] [SC-178765][SQL] Erro ao avaliar exceção de transformação em partição
- [SPARK-47172] [SC-169537][CORE] Adicionar suporte para AES-GCM para criptografia RPC
- [SPARK-47666] [SC-161476][SQL] Corrigir o NPE ao ler a matriz de bits do MySQL como LongType
- [SPARK-48947] [SC-174239][SQL] Use o nome do conjunto de caracteres em caixa baixa para diminuir o cache ausente em Charset.forName
- [SPARK-49909] [SC-178552][SQL] Corrija o nome bonito de algumas expressões
- [SPARK-47647] [SC-161377][SQL] Faça com que a fonte de dados MySQL seja capaz de ler bit(n>1) como BinaryType, tal como no Postgres
-
[SPARK-46622] [SC-153004][CORE] Substituir método
toString
poro.a.s.network.shuffledb.StoreVersion
- [SPARK-48961] [SC-171910][PYTHON] Torne a nomenclatura do parâmetro PySparkException consistente com a JVM
-
[SPARK-49889] [SC-178474][PYTHON] Adicionar
trim
de argumento para funçõestrim/ltrim/rtrim
- [SPARK-47537] [SC-160747][SQL] Corrigir erro de mapeamento de tipo de dados no MySQL Connector/J
- [SPARK-47628] [SC-161257][SQL] Corrigir problema de matriz de bits Postgres 'Não é possível converter para booleano'
- [SPARK-49843] [SC-178084][ES-1268164][SQL] Corrigir alteração de comentário em colunas char/varchar
- [SPARK-49549] [SC-178764][SQL] Atribua um nome às condições de erro _LEGACY_ERROR_TEMP_3055, 3146
- [SPARK-49791] [SC-177730][SQL] Tornar DelegatingCatalogExtension mais extensível
- [SPARK-49559] [SC-178551][SQL] Adicionar sintaxe de pipe SQL para operações definidas
- [SPARK-49906] [SC-178536][SQL] Introduzir e usar CONFLICTING_DIRECTORY_STRUCTURES erro para PartitioningUtils
- [SPARK-49877] [SC-178392][SQL] Alterar assinatura da função classifyException: adicionar argumento isRuntime
- [SPARK-47501] [SC-160532][SQL] Adicione convertDateToDate como o convertTimestampToTimestamp existente para JdbcDialect
- [SPARK-49044] [SC-175746][SQL] ValidateExternalType deve retornar o elemento filho em caso de erro.
- [SPARK-47462] [SC-160460][SQL] Alinhar mapeamentos de outros tipos numéricos não assinados com TINYINT no MySQLDialect
- [SPARK-47435] [SC-160129][SQL] Corrigir problema de estouro de MySQL TINYINT NÃO ASSINADO causado por SPARK-45561
- [SPARK-49398] [SC-176377][SQL] Melhorar o erro para parâmetros na consulta de CACHE TABLE e CREATE VIEW
- [SPARK-47263] [SC-177012][SQL] Atribuir nomes às condições herdadas _LEGACY_ERROR_TEMP_13[44-46]
-
[SPARK-49605] [SC-176605][SQL] Corrigir a mensagem quando
ascendingOrder
estiverDataTypeMismatch
noSortArray
-
[SPARK-49806] [SC-178304][SQL][CONNECT] Remover
blank space
redundantes apósshow
em clientesScala
eConnect
- [SPARK-47258] [SC-175032][SQL] Atribuir nomes a classes de erro _LEGACY_ERROR_TEMP_127[0-5]
- [SPARK-49564] [SC-178461][SQL] Adicionar sintaxe de pipe SQL para o operador JOIN
- [SPARK-49836] [SC-178339][SQL][SS] Corrigir consulta possivelmente quebrada quando a janela é fornecida para window/session_window fn
- [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] Manipular mapeamento de timestamps SQL para Postgres e MySQL
- [SPARK-49776] [SC-177818][PYTHON][CONNECT] Suporte gráficos de pizza
- [SPARK-49824] [SC-178251][SS][CONNECT] Melhorar o registo no SparkConnectStreamingQueryCache
- [SPARK-49894] [SC-178460][PYTHON][CONNECT] Melhorar a representação de cadeia de caracteres das operações nos campos de coluna
- [SPARK-49764] [SC-177491][PYTHON][CONNECT] Suporte para gráficos de área
- [SPARK-49694] [SC-177376][PYTHON][CONNECT] Suporte a gráficos de dispersão
- [SPARK-49744] [SC-178363][SS][PYTHON] Implementar suporte TTL para ListState em TransformWithStateInPandas
-
[SPARK-49879] [SC-178334][CORE] Mover
TransportCipherUtil
para um arquivo separado para eliminar avisos de compilação Java - [SPARK-49866] [SC-178353][SQL] Melhorar a mensagem de erro para descrever tabela com colunas de partição
- [SPARK-49867] [SC-178302][ES-1260570][SQL] Melhorar a mensagem de erro quando o índice está fora dos limites ao chamar GetColumnByOrdinal
- [SPARK-49607] [SC-177373][PYTHON] Atualizar a abordagem de amostragem para gráficos baseados em amostras
- [SPARK-49626] [SC-177276][PYTHON][CONNECT] Suporta gráficos de barras horizontais e verticais
- [SPARK-49531] [SC-177770][PYTHON][CONNECT] Suporte para a criação de um gráfico de linhas com o backend plotly
- [SPARK-49444] [SC-177692][ES-1203248][SQL] UnivocityParser modificado para lançar exceções de tempo de execução causadas por ArrayIndexOutOfBounds com mensagens mais orientadas ao usuário
- [SPARK-49870] [SC-178262][PYTHON] Adicionar suporte a Python 3.13 no Spark Classic
- [SPARK-49560] [SC-178121][SQL] Adicionar sintaxe de pipe SQL para o operador TABLESAMPLE
- [SPARK-49864] [SC-178305][SQL] Melhore a mensagem de BINARY_ARITHMETIC_OVERFLOW
- [SPARK-48780] [SC-170274][SQL] Tornar o tratamento de erros em NamedParametersSupport mais genérico para lidar com funções e procedimentos
- [SPARK-49358] [SC-178158][SQL] Expressão de modo para tipos de mapa com cadeias de caracteres agrupadas
- [SPARK-47341] [SC-178157][SQL] Corrigir documentação imprecisa de RuntimeConfig#get
- [SPARK-48357] [SC-178153][SQL] Suporte para instrução LOOP
-
[SPARK-49845] [SC-178059][CORE] Tornar
appArgs
eenvironmentVariables
opcionais na API REST - [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable deve indicar se é para escrever
- [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Adicionado suporte de ouvinte do lado do cliente para Scala
- [SPARK-48700] [SC-177978][SQL] Expressão de modo para tipos complexos (todos os agrupamentos)
- [SPARK-48196] [SC-177899][SQL] Transforme planos val preguiçosos QueryExecution em LazyTry
- [SPARK-49749] [16.x][SC-177877][CORE] Alterar o nível de log para debug em BlockManagerInfo
- [SPARK-49561] [SC-177897][SQL] Adicionar sintaxe de pipe SQL para os operadores PIVOT e UNPIVOT
- [SPARK-49823] [SC-177885][SS] Evite a descarga durante o desligamento no processo de encerramento do RocksDB
-
[SPARK-49820] [SC-177855] [PYTHON] Alterar
raise IOError
pararaise OSError
- [SPARK-49653] [SC-177266][SQL] Junção única para subconsultas escalares correlacionadas
- [SPARK-49552] [SC-177477][PYTHON] Adicionar suporte à API DataFrame para as novas funções SQL 'randstr' e 'uniform'
- [SPARK-48303] [16.x][SC-166251][CORE] Reorganizar LogKeys
- [SPARK-49656] [16x][Backport][SS] Adicione suporte para variáveis de estado com tipos de coleção de estado de valor e opções de leitura de alterações de feed
- [SPARK-48112] [SC-165129][CONNECT] Expor sessão no SparkConnectPlanner aos plugins
- [SPARK-48126] [16.x][SC-165309][Core] Fazer com que o spark.log.structuredLogging.enabled seja eficaz
- [SPARK-49505] [SC-176873][SQL] Crie novas funções SQL "randstr" e "uniforme" para gerar cadeias de caracteres ou números aleatórios dentro de intervalos
- [SPARK-49463] [SC-177474] Suporte ListState para TransformWithStateInPandas
-
[SPARK-48131] [SC-165007][Core] Unifique
mdc.taskName
etask_name
de chaves MDC - [SPARK-49557] [SC-177227][SQL] Adicionar sintaxe de pipe SQL para o operador WHERE
- [SPARK-49323] [16.x][SC-174689][CONNECT] Mover o MockObserver da pasta de teste do Spark Connect Server para a pasta principal do servidor
- [SPARK-49745] [SC-177501][SS] Adicionar uma alteração para ler os temporizadores registados através do leitor de fonte de dados de estado
- [SPARK-49772] [16.x][SC-177478][SC-177214][SS] Remova ColumnFamilyOptions e adicione configurações diretamente a dbOptions no RocksDB
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixar ODBC, baixar JDBC).
Consulte as atualizações de manutenção do Databricks Runtime 16.1 .
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.1 LTS
- Java : Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
tipos anotados | 0.7.0 | AstTokens | 2.0.5 | Astunparse | 1.6.3 |
Comando automático | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clique | 8.1.7 |
Cloudpickle | 2.2.1 | Comm | 0.2.1 | contorno | 1.2.0 |
Criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
Decorador | 5.1.1 | Preterido | 1.2.14 | Distlib | 0.3.8 |
docstring-para-markdown | 0.11 | pontos de entrada | 0.4 | executando | 0.8.3 |
facetas-visão geral | 1.1.1 | bloqueio de ficheiro | 3.15.4 | Fonttools | 4.51.0 |
GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
Google-Auth | 2.35.0 | google-nuvem-core | 2.4.1 | Google Cloud Storage | 2.18.2 |
Google-CRC32C | 1.6.0 | google-recomeçável-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
Idna | 3.7 | importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 |
flexionar | 7.3.1 | ipyflow-core | 0.0.201 | Ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Isodate | 0.6.1 | jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
Kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | dormência | 1.26.4 | OAuthlib | 3.2.2 |
OpenTelemetry-API | 1.27.0 | OpenTelemetry-SDK | 1.27.0 | OpenTelemetry-Convenções Semânticas | 0,48b0 |
embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
PathSpec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
almofada | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
enredo | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
Pyccolo | 0.0.65 | Pycparser | 2.21 | Pidântico | 2.8.2 |
pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | Scipy | 1.13.1 |
Seaborn | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
dados da estrutura de pilha | 0.2.0 | modelos de estatísticas | 0.14.2 | tenacidade | 8.2.2 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 |
tipos-protobuf | 3.20.3 | tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
tipos-PyYAML | 6.0.0 | tipos de pedidos | 2.31.0.0 | tipos-setuptools | 68.0.0.0 |
seis tipos | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
Ujson | 5.10.0 | Atualizações automáticas | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | roda | 0.43.0 | embrulhado | 1.14.1 |
Yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 16.1.0 | AskPass | 1.2.0 | afirmar que | 0.2.1 |
Backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
Bitops | 1.0-8 | aglomerado | 1.2.4 | Bota | 1.3-30 |
cerveja artesanal | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | Chamador | 3.7.6 |
Caret | 6.0-94 | Cellranger | 1.1.0 | Chron | 2.3-61 |
Classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
relógio | 0.7.1 | aglomeração | 2.1.6 | CodeTools | 0.2-20 |
espaço de cores | 2.1-1 | marca comum | 1.9.1 | Compilador | 4.4.0 |
Configuração | 0.3.2 | conflituosos | 1.2.0 | CPP11 | 0.4.7 |
giz de cera | 1.5.3 | Credenciais | 2.0.1 | ondulação | 5.2.1 |
tabela de dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
diagrama | 1.6.5 | diffobj | 0.3.5 | Resumo | 0.6.36 |
Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
fansi | 1.0.6 | Farver | 2.1.2 | mapa rápido | 1.2.0 |
fontawesome | 0.5.2 | FORCATS | 1.0.0 | para cada | 1.5.2 |
estrangeiro | 0.8-86 | forjar | 0.2.0 | fs | 1.6.4 |
Futuro | 1.34.0 | future.apply | 1.11.2 | gargarejo | 1.5.2 |
Genéricos | 0.1.3 | Gert | 2.1.0 | GGPLOT2 | 3.5.1 |
GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
GLMNET | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | GT | 0.11.0 |
gtable | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
mais alto | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
httr2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | Isoband | 0.2.7 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
KernSmooth | 2.23-22 | Knitr | 1.48 | rotulagem | 0.4.3 |
mais tarde | 1.3.2 | treliça | 0.22-5 | lava | 1.8.0 |
ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.0 |
MGCV | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
unidades elegantes | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
progressr | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.7 | ronronar | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | floresta aleatória | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reagível | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
Controles remotos | 2.5.0 | Reprex | 2.1.1 | remodelação2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
oxigénio2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversões | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
balanças | 1.3.0 | seletor | 0.4-2 | informação da sessão | 1.2.2 |
forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de origem | 0.1.7-1 |
sparklyr | 1.8.6 | espacial | 7.3-17 | estrias | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.4.0 |
Estatísticas4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
Sobrevivência | 3.6-4 | Charme | 5.17.14.1 | Sistema | 3.4.2 |
fontes do sistema | 1.1.0 | TCLTK | 4.4.0 | testthat | 3.2.1.1 |
formatação de texto | 0.4.0 | Tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | Tidyverse | 2.0.0 | mudança de hora | 0.3.0 |
data/hora | 4032.109 | Tinytex | 0.52 | Ferramentas | 4.4.0 |
TZDB | 0.4.0 | verificador de URLs | 1.0.1 | usethis | 3.0.0 |
UTF8 | 1.2.4 | utilitários | 4.4.0 | UUID | 1.2-1 |
V8 | 4.4.2 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | vibrissas | 0.4.1 |
murchar | 3.0.1 | xfun | 0.46 | XML2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
Zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
Antlr | Antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | ** aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | Kryo-sombreamento | 4.0.2 |
com.esotericsoftware | Minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | Jackson anotações | 2.15.2 |
com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | Jniloader | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | JSR305 | 3.0.0 |
com.google.code.gson | GSON | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | anotações_propensasa_erros | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | Goiaba | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | ferramenta de análise de desempenho | 1.1.1 |
com.ibm.icu | ICU4J | 75.1 |
com.jcraft | JSCH | 0.1.55 |
com.jolbox | BONECP | 0.8.0.LANÇAMENTO |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | Json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | Chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | Configuração | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
coleções commons | coleções commons | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
Commons-Logging | Commons-Logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | LAPACK | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressor de ar | 0.27 |
IO.Delta | delta-compartilhamento-cliente_2.12 | 1.2.2 |
io.dropwizard.metrics | métricas-anotação | 4.2.19 |
io.dropwizard.metrics | métricas-núcleo | 4.2.19 |
io.dropwizard.metrics | métricas-grafite | 4.2.19 |
io.dropwizard.metrics | métricas-verificações de integridade | 4.2.19 |
io.dropwizard.metrics | métricas-Jetty9 | 4.2.19 |
io.dropwizard.metrics | métricas-jmx | 4.2.19 |
io.dropwizard.metrics | métricas-json | 4.2.19 |
io.dropwizard.metrics | métricas JVM | 4.2.19 |
io.dropwizard.metrics | métricas-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-comum | 4.1.108.Final |
io.netty | netty-manipulador | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transporte Netty | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
io.prometeu | cliente simples | 0.7.0 |
io.prometeu | simpleclient_common | 0.7.0 |
io.prometeu | simpleclient_dropwizard | 0.7.0 |
io.prometeu | simpleclient_pushgateway | 0.7.0 |
io.prometeu | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jacarta.anotação | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | JDO-API | 3.0.1 |
javax.transaction | JTA | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | JAXB-API | 2.2.11 |
Javolution | Javolution | 5.5.1 |
Jline | Jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | conserva | 1.3 |
net.sf.jpam | JPAM | 1.1 |
net.sf.opencsv | OpenCSV | 2.3 |
net.sf.supercsv | Super-CSV | 2.2.0 |
net.floco de neve | Snowflake-Ingest-SDK | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-tempo de execução | 3.5.2 |
org.antlr | antlr4-tempo de execução | 4.9.3 |
org.antlr | modelo de cadeia de caracteres | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | ANT-JSCH | 1.10.11 |
org.apache.ant | lançador de formigas | 1.10.11 |
org.apache.arrow | formato de flecha | 15.0.0 |
org.apache.arrow | seta-memória-núcleo | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | seta-vetor | 15.0.0 |
org.apache.avro | Avro | 1.11.3 |
org.apache.avro | AVRO-IPC | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-cripto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curador | curador-cliente | 2.13.0 |
org.apache.curador | Curadoria-quadro | 2.13.0 |
org.apache.curador | receitas do curador | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | colmeia-abelha | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | API de armazenamento Hive | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | Núcleo HTTP | 4.4.16 |
org.apache.ivy | Hera | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-núcleo | 1.9.2-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
org.apache.orc | Shim de orc | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.23 |
org.apache.yetus | notas do público | 0.13.0 |
org.apache.zookeeper | tratador de jardins zoológicos | 3.9.2 |
org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
org.checkerframework | verificador de qualidade | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-coleções | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | Jetty-Cliente | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Continuação | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-JNDI | 9.4.52.v20230823 |
org.eclipse.jetty | Cais-Plus | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty Security | 9.4.52.v20230823 |
org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-XML | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | HK2-API | 2.6.1 |
org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
org.glassfish.hk2 | HK2-Utils | 2.6.1 |
org.glassfish.hk2 | OSGI-Localizador de Recursos | 1.0.3 |
org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-cliente | 2.40 |
org.glassfish.jersey.core | Jersey-Comum | 2.40 |
org.glassfish.jersey.core | jersey-servidor | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-converter | 1.7 |
org.jodd | JODD-CORE | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2,12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | PostgreSQL | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | calços | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-sobre-slf4j | 2.0.7 |
org.slf4j | jul-para-slf4j | 2.0.7 |
org.slf4j | SLF4J-API | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | XZ | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
org.xerial | SQLITE-JDBC | 3.42.0.0 |
org.xerial.snappy | Snappy-java | 1.1.10.3 |
org.yaml | Snakeyaml | 2.0 |
ouro | ouro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
Stax | Stax-API | 1.0.1 |