Compartilhar via


Databricks Runtime 15.4 LTS

As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 15.4 LTS, da plataforma Apache Spark 3.5.0.

A Databricks lançou essa versão em agosto de 2024.

Observação

LTS significa que essa versão possui suporte de longo prazo. Consulte Ciclo de vida da versão de LTS do Databricks Runtime.

Dica

Para ver as notas sobre a versão das versões do Databricks Runtime que chegaram ao fim do suporte (EoS), confira Notas sobre as versões do Databricks Runtime em fim de suporte. As versões do Databricks Runtime EoS foram desativadas e podem não ser atualizadas.

Alterações comportamentais

Usar uma VARIANT como o tipo de entrada ou saída com uma UDF, UDAF ou UDTF do Python gera uma exceção

[Alteração interruptiva] No Databricks Runtime 15.3 e superior, chamar qualquer função definida pelo usuário (UDF) do Python, função agregada definida pelo usuário (UDAF) ou função de tabela definida pelo usuário (UDTF) que usa um tipo VARIANT como argumento ou valor de retorno gera uma exceção. Essa alteração é feita para evitar problemas que possam ocorrer devido a um valor inválido retornado por uma dessas funções. Para saber mais sobre o tipo VARIANT, consulte usar VARIANTs para armazenar dados semiestruturados.

Alterar para o modo de associação de esquema padrão para exibições

As exibições agora se adaptam às alterações de esquema na consulta subjacente usando a compensação de esquema com regras de conversão regulares. Essa é uma alteração do padrão anterior do modo BINDING, que gerou erros quando uma conversão segura não pôde ser executada ao referenciar o modo de exibição.

Consulte CREATE VIEW e função cast.

Não permitir o uso da sintaxe não documentada ! em vez de NOT expressões boolianas externas

Com esta versão, o uso de ! como sinônimo para NOT fora de expressões boolianas não é mais permitido. Por exemplo, instruções como a seguinte: CREATE ... IF ! EXISTS, IS ! NULL, uma propriedade de campo ou coluna ! NULL, ! IN e ! BETWEEN, deve ser substituído por: CREATE ... IF NOT EXISTS, IS NOT NULL, propriedade de campo ou coluna NOT NULL, NOT IN e NOT BETWEEN.

Essa alteração garante consistência, alinha-se com o padrão SQL e torna seu SQL mais portátil.

O operador de prefixo booliano ! (por exemplo, !is_mgr ou !(true AND false)) não é afetado por essa alteração.

Não permitir sintaxe de definição de coluna não documentada em exibições

O Databricks dá suporte a CREATE VIEW com colunas nomeadas e comentários de coluna. Anteriormente, a especificação de tipos de coluna, NOT NULL restrições ou DEFAULT foi permitida. Com esta versão, não é mais possível usar essa sintaxe.

Essa alteração garante a consistência, alinha-se com o padrão SQL e dá suporte a melhorias futuras.

Tratamento consistente de erros para decodificação Base64 no Spark e no Photon

Esta versão altera a forma como o Photon trata os erros de decodificação Base64 para corresponder à forma como o Spark trata esses erros. Antes dessas alterações, o caminho de geração de código do Photon e do Spark às vezes não gerava exceções de análise, enquanto a execução interpretada do Spark gerava corretamente IllegalArgumentException ou ConversionInvalidInputError. Essa atualização garante que o Photon gere consistentemente as mesmas exceções que o Spark durante erros de decodificação Base64, fornecendo um tratamento de erros mais previsível e confiável.

A adição de uma restrição CHECK em uma coluna inválida agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION

Para fornecer mensagens de erro mais úteis, no Databricks Runtime 15.3 e superior, uma instrução ALTER TABLE ADD CONSTRAINT que inclui uma restrição CHECK referenciando um nome de coluna inválido retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, era retornado um INTERNAL_ERROR.

Novos recursos e aprimoramentos

Funções de validação UTF-8

Esta versão apresenta as seguintes funções para validar strings UTF-8:

  • is_valid_utf8 verificou se uma cadeia de caracteres é uma UTF-8 válida.
  • make_valid_utf8 converte uma cadeia de caracteres UTF-8 potencialmente inválida em uma cadeia de caracteres UTF-8 válida usando caracteres de substituição
  • validate_utf8 gerará um erro se a entrada não for uma string UTF-8 válida.
  • try_validate_utf8 retornará NULL se a entrada não for uma string UTF-8 válida.

to_avro e from_avro funções

As funções to_avro e from_avro permitem a conversão de tipos SQL em dados binários Avro e vice-versa.

APIs de Conjuntos de Dados Tipada com UDFs do Scala

Esta versão inclui suporte adicional para APIs de conjunto de dados tipadas com funções definidas pelo usuário do Scala (excluindo funções de agregação definidas pelo usuário) em computação habilitada para Catálogo do Unity com modo de acesso compartilhado. Consulte APIs de Conjuntos de Dados Tipadas.

Habilitar o Iceberg do UniForm usando ALTER TABLE

Agora você pode habilitar o Iceberg do UniForm em tabelas existentes sem reescrever arquivos de dados. Consulte Habilitar alterando uma tabela existente.

Função try_url_decode

Esta versão apresenta a função try_url_decode, que decodifica uma cadeia de caracteres codificada em URL. Se a cadeia de caracteres não estiver no formato correto, a função retornará NULL em vez de gerar um erro.

Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não forçadas

Para melhorar o desempenho da consulta, agora você poderá especificar a palavra-chave RELY em restrições FOREIGN KEY ao usar CREATE ou ALTER em uma tabela.

Execuções de trabalho paralelizadas para substituições seletivas

Substituições seletivas usando replaceWhere trabalhos agora executados que excluem dados e inserem novos dados em paralelo, melhorando o desempenho da consulta e a utilização do cluster.

Desempenho aprimorado para o feed de dados de alteração com substituições seletivas

Substituições seletivas usando replaceWhere em tabelas com feed de dados de alteração já não gravam mais arquivos de dados de alteração separados para dados inseridos. Essas operações usam uma coluna oculta _change_type presente nos arquivos de dados Parquet subjacentes para registrar alterações sem amplificação de gravação.

Latência de consulta aprimorada para o comando COPY INTO

Esta versão inclui uma alteração que melhora a latência de consulta para o comando COPY INTO. Essa melhoria é implementada ao tornarmos o carregamento de estado pelo repositório de estado do RocksDB assíncrono. Com essa alteração, você deverá visualizar uma melhoria nos tempos de início para consultas com estados grandes, como consultas com um grande número de arquivos já ingeridos.

Suporte para eliminar o recurso de tabela de restrições de verificação

Agora você pode remover o recurso de tabela checkConstraints de uma tabela Delta usando ALTER TABLE table_name DROP FEATURE checkConstraints. Consulte Desabilitar restrições de verificação.

A computação de usuário único dá suporte ao controle de acesso refinado, exibições materializadas e tabelas de streaming (Visualização Pública)

Quando um workspace é habilitado para computação sem servidor, o Databricks Runtime 15.4 LTS adiciona suporte para controle de acesso refinado na computação de usuário único. Quando uma consulta acessa qualquer um dos seguintes objetos, o recurso de computação de usuário único no Databricks Runtime 15.4 LTS passa a consulta para a computação sem servidor para executar a filtragem de dados:

  • Exibições definidas sobre tabelas nas quais o usuário não tem o privilégio SELECT.
  • Visualizações dinâmicas.
  • Tabelas com filtros de linha ou máscaras de coluna aplicadas.
  • Exibições materializadas e tabelas de streaming.

Não há suporte para essas consultas na computação de usuário único que executa o Databricks Runtime 15.3 e inferior.

Para obter mais informações, consulte Controle de acesso refinado na computação de usuário único.

Suporte ampliado para bibliotecas Java e Scala

A partir do Databricks Runtime 15.4 LTS, todas as bibliotecas Java e Scala incluídas no Databricks Runtime estão disponíveis em todos os modos de acesso à computação quando você usa o Catálogo do Unity. Para saber mais sobre o suporte à linguagem na computação habilitada para o Catálogo do Unity, consulte Limitações do modo de acesso à computação para o Catálogo do Unity.

Suporte ampliado para operações de conjunto de dados Scala

Com esta versão, os recursos de computação habilitados para Catálogo do Unity que usam o modo de acesso compartilhado dão suporte às seguintes operações Dataset de Scala: map, mapPartitions, foreachPartition, flatMap, reduce e filter.

O Scala está em GA na computação compartilhada do Catálogo do Unity

Com esta versão, o Scala está geralmente disponível no modo de acesso compartilhado com o Catálogo do Unity habilitado para computação, incluindo suporte para Funções escalares definidas pelo usuário (UDFs). Não há suporte para funções de agregação definidas pelo usuário, UDFs do Hive e Streaming Estruturado. Para ver uma lista completa das limitações, confira Limitações do modo de acesso de computação do Catálogo do Unity.

Acesso controlado pelo Catálogo do Unity a serviços de nuvem externos usando credenciais de serviço (Visualização Pública)

As credenciais de serviço permitem a autenticação simples e segura com os serviços do locatário de nuvem usando as MI (identidades gerenciadas) do Azure e o Catálogo do Unity. Consulte Gerenciar o acesso a serviços de nuvem externos usando credenciais de serviço.

Correções de bug

Atualizações da biblioteca

  • Bibliotecas do Python atualizadas:
    • azure-core de 1.30.1 para 1.30.2
    • google-auth de 2.29.0 para 2.31.0
    • google-cloud-storage de 2.16.0 para 2.17.0
    • google-resumable-media de 2.7.0 para 2.7.1
    • googleapis-common-protos de 1.63.0 para 1.63.2
    • mlflow-skinny de 2.11.3 para 2.11.4
    • proto-plus de 1.23.0 para 1.24.0
    • s3transfer de 0.10.1 para 0.10.2
  • Atualização das bibliotecas do R:
  • Bibliotecas do Java atualizadas:
    • com.databricks.databricks-sdk-java de 0.17.1 para 0.27.0
    • com.ibm.icu.icu4j de 72.1 para 75.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.1-linux-x86_64 para 1.6.2-linux-x86_64

Apache Spark

O Databricks Runtime 15.4 LTS inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.3, além das seguintes correções de erros e melhorias adicionais feitas no Spark:

  • [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Permitir o agrupamento de expressões em subconsultas escalares, se elas estiverem vinculadas às linhas externas
  • [SPARK-48834] [BEHAVE-79][SC-170972][SQL] Desabilitar a entrada/saída de variantes para UDFs, UDTFs e UDAFs escalares em python durante a compilação de consultas
  • [SPARK-48441] [SC-170980][SQL][WARMFIX] Corrigir o comportamento StringTrim para agrupamentos não UTF8_BINARY
  • [SPARK-48440] [SC-170895][SQL][WARMFIX] Corrigir o comportamento StringTranslate para agrupamentos não-UTF8_BINARY
  • [SPARK-48872] [SC-170866][PYTHON] Reduzir a sobrecarga de _capture_call_site
  • [SPARK-48862] [SC-170845][PYTHON][CONNECT] Evitar chamar _proto_to_string quando o nível INFO não estiver habilitado
  • [SPARK-48852] [SC-170837][CONNECT] Corrigir a função de cortar cadeia de caracteres no conectar
  • [SPARK-48791] [SC-170658][CORE] Corrigir a regressão de desempenho causada pela sobrecarga de registro de acumuladores usando CopyOnWriteArrayList
  • [SPARK-48118] [SQL] Suporte à variável env SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
  • [SPARK-48241] [SC-165811][SQL] Falha na análise de CSV com colunas do tipo char/varchar
  • [SPARK-48168] [SC-166900][SQL] Adicionar suporte a operadores de deslocamento bit a bit
  • [SPARK-48148] [SC-165630][CORE] Objetos JSON não devem ser modificados quando lidos como CADEIA DE CARACTERES
  • [SPARK-46625] [SC-170561] CTE com a cláusula Identificador como referência
  • [SPARK-48771] [SC-170546][SQL] Acelerar LogicalPlanIntegrity.validateExprIdUniqueness para planos de consulta grandes
  • [SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Tornar o nome da coluna padrão de cast compatível com o Spark Clássico
  • [SPARK-48623] [SC-170544][CORE] Migrações de registro em log estruturado [Parte 2]
  • [SPARK-48296] [SC-166138][SQL] Suporte do Codegen para to_xml
  • [SPARK-48027] [SC-165154][SQL] O filtro InjectRuntimeFilter para junção multinível deve verificar o tipo de junção filho
  • [SPARK-48686] [SC-170365][SQL] Melhorar o desempenho do ParserUtils.unescapeSQLString
  • [SPARK-48798] [SC-170588][PYTHON] Introduzir spark.profile.render para criação de perfis com base em SparkSession
  • [SPARK-48048] [SC-169099] Reverter “[SC-164846][CONNECT][SS] Adicionado suporte ao ouvinte no lado do cliente para Scala”
  • [SPARK-47910] [SC-168929][CORE] Fechar o fluxo quando DiskBlockObjectWriter closeResources para evitar vazamento de memória
  • [SPARK-48816] [SC-170547][SQL] Abreviação para conversores de intervalo no UnivocityParser
  • [SPARK-48589] [SC-170132][SQL][SS] Adicionar a opção snapshotStartBatchId e snapshotPartitionId à fonte de dados de estado
  • [SPARK-48280] [SC-170293][SQL] Melhorar a área de superfície de teste de agrupamento usando expressão Walking
  • [SPARK-48837] [SC-170540][ML] No CountVectorizer, leia o parâmetro binário apenas uma vez por transformação, não uma vez por linha
  • [SPARK-48803] [SC-170541][SQL] Gerar um erro interno em Orc(De)serializer para alinhar com ParquetWriteSupport
  • [SPARK-48764] [SC-170129][PYTHON] Filtragem de quadros relacionados ao IPython da pilha do usuário
  • [SPARK-48818] [SC-170414][PYTHON] Simplificar funções percentile
  • [SPARK-48479] [SC-169079][SQL] Suporte à criação de UDFs SQL escalares e de tabela no analisador
  • [SPARK-48697] [SC-170122][LC-4703][SQL] Adicionar filtros de cadeias de caracteres com reconhecimento de agrupamento
  • [SPARK-48800] [SC-170409][CONNECT][SS] Deflake ClientStreamingQuerySuite
  • [SPARK-48738] [SC-169814][SQL] Corrigir desde a versão para o alias de função embutido random, position, mod, cardinality, current_schema, user, session_user,char_length,character_length
  • [SPARK-48638] [SC-169575][CONNECT] Adicionar suporte a ExecutionInfo para DataFrame
  • [SPARK-48064] [SC-164697][SQL] Atualizar mensagens de erro para classes de erro relacionadas à rotina
  • [SPARK-48810] [CONNECT] A API Session stop() deve ser idempotente e não falhar se a sessão já tiver sido fechada pelo servidor
  • [SPARK-48650] [15.x][PYTHON] Exibir o local de chamada correto do Notebook IPython
  • [SPARK-48271] [SC-166076][SQL] Transformar o erro de correspondência no RowEncoder em UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [SPARK-48709] [SC-169603][SQL] Corrigir a incompatibilidade de resolução de tipo varchar para DataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][SQL] Corrigir regressão para INSERT com uma lista parcial de colunas em uma tabela com char/varchar
  • [SPARK-48767] [SC-170330][SQL] Corrigir alguns avisos de erro quando os dados do tipo variant são inválidos
  • [SPARK-48719] [SC-170339][SQL] Corrigir o erro de cálculo de RegrSlope e RegrIntercept quando o primeiro parâmetro for nulo
  • [SPARK-48815] [SC-170334][CONNECT] Atualizar o ambiente ao interromper a sessão de conexão
  • [SPARK-48646] [SC-169020][PYTHON] Refinar a documentação e as dicas de tipo da API da fonte de dados Python
  • [SPARK-48806] [SC-170310][SQL] Passar exceção real quando url_decode falhar
  • [SPARK-47777] [SC-168818] Corrigir o teste de conexão da fonte de dados de streaming do Python
  • [SPARK-48732] [SC-169793][SQL] Limpeza do uso de APIs preteridas relacionadas a JdbcDialect.compileAggregate
  • [SPARK-48675] [SC-169538][SQL] Corrigir a tabela de cache com coluna agrupada
  • [SPARK-48623] [SC-169034][CORE] Migrações de Registro em log Estruturado
  • [SPARK-48655] [SC-169542][SQL] SPJ: Adicionar testes para ignorar a ordem aleatória de consultas agregadas
  • [SPARK-48586] [SC-169808][SS] Remover a aquisição de bloqueio em doMaintenance() fazendo uma cópia profunda dos mapeamentos de arquivos no RocksDBFileManager em load()
  • [SPARK-48799] [Backport][15.x][SC-170283][SS] Refatorar o controle de versão para leitura/gravação de metadados do operador e chamadores
  • [SPARK-48808] [SC-170309][SQL] Corrigir NPE ao conectar o thriftserver por meio do Hive 1.2.1 e o esquema de resultados estiver vazio
  • [SPARK-48715] [SC-170291][SQL] Integrar a validação UTF8String em implementações de função de cadeia de caracteres com reconhecimento de agrupamento
  • [SPARK-48747] [SC-170120][SQL] Adicionar iterador de ponto de código a UTF8String
  • [SPARK-48748] [SC-170115][SQL] Armazenar em cache numChars em UTF8String
  • [SPARK-48744] [SC-169817][Core] A entrada de registro deve ser construída apenas uma vez
  • [SPARK-46122] [SC-164313][SQL] Definir spark.sql.legacy.createHiveTableByDefault como false por padrão
  • [SPARK-48765] [SC-170119][DEPLOY] Aprimorar a avaliação do valor padrão para SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128][SQL] Adicionar documento de migração para a alterações de comportamento CREATE TABLE AS SELECT desde o Spark 3.4
  • [SPARK-48598] [SC-169484][PYTHON][CONNECT] Propagar o esquema em cache em operações de dataframe
  • [SPARK-48766] [SC-170126][PYTHON] Documentar a diferença de comportamento de extraction entre element_at e try_element_at
  • [SPARK-48768] [SC-170124][PYTHON][CONNECT] Não deve armazenar em cache explain
  • [SPARK-48770] [Backport][15.x][SC-170133][SS] Alterar para leitura dos metadados do operador uma vez no driver para verificar se podemos encontrar informações para numColsPrefixKey usado para consultas de agregação de janela de sessão
  • [SPARK-48656] [SC-169529][CORE] Fazer uma verificação de comprimento e gerar o erro COLLECTION_SIZE_LIMIT_EXCEEDED em CartesianRDD.getPartitions
  • [SPARK-48597] [SC-168817][SQL] Introduzir um marcador para a propriedade isStreaming na representação de texto do plano lógico
  • [SPARK-48472] [SC-169044][SQL] Habilitar expressões Reflect com cadeias de caracteres agrupadas
  • [SPARK-48699] [SC-169597][SQL] Refinar a API de Agrupamento
  • [SPARK-48682] [SC-169812][SQL][BEHAVE-58] Usar ICU na expressão InitCap para cadeias de caracteres UTF8_BINARY
  • [SPARK-48282] [SC-169813][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para o agrupamento UTF8_BINARY_LCASE (StringReplace, FindInSet)
  • [SPARK-47353] [SC-169599][SQL] Habilitar o suporte de agrupamento para a expressão Mode
  • [SPARK-48320] [SPARK-48490] Sincronizar a característica de registro em log e os casos de teste mais recentes do OSS Spark
  • [SPARK-48629] [SC-169479] Migrar o código residual para a estrutura de registros estruturada
  • [SPARK-48681] [SC-169469][SQL][BEHAVE-58] Usar ICU em expressões Lower/Upper para cadeias de caracteres UTF8_BINARY
  • [SPARK-48573] [15.x][SC-169582][SQL] Atualizar a versão do ICU
  • [SPARK-48687] [Backport][15.x][SS] Adicionar alteração para executar validação do esquema de estado e atualização no driver para consultas com estado
  • [SPARK-47579] [15.x][SC-167310][CORE][PART4] Migrar logInfo com variáveis para a estrutura de registros estruturada
  • [SPARK-48008] [SC-167363][1/2] Suporte a UDAFs no Spark Connect
  • [SPARK-48578] [SC-169505][SQL] Adicionar funções relacionadas à validação de cadeias de caracteres UTF8
  • [SPARK-48670] [SC-169598][SQL] Fornecendo sugestão como parte da mensagem de erro quando for fornecido um nome de agrupamento inválido
  • [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA… ...RK-48291] Estrutura de registro em log estruturado no lado java
  • [SPARK-47599] [15.x][SC-166000][MLLIB] MLLib: Migrar logWarn com variáveis para a estrutura de registros estruturada
  • [SPARK-48706] [SC-169589][PYTHON] O UDF do Python em funções de ordem superior não deve gerar erro interno
  • [SPARK-48498] [BEHAVE-38][SC-168060][SQL] Sempre fazer preenchimento de caracteres em predicados
  • [SPARK-48662] [SC-169533][SQL] Corrigir a expressão StructsToXml com agrupamentos
  • [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates e dropDuplicatesWIthinWatermark devem aceitar argumentos de comprimento variável
  • [SPARK-48678] [SC-169463][CORE] Otimizações de desempenho para SparkConf.get(ConfigEntry)
  • [SPARK-48576] [SQL] Renomear UTF8_BINARY_LCASE para UTF8_LCASE
  • [SPARK-47927] [SC-164123][SQL]: Corrigir o atributo de nulidade no decodificador UDF
  • [SPARK-47579] [SC-165297][CORE][PART1] Migrar logInfo com variáveis para a estrutura de registros estruturada (novo)
  • [SPARK-48695] [SC-169473][PYTHON] TimestampNTZType.fromInternal não usar os métodos preteridos
  • [SPARK-48431] [SC-167290][LC-4066][SQL] Não encaminhar predicados em colunas agrupadas para leitores de arquivos
  • [SPARK-47579] Reverter "[SC-165297][CORE][PART1] Migrar logInfo com variáveis para a estrutura de registros estruturada"
  • [SPARK-47585] [SC-164306][SQL] SQL core: Migrar logInfo com variáveis para a estrutura de registro estruturada
  • [SPARK-48466] [SC-169042][SQL] Criar nó dedicado para EmptyRelation no AQE
  • [SPARK-47579] [SC-165297][CORE][PART1] Migrar logInfo com variáveis para a estrutura de registros estruturada
  • [SPARK-48410] [SC-168320][SQL] Corrigir a expressão InitCap para agrupamentos UTF8_BINARY_LCASE e ICU
  • [SPARK-48318] [SC-167709][SQL] Habilitar o suporte a junção de hash para todos os agrupamento (tipos complexos)
  • [SPARK-48435] [SC-168128][SQL] O agrupamento UNICODE não deve dá suporte à igualdade binária
  • [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Suporte ao uso de colunas como parâmetros para várias funções em pyspark/scala
  • [SPARK-48591] [SC-169081][PYTHON] Adicionar uma função auxiliar para simplificar Column.py
  • [SPARK-48574] [SC-169043][SQL] Corrigir o suporte para StructTypes com agrupamentos
  • [SPARK-48305] [SC-166390][SQL] Adicionar suporte a agrupamentos para expressões CurrentLike
  • [SPARK-48342] [SC-168941][SQL] Introdução ao Analisador de Scripts SQL
  • [SPARK-48649] [SC-169024][SQL] Adicionar as configurações "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" para permitir ignorar caminhos de partição inválidos
  • [SPARK-48000] [SC-167194][SQL] Habilitar o suporte a junção de hash para todos os agrupamentos (StringType)
  • [SPARK-48459] [SC-168947][CONNECT][PYTHON] Implementar DataFrameQueryContext no Spark Connect
  • [SPARK-48602] [SC-168692][SQL] Fazer com que o gerador de CSV dê suporte a diferentes estilos de saída com spark.sql.binaryOutputStyle
  • [SPARK-48283] [SC-168129][SQL] Modificar a comparação de cadeia de caracteres para UTF8_BINARY_LCASE
  • [SPARK-48610] [SC-168830][SQL] refatoração: use idMap auxiliar em vez de OP_ID_TAG
  • [SPARK-48634] [SC-169021][PYTHON][CONNECT] Evitar inicializar estaticamente o threadpool no ExecutePlanResponseReattachableIterator
  • [SPARK-47911] [SC-164658][SQL] Introduz um BinaryFormatter universal para tornar a saída binária consistente
  • [SPARK-48642] [SC-168889][CORE] Falso SparkOutOfMemoryError causado por eliminar a tarefa durante a transferência de dados para o disco
  • [SPARK-48572] [SC-168844][SQL] Corrigir expressões DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
  • [SPARK-48600] [SC-168841][SQL] Corrigir a conversão implícita das expressões FrameLessOffsetWindowFunction
  • [SPARK-48644] [SC-168933][SQL] Fazer uma verificação de comprimento e gerar o erro COLLECTION_SIZE_LIMIT_EXCEEDED em Hex.hex
  • [SPARK-48587] [SC-168824][VARIANT] Evite a amplificação do armazenamento ao acessar uma sub-variante
  • [SPARK-48647] [SC-168936][PYTHON][CONNECT] Refine a mensagem de erro para YearMonthIntervalType em df.collect
  • [SPARK-48307] [SC-167802][SQL] O InlineCTE deve manter as relações não embutidas no nó WithCTE original
  • [SPARK-48596] [SC-168581][SQL] Melhoria no desempenho do cálculo da cadeia de caracteres hexadecimal para longos
  • [SPARK-48621] [SC-168726][SQL] Corrigir simplificação de Like no Otimizador para cadeias de caracteres com agrupamento
  • [SPARK-47148] [SC-164179][SQL] Evitar a materialização do AQE ExchangeQueryStageExec no cancelamento
  • [SPARK-48584] [SC-168579][SQL] Melhoria de desempenho para unescapePathName
  • [SPARK-48281] [SC-167260][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para o agrupamento UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
  • [SPARK-48577] [SC-168826][SQL] Substituição de sequência de bytes UTF-8 inválida
  • [SPARK-48595] [SC-168580][CORE] Limpeza do uso de APIs preteridas relacionadas a commons-compress
  • [SPARK-48030] [SC-164303][SQL] SPJ: armazenar em cache rowOrdering e structType para InternalRowComparableWrapper
  • [SPARK-48004] [SC-164005][SQL] Adicionar característica WriteFilesExecBase para gravação v1
  • [SPARK-48551] [SC-168438][SQL] Melhoria de desempenho para escapePathName
  • [SPARK-48565] [SC-168437][UI] Corrigir exibição de despejo de thread na interface do usuário
  • [SPARK-48364] [SC-166782][SQL] Adicionar a conversão do tipo AbstractMapType e corrigir o mapa do parâmetro RaiseError para trabalhar com cadeia de caracteres agrupadas
  • [SPARK-48421] [SC-168689][SQL] SPJ: Adicionar documentação
  • [SPARK-48604] [SC-168698][SQL] Substituir a chamada de método new ArrowType.Decimal(precision, scale) preterida
  • [SPARK-46947] [SC-157561][CORE] Atrasar a inicialização do gerenciador de memória até que o plug-in do driver seja carregado
  • [SPARK-48411] [SC-168576][SS][PYTHON] Adicionar o teste E2E para DropDuplicateWithinWatermark
  • [SPARK-48543] [SC-168697][SS] Acompanhar falhas de validação de linha de estado usando classe de erro explícita
  • [SPARK-48221] [SC-167143][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para o agrupamento UTF8_BINARY_LCASE (Contains, StartsWith, EndsWith, StringLocate)
  • [SPARK-47415] [SC-168441][SQL] Adicionar suporte de agrupamento para expressão Levenshtein
  • [SPARK-48593] [SC-168719][PYTHON][CONNECT] Corrigir a representação de cadeia de caracteres da função lambda
  • [SPARK-48622] [SC-168710][SQL] Obter SQLConf uma vez ao resolver nomes de colunas
  • [SPARK-48594] [SC-168685][PYTHON][CONNECT] Renomear o campo parent para child em ColumnAlias
  • [SPARK-48403] [SC-168319][SQL] Corrigir expressões Lower e Upper para agrupamentos UTF8_BINARY_LCASE e ICU
  • [SPARK-48162] [SC-166062][SQL] Adicionar suporte de agrupamento para expressões MISC
  • [SPARK-48518] [SC-167718][CORE] Fazer com que a compactação LZF possa ser executada em paralelo
  • [SPARK-48474] [SC-167447][CORE] Corrigir o nome da classe do registro em SparkSubmitArguments e SparkSubmit
  • [SPARK-48012] [SC-168267][SQL] SPJ: Suporte a expressões transfrom para One Side Shuffle
  • [SPARK-48552] [SC-168212][SQL] a inferência de esquema CSV de várias linhas também deve gerar FAILED_READ_FILE
  • [SPARK-48560] [SC-168268][SS][PYTHON] Tornar StreamingQueryListener.spark configurável
  • [SPARK-48569] [SC-168321][SS][CONNECT] Tratar casos extremos em query.name
  • [SPARK-47260] [SC-167323][SQL] Atribuir nome à classe de erro _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [SC-168327][PYTHON][CONNECT] Propagar esquema em cache em operações de conjunto
  • [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation para junção deve verificar se o filho remanescente é apenas BroadcastQueryStageExec
  • [SPARK-48506] [SC-167720][CORE] Nomes curtos de codecs de compactação não diferenciam maiúsculas de minúsculas, exceto para o registro em log de eventos
  • [SPARK-48447] [SC-167607][SS] Verificar a classe do provedor de armazenamento de estado antes de invocar o construtor
  • [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd não devem gerar a exceção INTERNAL_ERROR
  • [SPARK-48513] [Backport][15.x][SC-168085][SS] Adicionar a classe de erro para compatibilidade com o esquema de estado e pequenas refatorações
  • [SPARK-48413] [SC-167669][SQL] ALTER COLUMN com agrupamento
  • [SPARK-48561] [SC-168250][PS][CONNECT] Gerar PandasNotImplementedError para funções de plotagem sem suporte
  • [SPARK-48465] [SC-167531][SQL] Evitar a propagação de relação vazia sem opção
  • [SPARK-48553] [SC-168166][PYTHON][CONNECT] Armazenar em cache mais propriedades
  • [SPARK-48540] [SC-168069][CORE] Evitar o carregamento de configurações de saída ivy para stdout
  • [SPARK-48535] [SC-168057][SS] Atualizar documentos de configuração para indicar a possibilidade de perda/corrupção de dados se a configuração de ignorar nulos para junções stream-stream estiver habilitada
  • [SPARK-48536] [SC-168059][PYTHON][CONNECT] Armazenar em cache o esquema especificado pelo usuário em applyInPandas e applyInArrow
  • [SPARK-47873] [SC-163473][SQL] Gravar cadeias de caracteres agrupadas no metastore do Hive usando o tipo de cadeia de caracteres regular
  • [SPARK-48461] [SC-167442][SQL] Substituir NullPointerExceptions pela classe de erro na expressão AssertNotNull
  • [SPARK-47833] [SC-163191][SQL][CORE] Fornecer o stackstrace do chamador para a AnalysisException checkAndGlobPathIfNecessary
  • [SPARK-47898] [SC-163146][SQL] Port HIVE-12270: Adicionar suporte a DBTokenStore ao token de delegação HS2
  • [SPARK-47578] [SC-167497][R] Migrar RPackageUtils com variáveis para a estrutura de registros estruturada
  • [SPARK-47875] [SC-162935][CORE] Remover spark.deploy.recoverySerializer
  • [SPARK-47552] [SC-160880][CORE] Definir spark.hadoop.fs.s3a.connection.establish.timeout como 30s se estiver ausente
  • [SPARK-47972] [SC-167692][SQL] Restringir a expressão CAST para agrupamento
  • [SPARK-48430] [SC-167489][SQL] Corrigir a extração do valor do mapa quando o mapa contém cadeia de caracteres agrupadas
  • [SPARK-47318] [SC-162712][CORE][3.5] Adiciona rodada HKDF à derivação de chave do AuthEngine para seguir as práticas padrão do KEX
  • [SPARK-48503] [BEHAVE-29][ES-1135236][SQL] Correção de subconsultas escalares inválidas com agrupar por em colunas não equivalentes que eram incorretamente permitidas
  • [SPARK-48508] [SC-167695][CONNECT][PYTHON] Armazenar em cache o esquema especificado pelo usuário em DataFrame.{to, mapInPandas, mapInArrow}
  • [SPARK-23015] [SC-167188][WINDOWS] Corrigir bug no Windows em que a inicialização de várias instâncias do Spark no mesmo segundo causa uma falha
  • [SPARK-45891] [SC-167608] Reverter " Descrever o esquema de fragmentação da Grade"
  • [SPARK-48391] [SC-167554][CORE]Usar a função addAll em vez Adicionar no método fromAccumulatorInfos da classe TaskMetrics
  • [SPARK-48496] [SC-167600][CORE] Usar instâncias de padrão regex estático em JavaUtils.timeStringAs e JavaUtils.byteStringAs
  • [SPARK-48476] [SC-167488][SQL] Corrigir a mensagem de erro NPE para o CSV com delimitador nulo
  • [SPARK-48489] [SC-167598][SQL] gerar um erro melhor, voltado para o usuário, ao ler um esquema ilegal da Fonte de Dados de texto
  • [SPARK-48471] [SC-167324][CORE] Melhorar a documentação e o guia de uso do servidor de histórico
  • [SPARK-45891] [SC-167597] Descrever o esquema de fragmentação da Grade
  • [SPARK-47333] [SC-159043] [SQL] Use checkInputDataTypes para verificar os tipos de parâmetros da função to_xml
  • [SPARK-47387] [SC-159310][SQL] Remover algumas classes de erro não utilizadas
  • [SPARK-48265] [ES-1131440][SQL] Inferir o limite de lote do grupo de janelas que deve fazer dobragem constante
  • [SPARK-47716] [SC-167444][SQL] Evitar conflitos de nome de visualização no caso do teste de classificação semântica do SQLQueryTestSuite
  • [SPARK-48159] [SC-167141][SQL] Estender o suporte para cadeias de caracteres agrupadas em expressões datetime
  • [SPARK-48462] [SC-167271][SQL][Testes] Usar withSQLConf em testes: Refatorar HiveQuerySuite e HiveTableScanSuite
  • [SPARK-48392] [SC-167195][CORE] Também carregar spark-defaults.conf quando fornecido --properties-file
  • [SPARK-48468] [SC-167417] Adicionar interface LogicalQueryStage no Catalyst
  • [SPARK-47578] [SC-164988][CORE] Backport manual para Spark PR #46309: Migrar logWarning com variáveis para estrutura de registros estruturada
  • [SPARK-48415] [SC-167321]Reverter "[PYTHON] Refatorar TypeName para dar suporte a tipos de dados parametrizados"
  • [SPARK-46544] [SC-151361][SQL] Suporte a v2 DESCRIBE TABLE EXTENDED com estatísticas de tabela
  • [SPARK-48325] [SC-166963][CORE] Sempre especificar mensagens em ExecutorRunner.killProcess
  • [SPARK-46841] [SC-167139][SQL] Adicionar suporte de agrupamento para locais ICU e especificadores de agrupamento
  • [SPARK-47221] [SC-157870][SQL] Usa assinaturas do CsvParser para o AbstractParser
  • [SPARK-47246] [SC-158138][SQL] Substituir InternalRow.fromSeq por new GenericInternalRow para salvar uma conversão de coleção
  • [SPARK-47597] [SC-163932][STREAMING] Backport manual para o Spark PR #46192: Streaming: Migrar logInfo com variáveis para a estrutura de registros estrutura
  • [SPARK-48415] [SC-167130][PYTHON] Refatorar TypeName para dar suporte a tipos de dados parametrizados
  • [SPARK-48434] [SC-167132][PYTHON][CONNECT] Fazer printSchema usar o esquema em cache
  • [SPARK-48432] [ES-1097114][SQL] Evitar o unboxing de inteiros no UnivocityParser
  • [SPARK-47463] [SC-162840][SQL] Use V2Predicate para envolver a expressão com o tipo de retorno booleano
  • [SPARK-47781] [SC-162293][SQL] Lidar com decimais de escala negativa para fontes de dados JDBC
  • [SPARK-48394] [SC-166966][CORE] Limpar mapIdToMapIndex no cancelamento do registro de mapoutput
  • [SPARK-47072] [SC-156933][SQL] Corrigir formatos de intervalos com suporte em mensagens de erro
  • [SPARK-47001] [SC-162487][SQL] Verificação de pushdown no otimizador
  • [SPARK-48335] [SC-166387][PYTHON][CONNECT] Tornar _parse_datatype_string compatível com o Spark Connect
  • [SPARK-48329] [SC-166518][SQL] Habilitar spark.sql.sources.v2.bucketing.pushPartValues.enabled por padrão
  • [SPARK-48412] [SC-166898][PYTHON] Refatorar a análise do tipo de dados json
  • [SPARK-48215] [SC-166781][SQL] Ampliação do suporte para cadeias de caracteres agrupadas na expressão date_format
  • [SPARK-45009] [SC-166873][SQL][FOLLOW UP] Adicionar classe de erro e testes para descorrelação de subconsultas de predicado na condição de junção que referenciam ambos os filhos da junção
  • [SPARK-47960] [SC-165295][SS][15.x] Permitir o encadeamento de outros operadores stateful após o operador transformWithState.
  • [SPARK-48340] [SC-166468][PYTHON] Suporte a TimestampNTZ inferir erro de esquema prefer_timestamp_ntz
  • [SPARK-48157] [SC-165902][SQL] Adicionar suporte a agrupamento para expressões CSV
  • [SPARK-48158] [SC-165652][SQL] Adicionar suporte a agrupamento para expressões XML
  • [SPARK-48160] [SC-166064][SQL] Adicionar suporte a agrupamento para expressões XPATH
  • [SPARK-48229] [SC-165901][SQL] Adicionar suporte a agrupamento para expressões inputFile
  • [SPARK-48367] [SC-166487][CONNECT] Corrigir lint-scala para que scalafmt detecte arquivos para formatar corretamente
  • [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] Refatoração da estrutura do contexto de erro do DataFrame
  • [SPARK-48370] [SC-166787][CONNECT] Ponto de verificação e localCheckpoint no cliente Scala Spark Connect
  • [SPARK-48247] [SC-166028][PYTHON] Usar todos os valores em um dic ao inferir o esquema MapType
  • [SPARK-48395] [SC-166794][PYTHON] Corrigir StructType.treeString para tipos parametrizados
  • [SPARK-48393] [SC-166784][PYTHON] Mover um grupo de constantes para pyspark.util
  • [SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Implementar StructType.treeString
  • [SPARK-48258] [SC-166467][PYTHON][CONNECT] Ponto de verificação e localCheckpoint no Spark Connect

Consulte Atualizações de manutenção do Databricks Runtime 15.4 LTS.

Ambiente do sistema

  • Sistema operacional: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.78.0.19-CA-linux64
  • Scala: 2.12.18
  • Python: 3.11.0
  • R: 4.3.2
  • Delta Lake: 3.2.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.2
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 backcall 0.2.0
black 23.3.0 blinker 1.4 boto3 1.34.39
botocore 1.34.39 cachetools 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 charset-normalizer 2.0.4
clique 8.0.4 cloudpickle 2.2.1 comm 0.1.2
contourpy 1.0.5 criptografia 41.0.3 cycler 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 decorator 5.1.1 distlib 0.3.8
entrypoints 0,4 em execução 0.8.3 facets-overview 1.1.1
filelock 3.13.4 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.31.0
google-cloud-core 2.4.1 google-cloud-storage 2.17.0 google-crc32c 1.5.0
google-resumable-media 2.7.1 googleapis-common-protos 1.63.2 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jedi 0.18.1 jeepney 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 keyring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny 2.11.4
more-itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 empacotando 23,2
pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Pillow 9.4.0 pip 23.2.1 platformdirs 3.10.0
plotly 5.9.0 prompt-toolkit 3.0.36 proto-plus 1.24.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.38
pyparsing 3.0.9 python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
pytz 2022.7 PyYAML 6,0 pyzmq 23.2.0
solicitações 2.31.0 rsa 4.9 s3transfer 0.10.2
scikit-learn 1.3.0 scipy 1.11.1 seaborn 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 six 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
stack-data 0.2.0 statsmodels 0.14.0 tenacity 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 unattended-upgrades 0,1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
wheel 0.38.4 zipp 3.11.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo CRAN do Gerenciador de Pacotes Posit.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 14.0.0.2 askpass 1.2.0 assertthat 0.2.1
backports 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 blob 1.2.4 boot 1.3-28
brew 1.0-10 brio 1.1.4 broom 1.0.5
bslib 0.6.1 cachem 1.0.8 callr 3.7.3
sinal de interpolação 6.0-94 cellranger 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.2 clipr 0.8.0
clock 0.7.0 cluster 2.1.4 codetools 0.2-19
colorspace 2.1-0 commonmark 1.9.1 compiler 4.3.2
config 0.3.2 conflicted 1.2.0 cpp11 0.4.7
crayon 1.5.2 credenciais 2.0.1 curl 5.2.0
data.table 1.15.0 conjuntos de dados 4.3.2 DBI 1.2.1
dbplyr 2.4.0 desc 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 digest 0.6.34
downlit 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 ellipsis 0.3.2 evaluate 0,23
fansi 1.0.6 farver 2.1.1 fastmap 1.1.1
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
foreign 0.8-85 forge 0.2.0 fs 1.6.3
future 1.33.1 future.apply 1.11.1 gargle 1.5.2
genéricos 0.1.3 gert 2.0.1 ggplot2 3.4.4
gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.2 glue 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
elemento gráfico 4.3.2 grDevices 4.3.2 grid 4.3.2
gridExtra 2.3 gsubfn 0.7 gt 0.10.1
gtable 0.3.4 hardhat 1.3.1 haven 2.5.4
highr 0,10 hms 1.1.3 htmltools 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 ids 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1,45 labeling 0.4.3
later 1.3.2 lattice 0.21-8 lava 1.7.3
ciclo de vida 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.12 MASS 7.3-60
Matriz 1.5-4.1 memoise 2.0.1 métodos 4.3.2
mgcv 1.8-42 mime 0,12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 parallel 4.3.2
parallelly 1.36.0 pillar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 praise 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 progress 1.2.3
progressr 0.14.0 promises 1.2.1 proto 1.0.0
proxy 0.4-27 ps 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reactable 0.4.4
reactR 0.5.0 readr 2.1.5 readxl 1.4.3
recipes 1.0.9 rematch 2.0.0 rematch2 2.1.2
remotes 2.4.2.1 reprex 2.1.0 reshape2 1.4.4
rlang 1.1.3 rmarkdown 2.25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 sass 0.4.8
scales 1.3.0 selectr 0.4-2 sessioninfo 1.2.2
shape 1.4.6 shiny 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spatial 7.3-15 splines 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.3.2
stats4 4.3.2 stringi 1.8.3 stringr 1.5.1
survival 3.5-5 swagger 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
textshaping 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 timechange 0.3.0
timeDate 4032.109 tinytex 0,49 manuais 4.3.2
tzdb 0.4.0 urlchecker 1.0.1 usethis 2.2.2
utf8 1.2.4 utils 4.3.2 uuid 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 waldo 0.5.2 whisker 0.4.1
withr 3.0.0 xfun 0,41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
zeallot 0.1.0 zip 2.3.1

Bibliotecas do Java e do Scala instaladas (versão do cluster Scala 2.12)

ID do Grupo Artifact ID Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support 1.12.610
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeine 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,25
io.delta delta-sharing-client_2.12 1.1.1
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coletor 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,40
org.glassfish.jersey.containers jersey-container-servlet-core 2,40
org.glassfish.jersey.core jersey-client 2,40
org.glassfish.jersey.core jersey-common 2,40
org.glassfish.jersey.core jersey-server 2,40
org.glassfish.jersey.inject jersey-hk2 2,40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-compatible 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2,0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1