Partilhar via


Databricks Runtime 11.0 (EoS)

Nota

O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.0, desenvolvido pelo Apache Spark 3.3.0. A Databricks lançou esta versão em junho de 2022.

Novos recursos e melhorias

Nova versão do Apache Spark

O Databricks Runtime 11.0 e o Databricks Runtime 11.0 Photon incluem o Apache Spark 3.3.0. Para obter detalhes, consulte Apache Spark.

Os notebooks Python agora usam o kernel IPython

No Databricks Runtime 11.0 e superior, os notebooks Python usam o kernel IPython para executar código Python. Consulte Kernel IPython.

Suporte para ipywidgets

Agora você pode usar ipywidgets para tornar seus notebooks Databricks Python interativos. Veja ipywidgets.

O conector Synapse agora grava dados do Parquet no modo não herdado

O conector do Azure Synapse agora grava dados do Parquet no modo não herdado. Ele preserva o formato de carimbo de data/hora ao usar o INT96 PolyBase e COPY comandos para cargas de trabalho em lote e streaming.

Esquema HTTPS agora aplicado quando o cliente ABFS usa o token SAS

Quando o cliente do Sistema de Arquivos de Blob do Azure (ABFS) usa um token SAS (Assinatura de Acesso Compartilhado), o esquema HTTPS agora é imposto.

SQL: DESC agora é um alias para DESCRIBE

Agora você pode usar DESC como um alias para DESCRIBE ao descrever locais externos ou credenciais de armazenamento. Por exemplo:

-- Describe an external location.
DESC EXTERNAL LOCATION location_name;

-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;

SQL: Nova current_version função produz detalhes da versão

A nova current_version função gera a versão atual do Databricks Runtime, se disponível, a versão atual do Databricks SQL, se disponível, e outros detalhes da versão relacionados. Use essa nova função para consultar informações relacionadas à versão. Consulte current_version função.

Descartar uma restrição de tabela Delta ausente agora gera um erro

Se você agora tentar descartar uma restrição de tabela Delta pelo nome, e essa restrição não existir, você receberá um erro. Para obter o comportamento anterior, que não gera um erro se a restrição não existir, agora você deve usar a instrução IF EXISTS. Ver ALTER TABLE.

SQL: Nova cláusula EXCEPT na instrução SELECT exclui colunas da seleção

SELECT instruções agora suportam a cláusula EXCEPT para excluir colunas da seleção. Por exemplo, SELECT * EXCEPT (x) FROM table retorna todas as colunas do table, exceto x. Colunas aninhadas também são permitidas. Por exemplo, SELECT * EXCEPT (x.a) FROM table retorna todas as colunas de table, mas omite o campo a da struct x.

Suporte para remover colunas em tabelas Delta (Pré-visualização pública)

Você pode usar ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name> ou ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *) para soltar uma coluna ou uma lista de colunas, respectivamente, de uma tabela Delta como uma operação somente de metadados. As colunas são efetivamente "excluídas de forma não definitiva", uma vez que ainda permanecem nos ficheiros Parquet subjacentes, mas já não são visíveis para a tabela Delta.

Você pode usar REORG TABLE <table-name> APPLY (PURGE) para disparar uma regravação de arquivo nos arquivos que contêm quaisquer dados excluídos suavemente, como colunas soltas.

Você pode usar VACUUM para remover os arquivos excluídos do armazenamento físico, incluindo os arquivos antigos que contêm colunas soltas e foram reescritos por REORG TABLE.

COPY INTO melhorias

Agora você pode criar tabelas Delta de espaço reservado vazias para que o esquema seja inferido posteriormente durante um comando COPY INTO:

CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');

A instrução SQL anterior é idempotente e pode ser programada para ser executada para ingerir dados exatamente uma vez em uma tabela Delta.

Nota

A tabela Delta vazia não é utilizável fora de COPY INTO. Não é possível usar INSERT INTO e MERGE INTO para gravar dados em tabelas Delta sem esquema. Depois que os dados são inseridos na tabela com COPY INTO, a tabela é consultável.

Se os dados que você está ingerindo não podem ser lidos devido a algum problema de corrupção, você pode ignorar arquivos corrompidos definindo ignoreCorruptFiles como true no FORMAT_OPTIONS:

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')

O comando COPY INTO retorna o número de arquivos que foram ignorados devido a corrupção na coluna num_skipped_corrupt_files. Essa métrica também aparece na coluna operationMetrics em numSkippedCorruptFiles depois de executar DESCRIBE HISTORY na tabela Delta.

Os arquivos corrompidos não são rastreados pelo COPY INTO, portanto, podem ser recarregados em uma execução subsequente se a corrupção for corrigida. Você pode ver quais arquivos estão corrompidos executando COPY INTO no VALIDATE modo.

CONVERT TO DELTA agora é suportado em ambientes habilitados para Unity Catalog (Visualização pública)

Em ambientes habilitados paraUnity-Catalog, com você pode agora:

  • Converta arquivos Parquet em locais externos para Delta Lake.
  • Converta tabelas externas do Parquet em tabelas Delta.

Alterações de comportamento

SQL: lpad e rpad as funções agora suportam sequências de bytes

As funções lpad e rpad foram atualizadas para adicionar suporte para sequências de bytes, além de strings.

Formato de cadeia de caracteres em format_string e printf não permite mais %0$

Especificar o formato %0$ nas format_string funções e printf agora gera um erro por padrão. Essa alteração é para preservar o comportamento esperado com versões anteriores do Databricks Runtime e bancos de dados comuns de terceiros. O primeiro argumento deve sempre fazer referência a %1$ quando você usa um índice de argumento para indicar a posição do argumento na lista de argumentos.

Valores nulos em arquivos CSV agora são gravados como cadeias de caracteres vazias sem aspas por padrão

Os valores nulos em arquivos CSV foram previamente gravados como cadeias de caracteres vazias entre aspas. Com esta versão, os valores nulos em arquivos CSV agora são gravados como cadeias de caracteres vazias sem aspas por padrão. Para voltar ao comportamento anterior, defina a opção nullValue como "" para operações de gravação.

A propriedade de tabela external agora está reservada

A propriedade external agora é uma propriedade de tabela reservada por padrão. Exceções agora são lançadas quando você usa a external propriedade com as CREATE TABLE ... TBLPROPERTIES cláusulas e ALTER TABLE ... SET TBLPROPERTIES .

Log4j é atualizado de Log4j 1 para Log4j 2

O Log4j 1 está sendo atualizado para o Log4j 2. As dependências herdadas do Log4j 1 estão sendo removidas.

Se você depender das classes Log4j 1 que foram incluídas anteriormente dentro do Databricks Runtime, essas classes não existem mais. Você deve atualizar suas dependências para o Log4j 2.

Se você tiver plug-ins personalizados ou arquivos de configuração que dependem do Log4j 2, eles podem não funcionar mais com a versão do Log4j 2 nesta versão. Para obter assistência, entre em contato com sua equipe de conta do Azure Databricks.

As bibliotecas instaladas a partir do Maven agora são resolvidas em seu plano de computação por padrão

As bibliotecas Maven agora são resolvidas em seu plano de computação por padrão quando você instala bibliotecas em um cluster. O cluster deve ter acesso ao Maven Central. Como alternativa, você pode reverter para o comportamento anterior definindo a propriedade de configuração do Spark:

spark.databricks.libraries.enableMavenResolution false

Correções de erros

  • A compatibilidade binária para LeafNode, UnaryNodee BinaryNode entre o Apache Spark e o Databricks Runtime foi corrigida e as classes agora são compatíveis com o Apache Spark 3.3.0 e superior. Se você encontrar a seguinte mensagem ou uma mensagem semelhante ao usar um pacote de terceiros com o Databricks Runtime, reconstrua o pacote com o Apache Spark 3.3.0 ou superior: Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected.

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • platformdirs de 2.5.1 a 2.5.2
    • protobuf de 3.20.0 a 3.20.1
  • Bibliotecas R atualizadas:
    • blob de 1.2.2 a 1.2.3
    • vassoura de 0.7.12 a 0.8.0
    • Cursor de 6,0-91 a 6,0-92
    • CLI de 3.2.0 a 3.3.0
    • dplyr de 1.0.8 a 1.0.9
    • futuro de 1.24.0 a 1.25.0
    • future.apply de 1.8.1 a 1.9.0
    • Gert de 1.5.0 a 1.6.0
    • ggplot2 de 3.3.5 a 3.3.6
    • glmnet de 4.1-3 a 4.1-4
    • refúgio de 2.4.3 a 2.5.0
    • HTTR de 1.4.2 a 1.4.3
    • knitr de 1,38 a 1,39
    • magrittr de 2.0.2 a 2.0.3
    • paralelamente de 1.30.0 a 1.31.1
    • ps de 1.6.0 a 1.7.0
    • RColorBrewer de 1.1-2 a 1.1-3
    • RcppEigen de 0.3.3.9.1 a 0.3.3.9.2
    • readxl de 1.3.1 a 1.4.0
    • rmarkdown de 2.13 para 2.14
    • rprojroot de 2.0.2 a 2.0.3
    • RSQLite de 2.2.11 a 2.2.13
    • escalas de 1.1.1 a 1.2.0
    • ensaio de 3.1.2 a 3.1.4
    • Tibble de 3.1.6 a 3.1.7
    • tinytex de 0,37 a 0,38
    • TZDB de 0.2.0 a 0.3.0
    • uuid de 1.0-4 a 1.1-0
    • VCTRS de 0.3.8 a 0.4.1
  • Bibliotecas Java atualizadas:
    • com.fasterxml.jackson.core.jackson-anotações de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-core de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-databind de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.0 a 2.13.3
    • com.google.crypto.tink.tink de 1.6.0 a 1.6.1
    • com.ning.compress-lzf de 1.0.3 a 1.1
    • dev.ludovic.netlib.arpack de 2.2.0 a 2.2.1
    • dev.ludovic.netlib.blas de 2.2.0 a 2.2.1
    • dev.ludovic.netlib.lapack de 2.2.0 a 2.2.1
    • io.netty.netty-all de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-buffer de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-codec de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-common de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-handler de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-resolver de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-tcnative-classes de 2.0.46.Final a 2.0.48.Final
    • io.netty.netty-transport de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-epoll de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-kqueue de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-aarch_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-x86_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-aarch_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-x86_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-unix-common de 4.1.73.Final a 4.1.74.Final
    • joda-time.joda-time de 2.10.12 a 2.10.13
    • org.apache.commons.commons-math3 de 3.4.1 a 3.6.1
    • org.apache.httpcomponents.httpcore de 4.4.12 a 4.4.14
    • org.apache.orc.orc-core de 1.7.3 a 1.7.4
    • org.apache.orc.orc-mapreduce de 1.7.3 para 1.7.4
    • org.apache.orc.orc-shims de 1.7.3 a 1.7.4
    • org.eclipse.jetty.jetty-client de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-continuação de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-http de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-io de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-jndi de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-plus de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-proxy de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-security de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-server de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlets de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util-ajax de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-webapp de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-xml de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-api de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-client de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-common de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-server de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.mariadb.jdbc.mariadb-java-client de 2.2.5 a 2.7.4
    • org.postgresql.postgresql de 42.2.19 a 42.3.3
    • org.roaringbitmap.RoaringBitmap de 0.9.23 a 0.9.25
    • org.roaringbitmap.shims de 0.9.23 a 0.9.25
    • org.rocksdb.rocksdbjni de 6.20.3 a 6.24.2
    • org.slf4j.jcl-over-slf4j de 1.7.32 a 1.7.36
    • org.slf4j.jul-to-slf4j de 1.7.32 a 1.7.36
    • org.slf4j.slf4j-api de 1.7.30 a 1.7.36

Faísca Apache

O Databricks Runtime 11.0 inclui o Apache Spark 3.3.0.

Nesta secção:

Spark SQL e Core

Modo ANSI

  • Novas regras explícitas de sintaxe de transmissão no modo ANSI (SPARK-33354)
  • Elt() deve retornar null se index for null no modo ANSI (SPARK-38304)
  • Opcionalmente, retorne o resultado nulo se o elemento não existir na matriz/mapa (SPARK-37750)
  • Permitir transmissão entre o tipo numérico e o tipo de carimbo de data/hora (SPARK-37714)
  • Desativar palavras-chave reservadas ANSI por padrão (SPARK-37724)
  • Usar regras de atribuição de armazenamento para resolver a invocação de função (SPARK-37438)
  • Adicione uma configuração para permitir a transmissão entre Data/hora e Numérico (SPARK-37179)
  • Adicionar uma configuração para impor opcionalmente palavras-chave reservadas ANSI (SPARK-37133)
  • Não permitir operações binárias entre literal de intervalo e cadeia de caracteres (SPARK-36508)

Aprimoramentos de recursos

  • Suporte a tipos ANSI SQL INTERVAL (SPARK-27790)
  • Melhorias na mensagem de erro (SPARK-38781)
  • Suporte a metadados de arquivos ocultos para Spark SQL (SPARK-37273)
  • Suporte literal de cadeia de caracteres bruta (SPARK-36371)
  • Classe auxiliar para o lote Dataset.observe() (SPARK-34806)
  • Suporte para especificar o número de partição inicial para reequilíbrio (SPARK-38410)
  • Suporte ao modo cascata para dropNamespace API (SPARK-37929)
  • Permitir atribuição de armazenamento e conversão implícita entre tipos de data/hora (SPARK-37707)
  • Coletar, primeiro e último devem ser determinísticos funções agregadas (SPARK-32940)
  • Adicionar ExpressionBuilder para funções com sobrecargas complexas (SPARK-37164)
  • Adicionar suporte de matriz à união por nome (SPARK-36546)
  • Adicionar df.withMetadata: um açúcar sintático destinado a atualizar os metadados de um dataframe (SPARK-36642)
  • Suporte literal de cadeia de caracteres bruta (SPARK-36371)
  • Use CAST na análise de datas/carimbos de data/hora com padrão padrão (SPARK-36418)
  • Classe de valores de suporte no esquema aninhado para Dataset (SPARK-20384)
  • Adicionar suporte de sintaxe AS OF (SPARK-37219)
  • Adicione REPEATABLE em TABLESAMPLE para especificar seed (SPARK-37165)
  • Adicionar sintaxe ansi set catalog xxx para alterar o catálogo atual (SPARK-36841)
  • Suporte ILIKE (TODOS | QUALQUER | ALGUNS) - insensível a maiúsculas e minúsculas LIKE (SPARK-36674, SPARK-36736, SPARK-36778)
  • Suportar a fase de consulta para exibir estatísticas de execução em modo de explicação formatado (SPARK-38322)
  • Adicionar métricas de tamanho de derramamento para junção de mesclagem de classificação (SPARK-37726)
  • Atualizar a sintaxe SQL do SHOW FUNCTIONS (SPARK-37777)
  • Suporta a sintaxe DROP COLUMN [IF EXISTS] (SPARK-38939)
  • Novas funções integradas e suas extensões (SPARK-38783)
    • Data/hora
    • Funções AES (SPARK-12567)
      • Adicionar aes_encrypt e aes_decrypt funções incorporadas (SPARK-12567)
      • Suporte ao modo GCM por aes\_encrypt()/aes\_decrypt() (SPARK-37591)
      • Defina GCM como o modo padrão no aes\_encrypt()/aes\_decrypt() (SPARK-37666)
      • Adicione o e args mode a paddingaes\_encrypt()/(aes\_decrypt())
    • Função de agregação ANSI (SPARK-37671)
    • Coleções
    • Formato
    • String/binário
      • Adicionar função de cadeia de caracteres CONTAINS() (SPARK-37508)
      • Adicionar as startswith() funções e endswith() string (SPARK-37520)
      • Adicionar funções lpad e rpad para strings binárias (SPARK-37047)
      • Suporte split_part função (SPARK-38063)
    • Adicionar parâmetro de escala às funções de piso e ceil (SPARK-37475)
    • Novas funções SQL: try_subtract e try_multiply (SPARK-38164)
    • Implementa histogram_numeric função de agregação que suporta agregação parcial (SPARK-16280)
    • Adicionar max_by/min_by a sql.functions (SPARK-36963)
    • Adicione novas funções SQL integradas: SEC e CSC (SPARK-36683)
    • array_intersect manipula duplicados Double.NaN e Float.NaN (SPARK-36754)
    • Adicionar berço como funções Scala e Python (SPARK-36660)

Melhorias de desempenho

  • Geração de código de estágio completo
    • Adicionar geração de código para agregação de classificação sem chaves de agrupamento (SPARK-37564)
    • Adicionar code-gen para junção de mesclagem externa completa (SPARK-35352)
    • Adicionar geração de código para junção embaralhada de hash externa completa (SPARK-32567)
    • Adicionar code-gen para existence sort merge join (SPARK-37316)
  • Empurrar para baixo (filtros)
    • Empurre os filtros para baixo através de RebalancePartitions (SPARK-37828)
    • Empurre para baixo o filtro de coluna booleana (SPARK-36644)
    • Empurre para baixo o limite 1 para o lado direito da junção semi/anti esquerda se a condição de junção estiver vazia (SPARK-37917)
    • Traduzir mais funções agregadas padrão para pushdown (SPARK-37527)
    • Suporte propagar relação vazia através de agregado/união (SPARK-35442)
    • Filtragem de tempo de execução em nível de linha (SPARK-32268)
    • Suporte Left Semi join em filtros de tempo de execução em nível de linha (SPARK-38565)
    • Suporte a pushdown de predicados e poda de coluna para CTEs desenganados (SPARK-37670)
  • Vetorização
    • Implementar um ConstantColumnVector e melhorar o desempenho dos metadados de arquivo oculto (SPARK-37896)
    • Habilitar leitura vetorizada para VectorizedPlainValuesReader.readBooleans (SPARK-35867)
  • Combinar/remover/substituir nós
    • Combinar sindicatos se houver um projeto entre eles (SPARK-37915)
    • Combine com um elenco se pudermos fundir com segurança dois moldes (SPARK-37922)
    • Remova o Sort se for filho de RepartitionByExpression (SPARK-36703)
    • Remove a junção externa se ela tiver apenas DISTINCT no lado transmitido com alias (SPARK-37292)
    • Substitua hash por sort aggregate se o filho já estiver classificado (SPARK-37455)
    • Só recolher projetos se não duplicarmos expressões caras (SPARK-36718)
    • Remover aliases redundantes após RewritePredicateSubquery (SPARK-36280)
    • Mesclar subconsultas escalares não correlacionadas (SPARK-34079)
  • Particionamento
    • Não adicione remoção de partição dinâmica se existir remoção de partição estática (SPARK-38148)
    • Melhorar RebalancePartitions em regras do Optimizer (SPARK-37904)
    • Adicionar fator de partição pequeno para reequilibrar partições (SPARK-37357)
  • Aderir
    • Ajuste a lógica para rebaixar a junção de hash de transmissão no DynamicJoinSelection (SPARK-37753)
    • Ignore chaves de junção duplicadas ao criar relação para junção hash embaralhada SEMI/ANTI (SPARK-36794)
    • Suporte para otimizar a junção enviesada, mesmo que isso introduza um shuffle extra (SPARK-33832)
  • AQE
    • Suporte eliminar limites no AQE Optimizer (SPARK-36424)
    • Otimize o plano de uma única linha no modo normal e no Otimizador AQE (SPARK-38162)
  • Aggregate.groupOnly suporta expressões dobráveis (SPARK-38489)
  • ByteArrayMethods arrayEquals deve ignorar rapidamente a verificação de alinhamento com a plataforma não alinhada (SPARK-37796)
  • Adicionar poda de padrão de árvore à regra CTESubstitution (SPARK-37379)
  • Adicionar mais simplificações do operador Não (SPARK-36665)
  • Suporte BooleanType em UnwrapCastInBinaryComparison (SPARK-36607)
  • Coalesce soltar todas as expressões após a primeira expressão não anulável (SPARK-36359)
  • Adicionar um visitante de plano lógico para propagar os atributos distintos (SPARK-36194)

Melhorias no conector integrado

  • Geral
    • Serialização leniente de datetime da fonte de dados (SPARK-38437)
    • Trate a localização da tabela como absoluta quando a primeira letra de seu caminho é barrada na tabela create/alter (SPARK-38236)
    • Remova zeros à esquerda da partição de tipo de número estático vazia (SPARK-35561)
    • Suporte ignoreCorruptFiles e ignoreMissingFiles nas opções de fonte de dados (SPARK-38767)
    • Adicionar comando SHOW CATALOGS (SPARK-35973)
  • Parquet
    • Ativar a correspondência de nomes de colunas de esquema por IDs de campo (SPARK-38094)
    • Remova o nome do campo de verificação ao ler/gravar dados em parquet (SPARK-27442)
    • Suporte à leitura vetorizada de valores booleanos utilizando codificação RLE com Parquet DataPage V2 (SPARK-37864)
    • Suporte a codificação de página de dados do Parquet v2 (DELTA_BINARY_PACKED) para o caminho vetorizado (SPARK-36879)
    • Rebaseie carimbos de data/hora no fuso horário da sessão salvo nos metadados Parquet/Avro (SPARK-37705)
    • Empurre para baixo grupo por coluna de partição para agregado (SPARK-36646)
    • Agregado (Mín./Máx./Contagem) empurre para baixo para Parquet (SPARK-36645)
    • Parquet: ativar colunas de esquema correspondentes por id de campo (SPARK-38094)
    • Reduza o tamanho da página padrão em LONG_ARRAY_OFFSET se G1GC e ON_HEAP forem usados (SPARK-37593)
    • Implementar codificações vetorizadas DELTA_BYTE_ARRAY e DELTA_LENGTH_BYTE_ARRAY para suporte ao Parquet V2 (SPARK-37974)
    • Suporte a tipos complexos para leitor vetorizado Parquet (SPARK-34863)
  • ORC
    • Remova o nome do campo de verificação ao ler/gravar dados existentes no Orc (SPARK-37965)
    • Pressão agregada para baixo para ORC (SPARK-34960)
    • Suporte a leitura e gravação de intervalos ANSI de/para fontes de dados ORC (SPARK-36931)
    • Suporte a nomes de coluna somente de números em fontes de dados ORC (SPARK-36663)
  • JSON
    • Respeite allowNonNumericNumbers ao analisar valores "NaN" e "Infinity" citados no leitor JSON (SPARK-38060)
    • Usar CAST para datetime em CSV/JSON por padrão (SPARK-36536)
    • Alinhar mensagem de erro para tipos de chave não suportados no MapType no leitor Json (SPARK-35320)
  • CSV
    • Correção referente à coluna de registro corrompido do CSV (SPARK-38534)
    • valores nulos devem ser salvos como nada em vez de Strings vazias entre aspas "" por padrão (SPARK-37575)
  • JDBC
    • Adicione a instrução IMMEDIATE à implementação truncada do dialeto DB2 (SPARK-30062)
  • Colmeia
    • Suporte para escrita de tabela Hive particionada em buckets (formatos de ficheiro Hive com hash do Hive) (SPARK-32712)
    • Usar expressões para filtrar partições do Hive no lado do cliente (SPARK-35437)
    • Suportar a poda de partições dinâmicas para HiveTableScanExec (SPARK-36876)
    • InsertIntoHiveDir deve usar fonte de dados se for conversível (SPARK-38215)
    • Suporte para escrever tabela particionada do Hive (formato Parquet/ORC com hash Hive) (SPARK-32709)

Desmantelamento do nó

  • FallbackStorage não deve tentar resolver nomes de host "remotos" arbitrários (SPARK-38062)
  • ExecutorMonitor.onExecutorRemoved deve lidar com ExecutorDecommission como concluído (SPARK-38023)

Outras mudanças notáveis

  • Adicione bloqueio refinado ao BlockInfoManager (SPARK-37356)
  • Suporte ao mapeamento de tipos de recursos Spark gpu/fpga para o tipo de recurso YARN personalizado (SPARK-37208)
  • Informe o tamanho preciso do bloco aleatório se estiver distorcido (SPARK-36967)
  • Suporte ao Netty Logging na camada de rede (SPARK-36719)

Transmissão em Fluxo Estruturada

Principais características

  • Introduza Trigger.AvailableNow para executar consultas de streaming como Trigger.Once em vários lotes (SPARK-36533)

Outras mudanças notáveis

  • Use StatefulOpClusteredDistribution para operadores com monitoração de estado respeitando a compatibilidade com versões anteriores (SPARK-38204)
  • Corrigir o tempo limite de flatMapGroupsWithState em lote com dados para chave (SPARK-38320)
  • Corrigir problema de precisão na junção externa de fluxo a fluxo com o fornecedor de armazenamento de estado RocksDB (SPARK-38684)
  • Suporte Trigger.AvailableNow na fonte de dados Kafka (SPARK-36649)
  • Otimizar caminho de gravação no provedor de armazenamento de estado RocksDB (SPARK-37224)
  • Introduzir uma nova fonte de dados para fornecer um conjunto consistente de linhas por microlote (SPARK-37062)
  • Use HashClusteredDistribution para operadores com monitoração de estado respeitando a compatibilidade com versões anteriores (SPARK-38204)

PySpark

API do Pandas no Apache Spark

Principais melhorias
  • Otimização do índice de 'sequência distribuída' com padrão (SPARK-36559, SPARK-36338)
    • Suporte para especificar o tipo de índice e o nome na API pandas no Spark (SPARK-36709)
    • Mostrar tipo de índice padrão em planos SQL para pandas API no Spark (SPARK-38654)
Principais características
  • Implementar ps.merge_asof nativo do SparkSQL (SPARK-36813)
  • Suporte TimedeltaIndex na API pandas no Spark (SPARK-37525)
  • Suporte timedelta do Python (SPARK-37275, SPARK-37510)
  • Implementar funções em CategoricalAccessor/CategoricalIndex (SPARK-36185)
  • Usa o formatador de cadeia de caracteres padrão do Python para API SQL na API pandas no Spark (SPARK-37436)
  • Suporte a operações básicas da série/índice timedelta (SPARK-37510)
  • Suporte ps. MultiIndex.dtypes (SPARK-36930)
  • Implementar Index.map (SPARK-36469)
  • Implementar Série.xor e Série.rxor (faísca-36653)
  • Implementar operador invert unário de ps integral. Série/Índice (SPARK-36003)
  • Implementar DataFrame.cov (SPARK-36396)
  • Suporte str e timestamp para (Series|DataFrame).describe() (SPARK-37657)
  • Suporte lambda column parâmetro de DataFrame.rename(SPARK-38763)

Outras mudanças notáveis

Alterações interruptivas
  • Solte referências ao suporte ao Python 3.6 em docs e python/docs (SPARK-36977)
  • Remover namedtuple hack substituindo o pickle integrado por cloudpickle (SPARK-32079)
  • Bump versão mínima pandas para 1.0.5 (SPARK-37465)
  • Principais melhorias
    • Fornecer um profiler para UDFs Python/Pandas (SPARK-37443)
    • Usa o formatador de cadeia de caracteres padrão do Python para API SQL no PySpark (SPARK-37516)
    • Expor o estado SQL e a classe de erro em exceções do PySpark (SPARK-36953)
    • Tente capturar faulthanlder quando um trabalhador Python falha (SPARK-36062)
Principais características
  • Implementar DataFrame.mapInArrow em Python (SPARK-37228)
  • Usa o formatador de cadeia de caracteres padrão do Python para API SQL no PySpark (SPARK-37516)
  • Adicionar df.withMetadata pyspark API (SPARK-36642)
  • Suporte timedelta do Python (SPARK-37275)
  • Expor tabelaExiste em pyspark.sql.catalog (SPARK-36176)
  • Tornar visível databaseExists em pyspark.sql.catalog (SPARK-36207)
  • Expondo função Existe no catálogo SQL de PySpark (SPARK-36258)
  • Adicionar Dataframe.observation ao PySpark (SPARK-36263)
  • Adicionar API max_by/min_by ao PySpark (SPARK-36972)
  • Suporte para inferir ditado aninhado como uma estrutura ao criar um DataFrame (SPARK-35929)
  • Adicionar APIs bit/octet_length ao Scala, Python e R (SPARK-36751)
  • Suporte a API ILIKE em Python (SPARK-36882)
  • Adicionar método isEmpty para a API Python DataFrame (SPARK-37207)
  • Adicionar várias colunas com suporte (SPARK-35173)
  • Adicionar SparkContext.addArchive no PySpark (SPARK-38278)
  • Tornar o tipo sql reprs eval-able (SPARK-18621)
  • Dicas de tipo embutido para fpm.py em python/pyspark/mllib (SPARK-37396)
  • Implementar dropna parâmetro de SeriesGroupBy.value_counts (SPARK-38837)

MLLIB

Principais características

  • Adicionar distanceMeasure param a trainKMeansModel (SPARK-37118)
  • Exponha LogisticRegression.setInitialModel, como KMeans et al do (SPARK-36481)
  • Propor suporte para o CrossValidatorModel obter o desvio padrão das métricas para cada paramMap (SPARK-36425)

Principais melhorias

  • Otimize alguns "treeAggregates" no MLlib ao atrasar as alocações (SPARK-35848)
  • Reescreva _shared_params_code_gen.py para dicas de tipo embutido para ml/param/shared.py (SPARK-37419)

Outras mudanças notáveis

SparkR

IU

  • Resumo das métricas de especulação no nível do estágio (SPARK-36038)
  • Tempo de espera de bloco de leitura aleatório unificado para baralhar o tempo de espera de busca de leitura no StagePage (SPARK-37469)
  • Adicionar configurações modificadas para execução de SQL na interface do usuário (SPARK-34735)
  • Faça o ThriftServer reconhecer spark.sql.redaction.string.regex (SPARK-36400)
  • Anexar e iniciar o manipulador após o aplicativo iniciado na interface do usuário (SPARK-36237)
  • Adicionar duração de confirmação ao nó gráfico da guia SQL (SPARK-34399)
  • Suporte RocksDB backend no Spark History Server (SPARK-37680)
  • Mostrar opções para Pandas API on Spark in UI (SPARK-38656)
  • Renomeie 'SQL' para 'SQL / DataFrame' na página da interface do usuário do SQL (SPARK-38657)

Compilar

Atualizações de manutenção

Consulte Databricks Runtime 11.0 (EoS).

Ambiente do sistema

  • Sistema Operacional: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Escala: 2.12.14
  • Píton: 3.9.5
  • R: 4.1.3
  • Lago Delta: 1.2.1

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Antergos Linux 2015.10 (Laminação ISO) Argônio2-CFFI 20.1.0 gerador assíncrono 1.10
ATRs 21.2.0 Backcall 0.2.0 backports.pontos de entrada-selecionáveis 1.1.1
lixívia 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
Normalizador de Charset 2.0.4 cycler 0.10.0 Quisto 0.29.24
dbus-python 1.2.16 depuração 1.4.1 decorador 5.1.0
DeUsedXML 0.7.1 Distlib 0.3.4 distro-info 0,23ubuntu1
pontos de entrada 0.3 facetas-visão geral 1.0.0 filelock 3.6.0
idna 3.2 Ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 Jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 Joblib 1.0.1
jsonschema 3.2.0 jupyter-cliente 6.1.12 Jupyter-core 4.8.1
Jupyterlab-Pygments 0.1.2 jupyterlab-widgets 1.0.0 Kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-em linha 0.1.2
Mistune 0.8.4 nbclient 0.5.3 nbconvert 6.1.0
nbformat 5.1.3 Ninho-Asyncio 1.5.1 bloco de notas 6.4.5
numpy 1.20.3 embalagem 21.0 pandas 1.3.4
PandocFilters 1.4.3 Parso 0.8.2 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Travesseiro 8.4.0
pip 21.2.4 plataformadirs 2.5.2 enredo 5.6.0
Prometheus-cliente 0.11.0 prompt-toolkit 3.0.20 protobuf 3.20.1
PSUTIL 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 Pyodbc 4.0.31 pyparsing 3.0.4
pirsistent 0.18.0 python-apt 2.0.0+ubuntu0.20.4.7 python-dateutil 2.8.2
pytz 2021.3 Pyzmq 22.2.1 pedidos 2.26.0
pedidos-unixsocket 0.2.0 s3transferir 0.5.2 scikit-learn 0.24.2
scipy 1.7.1 seaborn 0.11.2 Enviar2Lixo 1.8.0
setuptools 58.0.4 seis 1.16.0 ssh-import-id 5.10
statsmodels 0.12.2 tenacidade 8.0.1 terminado 0.9.4
caminho de teste 0.5.0 ThreadPoolCtl 2.2.0 tornado 6.1
traços 5.1.0 Upgrades autônomos 0.1 urllib3 1.26.7
virtualenv 20.8.0 largura de wc 0.2.5 WebEncodings 0.5.1
roda 0.37.0 widgetsnbextension 3.6.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-05-06.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AskPass 1.1 asserçãoat 0.2.1 backports 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 arranque 1.3-28
brew 1.0-7 Brio 1.1.3 vassoura 0.8.0
BSLIB 0.3.1 cachem 1.0.6 Chamador 3.7.0
acento circunflexo 6.0-92 Cellranger 1.1.0 crono 2.3-56
classe 7.3-20 cli 3.3.0 Clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 espaço em cores 2.0-3
marca comum 1.8.0 compilador 4.1.3 configuração 0.3.1
CPP11 0.4.2 lápis de cor 1.5.1 Credenciais 1.3.2
curl 4.3.2 tabela de dados 1.14.2 conjuntos de dados 4.1.3
DBI 1.1.2 DBPlyr 2.1.1 desc 1.4.1
devtools 2.4.3 diffobj 0.3.5 resumo 0.6.29
dplyr 1.0.9 DTPlyr 1.2.1 E1071 1.7-9
reticências 0.3.2 evaluate 0,15 Fãsi 1.0.3
Farver 2.1.0 mapa rápido 1.1.0 fontawesome 0.2.2
FORCATS 0.5.1 foreach 1.5.2 externa 0.8-82
forjar 0.2.0 FS 1.5.2 Futuro 1.25.0
future.apply 1.9.0 gargarejo 1.2.0 Genéricos 0.1.2
Gert 1.6.0 ggplot2 3.3.6 GH 1.3.0
gitcreds 0.1.1 glmnet 4.1-4 Globais 0.14.0
colar 1.6.2 GoogleDrive 2.0.0 googlesheets4 1.0.0
gower 1.0.0 gráficos 4.1.3 grDevices 4.1.3
grelha 4.1.3 gridExtra 2.3 gsubfn 0.7
gtable 0.3.0 capacete 0.2.0 Refúgio 2.5.0
mais alto 0,9 HMS 1.1.1 htmltools 0.5.2
htmlwidgets 1.5.4 httpuv 1.6.5 httr 1.4.3
IDs 1.0.1 ini 0.3.1 ipred 0.9-12
Isoband 0.2.5 iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.0 KernSmooth 2.23-20 Knitr 1.39
etiquetagem 0.4.2 mais tarde 1.3.0 lattice 0.20-45
lava 1.6.10 ciclo de vida 1.0.1 ouvirv 0.8.0
lubridate 1.8.0 magrittr 2.0.3 Marcação 1.1
MASSA 7.3-56 Matriz 1.4-1 memoise 2.0.1
métodos 4.1.3 mgcv 1.8-40 mime 0,12
ModelMetrics 1.2.2.2 Modelador 0.1.8 munsell 0.5.0
nlme 3.1-157 nnet 7.3-17 numDeriv 2016.8-1.1
openssl 2.0.0 paralelo 4.1.3 Paralelamente 1.31.1
pilar 1.7.0 pkgbuild 1.3.1 pkgconfig 2.0.3
pkgload 1.2.4 plogr 0.2.0 plyr 1.8.7
elogiar 1.0.0 unidades bonitas 1.1.1 pROC 1.18.0
processx 3.5.3 prodlim 2019.11.13 Progresso 1.2.2
progressor 0.10.0 promessas 1.2.0.1 proto 1.0.0
procuração 0.4-26 PS 1.7.0 purrr 0.3.4
r2d3 0.2.6 R6 2.5.1 randomForest 4.7-1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.8.3 RcppEigen 0.3.3.9.2 Leitor 2.1.2
ReadXL 1.4.0 receitas 0.2.0 revanche 1.0.1
revanche2 2.1.2 Controles remotos 2.4.2 Reprex 2.0.1
remodelar2 1.4.4 rlang 1.0.2 rmarkdown 2.14
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1.16
rprojroot 2.0.3 Rserve 1.8-10 RSQLite 2.2.13
rstudioapi 0,13 rversões 2.1.1 Rvest 1.0.2
Sass 0.4.1 escalas 1.2.0 seletor 0.4-2
sessioninfo 1.2.2 forma 1.4.6 brilhante 1.7.1
ferramentas de origem 0.1.7 sparklyr 1.7.5 SparkR 3.3.0
espacial 7.3-11 splines 4.1.3 sqldf 0.4-11
QUADRADO 2021.1 estatísticas 4.1.3 stats4 4.1.3
stringi 1.7.6 stringr 1.4.0 sobrevivência 3.2-13
sys 3.4 tcltk 4.1.3 testeatat 3.1.4
tibble 3.1.7 tidyr 1.2.0 tidyselect 1.1.2
Tidyverse 1.3.1 timeDate 3043.102 Tinytex 0,38
ferramentas 4.1.3 TZDB 0.3.0 usethis 2.1.5
UTF8 1.2.2 utilitários 4.1.3 uuid 1.1-0
VCTRS 0.4.1 viridisLite 0.4.0 vroom 1.5.7
Waldo 0.4.0 whisker 0.4 withr 2.5.0
xfun 0.30 xml2 1.3.3 xopen 1.0.0
xtable 1.8-4 yaml 2.3.5 zip 2.2.0

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics transmissão em fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-anotações 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.13.3
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben ZSTD-JNI 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib Lapack | 2.2.1
colmeia-2.3__hadoop-3.2 JETS3T-0,7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.21
IO.Delta delta-compartilhamento-spark_2.12 0.4.0
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics métricas-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-comum 4.1.74.Final
io.netty netty-manipulador 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transporte de rede 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-nativo-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jacarta.Anotação-API 1.3.5
jacarta.servlet jacarta.servlet-api 4.0.3
jacarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jacarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
maven-árvores colmeia-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.6
net.floco de neve Flocos de Neve-JDBC 3.13.14
net.floco de neve faísca-snowflake_2.12 2.10.0-spark_3.1
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato de seta 7.0.0
org.apache.arrow seta-memória-núcleo 7.0.0
org.apache.arrow seta-memória-netty 7.0.0
org.apache.arrow vetor de seta 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapeado 1.11.0
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.9
org.apache.curator curador-cliente 2.13.0
org.apache.curator curador-framework 2.13.0
org.apache.curator curador-receitas 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.2-Databricks
org.apache.hadoop hadoop-client-runtime 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive colmeia-lamp-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims colmeia-calços-0,23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims colmeia-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-sombreado-protobuf 1.4.0
org.apache.orc orc-núcleo 1.7.4
org.apache.orc orc-mapreduce 1.7.4
org.apache.orc Orc-calços 1.7.4
org.apache.parquet parquet-coluna 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-common 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-encoding 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-formato-estruturas 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-hadoop 1.12.0-DATABRICKS-0004
org.apache.parquet parquet-jackson 1.12.0-DATABRICKS-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus anotações de audiência 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-juta 3.6.2
org.checkerframework verificador-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty cais-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-cliente 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-Comum 9.4.46.v20220331
org.eclipse.jetty.websocket servidor websocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.34
org.glassfish.jersey.containers jersey-container-servlet-core 2.34
org.glassfish.jersey.core jersey-client 2.34
org.glassfish.jersey.core jersey-common 2.34
org.glassfish.jersey.core servidor de jersey 2.34
org.glassfish.jersey.inject Jersey-HK2 2.34
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s JSON4S-jackson_2,12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.14
org.scala-lang Escala-library_2.12 2.12.14
org.scala-lang Escala-reflect_2,12 2.12.14
org.scala-lang.modules scala-coleção-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp Brisa-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten trêsdez-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel gatos-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel torre-macros_2.12 0.17.0
org.typelevel torre-platform_2.12 0.17.0
org.typelevel torre-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl mosca-selvagem-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1