Databricks Runtime 11.0 (EoS)
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.0, desenvolvido pelo Apache Spark 3.3.0. A Databricks lançou esta versão em junho de 2022.
Novos recursos e melhorias
- Nova versão do Apache Spark
- Os notebooks Python agora usam o kernel IPython
- Suporte para ipywidgets
- O conector Synapse agora grava dados do Parquet no modo não herdado
- Esquema HTTPS agora aplicado quando o cliente ABFS usa o token SAS
-
SQL:
DESC
agora é um alias paraDESCRIBE
-
SQL: Nova
current_version
função produz detalhes da versão - Descartar uma restrição de tabela Delta ausente agora gera um erro
-
SQL: A cláusula New
EXCEPT
na instruçãoSELECT
exclui colunas da seleção de - Suporte para eliminar colunas em tabelas Delta (visualização pública)
-
COPY INTO
melhorias -
CONVERT TO DELTA
agora é suportado em ambientes habilitados para Unity Catalog (Visualização pública)
Nova versão do Apache Spark
O Databricks Runtime 11.0 e o Databricks Runtime 11.0 Photon incluem o Apache Spark 3.3.0. Para obter detalhes, consulte Apache Spark.
Os notebooks Python agora usam o kernel IPython
No Databricks Runtime 11.0 e superior, os notebooks Python usam o kernel IPython para executar código Python. Consulte Kernel IPython.
Suporte para ipywidgets
Agora você pode usar ipywidgets para tornar seus notebooks Databricks Python interativos. Veja ipywidgets.
O conector Synapse agora grava dados do Parquet no modo não herdado
O conector do Azure Synapse agora grava dados do Parquet no modo não herdado. Ele preserva o formato de carimbo de data/hora ao usar o INT96
PolyBase e COPY
comandos para cargas de trabalho em lote e streaming.
Esquema HTTPS agora aplicado quando o cliente ABFS usa o token SAS
Quando o cliente do Sistema de Arquivos de Blob do Azure (ABFS) usa um token SAS (Assinatura de Acesso Compartilhado), o esquema HTTPS agora é imposto.
SQL: DESC
agora é um alias para DESCRIBE
Agora você pode usar DESC
como um alias para DESCRIBE
ao descrever locais externos ou credenciais de armazenamento. Por exemplo:
-- Describe an external location.
DESC EXTERNAL LOCATION location_name;
-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;
SQL: Nova current_version
função produz detalhes da versão
A nova current_version
função gera a versão atual do Databricks Runtime, se disponível, a versão atual do Databricks SQL, se disponível, e outros detalhes da versão relacionados. Use essa nova função para consultar informações relacionadas à versão. Consulte current_version função.
Descartar uma restrição de tabela Delta ausente agora gera um erro
Se você agora tentar descartar uma restrição de tabela Delta pelo nome, e essa restrição não existir, você receberá um erro. Para obter o comportamento anterior, que não gera um erro se a restrição não existir, agora você deve usar a instrução IF EXISTS
. Ver ALTER TABLE.
SQL: Nova cláusula EXCEPT
na instrução SELECT
exclui colunas da seleção
SELECT
instruções agora suportam a cláusula EXCEPT
para excluir colunas da seleção. Por exemplo, SELECT * EXCEPT (x) FROM table
retorna todas as colunas do table
, exceto x
. Colunas aninhadas também são permitidas. Por exemplo, SELECT * EXCEPT (x.a) FROM table
retorna todas as colunas de table
, mas omite o campo a
da struct x
.
Suporte para remover colunas em tabelas Delta (Pré-visualização pública)
Você pode usar ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name>
ou ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *)
para soltar uma coluna ou uma lista de colunas, respectivamente, de uma tabela Delta como uma operação somente de metadados. As colunas são efetivamente "excluídas de forma não definitiva", uma vez que ainda permanecem nos ficheiros Parquet subjacentes, mas já não são visíveis para a tabela Delta.
Você pode usar REORG TABLE <table-name> APPLY (PURGE)
para disparar uma regravação de arquivo nos arquivos que contêm quaisquer dados excluídos suavemente, como colunas soltas.
Você pode usar VACUUM
para remover os arquivos excluídos do armazenamento físico, incluindo os arquivos antigos que contêm colunas soltas e foram reescritos por REORG TABLE
.
COPY INTO
melhorias
Agora você pode criar tabelas Delta de espaço reservado vazias para que o esquema seja inferido posteriormente durante um comando COPY INTO
:
CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');
A instrução SQL anterior é idempotente e pode ser programada para ser executada para ingerir dados exatamente uma vez em uma tabela Delta.
Nota
A tabela Delta vazia não é utilizável fora de COPY INTO
. Não é possível usar INSERT INTO
e MERGE INTO
para gravar dados em tabelas Delta sem esquema. Depois que os dados são inseridos na tabela com COPY INTO
, a tabela é consultável.
Se os dados que você está ingerindo não podem ser lidos devido a algum problema de corrupção, você pode ignorar arquivos corrompidos definindo ignoreCorruptFiles
como true
no FORMAT_OPTIONS
:
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')
O comando COPY INTO
retorna o número de arquivos que foram ignorados devido a corrupção na coluna num_skipped_corrupt_files
. Essa métrica também aparece na coluna operationMetrics
em numSkippedCorruptFiles
depois de executar DESCRIBE HISTORY
na tabela Delta.
Os arquivos corrompidos não são rastreados pelo COPY INTO
, portanto, podem ser recarregados em uma execução subsequente se a corrupção for corrigida. Você pode ver quais arquivos estão corrompidos executando COPY INTO
no VALIDATE
modo.
CONVERT TO DELTA
agora é suportado em ambientes habilitados para Unity Catalog (Visualização pública)
Em ambientes habilitados para
- Converta arquivos Parquet em locais externos para Delta Lake.
- Converta tabelas externas do Parquet em tabelas Delta.
Alterações de comportamento
-
SQL:
lpad
erpad
as funções agora suportam sequências de bytes -
Formato de cadeia de caracteres em
format_string
eprintf
não permite mais%0$
- Os valores nulos em arquivos CSV agora são gravados como cadeias de caracteres vazias sem aspas por padrão
-
A propriedade da tabela
external
agora está reservada - Log4j é atualizado de Log4j 1 para Log4j 2
- As bibliotecas instaladas a partir do Maven agora são resolvidas em seu plano de computação por padrão
SQL: lpad
e rpad
as funções agora suportam sequências de bytes
As funções lpad e rpad foram atualizadas para adicionar suporte para sequências de bytes, além de strings.
Formato de cadeia de caracteres em format_string
e printf
não permite mais %0$
Especificar o formato %0$
nas format_string
funções e printf
agora gera um erro por padrão. Essa alteração é para preservar o comportamento esperado com versões anteriores do Databricks Runtime e bancos de dados comuns de terceiros. O primeiro argumento deve sempre fazer referência a %1$
quando você usa um índice de argumento para indicar a posição do argumento na lista de argumentos.
Valores nulos em arquivos CSV agora são gravados como cadeias de caracteres vazias sem aspas por padrão
Os valores nulos em arquivos CSV foram previamente gravados como cadeias de caracteres vazias entre aspas. Com esta versão, os valores nulos em arquivos CSV agora são gravados como cadeias de caracteres vazias sem aspas por padrão. Para voltar ao comportamento anterior, defina a opção nullValue
como ""
para operações de gravação.
A propriedade de tabela external
agora está reservada
A propriedade external
agora é uma propriedade de tabela reservada por padrão. Exceções agora são lançadas quando você usa a external
propriedade com as CREATE TABLE ... TBLPROPERTIES
cláusulas e ALTER TABLE ... SET TBLPROPERTIES
.
Log4j é atualizado de Log4j 1 para Log4j 2
O Log4j 1 está sendo atualizado para o Log4j 2. As dependências herdadas do Log4j 1 estão sendo removidas.
Se você depender das classes Log4j 1 que foram incluídas anteriormente dentro do Databricks Runtime, essas classes não existem mais. Você deve atualizar suas dependências para o Log4j 2.
Se você tiver plug-ins personalizados ou arquivos de configuração que dependem do Log4j 2, eles podem não funcionar mais com a versão do Log4j 2 nesta versão. Para obter assistência, entre em contato com sua equipe de conta do Azure Databricks.
As bibliotecas instaladas a partir do Maven agora são resolvidas em seu plano de computação por padrão
As bibliotecas Maven agora são resolvidas em seu plano de computação por padrão quando você instala bibliotecas em um cluster. O cluster deve ter acesso ao Maven Central. Como alternativa, você pode reverter para o comportamento anterior definindo a propriedade de configuração do Spark:
spark.databricks.libraries.enableMavenResolution false
Correções de erros
- A compatibilidade binária para
LeafNode
,UnaryNode
eBinaryNode
entre o Apache Spark e o Databricks Runtime foi corrigida e as classes agora são compatíveis com o Apache Spark 3.3.0 e superior. Se você encontrar a seguinte mensagem ou uma mensagem semelhante ao usar um pacote de terceiros com o Databricks Runtime, reconstrua o pacote com o Apache Spark 3.3.0 ou superior:Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected
.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- platformdirs de 2.5.1 a 2.5.2
- protobuf de 3.20.0 a 3.20.1
- Bibliotecas R atualizadas:
- blob de 1.2.2 a 1.2.3
- vassoura de 0.7.12 a 0.8.0
- Cursor de 6,0-91 a 6,0-92
- CLI de 3.2.0 a 3.3.0
- dplyr de 1.0.8 a 1.0.9
- futuro de 1.24.0 a 1.25.0
- future.apply de 1.8.1 a 1.9.0
- Gert de 1.5.0 a 1.6.0
- ggplot2 de 3.3.5 a 3.3.6
- glmnet de 4.1-3 a 4.1-4
- refúgio de 2.4.3 a 2.5.0
- HTTR de 1.4.2 a 1.4.3
- knitr de 1,38 a 1,39
- magrittr de 2.0.2 a 2.0.3
- paralelamente de 1.30.0 a 1.31.1
- ps de 1.6.0 a 1.7.0
- RColorBrewer de 1.1-2 a 1.1-3
- RcppEigen de 0.3.3.9.1 a 0.3.3.9.2
- readxl de 1.3.1 a 1.4.0
- rmarkdown de 2.13 para 2.14
- rprojroot de 2.0.2 a 2.0.3
- RSQLite de 2.2.11 a 2.2.13
- escalas de 1.1.1 a 1.2.0
- ensaio de 3.1.2 a 3.1.4
- Tibble de 3.1.6 a 3.1.7
- tinytex de 0,37 a 0,38
- TZDB de 0.2.0 a 0.3.0
- uuid de 1.0-4 a 1.1-0
- VCTRS de 0.3.8 a 0.4.1
- Bibliotecas Java atualizadas:
- com.fasterxml.jackson.core.jackson-anotações de 2.13.0 a 2.13.3
- com.fasterxml.jackson.core.jackson-core de 2.13.0 a 2.13.3
- com.fasterxml.jackson.core.jackson-databind de 2.13.0 a 2.13.3
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.0 a 2.13.3
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.0 a 2.13.3
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.0 a 2.13.3
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.0 a 2.13.3
- com.google.crypto.tink.tink de 1.6.0 a 1.6.1
- com.ning.compress-lzf de 1.0.3 a 1.1
- dev.ludovic.netlib.arpack de 2.2.0 a 2.2.1
- dev.ludovic.netlib.blas de 2.2.0 a 2.2.1
- dev.ludovic.netlib.lapack de 2.2.0 a 2.2.1
- io.netty.netty-all de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-buffer de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-codec de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-common de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-handler de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-resolver de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-tcnative-classes de 2.0.46.Final a 2.0.48.Final
- io.netty.netty-transport de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-classes-epoll de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-classes-kqueue de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-aarch_64 de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-x86_64 de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-native-kqueue-osx-aarch_64 de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-native-kqueue-osx-x86_64 de 4.1.73.Final a 4.1.74.Final
- io.netty.netty-transport-native-unix-common de 4.1.73.Final a 4.1.74.Final
- joda-time.joda-time de 2.10.12 a 2.10.13
- org.apache.commons.commons-math3 de 3.4.1 a 3.6.1
- org.apache.httpcomponents.httpcore de 4.4.12 a 4.4.14
- org.apache.orc.orc-core de 1.7.3 a 1.7.4
- org.apache.orc.orc-mapreduce de 1.7.3 para 1.7.4
- org.apache.orc.orc-shims de 1.7.3 a 1.7.4
- org.eclipse.jetty.jetty-client de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-continuação de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-http de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-io de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-jndi de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-plus de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-proxy de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-security de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-server de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlets de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-util de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-util-ajax de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-webapp de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.jetty-xml de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-api de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-client de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-common de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-server de 9.4.43.v20210629 a 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
- org.mariadb.jdbc.mariadb-java-client de 2.2.5 a 2.7.4
- org.postgresql.postgresql de 42.2.19 a 42.3.3
- org.roaringbitmap.RoaringBitmap de 0.9.23 a 0.9.25
- org.roaringbitmap.shims de 0.9.23 a 0.9.25
- org.rocksdb.rocksdbjni de 6.20.3 a 6.24.2
- org.slf4j.jcl-over-slf4j de 1.7.32 a 1.7.36
- org.slf4j.jul-to-slf4j de 1.7.32 a 1.7.36
- org.slf4j.slf4j-api de 1.7.30 a 1.7.36
Faísca Apache
O Databricks Runtime 11.0 inclui o Apache Spark 3.3.0.
Nesta secção:
- Spark SQL e Core
- Transmissão em Fluxo Estruturada
- PySpark
- MLLIB
- Faísca
- UI(Interface de Utilizador)
- Compilação
Spark SQL e Core
Modo ANSI
- Novas regras explícitas de sintaxe de transmissão no modo ANSI (SPARK-33354)
- Elt() deve retornar null se index for null no modo ANSI (SPARK-38304)
- Opcionalmente, retorne o resultado nulo se o elemento não existir na matriz/mapa (SPARK-37750)
- Permitir transmissão entre o tipo numérico e o tipo de carimbo de data/hora (SPARK-37714)
- Desativar palavras-chave reservadas ANSI por padrão (SPARK-37724)
- Usar regras de atribuição de armazenamento para resolver a invocação de função (SPARK-37438)
- Adicione uma configuração para permitir a transmissão entre Data/hora e Numérico (SPARK-37179)
- Adicionar uma configuração para impor opcionalmente palavras-chave reservadas ANSI (SPARK-37133)
- Não permitir operações binárias entre literal de intervalo e cadeia de caracteres (SPARK-36508)
Aprimoramentos de recursos
- Suporte a tipos ANSI SQL INTERVAL (SPARK-27790)
- Melhorias na mensagem de erro (SPARK-38781)
- Suporte a metadados de arquivos ocultos para Spark SQL (SPARK-37273)
- Suporte literal de cadeia de caracteres bruta (SPARK-36371)
- Classe auxiliar para o lote Dataset.observe() (SPARK-34806)
- Suporte para especificar o número de partição inicial para reequilíbrio (SPARK-38410)
- Suporte ao modo cascata para
dropNamespace
API (SPARK-37929) - Permitir atribuição de armazenamento e conversão implícita entre tipos de data/hora (SPARK-37707)
- Coletar, primeiro e último devem ser determinísticos funções agregadas (SPARK-32940)
- Adicionar ExpressionBuilder para funções com sobrecargas complexas (SPARK-37164)
- Adicionar suporte de matriz à união por nome (SPARK-36546)
- Adicionar df.withMetadata: um açúcar sintático destinado a atualizar os metadados de um dataframe (SPARK-36642)
- Suporte literal de cadeia de caracteres bruta (SPARK-36371)
- Use CAST na análise de datas/carimbos de data/hora com padrão padrão (SPARK-36418)
- Classe de valores de suporte no esquema aninhado para Dataset (SPARK-20384)
- Adicionar suporte de sintaxe AS OF (SPARK-37219)
- Adicione REPEATABLE em TABLESAMPLE para especificar seed (SPARK-37165)
- Adicionar sintaxe ansi
set catalog xxx
para alterar o catálogo atual (SPARK-36841) - Suporte ILIKE (TODOS | QUALQUER | ALGUNS) - insensível a maiúsculas e minúsculas LIKE (SPARK-36674, SPARK-36736, SPARK-36778)
- Suportar a fase de consulta para exibir estatísticas de execução em modo de explicação formatado (SPARK-38322)
- Adicionar métricas de tamanho de derramamento para junção de mesclagem de classificação (SPARK-37726)
- Atualizar a sintaxe SQL do SHOW FUNCTIONS (SPARK-37777)
- Suporta a sintaxe DROP COLUMN [IF EXISTS] (SPARK-38939)
- Novas funções integradas e suas extensões (SPARK-38783)
- Data/hora
- Adicione a função TIMESTAMPADD() (SPARK-38195)
- Adicione a função TIMESTAMPDIFF() (SPARK-38284)
- Adicione o
DATEDIFF()
alias paraTIMESTAMPDIFF()
(SPARK-38389) - Adicione o
DATEADD()
alias paraTIMESTAMPADD()
(SPARK-38332) - Adicione a
convert\_timezone()
função (SPARK-37552, SPARK-37568) - Expor make_date expressão em functions.scala (SPARK-36554)
- Funções AES (SPARK-12567)
- Adicionar aes_encrypt e aes_decrypt funções incorporadas (SPARK-12567)
- Suporte ao modo GCM por
aes\_encrypt()
/aes\_decrypt()
(SPARK-37591) - Defina
GCM
como o modo padrão noaes\_encrypt()
/aes\_decrypt()
(SPARK-37666) - Adicione o e args
mode
apadding
aes\_encrypt()
/(aes\_decrypt()
)
- Função de agregação ANSI (SPARK-37671)
- Suporte ANSI Aggregate Função: regr_count (SPARK-37613)
- Suporte ANSI Aggregate Função: regr_avgx & regr_avgy (SPARK-37614)
- Função de agregação ANSI de suporte: percentile_cont (SPARK-37676, SPARK-38219)
- Função de agregação ANSI de suporte: percentile_disc (SPARK-37691)
- Suporte ANSI Aggregate Função: regr_count (SPARK-37613)
- Suporte ANSI Aggregate Função: array_agg (SPARK-27974)
- Suporte ANSI Aggregate Função: regr_r2 (SPARK-37641)
- Nova função SQL: try_avg (SPARK-38589)
- Coleções
- Introduzir a função SQL ARRAY_SIZE (SPARK-38345)
- Nova função SQL: map_contains_key (SPARK-37584)
- Nova função SQL: try_element_at (SPARK-37533)
- Nova função SQL: try_sum (SPARK-38548)
- Formato
- Adicionar uma nova função SQL to_binary (SPARK-37507, SPARK-38796)
- Nova função SQL: try_to_binary (SPARK-38590, SPARK-38796)
- Funções de formatação de tipo de dados:
to\_number
(SPARK-28137)
- String/binário
- Adicionar função de cadeia de caracteres CONTAINS() (SPARK-37508)
- Adicionar as
startswith()
funções eendswith()
string (SPARK-37520) - Adicionar funções lpad e rpad para strings binárias (SPARK-37047)
- Suporte split_part função (SPARK-38063)
- Adicionar parâmetro de escala às funções de piso e ceil (SPARK-37475)
- Novas funções SQL: try_subtract e try_multiply (SPARK-38164)
- Implementa histogram_numeric função de agregação que suporta agregação parcial (SPARK-16280)
- Adicionar max_by/min_by a sql.functions (SPARK-36963)
- Adicione novas funções SQL integradas: SEC e CSC (SPARK-36683)
- array_intersect manipula duplicados Double.NaN e Float.NaN (SPARK-36754)
- Adicionar berço como funções Scala e Python (SPARK-36660)
- Data/hora
Melhorias de desempenho
- Geração de código de estágio completo
- Adicionar geração de código para agregação de classificação sem chaves de agrupamento (SPARK-37564)
- Adicionar code-gen para junção de mesclagem externa completa (SPARK-35352)
- Adicionar geração de código para junção embaralhada de hash externa completa (SPARK-32567)
- Adicionar code-gen para existence sort merge join (SPARK-37316)
- Empurrar para baixo (filtros)
- Empurre os filtros para baixo através de RebalancePartitions (SPARK-37828)
- Empurre para baixo o filtro de coluna booleana (SPARK-36644)
- Empurre para baixo o limite 1 para o lado direito da junção semi/anti esquerda se a condição de junção estiver vazia (SPARK-37917)
- Traduzir mais funções agregadas padrão para pushdown (SPARK-37527)
- Suporte propagar relação vazia através de agregado/união (SPARK-35442)
- Filtragem de tempo de execução em nível de linha (SPARK-32268)
- Suporte Left Semi join em filtros de tempo de execução em nível de linha (SPARK-38565)
- Suporte a pushdown de predicados e poda de coluna para CTEs desenganados (SPARK-37670)
- Vetorização
- Implementar um ConstantColumnVector e melhorar o desempenho dos metadados de arquivo oculto (SPARK-37896)
- Habilitar leitura vetorizada para VectorizedPlainValuesReader.readBooleans (SPARK-35867)
- Combinar/remover/substituir nós
- Combinar sindicatos se houver um projeto entre eles (SPARK-37915)
- Combine com um elenco se pudermos fundir com segurança dois moldes (SPARK-37922)
- Remova o Sort se for filho de RepartitionByExpression (SPARK-36703)
- Remove a junção externa se ela tiver apenas DISTINCT no lado transmitido com alias (SPARK-37292)
- Substitua hash por sort aggregate se o filho já estiver classificado (SPARK-37455)
- Só recolher projetos se não duplicarmos expressões caras (SPARK-36718)
- Remover aliases redundantes após RewritePredicateSubquery (SPARK-36280)
- Mesclar subconsultas escalares não correlacionadas (SPARK-34079)
- Particionamento
- Não adicione remoção de partição dinâmica se existir remoção de partição estática (SPARK-38148)
- Melhorar RebalancePartitions em regras do Optimizer (SPARK-37904)
- Adicionar fator de partição pequeno para reequilibrar partições (SPARK-37357)
- Aderir
- Ajuste a lógica para rebaixar a junção de hash de transmissão no DynamicJoinSelection (SPARK-37753)
- Ignore chaves de junção duplicadas ao criar relação para junção hash embaralhada SEMI/ANTI (SPARK-36794)
- Suporte para otimizar a junção enviesada, mesmo que isso introduza um shuffle extra (SPARK-33832)
- AQE
- Suporte eliminar limites no AQE Optimizer (SPARK-36424)
- Otimize o plano de uma única linha no modo normal e no Otimizador AQE (SPARK-38162)
- Aggregate.groupOnly suporta expressões dobráveis (SPARK-38489)
- ByteArrayMethods arrayEquals deve ignorar rapidamente a verificação de alinhamento com a plataforma não alinhada (SPARK-37796)
- Adicionar poda de padrão de árvore à regra CTESubstitution (SPARK-37379)
- Adicionar mais simplificações do operador Não (SPARK-36665)
- Suporte BooleanType em UnwrapCastInBinaryComparison (SPARK-36607)
- Coalesce soltar todas as expressões após a primeira expressão não anulável (SPARK-36359)
- Adicionar um visitante de plano lógico para propagar os atributos distintos (SPARK-36194)
Melhorias no conector integrado
- Geral
- Serialização leniente de datetime da fonte de dados (SPARK-38437)
- Trate a localização da tabela como absoluta quando a primeira letra de seu caminho é barrada na tabela create/alter (SPARK-38236)
- Remova zeros à esquerda da partição de tipo de número estático vazia (SPARK-35561)
- Suporte
ignoreCorruptFiles
eignoreMissingFiles
nas opções de fonte de dados (SPARK-38767) - Adicionar comando
SHOW CATALOGS
(SPARK-35973)
- Parquet
- Ativar a correspondência de nomes de colunas de esquema por IDs de campo (SPARK-38094)
- Remova o nome do campo de verificação ao ler/gravar dados em parquet (SPARK-27442)
- Suporte à leitura vetorizada de valores booleanos utilizando codificação RLE com Parquet DataPage V2 (SPARK-37864)
- Suporte a codificação de página de dados do Parquet v2 (DELTA_BINARY_PACKED) para o caminho vetorizado (SPARK-36879)
- Rebaseie carimbos de data/hora no fuso horário da sessão salvo nos metadados Parquet/Avro (SPARK-37705)
- Empurre para baixo grupo por coluna de partição para agregado (SPARK-36646)
- Agregado (Mín./Máx./Contagem) empurre para baixo para Parquet (SPARK-36645)
- Parquet: ativar colunas de esquema correspondentes por id de campo (SPARK-38094)
- Reduza o tamanho da página padrão em LONG_ARRAY_OFFSET se G1GC e ON_HEAP forem usados (SPARK-37593)
- Implementar codificações vetorizadas DELTA_BYTE_ARRAY e DELTA_LENGTH_BYTE_ARRAY para suporte ao Parquet V2 (SPARK-37974)
- Suporte a tipos complexos para leitor vetorizado Parquet (SPARK-34863)
- ORC
- Remova o nome do campo de verificação ao ler/gravar dados existentes no Orc (SPARK-37965)
- Pressão agregada para baixo para ORC (SPARK-34960)
- Suporte a leitura e gravação de intervalos ANSI de/para fontes de dados ORC (SPARK-36931)
- Suporte a nomes de coluna somente de números em fontes de dados ORC (SPARK-36663)
- JSON
- Respeite allowNonNumericNumbers ao analisar valores "NaN" e "Infinity" citados no leitor JSON (SPARK-38060)
- Usar CAST para datetime em CSV/JSON por padrão (SPARK-36536)
- Alinhar mensagem de erro para tipos de chave não suportados no MapType no leitor Json (SPARK-35320)
- CSV
- Correção referente à coluna de registro corrompido do CSV (SPARK-38534)
- valores nulos devem ser salvos como nada em vez de Strings vazias entre aspas "" por padrão (SPARK-37575)
- JDBC
- Adicione a instrução IMMEDIATE à implementação truncada do dialeto DB2 (SPARK-30062)
- Colmeia
- Suporte para escrita de tabela Hive particionada em buckets (formatos de ficheiro Hive com hash do Hive) (SPARK-32712)
- Usar expressões para filtrar partições do Hive no lado do cliente (SPARK-35437)
- Suportar a poda de partições dinâmicas para HiveTableScanExec (SPARK-36876)
- InsertIntoHiveDir deve usar fonte de dados se for conversível (SPARK-38215)
- Suporte para escrever tabela particionada do Hive (formato Parquet/ORC com hash Hive) (SPARK-32709)
Desmantelamento do nó
- FallbackStorage não deve tentar resolver nomes de host "remotos" arbitrários (SPARK-38062)
- ExecutorMonitor.onExecutorRemoved deve lidar com ExecutorDecommission como concluído (SPARK-38023)
Outras mudanças notáveis
- Adicione bloqueio refinado ao BlockInfoManager (SPARK-37356)
- Suporte ao mapeamento de tipos de recursos Spark gpu/fpga para o tipo de recurso YARN personalizado (SPARK-37208)
- Informe o tamanho preciso do bloco aleatório se estiver distorcido (SPARK-36967)
- Suporte ao Netty Logging na camada de rede (SPARK-36719)
Transmissão em Fluxo Estruturada
Principais características
- Introduza Trigger.AvailableNow para executar consultas de streaming como Trigger.Once em vários lotes (SPARK-36533)
Outras mudanças notáveis
- Use StatefulOpClusteredDistribution para operadores com monitoração de estado respeitando a compatibilidade com versões anteriores (SPARK-38204)
- Corrigir o tempo limite de flatMapGroupsWithState em lote com dados para chave (SPARK-38320)
- Corrigir problema de precisão na junção externa de fluxo a fluxo com o fornecedor de armazenamento de estado RocksDB (SPARK-38684)
- Suporte Trigger.AvailableNow na fonte de dados Kafka (SPARK-36649)
- Otimizar caminho de gravação no provedor de armazenamento de estado RocksDB (SPARK-37224)
- Introduzir uma nova fonte de dados para fornecer um conjunto consistente de linhas por microlote (SPARK-37062)
- Use HashClusteredDistribution para operadores com monitoração de estado respeitando a compatibilidade com versões anteriores (SPARK-38204)
PySpark
API do Pandas no Apache Spark
Principais melhorias
- Otimização do índice de 'sequência distribuída' com padrão (SPARK-36559, SPARK-36338)
- Suporte para especificar o tipo de índice e o nome na API pandas no Spark (SPARK-36709)
- Mostrar tipo de índice padrão em planos SQL para pandas API no Spark (SPARK-38654)
Principais características
- Implementar ps.merge_asof nativo do SparkSQL (SPARK-36813)
- Suporte TimedeltaIndex na API pandas no Spark (SPARK-37525)
- Suporte timedelta do Python (SPARK-37275, SPARK-37510)
- Implementar funções em CategoricalAccessor/CategoricalIndex (SPARK-36185)
- Usa o formatador de cadeia de caracteres padrão do Python para API SQL na API pandas no Spark (SPARK-37436)
- Suporte a operações básicas da série/índice timedelta (SPARK-37510)
- Suporte ps. MultiIndex.dtypes (SPARK-36930)
- Implementar Index.map (SPARK-36469)
- Implementar Série.xor e Série.rxor (faísca-36653)
- Implementar operador
invert
unário de ps integral. Série/Índice (SPARK-36003) - Implementar DataFrame.cov (SPARK-36396)
- Suporte str e timestamp para (Series|DataFrame).describe() (SPARK-37657)
- Suporte lambda
column
parâmetro deDataFrame.rename
(SPARK-38763)
Outras mudanças notáveis
Alterações interruptivas
- Solte referências ao suporte ao Python 3.6 em docs e python/docs (SPARK-36977)
- Remover namedtuple hack substituindo o pickle integrado por cloudpickle (SPARK-32079)
- Bump versão mínima pandas para 1.0.5 (SPARK-37465)
- Principais melhorias
- Fornecer um profiler para UDFs Python/Pandas (SPARK-37443)
- Usa o formatador de cadeia de caracteres padrão do Python para API SQL no PySpark (SPARK-37516)
- Expor o estado SQL e a classe de erro em exceções do PySpark (SPARK-36953)
- Tente capturar faulthanlder quando um trabalhador Python falha (SPARK-36062)
Principais características
- Implementar DataFrame.mapInArrow em Python (SPARK-37228)
- Usa o formatador de cadeia de caracteres padrão do Python para API SQL no PySpark (SPARK-37516)
- Adicionar df.withMetadata pyspark API (SPARK-36642)
- Suporte timedelta do Python (SPARK-37275)
- Expor tabelaExiste em pyspark.sql.catalog (SPARK-36176)
- Tornar visível databaseExists em pyspark.sql.catalog (SPARK-36207)
- Expondo função Existe no catálogo SQL de PySpark (SPARK-36258)
- Adicionar Dataframe.observation ao PySpark (SPARK-36263)
- Adicionar API max_by/min_by ao PySpark (SPARK-36972)
- Suporte para inferir ditado aninhado como uma estrutura ao criar um DataFrame (SPARK-35929)
- Adicionar APIs bit/octet_length ao Scala, Python e R (SPARK-36751)
- Suporte a API ILIKE em Python (SPARK-36882)
- Adicionar método isEmpty para a API Python DataFrame (SPARK-37207)
- Adicionar várias colunas com suporte (SPARK-35173)
- Adicionar SparkContext.addArchive no PySpark (SPARK-38278)
- Tornar o tipo sql reprs eval-able (SPARK-18621)
- Dicas de tipo embutido para fpm.py em python/pyspark/mllib (SPARK-37396)
- Implementar
dropna
parâmetro deSeriesGroupBy.value_counts
(SPARK-38837)
MLLIB
Principais características
- Adicionar distanceMeasure param a trainKMeansModel (SPARK-37118)
- Exponha LogisticRegression.setInitialModel, como KMeans et al do (SPARK-36481)
- Propor suporte para o CrossValidatorModel obter o desvio padrão das métricas para cada paramMap (SPARK-36425)
Principais melhorias
- Otimize alguns "treeAggregates" no MLlib ao atrasar as alocações (SPARK-35848)
- Reescreva _shared_params_code_gen.py para dicas de tipo embutido para ml/param/shared.py (SPARK-37419)
Outras mudanças notáveis
- Atualização para Breeze 1.2 (SPARK-35310)
SparkR
- Migrar documentos do SparkR para pkgdown (SPARK-37474)
- Expor make_date expressão em R (SPARK-37108)
- Adicionar API max_by/min_by ao SparkR (SPARK-36976)
- Suporte ILIKE API em R (SPARK-36899)
- Adicionar sec e csc como funções R (SPARK-36824)
- Adicionar APIs bit/octet_length ao Scala, Python e R (SPARK-36751)
- Adicionar berço como função R (SPARK-36688)
IU
- Resumo das métricas de especulação no nível do estágio (SPARK-36038)
- Tempo de espera de bloco de leitura aleatório unificado para baralhar o tempo de espera de busca de leitura no StagePage (SPARK-37469)
- Adicionar configurações modificadas para execução de SQL na interface do usuário (SPARK-34735)
- Faça o ThriftServer reconhecer spark.sql.redaction.string.regex (SPARK-36400)
- Anexar e iniciar o manipulador após o aplicativo iniciado na interface do usuário (SPARK-36237)
- Adicionar duração de confirmação ao nó gráfico da guia SQL (SPARK-34399)
- Suporte RocksDB backend no Spark History Server (SPARK-37680)
- Mostrar opções para Pandas API on Spark in UI (SPARK-38656)
- Renomeie 'SQL' para 'SQL / DataFrame' na página da interface do usuário do SQL (SPARK-38657)
Compilar
- Migrando do log4j 1 para o log4j 2 (SPARK-37814)
- Atualizar log4j2 para 2.17.2 (SPARK-38544)
- Atualize para Py4J 0.10.9.5 (SPARK-38563)
- Atualizar ORC para 1.7.4 (SPARK-38866)
- Atualizar tabelas de dados para 1.10.25 (SPARK-38924)
Atualizações de manutenção
Consulte Databricks Runtime 11.0 (EoS).
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Escala: 2.12.14
- Píton: 3.9.5
- R: 4.1.3
- Lago Delta: 1.2.1
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (Laminação ISO) | Argônio2-CFFI | 20.1.0 | gerador assíncrono | 1.10 |
ATRs | 21.2.0 | Backcall | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.1.1 |
lixívia | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
Normalizador de Charset | 2.0.4 | cycler | 0.10.0 | Quisto | 0.29.24 |
dbus-python | 1.2.16 | depuração | 1.4.1 | decorador | 5.1.0 |
DeUsedXML | 0.7.1 | Distlib | 0.3.4 | distro-info | 0,23ubuntu1 |
pontos de entrada | 0.3 | facetas-visão geral | 1.0.0 | filelock | 3.6.0 |
idna | 3.2 | Ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | Joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-cliente | 6.1.12 | Jupyter-core | 4.8.1 |
Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | Kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-em linha | 0.1.2 |
Mistune | 0.8.4 | nbclient | 0.5.3 | nbconvert | 6.1.0 |
nbformat | 5.1.3 | Ninho-Asyncio | 1.5.1 | bloco de notas | 6.4.5 |
numpy | 1.20.3 | embalagem | 21.0 | pandas | 1.3.4 |
PandocFilters | 1.4.3 | Parso | 0.8.2 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Travesseiro | 8.4.0 |
pip | 21.2.4 | plataformadirs | 2.5.2 | enredo | 5.6.0 |
Prometheus-cliente | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 3.20.1 |
PSUTIL | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | Pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pirsistent | 0.18.0 | python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 |
pytz | 2021.3 | Pyzmq | 22.2.1 | pedidos | 2.26.0 |
pedidos-unixsocket | 0.2.0 | s3transferir | 0.5.2 | scikit-learn | 0.24.2 |
scipy | 1.7.1 | seaborn | 0.11.2 | Enviar2Lixo | 1.8.0 |
setuptools | 58.0.4 | seis | 1.16.0 | ssh-import-id | 5.10 |
statsmodels | 0.12.2 | tenacidade | 8.0.1 | terminado | 0.9.4 |
caminho de teste | 0.5.0 | ThreadPoolCtl | 2.2.0 | tornado | 6.1 |
traços | 5.1.0 | Upgrades autônomos | 0.1 | urllib3 | 1.26.7 |
virtualenv | 20.8.0 | largura de wc | 0.2.5 | WebEncodings | 0.5.1 |
roda | 0.37.0 | widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-05-06.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
AskPass | 1.1 | asserçãoat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | arranque | 1.3-28 |
brew | 1.0-7 | Brio | 1.1.3 | vassoura | 0.8.0 |
BSLIB | 0.3.1 | cachem | 1.0.6 | Chamador | 3.7.0 |
acento circunflexo | 6.0-92 | Cellranger | 1.1.0 | crono | 2.3-56 |
classe | 7.3-20 | cli | 3.3.0 | Clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | espaço em cores | 2.0-3 |
marca comum | 1.8.0 | compilador | 4.1.3 | configuração | 0.3.1 |
CPP11 | 0.4.2 | lápis de cor | 1.5.1 | Credenciais | 1.3.2 |
curl | 4.3.2 | tabela de dados | 1.14.2 | conjuntos de dados | 4.1.3 |
DBI | 1.1.2 | DBPlyr | 2.1.1 | desc | 1.4.1 |
devtools | 2.4.3 | diffobj | 0.3.5 | resumo | 0.6.29 |
dplyr | 1.0.9 | DTPlyr | 1.2.1 | E1071 | 1.7-9 |
reticências | 0.3.2 | evaluate | 0,15 | Fãsi | 1.0.3 |
Farver | 2.1.0 | mapa rápido | 1.1.0 | fontawesome | 0.2.2 |
FORCATS | 0.5.1 | foreach | 1.5.2 | externa | 0.8-82 |
forjar | 0.2.0 | FS | 1.5.2 | Futuro | 1.25.0 |
future.apply | 1.9.0 | gargarejo | 1.2.0 | Genéricos | 0.1.2 |
Gert | 1.6.0 | ggplot2 | 3.3.6 | GH | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-4 | Globais | 0.14.0 |
colar | 1.6.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.0 |
gower | 1.0.0 | gráficos | 4.1.3 | grDevices | 4.1.3 |
grelha | 4.1.3 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.0 | capacete | 0.2.0 | Refúgio | 2.5.0 |
mais alto | 0,9 | HMS | 1.1.1 | htmltools | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.3 |
IDs | 1.0.1 | ini | 0.3.1 | ipred | 0.9-12 |
Isoband | 0.2.5 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.0 | KernSmooth | 2.23-20 | Knitr | 1.39 |
etiquetagem | 0.4.2 | mais tarde | 1.3.0 | lattice | 0.20-45 |
lava | 1.6.10 | ciclo de vida | 1.0.1 | ouvirv | 0.8.0 |
lubridate | 1.8.0 | magrittr | 2.0.3 | Marcação | 1.1 |
MASSA | 7.3-56 | Matriz | 1.4-1 | memoise | 2.0.1 |
métodos | 4.1.3 | mgcv | 1.8-40 | mime | 0,12 |
ModelMetrics | 1.2.2.2 | Modelador | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-157 | nnet | 7.3-17 | numDeriv | 2016.8-1.1 |
openssl | 2.0.0 | paralelo | 4.1.3 | Paralelamente | 1.31.1 |
pilar | 1.7.0 | pkgbuild | 1.3.1 | pkgconfig | 2.0.3 |
pkgload | 1.2.4 | plogr | 0.2.0 | plyr | 1.8.7 |
elogiar | 1.0.0 | unidades bonitas | 1.1.1 | pROC | 1.18.0 |
processx | 3.5.3 | prodlim | 2019.11.13 | Progresso | 1.2.2 |
progressor | 0.10.0 | promessas | 1.2.0.1 | proto | 1.0.0 |
procuração | 0.4-26 | PS | 1.7.0 | purrr | 0.3.4 |
r2d3 | 0.2.6 | R6 | 2.5.1 | randomForest | 4.7-1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.8.3 | RcppEigen | 0.3.3.9.2 | Leitor | 2.1.2 |
ReadXL | 1.4.0 | receitas | 0.2.0 | revanche | 1.0.1 |
revanche2 | 2.1.2 | Controles remotos | 2.4.2 | Reprex | 2.0.1 |
remodelar2 | 1.4.4 | rlang | 1.0.2 | rmarkdown | 2.14 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1.16 |
rprojroot | 2.0.3 | Rserve | 1.8-10 | RSQLite | 2.2.13 |
rstudioapi | 0,13 | rversões | 2.1.1 | Rvest | 1.0.2 |
Sass | 0.4.1 | escalas | 1.2.0 | seletor | 0.4-2 |
sessioninfo | 1.2.2 | forma | 1.4.6 | brilhante | 1.7.1 |
ferramentas de origem | 0.1.7 | sparklyr | 1.7.5 | SparkR | 3.3.0 |
espacial | 7.3-11 | splines | 4.1.3 | sqldf | 0.4-11 |
QUADRADO | 2021.1 | estatísticas | 4.1.3 | stats4 | 4.1.3 |
stringi | 1.7.6 | stringr | 1.4.0 | sobrevivência | 3.2-13 |
sys | 3.4 | tcltk | 4.1.3 | testeatat | 3.1.4 |
tibble | 3.1.7 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
Tidyverse | 1.3.1 | timeDate | 3043.102 | Tinytex | 0,38 |
ferramentas | 4.1.3 | TZDB | 0.3.0 | usethis | 2.1.5 |
UTF8 | 1.2.2 | utilitários | 4.1.3 | uuid | 1.1-0 |
VCTRS | 0.4.1 | viridisLite | 0.4.0 | vroom | 1.5.7 |
Waldo | 0.4.0 | whisker | 0.4 | withr | 2.5.0 |
xfun | 0.30 | xml2 | 1.3.3 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.3.5 | zip | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotações | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.3 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | núcleo | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-nativos | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | ZSTD-JNI | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | criador de perfil | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | Lapack | | 2.2.1 |
colmeia-2.3__hadoop-3.2 | JETS3T-0,7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.ponte aérea | compressor de ar | 0.21 |
IO.Delta | delta-compartilhamento-spark_2.12 | 0.4.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | métricas-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-comum | 4.1.74.Final |
io.netty | netty-manipulador | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transporte de rede | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
jacarta.servlet | jacarta.servlet-api | 4.0.3 |
jacarta.validação | Jacarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
maven-árvores | colmeia-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.floco de neve | Flocos de Neve-JDBC | 3.13.14 |
net.floco de neve | faísca-snowflake_2.12 | 2.10.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato de seta | 7.0.0 |
org.apache.arrow | seta-memória-núcleo | 7.0.0 |
org.apache.arrow | seta-memória-netty | 7.0.0 |
org.apache.arrow | vetor de seta | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapeado | 1.11.0 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.9 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador-receitas | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-Databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | colmeia-lamp-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | hera | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
org.apache.orc | orc-núcleo | 1.7.4 |
org.apache.orc | orc-mapreduce | 1.7.4 |
org.apache.orc | Orc-calços | 1.7.4 |
org.apache.parquet | parquet-coluna | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-common | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-encoding | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-formato-estruturas | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-DATABRICKS-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-DATABRICKS-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.20 |
org.apache.yetus | anotações de audiência | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | verificador-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | cais-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | servidor de jersey | 2.34 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | calços | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
org.scala-lang | Escala-library_2.12 | 2.12.14 |
org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | Brisa-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.threeten | trêsdez-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | gatos-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | torre-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | torre-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | mosca-selvagem-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |