Tempo de execução do Databricks 12.1 (EoS)
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 12.1, alimentado pelo Apache Spark 3.3.1.
A Databricks lançou esta versão em janeiro de 2023.
Novos recursos e melhorias
- funcionalidades do Delta Lake table suportadas para a gestão de protocolos
- A E/S preditiva para atualizações está em pré-visualização pública
- Catalog Explorer agora está disponível para todas as personas
- Suporte para vários operadores com monitoração de estado em uma única consulta de streaming
- O suporte para buffers de protocolo está em Visualização Pública
- Suporte para autenticação Confluent Schema Registry
- Suporte para compartilhar table histórico com o Delta Sharing shares
- Suporte para streaming com Delta Sharing shares
- Table a versão que utiliza carimbo de data/hora agora é suportada para Delta Sharing tables em catalogs
- Suporte para QUANDO NÃO HOUVER CORRESPONDÊNCIA COM A FONTE para MERGE INTO
- Recolha de estatísticas otimizada para CONVERT TO DELTA
- Unity Catalog apoio para a eliminação de tables
Funcionalidades do Delta Lake table suportadas para gestão de protocolo
Azure Databricks introduziu suporte para funcionalidades table do Delta Lake, que introduzem sinalizadores granulares especificando quais funcionalidades são suportadas por um determinado table. Consulte Como o Azure Databricks gere a compatibilidade de funcionalidades do Delta Lake?.
A E/S preditiva para atualizações está em pré-visualização pública
A E/S preditiva agora acelera as operações de DELETE
, MERGE
e UPDATE
para tables Delta com vetores de exclusão habilitados na computação habilitada para Photon. Consulte O que é E/S preditiva?.
Catalog Explorer já está disponível para todas as personas
Catalog Explorer está agora disponível para todos os perfis de utilizadores do Azure Databricks ao usar o Databricks Runtime 7.3 LTS e superior.
Suporte para vários operadores com monitoração de estado em uma única consulta de streaming
Os usuários agora podem encadear operadores com estado com o modo de acréscimo na consulta de streaming. Nem todos os operadores são totalmente suportados. O intervalo de tempo entre fluxos join e flatMapGroupsWithState
não permite que outros operadores com estado sejam encadeados.
O suporte para buffers de protocolo está em Visualização Pública
Você pode usar as from_protobuf
funções e to_protobuf
para trocar dados entre os tipos binário e struct. Consulte Buffers de protocolo de leitura e gravação.
Suporte para a autenticação do Confluent Schema Registry
A integração do Azure Databricks com o Confluent Schema Registry agora oferece suporte a endereços externos schema do Registro com autenticação. Este recurso está disponível para from_avro
, to_avro
, from_protobuf
e to_protobuf
funções. Veja Protobuf ou Avro.
Suporte para compartilhar table histórico com o Delta Sharing shares
Agora você pode compartilhar um table com histórico completo usando o Delta Sharing, permitindo que recipients realize consultas de viagem no tempo e consulte o table usando o Spark Structured Streaming.
WITH HISTORY
é recomendado em vez de , embora este último continue a ser apoiado CHANGE DATA FEED
. Consulte ALTER SHARE e ; adicione tables a uma partilha.
Suporte para streaming com Delta Sharing shares
O Spark Structured Streaming agora funciona com o formato deltasharing
em uma fonte Delta Sharing table que foi partilhada usando WITH HISTORY
.
A versão Table usando carimbo de data/hora é agora suportada para Delta Sharing tables em catalogs.
Agora pode usar a sintaxe SQL TIMESTAMP AS OF
em instruções SELECT
para especificar a versão de um Delta Sharing table montado num catalog.
Tables deve ser partilhado usando WITH HISTORY
.
Suporte para QUANDO NÃO HÁ CORRESPONDÊNCIA NA FONTE para MERGE INTO
Agora você pode adicionar cláusulas WHEN NOT MATCHED BY SOURCE
para MERGE INTO
para update ou excluir linhas na table escolhida que não tenham correspondências no table de origem com base na condição de mesclagem. A nova cláusula está disponível em SQL, Python, Scala e Java. Consulte MERGE INTO.
Recolha de estatísticas otimizada para CONVERT TO DELTA
A recolha de estatísticas para a CONVERT TO DELTA
operação é agora muito mais rápida. Isso reduz o número de cargas de trabalho que podem ser usadas NO STATISTICS
para eficiência.
Unity Catalog suporte para restauração de tables
Este recurso foi inicialmente lançado no Public Preview. É GA a partir de 25 de outubro de 2023.
Agora pode reverter um table gerido ou externo descartado dentro de um schema existente no prazo de sete dias após o descarte. Ver UNDROP TABLE e SHOW TABLES DROPPED.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- filelock de 3.8.0 a 3.8.2
- platformdirs de 2.5.4 a 2.6.0
- setuptools de 58.0.4 a 61.2.0
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.5.2 a 0.6.2
- org.apache.hive.hive-storage-api de 2.7.2 a 2.8.1
- org.apache.parquet.parquet-column de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-comum de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-codificação de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.tukaani.xz de 1.8 a 1.9
Faísca Apache
O Databricks Runtime 12.1 inclui o Apache Spark 3.3.1. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 12.0 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-41405] [SC-119769][12.1.0] Reverter “[SC-119411][SQL] Centralizar a lógica de resolução column” e “[SC-117170][SPARK-41338][SQL] Resolver referências externas e normais columns no mesmo lote do analisador”
- [SPARK-41405] [SC-119411][SQL] Centralize a lógica de resolução column
- [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand deve set o sinalizador de substituição corretamente
- [FAÍSCA-41659] [SC-119526][CONECTAR][12.X] Ativar doctests em pyspark.sql.connect.readwriter
- [FAÍSCA-41858] [SC-119427][SQL] Corrigir regressão perf do leitor ORC devido ao recurso de valor DEFAULT
- [SPARK-41807] [SC-119399][CORE] Remove classe de erro inexistente: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [FAÍSCA-41578] [12.x][SC-119273][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2141
- [FAÍSCA-41571] [SC-119362][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][CONNECT] Inferir nomes a partir de uma list de dicionários no SparkSession.createDataFrame
- [FAÍSCA-40993] [SC-119504][FAÍSCA-41705][CONECTAR][12.X] Mova a documentação e o script do Spark Connect para a documentação dev/ e Python
- [FAÍSCA-41534] [SC-119456][CONECTAR][SQL][12.x] Configurar o módulo de cliente inicial para o Spark Connect
- [FAÍSCA-41365] [SC-118498][UI][3.3] A página Stages UI não é carregada para proxy em ambiente de fio específico
-
[FAÍSCA-41481] [SC-118150][CORE][SQL] Reutilizar
INVALID_TYPED_LITERAL
em vez de_LEGACY_ERROR_TEMP_0020
- [FAÍSCA-41049] [SC-119305][SQL] Revisitar a manipulação de expressões com monitoração de estado
-
[SPARK-41726] [SC-119248][SQL] Remove
OptimizedCreateHiveTableAsSelectCommand
-
[FAÍSCA-41271] [SC-118648][SC-118348][SQL] Suporte a consultas SQL parametrizadas por
sql()
-
[FAÍSCA-41066] [SC-119344][CONECTAR][PYTHON] Implementar
DataFrame.sampleBy
eDataFrame.stat.sampleBy
- [FAÍSCA-41407] [SC-119402][SC-119012][SQL][TODOS OS TESTES] Extrair v1 gravar em WriteFiles
-
[FAÍSCA-41565] [SC-118868][SQL] Adicionar a classe de erro
UNRESOLVED_ROUTINE
- [FAÍSCA-41668] [SC-118925][SQL] A função DECODE retorna resultados errados quando passado NULL
- [FAÍSCA-41554] [SC-119274] corrigir a mudança da escala decimal quando a escala diminuiu em m...
-
[FAÍSCA-41065] [SC-119324][CONECTAR][PYTHON] Implementar
DataFrame.freqItems
eDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Reative testes doc e adicione alias de column ausentes a count()
-
[FAÍSCA-41069] [SC-119310][CONECTAR][PYTHON] Implementar
DataFrame.approxQuantile
eDataFrame.stat.approxQuantile
-
[SPARK-41809] [SC-119367][CONNECT][PYTHON] Fazer com que a função
from_json
suporte o DataType Schema -
[FAÍSCA-41804] [SC-119382][SQL] Escolha o tamanho correto do elemento para
InterpretedUnsafeProjection
a matriz de UDTs - [FAÍSCA-41786] [SC-119308][CONECTAR][PYTHON] Eliminar a duplicação de funções auxiliares
-
[SPARK-41745] [SC-119378][SPARK-41789][12.X] Faça
createDataFrame
suporte list de linhas - [SPARK-41344] [SC-119217][SQL] Tornar o erro mais claro quando table não encontrado em SupportsCatalogOptions catalog
-
[FAÍSCA-41803] [SC-119380][CONECTAR][PYTHON] Adicionar função em falta
log(arg1, arg2)
- [FAÍSCA-41808] [SC-119356][CONECTAR][PYTHON] Tornar as funções JSON opções de suporte
- pt-PT: [SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] Tornar
__getitem__
compatível com filtro e select - [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Fazer o column suportar o valor 'None'
- [FAÍSCA-41440] [SC-119279][CONECTAR][PYTHON] Evite o operador de cache para Sample geral.
-
[FAÍSCA-41785] [SC-119290][CONECTAR][PYTHON] Implementar
GroupedData.mean
- [FAÍSCA-41629] [SC-119276][CONECTAR] Suporte para extensões de protocolo em relação e expressão
-
[FAÍSCA-41417] [SC-118000][CORE][SQL] Renomear
_LEGACY_ERROR_TEMP_0019
paraINVALID_TYPED_LITERAL
- [FAÍSCA-41533] [SC-119342][CONECTAR][12.X] Tratamento adequado de erros para o Spark Connect Server / Client
- Suporte [SPARK-41292] [SC-119357][CONNECT][12.X] Window no pyspark.sql.window namespace
- [FAÍSCA-41493] [SC-119339][CONECTAR][PYTHON] Tornar as funções csv opções de suporte
- [FAÍSCA-39591] [SC-118675][SS] Acompanhamento assíncrono do progresso
-
[FAÍSCA-41767] [SC-119337][CONECTAR][PYTHON][12.X] Implementar
Column.{withField, dropFields}
-
[FAÍSCA-41068] [SC-119268][CONECTAR][PYTHON] Implementar
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][CONNECT][12.X] Ative testes de documentação no pyspark.sql.connect.column
- [FAÍSCA-41738] [SC-119170][CONECTAR] Misture ClientId no cache do SparkSession
-
[FAÍSCA-41354] [SC-119194][CONECTAR] Adicionar
RepartitionByExpression
ao proto -
[SPARK-41784] [SC-119289][CONNECT][PYTHON] Adicionar o
__rmod__
ausente no Column - [FAÍSCA-41778] [SC-119262][SQL] Adicionar um alias "reduce" a ArrayAggregate
-
[FAÍSCA-41067] [SC-119171][CONECTAR][PYTHON] Implementar
DataFrame.stat.cov
- [FAÍSCA-41764] [SC-119216][CONECTAR][PYTHON] Torne o nome da operação de cadeia de caracteres interna consistente com FunctionRegistry
- [SPARK-41734] [SC-119160][CONNECT] Adicionar uma mensagem pai para Catalog
- [FAÍSCA-41742] [SC-119263] Suporte df.groupBy().agg({"*":"count"})
-
[FAÍSCA-41761] [SC-119213][CONECTAR][PYTHON] Corrigir operações aritméticas:
__neg__
,__pow__
,__rpow__
-
[FAÍSCA-41062] [SC-118182][SQL] Renomear
UNSUPPORTED_CORRELATED_REFERENCE
paraCORRELATED_REFERENCE
-
[FAÍSCA-41751] [SC-119211][CONECTAR][PYTHON] Corrigir
Column.{isNull, isNotNull, eqNullSafe}
-
[FAÍSCA-41728] [SC-119164][CONECTAR][PYTHON][12.X] Implementar
unwrap_udt
função -
[FAÍSCA-41333] [SC-119195][FAÍSCA-41737] Implementar
GroupedData.{min, max, avg, sum}
-
[FAÍSCA-41751] [SC-119206][CONECTAR][PYTHON] Corrigir
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][SQL] Suporta resolução de alias de column lateral implícita no Aggregate
- [FAÍSCA-41529] [SC-119207][CONECTAR][12.X] Implementar SparkSession.stop
-
[FAÍSCA-41729] [SC-119205][CORE][SQL][12.X] Renomear
_LEGACY_ERROR_TEMP_0011
paraUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [FAÍSCA-41717] [SC-119078][CONECTAR][12.X] Eliminar a duplicação de impressão e repr_html na LogicalPlan
-
[FAÍSCA-41740] [SC-119169][CONECTAR][PYTHON] Implementar
Column.name
- [FAÍSCA-41733] [SC-119163][SQL][SS] Aplicar poda baseada em padrão de árvore para a regra ResolveWindowTime
- [FAÍSCA-41732] [SC-119157][SQL][SS] Aplicar poda baseada em padrão de árvore para a regra SessionWindowing
- [FAÍSCA-41498] [SC-119018] Propagar metadados através da União
- [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementar o acessador column
-
[FAÍSCA-41736] [SC-119161][CONECTAR][PYTHON]
pyspark_types_to_proto_types
deve apoiarArrayType
-
[FAÍSCA-41473] [SC-119092][CONECTAR][PYTHON] Implementar
format_number
função - [SPARK-41707] [SC-119141][CONNECT][12.X] Implementar Catalog API no Spark Connect
-
[FAÍSCA-41710] [SC-119062][CONECTAR][PYTHON] Implementar
Column.between
- [FAÍSCA-41235] [SC-119088][SQL][PYTHON]Função de alta ordem: array_compact implementação
-
[FAÍSCA-41518] [SC-118453][SQL] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_2422
-
[FAÍSCA-41723] [SC-119091][CONECTAR][PYTHON] Implementar
sequence
função - [FAÍSCA-41703] [SC-119060][CONECTAR][PYTHON] Combine NullType e typed_null em literal
- [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementar 3 funções de window de tempo ausentes
- [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementar funções de transformação Partition
- [SPARK-41413] [SC-118968][SQL] Evite shuffle em Storage-Partitioned Join quando as chaves de partition não corresponderem, mas as expressões de join sejam compatíveis
-
[SPARK-41700] [SC-119046][CONNECT][PYTHON] Remove
FunctionBuilder
-
[FAÍSCA-41706] [SC-119094][CONECTAR][PYTHON]
pyspark_types_to_proto_types
deve apoiarMapType
- [SPARK-41702] [SC-119049][CONNECT][PYTHON] Adicionar operações de column inválidas
- [SPARK-41660] [SC-118866][SQL] Propagar metadados columns somente se forem usados
- [SPARK-41637] [SC-119003][SQL] ORDER BY TODOS
- [FAÍSCA-41513] [SC-118945][SQL] Implementar um acumulador para coletar métricas de contagem de linhas por mapeador
- [FAÍSCA-41647] [SC-119064][CONECTAR][12.X] Eliminar a duplicação de docstrings em pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][CONNECT][PYTHON] Tornar operacional o suporte para column
decimal
-
[FAÍSCA-41383] [SC-119015][FAÍSCA-41692][FAÍSCA-41693] Implementar
rollup
,cube
epivot
- [SPARK-41635] [SC-118944][SQL] GROUP BY TODOS
- [FAÍSCA-41645] [SC-119057][CONECTAR][12.X] Eliminar a duplicação de docstrings no pyspark.sql.connect.dataframe
- [FAÍSCA-41688] [SC-118951][CONECTAR][PYTHON] Mover expressões para expressions.py
- [FAÍSCA-41687] [SC-118949][CONECTAR] Eliminar a duplicação de docstrings em pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][CONNECT] Deduplicar docstrings no módulo pyspark.sql.connect.window
- [FAÍSCA-41681] [SC-118939][CONECTAR] Fator GroupedData para group.py
-
[FAÍSCA-41292] [SC-119038][FAÍSCA-41640][FAÍSCA-41641][CONECTAR][PYTHON][12.X] Implementar
Window
funções -
[SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Tornar suporte operacional de Column
datetime
- [FAÍSCA-41672] [SC-118929][CONECTAR][PYTHON] Ativar as funções preteridas
-
[FAÍSCA-41673] [SC-118932][CONECTAR][PYTHON] Implementar
Column.astype
-
[FAÍSCA-41364] [SC-118865][CONECTAR][PYTHON] Implementar
broadcast
função - [FAÍSCA-41648] [SC-118914][CONECTAR][12.X] Eliminar a duplicação de docstrings no pyspark.sql.connect.readwriter
- [FAÍSCA-41646] [SC-118915][CONECTAR][12.X] Eliminar a duplicação de docstrings no pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][CONNECT][12.X] Deduplicar docstrings no módulo pyspark.sql.connect.column
- [FAÍSCA-41663] [SC-118936][CONECTAR][PYTHON][12.X] Implementar o restante das funções do Lambda
- [SPARK-41441] [SC-118557][SQL] Suporte Generate sem requisitos de saída de filhos necessários para suportar referências externas
- [FAÍSCA-41669] [SC-118923][SQL] Poda antecipada em canCollapseExpressions
- [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Remove ScalaReflectionLock de SchemaConverters
-
[FAÍSCA-41464] [SC-118861][CONECTAR][PYTHON] Implementar
DataFrame.to
-
[FAÍSCA-41434] [SC-118857][CONECTAR][PYTHON] Execução inicial
LambdaFunction
- [FAÍSCA-41539] [SC-118802][SQL] Remapear estatísticas e restrições em relação à saída no plano lógico para LogicalRDD
- [FAÍSCA-41396] [SC-118786][SQL][PROTOBUF] OneOf suporte de campo e verificações de recursão
- [FAÍSCA-41528] [SC-118769][CONECTAR][12.X] Mesclar namespace do Spark Connect e da API do PySpark
- [FAÍSCA-41568] [SC-118715][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1236
-
[FAÍSCA-41440] [SC-118788][CONECTAR][PYTHON] Implementar
DataFrame.randomSplit
- [FAÍSCA-41583] [SC-118718][SC-118642][CONECTAR][PROTOBUF] Adicione o Spark Connect e o protobuf ao setup.py com a especificação de dependências
- [SPARK-27561] [SC-101081][12.x][SQL] Suportar a resolução implícita de alias lateral de column no Project
-
[SPARK-41535] [SC-118645][SQL] Set nulo corretamente para campos de intervalo de calendário no
InterpretedUnsafeProjection
eInterpretedMutableProjection
- [FAÍSCA-40687] [SC-118439][SQL] Suporte de mascaramento de dados built-in função 'máscara'
- [FAÍSCA-41520] [SC-118440][SQL] Divida AND_OR TreePattern para separar E e OU TreePatterns
- [FAÍSCA-41349] [SC-118668][CONECTAR][PYTHON] Implementar DataFrame.hint
-
[FAÍSCA-41546] [SC-118541][CONECTAR][PYTHON]
pyspark_types_to_proto_types
deve suportar StructType. -
[FAÍSCA-41334] [SC-118549][CONECTAR][PYTHON] Mover
SortOrder
proto de relações para expressões - [SPARK-41387] [SC-118450][SS] Afirmar offset final atual da fonte de dados Kafka para Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][CORE][SQL] Renomear
_LEGACY_ERROR_TEMP_1180
paraUNEXPECTED_INPUT_TYPE
e remove_LEGACY_ERROR_TEMP_1179
-
[SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementar Column.{when, otherwise} e função
when
comUnresolvedFunction
- [FAÍSCA-41541] [SC-118460][SQL] Corrigir chamada para método filho errado em SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[FAÍSCA-41453] [SC-118458][CONECTAR][PYTHON] Implementar
DataFrame.subtract
- [FAÍSCA-41248] [SC-118436][SC-118303][SQL] Adicione "spark.sql.json.enablePartialResults" para ativar/desativar resultados parciais JSON
- [SPARK-41437] Reverter "[SC-117601][SQL] Não optimize o inputquery duas vezes no caso de fallback de gravação v1"
- [FAÍSCA-41472] [SC-118352][CONECTAR][PYTHON] Implementar o resto das funções string/binárias
-
[FAÍSCA-41526] [SC-118355][CONECTAR][PYTHON] Implementar
Column.isin
- [FAÍSCA-32170] [SC-118384] [CORE] Melhore a especulação através das métricas da tarefa de palco.
- [FAÍSCA-41524] [SC-118399][SS] Diferencie SQLConf e extraOptions em StateStoreConf para seu uso em RocksDBConf
- [FAÍSCA-41465] [SC-118381][SQL] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1235
- [FAÍSCA-41511] [SC-118365][SQL] O suporte LongToUnsafeRowMap ignora DuplicatedKey
-
[FAÍSCA-41409] [SC-118302][CORE][SQL] Renomear
_LEGACY_ERROR_TEMP_1043
paraWRONG_NUM_ARGS.WITHOUT_SUGGESTION
-
[FAÍSCA-41438] [SC-118344][CONECTAR][PYTHON] Implementar
DataFrame.colRegex
- [SPARK-41437] [SC-117601][SQL] Não optimize a consulta de entrada duas vezes para fallback de gravação v1
-
[FAÍSCA-41314] [SC-117172][SQL] Atribuir um nome à classe de erro
_LEGACY_ERROR_TEMP_1094
- [FAÍSCA-41443] [SC-118004][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1061
- [FAÍSCA-41506] [SC-118241][CONECTAR][PYTHON] Refatore LiteralExpression para suportar DataType
- [FAÍSCA-41448] [SC-118046] Crie IDs de trabalho MR consistentes em FileBatchWriter e FileFormatWriter
- [FAÍSCA-41456] [SC-117970][SQL] Melhorar o desempenho de try_cast
-
[FAÍSCA-41495] [SC-118125][CONECTAR][PYTHON] Implementar
collection
funções: P ~ Z - [FAÍSCA-41478] [SC-118167][SQL] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_1234
-
[FAÍSCA-41406] [SC-118161][SQL] Mensagem
NUM_COLUMNS_MISMATCH
de erro refatorar para torná-lo mais genérico -
[FAÍSCA-41404] [SC-118016][SQL] Refatorar
ColumnVectorUtils#toBatch
para tornarColumnarBatchSuite#testRandomRows
o teste mais primitivo dataType - [FAÍSCA-41468] [SC-118044][SQL] Corrigir a manipulação de PlanExpression em EquivalentExpressions
- [FAÍSCA-40775] [SC-118045][SQL] Corrigir entradas de descrição duplicadas para verificações de arquivos V2
- [FAÍSCA-41492] [SC-118042][CONECTAR][PYTHON] Implementar funções MISC
- [FAÍSCA-41459] [SC-118005][SQL] fix thrift server operation log output is empty
-
[SPARK-41395] [SC-117899][SQL]
InterpretedMutableProjection
deve usarsetDecimal
para setvalues nulo para decimais em uma linha não segura - [FAÍSCA-41376] [SC-117840][CORE][3.3] Corrija a lógica de verificação Netty preferDirectBufs no início do executor
-
[FAÍSCA-41484] [SC-118159][SC-118036][CONECTAR][PYTHON][12.x] Implementar
collection
funções: E~M -
[FAÍSCA-41389] [SC-117426][CORE][SQL] Reutilizar
WRONG_NUM_ARGS
em vez de_LEGACY_ERROR_TEMP_1044
- [FAÍSCA-41462] [SC-117920][SQL] O tipo de carimbo de data e hora pode ser convertido para TimestampNTZ
-
[FAÍSCA-41435] [SC-117810][SQL] Alterar para chamar
invalidFunctionArgumentsError
curdate()
quandoexpressions
não estiver vazio - [FAÍSCA-41187] [SC-118030][CORE] LiveExecutor MemoryLeak em AppStatusListener quando ExecutorLost acontecer
- [FAÍSCA-41360] [SC-118083][CORE] Evite o novo registro do BlockManager se o executor tiver sido perdido
- [SPARK-41378] [SC-117686][SQL] Suporte Column estatísticas no DS v2
- [FAÍSCA-41402] [SC-117910][SQL][CONECTAR][12.X] Substituir prettyName de StringDecode
- [FAÍSCA-41414] [SC-118041][CONECTAR][PYTHON][12.x] Implementar funções de carimbo de data/hora
- [FAÍSCA-41329] [SC-117975][CONECTAR] Resolver importações circulares no Spark Connect
- [FAÍSCA-41477] [SC-118025][CONECTAR][PYTHON] Inferir corretamente o tipo de dados de inteiros literais
-
[SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] Fazer
createDataFrame
suportar schema e mais tipos de conjuntos de dados de entrada - [FAÍSCA-41475] [SC-117997][CONECTAR] Corrigir erro de comando lint-scala e erro de digitação
- [FAÍSCA-38277] [SC-117799][SS] Limpar lote de gravação após a confirmação do armazenamento de estado do RocksDB
- [FAÍSCA-41375] [SC-117801][SS] Evite o KafkaSourceOffset mais recente vazio
-
[FAÍSCA-41412] [SC-118015][CONECTAR] Implementar
Column.cast
-
[FAÍSCA-41439] [SC-117893][CONECTAR][PYTHON] Implementar
DataFrame.melt
eDataFrame.unpivot
- [SPARK-41399] [SC-118007][SC-117474][CONNECT] Refatorar column testes relacionados para test_connect_column
- [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] Column deve suportar != operador
- [FAÍSCA-40697] [SC-117806][SC-112787][SQL] Adicionar preenchimento de caracteres do lado de leitura para cobrir arquivos de dados externos
- [FAÍSCA-41349] [SC-117594][CONECTAR][12.X] Implementar DataFrame.hint
- [SPARK-41338] [SC-117170][SQL] Resolver referências externas e columns normais no mesmo lote do analisador
-
[FAÍSCA-41436] [SC-117805][CONECTAR][PYTHON] Implementar
collection
funções: A~C - [FAÍSCA-41445] [SC-117802][CONECTAR] Implementar DataFrameReader.parquet
-
[FAÍSCA-41452] [SC-117865][SQL]
to_char
deve retornar null quando format for null - [FAÍSCA-41444] [SC-117796][CONECTAR] Suporte read.json()
- [SPARK-41398] [SC-117508][SQL] Relaxe as restrições no Storage-Partitioned Join quando partition teclas após a filtragem de tempo de execução não correspondem
-
[FAÍSCA-41228] [SC-117169][SQL] Renomear & Melhorar mensagem de erro para
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. -
[FAÍSCA-41381] [SC-117593][CONECTAR][PYTHON] Implementação
count_distinct
esum_distinct
funções - [FAÍSCA-41433] [SC-117596][CONECTAR] Torne o Max Arrow BatchSize configurável
- [FAÍSCA-41397] [SC-117590][CONECTAR][PYTHON] Implementar parte de funções string/binárias
-
[FAÍSCA-41382] [SC-117588][CONECTAR][PYTHON] Implementar
product
função -
[FAÍSCA-41403] [SC-117595][CONECTAR][PYTHON] Implementar
DataFrame.describe
- [FAÍSCA-41366] [SC-117580][CONECTAR] DF.groupby.agg() deve ser compatível
- [FAÍSCA-41369] [SC-117584][CONECTAR] Adicionar conexão comum ao jar sombreado dos servidores
- [SPARK-41411] [SC-117562][SS] Multi-Stateful Operator watermark correção de falha no suporte
- [FAÍSCA-41176] [SC-116630][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1042
- [FAÍSCA-41380] [SC-117476][CONECTAR][PYTHON][12.X] Implementar funções de agregação
- [FAÍSCA-41363] [SC-117470][CONECTAR][PYTHON][12.X] Implementar funções normais
- [FAÍSCA-41305] [SC-117411][CONECTAR] Melhorar a documentação para o proto de comando
- [FAÍSCA-41372] [SC-117427][CONECTAR][PYTHON] Implementar DataFrame TempView
- [FAÍSCA-41379] [SC-117420][SS][PYTHON] Fornecer sessão de faísca clonada no DataFrame na função de usuário para o coletor foreachBatch no PySpark
- [FAÍSCA-41373] [SC-117405][SQL][ERRO] Renomear CAST_WITH_FUN_SUGGESTION para CAST_WITH_FUNC_SUGGESTION
-
[FAÍSCA-41358] [SC-117417][SQL] Método de refatoração
ColumnVectorUtils#populate
a ser usadoPhysicalDataType
em vez deDataType
- [SPARK-41355] [SC-117423][SQL] Solução alternativa hive table problema de validação de nome
-
[SPARK-41390] [SC-117429][SQL] Update o script usado para generate
register
função noUDFRegistration
-
[FAÍSCA-41206] [SC-117233][SC-116381][SQL] Renomeie a classe
_LEGACY_ERROR_TEMP_1233
de erro paraCOLUMN_ALREADY_EXISTS
- [FAÍSCA-41357] [SC-117310][CONECTAR][PYTHON][12.X] Implementar funções matemáticas
- pt-PT: [SPARK-40970] [SC-117308][CONNECT][PYTHON] Suporte List[Column] para argumentos de Join
- [FAÍSCA-41345] [SC-117178][CONECTAR] Adicionar dica ao Connect Proto
- [FAÍSCA-41226] [SC-117194][SQL][12.x] Refatorar tipos de faísca introduzindo tipos físicos
- [FAÍSCA-41317] [SC-116902][CONECTAR][PYTHON][12.X] Adicionar suporte básico para DataFrameWriter
- [FAÍSCA-41347] [SC-117173][CONECTAR] Adicionar Cast ao proto de Expressão
- [FAÍSCA-41323] [SC-117128][SQL] Suporte current_schema
- [FAÍSCA-41339] [SC-117171][SQL] Feche e recrie o lote de gravação do RocksDB em vez de apenas limpar
- [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementar cruzamento de DataFrame join
-
[FAÍSCA-41346] [SC-117176][CONECTAR][PYTHON] Implementação
asc
edesc
funções - [FAÍSCA-41343] [SC-117166][CONECTAR] Mover a análise FunctionName para o lado do servidor
- [FAÍSCA-41321] [SC-117163][CONECTAR] Campo de destino de suporte para UnresolvedStar
-
[FAÍSCA-41237] [SC-117167][SQL] Reutilize a classe
UNSUPPORTED_DATATYPE
de erro para_LEGACY_ERROR_TEMP_0030
-
[FAÍSCA-41309] [SC-116916][SQL] Reutilizar
INVALID_SCHEMA.NON_STRING_LITERAL
em vez de_LEGACY_ERROR_TEMP_1093
-
[SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Optimize uso do construtor de
StructType
- [SPARK-41335] [SC-117135][CONNECT][PYTHON] suporta IsNull e IsNotNull no Column
-
[FAÍSCA-41332] [SC-117131][CONECTAR][PYTHON] Corrigir
nullOrdering
emSortOrder
- [FAÍSCA-41325] [SC-117132][CONECTAR][12.X] Corrigir avg() ausente para GroupBy no DF
-
[FAÍSCA-41327] [SC-117137][CORE] Corrigir
SparkStatusTracker.getExecutorInfos
por interruptor On/OffHeapStorageMemory informações -
[FAÍSCA-41315] [SC-117129][CONECTAR][PYTHON] Implementar
DataFrame.replace
eDataFrame.na.replace
- [SPARK-41328] [SC-117125][CONNECT][PYTHON] Adicionar API lógica e de cadeia de caracteres ao Column
-
[FAÍSCA-41331] [SC-117127][CONECTAR][PYTHON] Adicionar
orderBy
edrop_duplicates
-
[FAÍSCA-40987] [SC-117124][CORE]
BlockManager#removeBlockInternal
deve garantir que a fechadura está desbloqueada graciosamente - [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Refatorar "Column" para compatibilidade com API
- [FAÍSCA-41312] [SC-116881][CONECTAR][PYTHON][12.X] Implementar DataFrame.withColumnRenamed
-
[FAÍSCA-41221] [SC-116607][SQL] Adicionar a classe de erro
INVALID_FORMAT
- [FAÍSCA-41272] [SC-116742][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_2019
-
[FAÍSCA-41180] [SC-116760][SQL] Reutilizar
INVALID_SCHEMA
em vez de_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Converta instâncias NumPy para tipos primitivos Python no GroupState update
-
[FAÍSCA-41174] [SC-116609][CORE][SQL] Propagar uma classe de erro aos usuários por inválido
format
deto_binary()
- [FAÍSCA-41264] [SC-116971][CONECTAR][PYTHON] Tornar o suporte literal mais tipos de dados
- [FAÍSCA-41326] [SC-116972] [CONECTAR] Corrigir desduplicação está faltando entrada
- [FAÍSCA-41316] [SC-116900][SQL] Habilite a recursão de cauda sempre que possível
- [FAÍSCA-41297] [SC-116931] [CONECTAR] [PYTHON] Suporte a expressões de cadeia de caracteres no filtro.
- [FAÍSCA-41256] [SC-116932][SC-116883][CONECTAR] Implementar DataFrame.withColumn(s)
- [FAÍSCA-41182] [SC-116632][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1102
- [FAÍSCA-41181] [SC-116680][SQL] Migrar os erros de opções de mapa para classes de erro
- [SPARK-40940] [SC-115993][12.x] Remove verificadores de operadores com múltiplos estados para consultas de streaming.
- [FAÍSCA-41310] [SC-116885][CONECTAR][PYTHON] Implementar DataFrame.toDF
- [FAÍSCA-41179] [SC-116631][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti não update numOutputRows quando o codegen está desativado
-
[FAÍSCA-41148] [SC-116878][CONECTAR][PYTHON] Implementar
DataFrame.dropna
eDataFrame.na.drop
-
[FAÍSCA-41217] [SC-116380][SQL] Adicionar a classe de erro
FAILED_FUNCTION_CALL
- [FAÍSCA-41308] [SC-116875][CONECTAR][PYTHON] Melhorar DataFrame.count()
- [FAÍSCA-41301] [SC-116786] [CONECTAR] Homogeneizar o comportamento para SparkSession.range()
- [FAÍSCA-41306] [SC-116860][CONECTAR] Melhorar a documentação do Connect Expression proto
- [FAÍSCA-41280] [SC-116733][CONECTAR] Implementar DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Unset schema é interpretado como Schema
- [FAÍSCA-41255] [SC-116730][SC-116695] [CONECTAR] Renomear RemoteSparkSession
- [FAÍSCA-41250] [SC-116788][SC-116633][CONECTAR][PYTHON] DataFrame. toPandas não deve retornar dataframe pandas opcional
-
[FAÍSCA-41291] [SC-116738][CONECTAR][PYTHON]
DataFrame.explain
deve imprimir e devolver Nenhum - [FAÍSCA-41278] [SC-116732][CONECTAR] Limpar QualifiedAttribute não utilizado em Expression.proto
- [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Remove base de conversão de coleção redundante no código Scala 2.13
- [SPARK-41261] [SC-116718][PYTHON][SS] Corrigir o problema de applyInPandasWithState quando as columns das chaves de agrupamento não são colocadas em ordem do mais antigo
- [FAÍSCA-40872] [SC-116717][3.3] Fallback para o bloco shuffle original quando um bloco de shuffle push-merged é de tamanho zero
- [FAÍSCA-41114] [SC-116628][CONECTAR] Suporte a dados locais para LocalRelation
-
[FAÍSCA-41216] [SC-116678][CONECTAR][PYTHON] Implementar
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [FAÍSCA-41238] [SC-116670][CONECTAR][PYTHON] Suporta mais tipos de dados incorporados
-
[SPARK-41230] [SC-116674][CONNECT][PYTHON] Remove
str
do tipo de expressão agregado - [FAÍSCA-41224] [SC-116652][FAÍSCA-41165][FAÍSCA-41184][CONECTAR] Implementação de coleta otimizada baseada em seta para transmitir do servidor para o cliente
- [FAÍSCA-41222] [SC-116625][CONECTAR][PYTHON] Unificar as definições de digitação
- [FAÍSCA-41225] [SC-116623] [CONECTAR] [PYTHON] Desative funções não suportadas.
-
[FAÍSCA-41201] [SC-116526][CONECTAR][PYTHON] Implementar
DataFrame.SelectExpr
no cliente Python - [FAÍSCA-41203] [SC-116258] [CONECTAR] Suporte Dataframe.tansform no cliente Python.
-
[FAÍSCA-41213] [SC-116375][CONECTAR][PYTHON] Implementar
DataFrame.__repr__
eDataFrame.dtypes
-
[FAÍSCA-41169] [SC-116378][CONECTAR][PYTHON] Implementar
DataFrame.drop
- [FAÍSCA-41172] [SC-116245][SQL] Migrar o erro ref ambíguo para uma classe de erro
- [SPARK-41122] [SC-116141][CONNECT] Explain API pode suportar diferentes modos
- [FAÍSCA-41209] [SC-116584][SC-116376][PYTHON] Melhorar a inferência do tipo PySpark no método _merge_type
- [FAÍSCA-41196] [SC-116555][SC-116179] [CONECTAR] Homogeneize a versão protobuf no servidor Spark connect para usar a mesma versão principal.
- [SPARK-35531] [SC-116409][SQL] Update hive table estatísticas sem conversão desnecessária
- [FAÍSCA-41154] [SC-116289][SQL] Cache de relação incorreta para consultas com especificações de viagem no tempo
-
[FAÍSCA-41212] [SC-116554][SC-116389][CONECTAR][PYTHON] Implementar
DataFrame.isEmpty
-
[FAÍSCA-41135] [SC-116400][SQL] Renomear
UNSUPPORTED_EMPTY_LOCATION
paraINVALID_EMPTY_LOCATION
- [FAÍSCA-41183] [SC-116265][SQL] Adicionar uma API de extensão para planejar a normalização do cache
- [FAÍSCA-41054] [SC-116447][UI][CORE] Suporte RocksDB como KVStore em UI ao vivo
- [FAÍSCA-38550] [SC-115223]Reverter "[SQL][CORE] Use um armazenamento baseado em disco para salvar mais informações de depuração para a interface do usuário ao vivo"
-
[FAÍSCA-41173] [SC-116185][SQL] Sair
require()
dos construtores de expressões de cadeia de caracteres - [SPARK-41188] [SC-116242][CORE][ML] Set O executorEnv OMP_NUM_THREADS serão spark.task.cpus por padrão para os processos JVM do executor Spark
-
[FAÍSCA-41130] [SC-116155][SQL] Renomear
OUT_OF_DECIMAL_TYPE_RANGE
paraNUMERIC_OUT_OF_SUPPORTED_RANGE
- [FAÍSCA-41175] [SC-116238][SQL] Atribuir um nome à classe de erro _LEGACY_ERROR_TEMP_1078
- [FAÍSCA-41106] [SC-116073][SQL] Reduzir a conversão de coleção ao criar AttributeMap
-
[FAÍSCA-41139] [SC-115983][SQL] Melhorar a classe de erro:
PYTHON_UDF_IN_ON_CLAUSE
- [FAÍSCA-40657] [SC-115997][PROTOBUF] Exigir sombreamento para jar de classe Java, melhorar o tratamento de erros
- [FAÍSCA-40999] [SC-116168] Propagação de dicas para subconsultas
- [SPARK-41017] [SC-116054][SQL] Suporte para column poda com vários filtros não determinísticos
- [FAÍSCA-40834] [SC-114773][SQL] Use SparkListenerSQLExecutionEnd para controlar o status final do SQL na interface do usuário
-
[FAÍSCA-41118] [SC-116027][SQL]
to_number
/try_to_number
deve retornarnull
quando o formato fornull
- [SPARK-39799] [SC-115984][SQL] DataSourceV2: Visualizar interface catalog
- [FAÍSCA-40665] [SC-116210][SC-112300][CONECTAR] Evite incorporar o Spark Connect na versão binária do Apache Spark
- [FAÍSCA-41048] [SC-116043][SQL] Melhore o particionamento e o pedido de saída com o cache AQE
- [SPARK-41198] [SC-116256][SS] Corrigir métricas na consulta de streaming having fonte de streaming CTE e DSv1
- [FAÍSCA-41199] [SC-116244][SS] Corrigir problema de métricas quando a fonte de streaming DSv1 e a fonte de streaming DSv2 são cousadas
- [FAÍSCA-40957] [SC-116261][SC-114706] Adicionar cache de memória no HDFSMetadataLog
- [SPARK-40940] Reverter "[SC-115993] Remove verificadores de operador com vários estados para consultas de streaming."
-
[FAÍSCA-41090] [SC-116040][SQL] Lançar exceção para
db_name.view_name
ao criar a exibição temporária pela API do conjunto de dados -
[FAÍSCA-41133] [SC-116085][SQL] Integre-se
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
emNUMERIC_VALUE_OUT_OF_RANGE
- [FAÍSCA-40557] [SC-116182][SC-111442][CONECTAR] Confirmações de despejo de código 9
- [FAÍSCA-40448] [SC-114447][SC-111314][CONECTAR] Spark Connect build como plug-in de driver com dependências sombreadas
- [FAÍSCA-41096] [SC-115812][SQL] Suporte de leitura parquet FIXED_LEN_BYTE_ARRAY tipo
-
[FAÍSCA-41140] [SC-115879][SQL] Renomeie a classe
_LEGACY_ERROR_TEMP_2440
de erro paraINVALID_WHERE_CONDITION
- [FAÍSCA-40918] [SC-114438][SQL] Incompatibilidade entre FileSourceScanExec e Orc e ParquetFileFormat na produção de saída colunar
- [FAÍSCA-41155] [SC-115991][SQL] Adicionar mensagem de erro a SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Remove verificadores de operador com vários estados para consultas de streaming.
-
[FAÍSCA-41098] [SC-115790][SQL] Renomear
GROUP_BY_POS_REFERS_AGG_EXPR
paraGROUP_BY_POS_AGGREGATE
- [FAÍSCA-40755] [SC-115912][SQL] Migrar falhas de verificação de tipo de formatação de número para classes de erro
-
[FAÍSCA-41059] [SC-115658][SQL] Renomear
_LEGACY_ERROR_TEMP_2420
paraNESTED_AGGREGATE_FUNCTION
- [FAÍSCA-41044] [SC-115662][SQL] Converta DATATYPE_MISMATCH. UNSPECIFIED_FRAME para INTERNAL_ERROR
-
[FAÍSCA-40973] [SC-115132][SQL] Renomear
_LEGACY_ERROR_TEMP_0055
paraUNCLOSED_BRACKETED_COMMENT
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 12.1.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Escala: 2.12.14
- Píton: 3.9.5
- R: 4.2.2
- Lago Delta: 2.2.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Argônio2-CFFI | 21.3.0 | argon2-cffi-ligações | 21.2.0 | AstTokens | 2.0.5 |
ATRs | 21.4.0 | Backcall | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.2.0 |
sopa bonita4 | 4.11.1 | preto | 22.3.0 | lixívia | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | Normalizador de Charset | 2.0.4 |
clicar | 8.0.4 | criptografia | 3.4.8 | cycler | 0.11.0 |
Quisto | 0.29.28 | dbus-python | 1.2.16 | depuração | 1.5.1 |
decorador | 5.1.1 | DeUsedXML | 0.7.1 | Distlib | 0.3.6 |
docstring-para-markdown | 0,11 | pontos de entrada | 0.4 | execução | 0.8.3 |
facetas-visão geral | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
Fonttools | 4.25.0 | idna | 3.3 | Ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
Joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-cliente | 6.1.12 |
jupyter_core | 4.11.2 | Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
Kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-em linha | 0.1.2 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
mypy-extensões | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | Ninho-Asyncio | 1.5.5 | nodeenv | 1.7.0 |
bloco de notas | 6.4.8 | numpy | 1.21.5 | embalagem | 21,3 |
pandas | 1.4.2 | PandocFilters | 1.5.0 | Parso | 0.8.3 |
PathSpec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Travesseiro | 9.0.1 | pip | 21.2.4 |
plataformadirs | 2.6.0 | enredo | 5.6.0 | pluggy | 1.0.0 |
Prometheus-cliente | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
PSUTIL | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
puro-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
Pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
Pyodbc | 4.0.32 | pyparsing | 3.0.4 | Pyright | 1.1.283 |
pirsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-servidor | 1.6.0 | pytz | 2021.3 | Pyzmq | 22.3.0 |
pedidos | 2.27.1 | pedidos-unixsocket | 0.2.0 | corda | 0.22.0 |
s3transferir | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Enviar2Lixo | 1.8.0 | setuptools | 61.2.0 |
seis | 1.16.0 | Soupsieve | 2.3.1 | ssh-import-id | 5.10 |
dados de pilha | 0.2.0 | statsmodels | 0.13.2 | tenacidade | 8.0.1 |
terminado | 0.13.1 | caminho de teste | 0.5.0 | ThreadPoolCtl | 2.2.0 |
tokenize-rt | 4.2.1 | Tomli | 1.2.2 | tornado | 6.1 |
traços | 5.1.1 | typing_extensions | 4.1.1 | Ujson | 5.1.0 |
Upgrades autônomos | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
largura de wc | 0.2.5 | WebEncodings | 0.5.1 | whatthepatch | 1.0.3 |
roda | 0.37.0 | widgetsnbextension | 3.6.1 | Yapf | 0.31.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-11-11.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 10.0.0 | AskPass | 1.1 | asserçãoat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
arranque | 1.3-28 | brew | 1.0-8 | Brio | 1.1.3 |
vassoura | 1.0.1 | BSLIB | 0.4.1 | cachem | 1.0.6 |
Chamador | 3.7.3 | acento circunflexo | 6.0-93 | Cellranger | 1.1.0 |
crono | 2.3-58 | classe | 7.3-20 | cli | 3.4.1 |
Clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-18 | espaço em cores | 2.0-3 | marca comum | 1.8.1 |
compilador | 4.2.2 | configuração | 0.3.1 | CPP11 | 0.4.3 |
lápis de cor | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
dados.table | 1.14.4 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
DBPlyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | resumo | 0.6.30 | Iluminação reduzida | 0.4.2 |
dplyr | 1.0.10 | DTPlyr | 1.2.2 | E1071 | 1.7-12 |
reticências | 0.3.2 | evaluate | 0,18 | Fãsi | 1.0.3 |
Farver | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.4.0 |
FORCATS | 0.5.2 | foreach | 1.5.2 | externa | 0.8-82 |
forjar | 0.2.0 | FS | 1.5.2 | Futuro | 1.29.0 |
future.apply | 1.10.0 | gargarejo | 1.2.1 | Genéricos | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | GH | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | Globais | 0.16.1 |
colar | 1.6.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | gráficos | 4.2.2 | grDevices | 4.2.2 |
grelha | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | capacete | 1.2.0 | Refúgio | 2.5.1 |
mais alto | 0,9 | HMS | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
IDs | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
Isoband | 0.2.6 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | Knitr | 1.40 |
etiquetagem | 0.4.2 | mais tarde | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | ciclo de vida | 1.0.3 | ouvirv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | Marcação | 1.3 |
MASSA | 7.3-58 | Matriz | 1.5-1 | memoise | 2.0.1 |
métodos | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | paralelo | 4.2.2 |
Paralelamente | 1.32.1 | pilar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | elogiar | 1.0.0 |
unidades bonitas | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | Profvis | 0.3.7 | Progresso | 1.2.2 |
progressor | 0.11.0 | promessas | 1.2.0.1 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
Leitor | 2.1.3 | ReadXL | 1.4.1 | receitas | 1.0.3 |
revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
Reprex | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversões | 2.1.2 |
Rvest | 1.0.3 | Sass | 0.4.2 | escalas | 1.2.1 |
seletor | 0.4-2 | sessioninfo | 1.2.2 | forma | 1.4.6 |
brilhante | 1.7.3 | ferramentas de origem | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | espacial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
sobrevivência | 3.4-0 | sys | 3.4.1 | fontes do sistema | 1.0.4 |
tcltk | 4.2.2 | testeatat | 3.1.5 | formatação de texto | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
Tidyverse | 1.3.2 | mudança de hora | 0.1.1 | timeDate | 4021.106 |
Tinytex | 0.42 | ferramentas | 4.2.2 | TZDB | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utilitários | 4.2.2 | uuid | 1.1-0 | VCTRS | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | Waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotações | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.4 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | núcleo | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-nativos | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | ZSTD-JNI | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | criador de perfil | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | Lapack | | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.ponte aérea | compressor de ar | 0.21 |
IO.Delta | delta-compartilhamento-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | métricas-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-comum | 4.1.74.Final |
io.netty | netty-manipulador | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transporte de rede | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
jacarta.servlet | jacarta.servlet-api | 4.0.3 |
jacarta.validação | Jacarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.floco de neve | Flocos de Neve-JDBC | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato de seta | 7.0.0 |
org.apache.arrow | seta-memória-núcleo | 7.0.0 |
org.apache.arrow | seta-memória-netty | 7.0.0 |
org.apache.arrow | vetor de seta | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapeado | 1.11.0 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador-receitas | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-DATABRICKS |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | colmeia-lamp-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | hera | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
org.apache.orc | orc-núcleo | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | Orc-calços | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-formato-estruturas | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.20 |
org.apache.yetus | anotações de audiência | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | verificador-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | cais-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | servidor de jersey | 2.36 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | MLFLOW-Faísca | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | calços | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
org.scala-lang | Escala-library_2.12 | 2.12.14 |
org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | Brisa-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.threeten | trêsdez-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | gatos-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | torre-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | torre-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | mosca-selvagem-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |