Databricks Runtime 4.1 (EoS)
Observação
O suporte para esta versão do Databricks Runtime foi encerrado. Para obter a data de fim do suporte, consulte o Histórico de fim do suporte. Para todas as versões compatíveis do Databricks Runtime, consulte Versões e compatibilidade de notas sobre a versão do Databricks Runtime.
O Databricks lançou essa versão em maio de 2018.
Importante
Esta versão foi preterida em 17 de janeiro de 2019. Para obter mais informações sobre a política de desativação e o agendamento do Databricks Runtime, confira Ciclos de vida do suporte do Databricks.
As notas sobre a versão a seguir fornecem informações sobre o Databricks Runtime 4.1 da plataforma Apache Spark.
Delta Lake
O Databricks Runtime versão 4.1 adiciona melhorias de qualidade e funcionalidade importantes ao Delta Lake. O Databricks recomenda que todos os clientes do Delta Lake atualizem para o novo runtime. Esta versão permanece em Versão Prévia Privada, mas representa uma versão candidata em antecipação à próxima versão de GA (disponibilidade geral).
O Delta Lake agora também está disponível na Versão Prévia Privada para usuários do Azure Databricks. Entre em contato com seu gerente de conta ou inscreva-se em https://databricks.com/product/databricks-delta.
Alterações de quebra
O Databricks Runtime 4.1 inclui alterações no protocolo de transação para habilitar novos recursos, como validação. Tables criados com o Databricks Runtime 4.1 usam automaticamente a nova versão e não podem ser gravados por versões mais antigas do Databricks Runtime. Você precisa atualizar o tables existente para aproveitar esses aprimoramentos. Para atualizar um table existente, primeiro atualize todas as tarefas que estão gravando no table. Em seguida, execute:
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
Confira Como o Azure Databricks gerencia a compatibilidade de recursos do Delta Lake? para obter mais detalhes.
As gravações agora são validadas no schema atual do table, em vez de adicionar automaticamente columns ausentes do table de destino. Para habilitar o comportamento anterior, set a opção
mergeSchema
paratrue
.Se você estiver executando versões anteriores do Databricks Delta, deverá atualizar todos os trabalhos antes de usar o Databricks Runtime 4.1. Se você vir qualquer um desses erros, atualize para o Databricks Runtime 4.1:
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchError
Tables não pode mais ter columns que diferem apenas por maiúsculas e minúsculas.
As configurações de table específicas do Delta agora devem ser prefixadas com
delta.
Novos recursos
Gerenciamento de Schema – o Databricks Delta agora valida acréscimos e substituições para um table existente para garantir que o schema que está sendo gravado corresponda ao schema.
- O Databricks Delta continua a dar suporte à evolução automática do schema.
- O Databricks Delta agora dá suporte à seguinte DDL para modificar schema explicitamente:
ALTER TABLE ADD COLUMN
para adicionar novos columns a um tableALTER TABLE CHANGE COLUMNS
para alterar a ordenação de columnALTER TABLE [SET|UNSET] TBLPROPERTIES
Para obter detalhes, consulte Imposição de Schema.
DDL aprimorado e suporte a table
- Suporte completo para table DDL e
saveAsTable()
.save()
esaveAsTable()
agora têm semântica idêntica. - Todos os comandos DDL e DML dão suporte ao nome table e ao
delta.`<path-to-table>`
. SHOW PARTITIONS
SHOW COLUMNS
DESC TABLE
- Informações detalhadas de table – você pode ver as versões de leitor e gravador atuais de um table executando
DESCRIBE DETAIL
. Consulte Como o Azure Databricks gerencia a compatibilidade de recursos do Delta Lake? - Detalhes Table – As informações de procedência agora estão disponíveis para cada gravação em um table. O painel lateral de dados também mostra informações detalhadas sobre table e o histórico do Databricks Delta tables. Consulte Revisar detalhes de table do Delta Lake com describe detail.
- tables de streaming – DataFrames de streaming podem ser criados usando
spark.readStream.format("delta").table("<table-name>")
. - tables de apenas adição - O Databricks Delta agora dá suporte à governança básica de dados. Você pode bloquear exclusões e modificações em um table definindo a propriedade table
delta.appendOnly=true
. MERGE INTO
source – adiciona suporte mais abrangente à especificação de consulta de origem doMERGE
. Por exemplo, você pode especificarLIMIT
eORDER BY
INLINE TABLE
na origem.- Suporte completo para ACLs Table.
- Suporte completo para table DDL e
Melhorias de desempenho
- Redução da sobrecarga de coleta de estatísticas - A eficiência da coleta de estatísticas foi aprimorada e as estatísticas agora são coletadas apenas para um número configurável de columns, set para 32 por padrão. O desempenho de gravação do Databricks Delta foi aprimorado em até 2x devido à redução na sobrecarga de coleta de estatísticas. Para configurar o número de columns, set a propriedade table
delta.dataSkippingNumIndexedCols=<number-of-columns>
. - Suporte para push down de limit – as estatísticas são usadas para limit o número de arquivos verificados para consultas que têm
LIMIT
e predicados em partitioncolumns. Isso é aplicável a consultas em notebooks devido aolimit=1000
implícito em vigor para todos os comandos do notebook. - Filtrar pushdown na origem do fluxo – as consultas de fluxo agora usam o particionamento ao iniciar um novo fluxo para ignorar dados irrelevantes.
- O paralelismo aprimorado por
OPTIMIZE
-OPTIMIZE
agora é executado como uma única tarefa do Spark e usará todo o paralelismo disponível no cluster (anteriormente era limitado a 100 arquivos compactados por vez). - Ignorar dados em DML –
UPDATE
,DELETE
eMERGE
agora usam estatísticas ao localizar arquivos que precisam ser regravados. - Retenção de ponto de verificação reduzida – os pontos de verificação agora são retidos por dois dias (o histórico ainda é mantido por 30) para diminuir os custos de armazenamento para o log de transações.
Comportamento da API
- O comportamento do
insertInto(<table-name>)
no Databricks Delta é o mesmo que outras fontes de dados.- Se nenhum modo for especificado ou
mode
forErrorIfExists
,Ignore
ouAppend
, os dados do DataFrame são acrescentados ao Databricks Delta table. - Se
mode
forOverwrite
, excluirá todos os dados no table existente e inserirá os dados do DataFrame no Databricks Delta table.
- Se nenhum modo for especificado ou
- Se armazenado em cache, o destino table de
MERGE
deverá ser removido do cache manualmente.
Aperfeiçoamentos de usabilidade
- Validações de migração de carga de trabalho – erros comuns feitos ao migrar cargas de trabalho para o Databricks Delta agora lançam uma exceção em vez de falhar:
- Usando
format("parquet")
para ler ou gravar em um table. - Lendo ou escrevendo diretamente em um partition (ou seja,
/path/to/delta/part=1
). - Limpando subdiretórios de um table.
INSERT OVERWRITE DIRECTORY
usando Parquet em um table.
- Usando
- Configuração sem maiúsculas e minúsculas – as opções para o Leitor/Gravador do DataFrame e as propriedades table agora não diferenciam maiúsculas de minúsculas (incluindo o caminho de leitura e o caminho de gravação).
- Nomes Column – nomes Tablecolumn agora podem incluir pontos.
Problemas conhecidos
- As inserções de instruções de vários insert estão em unidades de trabalho diferentes, em vez de estar na mesma transação.
Correções de bug
- Um loop infinito ao iniciar um novo fluxo em um table de atualização rápida foi corrigido.
Desativações
O Streaming Estruturado não lida com entradas que não sejam acréscimos e lança uma exceção se qualquer modificação ocorrer no table que está sendo usado como fonte. Anteriormente, você poderia substituir esse comportamento usando o sinalizador ignoreFileDeletion
, mas agora ele foi preterido. Em vez disso, use ignoreDeletes
ou ignoreChanges
. Veja Delta table como fonte.
Outras alterações e melhorias
- O Watchdog de Consulta está habilitado para todos os clusters para todas as finalidades criados usando a interface do usuário.
- Desempenho aprimorado do lado do driver para o cache DBIO
- Desempenho aprimorado para decodificação de Parquet por meio de um novo decodificador Parquet nativo
- Desempenho aprimorado para eliminação de subexpressão comum
- Desempenho aprimorado ao ignorar dados para table grandes unindo tables pequenas (junções de table de dimensão de fato)
display()
agora renderiza columns que contém tipos de dados de imagem como HTML com formatação.- Aprimoramentos em Registrar em log, carregar e registrar modelos do MLflow
- Dbml-local atualizado para a versão mais recente 0.4.1
- Correção de bug com modelos exportados com o parâmetro
threshold
especificado - Adicionado suporte para exportar
OneVsRestModel
,GBTClassificationModel
- Atualizou algumas bibliotecas do Python instaladas:
- pip: de 9.0.1 para 10.0.0b2
- setuptools: de 38.5.1 para 39.0.1
- tornado: 4.5.3 para 5.0.1
- wheel: 0.30.0 para 0.31.0
- Atualizou várias bibliotecas do R instaladas. Confira Bibliotecas do R instaladas.
- Atualizado Azure Data Lake Store SDK de 2.0.11 para 2.2.8.
- CUDA atualizado para 9.0 de 8.0 e CUDNN para 7.0 de 6.0 para clusters de GPU.
Apache Spark
O Databricks Runtime 4.1 inclui o Apache Spark 2.3.0. Esta versão inclui todas as correções e melhorias incluídas no Databricks Runtime 4.0 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [SPARK-24007][SQL] EqualNullSafe para FloatType e DoubleType pode generate um resultado errado por codegen.
- [SPARK-23942][PYTHON] [SQL] Faz coleta no PySpark como ação para um ouvinte de executor de consulta
- [SPARK-23815][CORE] O modo de substituição de partition dinâmica do gravador do Spark pode falhar ao gravar a saída na partition de vários níveis
- [SPARK-23748][SS] Corrigir o processo contínuo de SS não dá suporte ao problema de SubqueryAlias
- [SPARK-23963][SQL] Lidar corretamente com um grande número de columns em consulta na table Hive baseada em texto
- [SPARK-23867][SCHEDULER] Usar droppedCount no logWarning
- [SPARK-23816][CORE] Tarefas encerradas devem ignorar FetchFailures.
- [SPARK-23809][SQL] A SparkSession ativa deve ser set por getOrCreate
- [SPARK-23966][SS] Refatorando toda a lógica de gravação do arquivo de ponto de verificação em uma interface CheckpointFileManager comum
- [SPARK-21351][SQL] nulidade de Update com base na saída dos filhos
- [SPARK-23847][PYTHON] [SQL] Adicionar asc_nulls_first e asc_nulls_last ao PySpark
- [SPARK-23822][SQL] Aprimorar a mensagem de erro de incompatibilidades de schema do Parquet
- [SPARK-23823][SQL] Manter a origem em transformExpression
- [SPARK-23838][WEBUI] A consulta SQL em execução é exibida como "concluída" no guia SQL
- [SPARK-23802][SQL] O PropagateEmptyRelation pode deixar o plano de consulta em estado não resolvido
- [SPARK-23727][SQL] Suporte para envio de filtros por push para a DateType no parquet
- [SPARK-23574][SQL] Relatar SinglePartition em DataSourceV2ScanExec quando houver exatamente 1 data reader factory.
- [SPARK-23533][SS] Adicionar suporte para alterar startOffset do ContinuousDataReader
- [SPARK-23491][SS] Remove cancelamento explícito de trabalho a partir da reconfiguração do ContinuousExecution
- [SPARK-23040][CORE] Retorna o iterador de interrupção para o leitor de ordem aleatória
- [SPARK-23827][SS] O StreamingJoinExec deve garantir que os dados de entrada sejam particionados em um número específico de partições
- [SPARK-23639][SQL] Obter token antes do cliente init na CLI do SparkSQL
- [SPARK-23806] O Broadcast.unpersist pode causar uma exceção fatal quando usado.…
- [SPARK-23599][SQL] Usar o RandomUUIDGenerator na expressão Uuid
- [SPARK-23599][SQL] Adicionar um gerador UUID de números pseudoaleatórios
- [SPARK-23759][UI] Não é possível associar a interface do usuário Spark ao nome do host específico / IP
- [SPARK-23769][CORE] Remove os comentários que desnecessariamente desabilitam a verificação Scalastyle
- [SPARK-23614][SQL] Corrigir troca de reutilização incorreta quando o cache é usado
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs deve salvar/restore o estado CSE corretamente
- [SPARK-23729][CORE] Respeitar o fragmento URI ao resolver globs
- [SPARK-23550][CORE] Limpar Utils
- [SPARK-23288][SS] Corrigir métricas de saída com o coletor do Parquet
- [SPARK-23264][SQL] Corrigir scala.MatchError em literals.sql.out
- [SPARK-23649][SQL] Ignorando os caracteres não permitidos em UTF-8
- [SPARK-23691][PYTHON] Utilizar o utilitário sql_conf em testes do PySpark where possível
- [SPARK-23644][CORE][UI] Usar o caminho absoluto para a chamada REST em SHS
- [SPARK-23706][PYTHON] spark.conf.get(value, default=None) deverá retornar None em PySpark
- [SPARK-23623][SS] Evitar o uso simultâneo de consumidores em cache em CachedKafkaConsumer
- [SPARK-23670][SQL] Corrigir perda de memória em SparkPlanGraphWrapper
- [SPARK-23608][CORE][WEBUI] Adicionar uma sincronização em SHS entre as funções attachSparkUI e detachSparkUI para evitar problema de modificação simultânea no Jetty Handlers.
- [SPARK-23671][CORE] Corrigir a condição para habilitar o pool de threads SHS.
- [SPARK-23658][LAUNCHER] InProcessAppHandle usa a classe errada em getLogger
- [SPARK-23642][DOCS] Correção de scaladoc isZero de subclasse do AccumulatorV2
- [SPARK-22915][MLLIB] Testes do fluxo para spark.ml.feature, de N a Z
- [SPARK-23598][SQL] Tornar os métodos públicos no BufferedRowIterator para evitar erro de runtime para uma consulta grande
- [SPARK-23546][SQL] Refatorar métodos sem estado/values no CodegenContext
- [SPARK-23523][SQL] Corrigir o resultado incorreto causado pela regra OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] Melhorar a mensagem de erro de campo ausente em StructType
- [SPARK-23624][SQL] Revisar doc do método pushFilters no Datasource V2
- [SPARK-23173][SQL] Evitar a criação de arquivos parquet corrompidos ao carregar dados do JSON
- [SPARK-23436][SQL] Inferir partition como Date somente se ele puder ser convertido em Date
- [SPARK-23406][SS] Habilitar autojunções de fluxo-fluxo
- [SPARK-23490][SQL] Verificar o storage.locationUri em relação à table existente em CreateTable
- [SPARK-23524]Os blocos grandes de ordem aleatória local não devem ser verificados se estão corrompidos.
- [SPARK-23525][SQL] Dar suporte a ALTER TABLE CHANGE COLUMN COMMENT para dados de table externa
- [SPARK-23434][SQL] O Spark não deverá avisar o diretório de metadados sobre um caminho de arquivo HDFS
- [SPARK-23457][SQL] Registrar ouvintes de conclusão de tarefas no ParquetFileFormat
- [SPARK-23329][SQL] Corrigir documentação de funções trigonométricas
- [SPARK-23569][PYTHON] Permitir que pandas_udf trabalhe com funções anotadas por tipo de estilo do python3
- [SPARK-23570][SQL] Adicionar o Spark 2.3.0 em HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Fazer com que _pyspark.util.exception_message produza o rastreamento do lado do Java por Py4JJavaError
- [SPARK-23508][CORE] Corrigir BlockmanagerId caso blockManagerIdCache provoque oom
- [SPARK-23448][SQL] Esclarecer o comportamento do analisador JSON e CSV no documento
- [SPARK-23365][CORE] Não ajustar executores num ao eliminar executores ociosos.
- [SPARK-23438][DSTREAMS] Corrigir perda de dados DStreams com WAL quando o driver falha
- [SPARK-23475][UI] Mostrar também as fases ignoradas
- [SPARK-23518][SQL] Evitar acesso de metastore quando os usuários só desejam ler e gravar quadros de dados
- [SPARK-23406][SS] Habilitar autojunções de fluxo-fluxo
- [SPARK-23541][SS] Permitir que a origem do Kafka leia dados com paralelismo maior que o número de partições do artigo
- [SPARK-23097][SQL][SS] Migrar fonte de soquete de texto para V2
- [SPARK-23362][SS] Migrar fonte de microlote Kafka para V2
- [SPARK-23445]Refatoração do ColumnStat
- [SPARK-23092][SQL] Migrar MemoryStream para APIs do DataSourceV2
- [SPARK-23447][SQL] Limpar modelo de codegen para Literal
- [SPARK-23366]Melhorar caminho de leitura quente em ReadAheadInputStream
- [SPARK-22624][PYSPARK] Expor ordem aleatória de particionamento por intervalos
Atualizações de manutenção
Confira Atualizações de manutenção do Databricks Runtime 4.1.
Ambiente do sistema
- Sistema operacional: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 para os clusters do Python 2 e 3.5.2 para os clusters do Python 3.
- R: R versão 3.4.4 (15-03-2018)
- Clusters da GPU: as seguintes bibliotecas GPU da NVIDIA estão instaladas:
- Driver Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
criptografia | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 10.0.0b2 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
solicitações | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0,32 | seaborn | 0.7.1 |
setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1,0 |
singledispatch | 3.4.0.3 | six | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.1 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.31.0 |
wsgiref | 0.1.2 |
Bibliotecas R instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
base | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | boot | 1.3-20 |
brew | 1.0-6 | broom | 0.4.4 | carro | 3.0-0 |
carData | 3.0-1 | sinal de interpolação | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | classe | 7.3-14 | cli | 1.0.0 |
cluster | 2.0.7 | codetools | 0.2-15 | colorspace | 1.3-2 |
commonmark | 1.4 | compiler | 3.4.4 | crayon | 1.3.4 |
curl | 3.2 | CVST | 0.2-1 | do Hive.table | 1.10.4-3 |
conjuntos de dados | 3.4.4 | DBI | 0.8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | desc | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | digest | 0.6.15 | dimRed | 0.1.0 |
doMC | 1.3.5 | dplyr | 0.7.4 | DRR | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | foreign | 0.8-69 |
gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | glue | 1.2.0 | gower | 0.1.2 |
elemento gráfico | 3.4.4 | grDevices | 3.4.4 | grade | 3.4.4 |
gsubfn | 0.7 | gtable | 0.2.0 | h2o | 3.16.0.2 |
haven | 1.1.1 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iterators | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | labeling | 0.3 | lattice | 0.20-35 |
lava | 1.6.1 | lazyeval | 0.2.1 | littler | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
mapproj | 1.2.6 | mapas | 3.3.0 | maptools | 0.9-2 |
MASS | 7.3-49 | Matriz | 1.2-13 | MatrixModels | 0.4-1 |
memoise | 1.1.0 | methods | 3.4.4 | mgcv | 1.8-23 |
mime | 0.5 | minqa | 1.2.4 | mnormt | 1.5-5 |
ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | pillar | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | praise | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.11.0 | prodlim | 1.6.1 | proto | 1.0.0 |
psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
recipes | 0.1.2 | rematch | 1.0.1 | reshape2 | 1.4.3 |
rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0.7 | scales | 0.5.0 | sfsmisc | 1.1-2 |
sp | 1.2-7 | SparkR | 2.3.0 | SparseM | 1.77 |
spatial | 7.3-11 | splines | 3.4.4 | sqldf | 0.4-11 |
SQUAREM | 2017.10-1 | statmod | 1.4.30 | stats | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
survival | 2.41-3 | tcltk | 3.4.4 | TeachingDemos | 2,10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | tools | 3.4.4 |
utf8 | 1.1.3 | utils | 3.4.4 | viridisLite | 0.3.0 |
whisker | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Instaladas as bibliotecas do Java e Scala (versão de cluster do Scala 2.11)
ID do Grupo | Artifact ID | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | fluxo | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1,1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2.2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | Netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | coletor | 0.7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1,2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.8.0 |
org.apache.arrow | arrow-memory | 0.8.0 |
org.apache.arrow | arrow-vector | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | column do Parquet | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-encoding | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1,0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |