Condividi tramite


Databricks Runtime 4.1 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.

Databricks ha rilasciato questa versione nel maggio 2018.

Importante

Questa versione è stata deprecata il 17 gennaio 2019. Per altre informazioni sui criteri di deprecazione e sulla pianificazione di Databricks Runtime, vedere Ciclo di vita del supporto di Databricks.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 4.1, basate su Apache Spark.

Delta Lake

Databricks Runtime versione 4.1 aggiunge importanti miglioramenti qualitativi e funzionalità a Delta Lake. Databricks consiglia vivamente a tutti i clienti Delta Lake di eseguire l'aggiornamento al nuovo runtime. Questa versione rimane in anteprima privata, ma rappresenta una versione candidata in previsione della prossima versione disponibile a livello generale.

Delta Lake è ora disponibile anche in anteprima privata per gli utenti di Azure Databricks. Contattare il proprio account manager o iscriversi all'indirizzo https://databricks.com/product/databricks-delta.

Modifiche di rilievo

  • Databricks Runtime 4.1 include modifiche al protocollo di transazione per abilitare nuove funzionalità, ad esempio la convalida. Tables creato con Databricks Runtime 4.1 utilizza automaticamente la nuova versione e non può essere scritto da versioni precedenti di Databricks Runtime. Per sfruttare questi miglioramenti, è necessario aggiornare il tables esistente. Per aggiornare un tableesistente, aggiornare prima tutti i processi che scrivono nel table. Eseguire quindi:

    com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
    

    Per altre informazioni, vedere Come azure Databricks gestisce la compatibilità delle funzionalità Delta Lake.

  • Le scritture vengono ora verificate in base al schema corrente del table anziché aggiungere automaticamente columns che mancano dalla destinazione table. Per abilitare il comportamento precedente, set l'opzione mergeSchema per true.

  • Se si eseguono versioni precedenti di Databricks Delta, è necessario aggiornare tutti i processi prima di usare Databricks Runtime 4.1. Se viene visualizzato uno di questi errori, eseguire l'aggiornamento a Databricks Runtime 4.1:

    java.lang.NumberFormatException: For input string: "00000000000000....crc"
    scala.MatchError
    
  • Tables non possono più avere columns che differiscono solo per caso.

  • Le configurazioni delta-specifiche di table devono ora essere precedute da delta.

Nuove funzionalità

  • Schema di gestione: Databricks Delta convalida ora gli accodamenti e le sovrascrizioni a un table esistente per garantire che il schema scritto corrisponda al schema.

    • Databricks Delta continua a supportare l'evoluzione automatica schema.
    • Databricks Delta supporta ora il DDL seguente per modificare schema in modo esplicito:
      • ALTER TABLE ADD COLUMN aggiungere nuovi columns a un table
      • ALTER TABLE CHANGE COLUMNS per modificare l'ordinamento di column
      • ALTER TABLE [SET|UNSET] TBLPROPERTIES

    Per informazioni dettagliate, vedere Schema imposizione.

  • DDL avanzato e table supporto

    • Supporto completo per table DDL e saveAsTable(). save() e saveAsTable() ora hanno una semantica identica.
    • Tutti i comandi DDL e DML supportano sia table nome che delta.`<path-to-table>`.
    • SHOW PARTITIONS
    • SHOW COLUMNS
    • DESC TABLE
    • Informazioni dettagliate su table: è possibile visualizzare le versioni correnti del lettore e dello scrittore di un table eseguendo DESCRIBE DETAIL. Si veda In che modo Azure Databricks gestisce la compatibilità delle funzionalità di Delta Lake?.
    • Dettagli di Table: le informazioni sulla provenienza sono ora disponibili per ogni scrittura in un table. La barra laterale dei dati mostra anche informazioni dettagliate table e cronologia per Databricks Delta tables. Vedere esaminare i dettagli di Delta Lake table con la descrizione dettagliata.
    • Streaming tables: è possibile creare dataframe di streaming usando spark.readStream.format("delta").table("<table-name>").
    • tables di sola accodamento: Databricks Delta supporta ora la governance dei dati di base. È possibile bloccare le eliminazioni e le modifiche a un table impostando la proprietà tabledelta.appendOnly=true.
    • MERGE INTO source: aggiunge un supporto più completo alla specifica della query di origine di MERGE. Ad esempio, è possibile specificare LIMITe ORDER BYINLINE TABLE nell'origine.
    • Supporto completo per gli elenchi di controllo di accesso di Table.

Miglioramenti delle prestazioni

  • Riduzione del sovraccarico della raccolta di statistiche: l'efficienza della raccolta di statistiche è stata migliorata e le statistiche vengono ora raccolte solo per un numero configurabile di columnse set, con 32 come valore predefinito. Le prestazioni di scrittura di Databricks Delta sono state migliorate fino a 2 volte a causa della riduzione del sovraccarico della raccolta di statistiche. Per configurare il numero di columns, set la proprietà tabledelta.dataSkippingNumIndexedCols=<number-of-columns>.
  • Supporto per il push-down di limit: le statistiche vengono utilizzate per limit il numero di file scansionati per le query che hanno LIMIT e predicati su partitioncolumns. Ciò è applicabile alle query nei notebook a causa dell'effetto implicito limit=1000 per tutti i comandi del notebook.
  • Filtrare il pushdown nell'origine di streaming: le query di streaming ora usano il partizionamento quando si avvia un nuovo flusso per ignorare i dati irrilevanti.
  • Il parallelismo migliorato per OPTIMIZE - OPTIMIZE ora viene eseguito come singola attività Spark e userà tutto il parallelismo disponibile nel cluster (in precedenza era limitato a 100 file compattati alla volta).
  • Ignora dati in DML - UPDATE, DELETEe MERGE ora usano le statistiche quando si individuano i file che devono essere riscritti.
  • Riduzione della conservazione dei checkpoint: i checkpoint vengono ora conservati per due giorni (la cronologia viene ancora mantenuta per 30) per ridurre i costi di archiviazione per il log delle transazioni.

Comportamento dell'API

  • Il comportamento di in Databricks Delta è identico a quello di insertInto(<table-name>) altre origini dati.
    • Se non viene specificata alcuna modalità o mode è ErrorIfExists, Ignoreo Append, i dati vengono aggiunti al DataFrame nel Databricks Delta table.
    • Se mode è Overwrite, elimina tutti i dati nella table esistente e inserisce i dati dal DataFrame in Databricks Delta table.
  • Se memorizzato nella cache, table di destinazione di MERGE deve essere rimosso manualmente dalla cache.

Miglioramenti per l'usabilità

  • Convalide della migrazione del carico di lavoro- Errori comuni durante la migrazione dei carichi di lavoro a Databricks Delta ora generano un'eccezione anziché non riuscire:
    • Uso di format("parquet") per leggere o scrivere un table.
    • Lettura o scrittura diretta su un partition (ovvero /path/to/delta/part=1).
    • Pulizia delle sottodirectory di un table.
    • INSERT OVERWRITE DIRECTORY l'uso di Parquet su un table.
  • Configurazione senza distinzione tra maiuscole e minuscole: le opzioni per il lettore/writer del dataframe e le proprietà table non fanno distinzione tra maiuscole e minuscole (inclusi il percorso di lettura e il percorso di scrittura).
  • Column nomi: i nomi Tablecolumn possono ora includere punti.

Problemi noti

  • Gli inserimenti delle istruzioni multi-insert si trovano in unità di lavoro diverse anziché nella stessa transazione.

Correzioni di bug

  • È stato risolto un ciclo infinito che si verificava quando veniva avviato un nuovo flusso su un table ad aggiornamento rapido.

Elementi deprecati

Structured Streaming non gestisce l'input che non è un accodamento e genera un'eccezione se vengono apportate modifiche al table in uso come origine. In precedenza è possibile eseguire l'override di questo comportamento usando il ignoreFileDeletion flag , ma è ora deprecato. Usare invece ignoreDeletes o ignoreChanges. Vedere Delta table come origine.

Altre modifiche e miglioramenti

  • Query Watchdog è abilitato per tutti i cluster creati usando l'interfaccia utente.
  • Miglioramento delle prestazioni lato driver per la cache DBIO
  • Miglioramento delle prestazioni per la decodifica Parquet tramite un nuovo decodificatore Parquet nativo
  • Miglioramento delle prestazioni per l'eliminazione di sottoespressione comune
  • Miglioramento delle prestazioni di salto dei dati per table di grandi dimensioni che si aggiungono a piccole tables (join table dimensione dei fatti)
  • display() ora esegue il rendering di columns contenenti tipi di dati immagine come HTML avanzato.
  • Miglioramenti al log, caricamento e registrazione dei modelli MLflow
    • Aggiornamento di dbml-local alla versione più recente 0.4.1
    • Correzione di un bug con i modelli esportati con threshold il parametro specificato
    • Aggiunta del supporto per l'esportazione di OneVsRestModel, GBTClassificationModel
  • Aggiornamento di alcune librerie Python installate:
    • pip: da 9.0.1 a 10.0.0b2
    • setuptools: da 38.5.1 a 39.0.1
    • tornado: da 4.5.3 a 5.0.1
    • ruota: da 0.30.0 a 0.31.0
  • Aggiornamento di diverse librerie R installate. Vedere Librerie R installate.
  • Aggiornamento di Azure Data Lake Store SDK dalla versione 2.0.11 alla versione 2.2.8.
  • Aggiornamento di CUDA alla versione 9.0 da 8.0 e CUDNN alla versione 7.0 dalla 6.0 per i cluster GPU.

Apache Spark

Databricks Runtime 4.1 include Apache Spark 2.3.0. Questa versione include tutte le correzioni e i miglioramenti inclusi in Databricks Runtime 4.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-24007][SQL] EqualNullSafe per FloatType e DoubleType potrebbero generate un risultato errato da codegen.
  • [SPARK-23942][PYTHON][SQL] Crea la raccolta in PySpark come azione per un listener dell'executor di query
  • [SPARK-23815][CORE] La modalità di sovrascrittura dinamica del writer Spark partition potrebbe non riuscire a scrivere l'output su multi-livello partition
  • [SPARK-23748][SS] Correzione del processo continuo di SS non supporta il problema di SubqueryAlias
  • [SPARK-23963][SQL] Gestire correttamente un numero elevato di columns nella query su table Hive basato su testo
  • [SPARK-23867][SCHEDULER] usare droppedCount in logWarning
  • [SPARK-23816][CORE] Le attività terminate devono ignorare FetchFailures.
  • [SPARK-23809][SQL] Active SparkSession deve essere set da getOrCreate
  • [SPARK-23966][SS] Refactoring di tutti i file di checkpoint che scrivono logica in un'interfaccia CheckpointFileManager comune
  • [SPARK-21351][SQL] Update nullability basato sull'output dei figli
  • [SPARK-23847][PYTHON][SQL] Aggiungere asc_nulls_first, asc_nulls_last a PySpark
  • [SPARK-23822][SQL] Migliorare il messaggio di errore per le incongruenze di Parquet schema
  • [SPARK-23823][SQL] Mantenere l'origine in transformExpression
  • [SPARK-23838][WEBUI] L'esecuzione di query SQL viene visualizzata come "completata" nella scheda SQL
  • [SPARK-23802][SQL] PropagateEmptyRelation può lasciare il piano di query in uno stato non risolto
  • [SPARK-23727][SQL] Supporto per il push dei filtri per DateType in parquet
  • [SPARK-23574][SQL] Report SinglePartition in DataSourceV2ScanExec quando è presente esattamente 1 data reader factory.
  • [SPARK-23533][SS] Aggiunta del supporto per la modifica dell'oggetto startOffset di ContinuousDataReader
  • [SPARK-23491][SS] Remove annullamento esplicito dei job dalla riconfigurazione di ContinuousExecution
  • [SPARK-23040][CORE] Restituisce un iteratore interrompibile per il lettore casuale
  • [SPARK-23827][SS] StreamingJoinExec deve garantire che i dati di input siano partizionati in un numero specifico di partizioni
  • [SPARK-23639][SQL] Ottenere il token prima del client metastore init nell'interfaccia della riga di comando di SparkSQL
  • [SPARK-23806]Broadcast.unpersist può causare eccezioni irreversibili quando viene usato...
  • [SPARK-23599][SQL] Usare RandomUUIDGenerator nell'espressione Uuid
  • [SPARK-23599][SQL] Aggiungere un generatore UUID da numeri pseudo-casuali
  • [SPARK-23759][interfaccia utente] Impossibile associare l'interfaccia utente di Spark a un nome host/IP specifico
  • [SPARK-23769][CORE] Remove commenti che disabilitano inutilmente il controllo Scalastyle
  • [SPARK-23614][SQL] Correzione dello scambio di riutilizzo non corretto quando viene usata la memorizzazione nella cache
  • [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs dovrebbe salvare/restore lo stato CSE correttamente
  • [SPARK-23729][CORE] Rispettare il frammento URI durante la risoluzione dei glob
  • [SPARK-23550][CORE] Utilità di pulizia
  • [SPARK-23288][SS] Correzione delle metriche di output con sink Parquet
  • [SPARK-23264][SQL] Correggere scala. MatchError in literals.sql.out
  • [SPARK-23649][SQL] Ignorare i caratteri non consentiti in UTF-8
  • [SPARK-23691][PYTHON] Usare l'utilità sql_conf nei test PySpark where possibile
  • [SPARK-23644][CORE][interfaccia utente] Usare il percorso assoluto per la chiamata REST in SHS
  • [SPARK-23706][PYTHON] spark.conf.get(valore, default=None) deve produrre Nessuno in PySpark
  • [SPARK-23623][SS] Evitare l'uso simultaneo dei consumer memorizzati nella cache in CachedKafkaConsumer
  • [SPARK-23670][SQL] Correzione della perdita di memoria in SparkPlanGraphWrapper
  • [SPARK-23608][CORE][WEBUI] Aggiungere la sincronizzazione in SHS tra le funzioni attachSparkUI e detachSparkUI per evitare problemi di modifica simultanei ai gestori Jetty
  • [SPARK-23671][CORE] Correzione della condizione per abilitare il pool di thread SHS.
  • [SPARK-23658][LAUNCHER] InProcessAppHandle usa la classe errata in getLogger
  • [SPARK-23642][DOCS] Correzione della sottoclasse AnalyzerV2 isZero scaladoc fix
  • [SPARK-22915][MLLIB] Streaming di test per spark.ml.feature, da N a Z
  • [SPARK-23598][SQL] Rendere pubblici i metodi in BufferedRowIterator per evitare errori di runtime per una query di grandi dimensioni
  • [SPARK-23546][SQL] Refactoring dei metodi senza stato/values in CodegenContext
  • [SPARK-23523][SQL] Correggere il risultato errato causato dalla regola OptimizeMetadataOnlyQuery
  • [SPARK-23462][SQL] Miglioramento del messaggio di errore di campo mancante in StructType
  • [SPARK-23624][SQL] Rivedere la documentazione dei filtri push del metodo in Datasource V2
  • [SPARK-23173][SQL] Evitare di creare file Parquet danneggiati durante il caricamento di dati da JSON
  • [SPARK-23436][SQL] Inferre partition come Data solo se è possibile eseguirne il cast in Data
  • [SPARK-23406][SS] Abilitare self-join di flusso
  • [SPARK-23490][SQL] Controllare storage.locationUri con table esistenti in CreateTable
  • [SPARK-23524]I blocchi casuali locali di grandi dimensioni non devono essere controllati per verificare la presenza di danneggiamenti.
  • [SPARK-23525][SQL] Supporto ALTER TABLE CHANGE COLUMN COMMENT per hive esterno table
  • [SPARK-23434][SQL] Spark non deve avvisare la directory dei metadati per un percorso di file HDFS
  • [SPARK-23457][SQL] Registrare prima i listener di completamento delle attività in ParquetFileFormat
  • [SPARK-23329][SQL] Correzione della documentazione delle funzioni trigonometriche
  • [SPARK-23569][PYTHON] Consenti pandas_udf di usare funzioni con annotazioni di tipo Python3
  • [SPARK-23570][SQL] Aggiungere Spark 2.3.0 in HiveExternalCatalogVersionsSuite
  • [SPARK-23517][PYTHON] Imposta _pyspark.util. exception_message produrre la traccia da Java accanto a Py4JJavaError
  • [SPARK-23508][CORE] Correggere BlockmanagerId nel caso blockManagerIdCache causa oom
  • [SPARK-23448][SQL] Chiarire il comportamento del parser JSON e CSV nel documento
  • [SPARK-23365][CORE] Non regolare gli executor num quando si uccidono executor inattive.
  • [SPARK-23438][DSTREAMS] Correggere la perdita di dati DStreams con WAL quando il driver si arresta in modo anomalo
  • [SPARK-23475][interfaccia utente] Mostra anche le fasi ignorate
  • [SPARK-23518][SQL] Evitare l'accesso al metastore quando gli utenti vogliono solo leggere e scrivere frame di dati
  • [SPARK-23406][SS] Abilitare self-join di flusso
  • [SPARK-23541][SS] Consentire all'origine Kafka di leggere i dati con maggiore parallelismo rispetto al numero di partizioni di articolo
  • [SPARK-23097][SQL][SS] Eseguire la migrazione dell'origine socket di testo alla versione 2
  • [SPARK-23362][SS] Eseguire la migrazione dell'origine Microbatch Kafka alla versione 2
  • [SPARK-23445]Refactoring columnStat
  • [SPARK-23092][SQL] Eseguire la migrazione di MemoryStream alle API DataSourceV2
  • [SPARK-23447][SQL] Modello codegen di pulizia per valore letterale
  • [SPARK-23366]Migliorare il percorso di lettura ad accesso frequente in ReadAheadInputStream
  • [SPARK-22624][PYSPARK] Esporre il partizionamento casuale dell'intervallo

Aggiornamenti della manutenzione

Vedere Aggiornamenti della manutenzione di Databricks Runtime 4.1.

Ambiente di sistema

  • Sistema operativo: Ubuntu 16.04.4 LTS
  • Java: 1.8.0_162
  • Scala: 2.11.8
  • Python: 2.7.12 per cluster Python 2 e 3.5.2 per cluster Python 3.
  • R: R versione 3.4.4 (2018-03-15)
  • Cluster GPU: sono installate le librerie GPU NVIDIA seguenti:
    • Driver Tesla 375.66
    • CUDA 9.0
    • cuDNN 7.0

Librerie Python installate

Library Versione Library Versione Library Versione
ansi2html 1.1.1 argparse 1.2.1 backports-abc 0,5
boto 2.42.0 boto3 1.4.1 botocore 1.4.70
brewer2mpl 1.4.1 certifi 2016.2.28 cffi 1.7.0
chardet 2.3.0 colorama 0.3.7 configobj 5.0.6
cryptography 1,5 cycler 0.10.0 Cython 0.24.1
decorator 4.0.10 docutils 0.14 enum34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsig 1.0.2
fusepy 2.0.4 futures 3.2.0 ggplot 0.6.8
html5lib 0,999 idna 2.1 ipaddress 1.0.16
ipython 2.2.0 ipython-genutils 0.1.0 jdcal 1.2
Jinja2 2.8 jmespath 0.9.0 llvmlite 0.13.0
lxml 3.6.4 MarkupSafe 0,23 matplotlib 1.5.3
mpld3 0.2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
numba 0.28.1 numpy 1.11.1 openpyxl 2.3.2
pandas 0.19.2 pathlib2 2.1.0 patsy 0.4.1
pexpect 4.0.1 pickleshare 0.7.4 Pillow 3.3.1
pip 10.0.0b2 filo 3.9 prompt-toolkit 1.0.7
Psycopg2 2.6.2 ptyprocess 0.5.1 py4j (0.10.3)
pyarrow 0.8.0 pyasn1 0.1.9 pycparser 2.14
Pygments 2.1.3 pygobject 3.20.0 pyOpenSSL 16.0.0
pyparsing 2.2.0 pypng 0.0.18 Python 2.7.12
python-dateutil 2.5.3 python-geohash 0.8.5 pytz 2016.6.1
requests 2.11.1 s3transfer 0.1.9 scikit-learn 0.18.1
scipy 0.18.1 strofinare 0,32 seaborn 0.7.1
setuptools 39.0.1 simplejson 3.8.2 simples3 1.0
singledispatch 3.4.0.3 six 1.10.0 statsmodels 0.6.1
tornado 5.0.1 traitlets 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 wcwidth 0.1.7 wheel 0.31.0
wsgiref 0.1.2

Librerie R installate

Library Versione Library Versione Library Versione
abind 1.4-5 assertthat 0.2.0 backports 1.1.2
base 3.4.4 BH 1.66.0-1 bindr 0.1.1
bindrcpp 0.2.2 bit 1.1-12 bit64 0.9-7
bitops 1.0-6 blob 1.1.1 boot 1.3-20
brew 1.0-6 Scopa 0.4.4 car 3.0-0
carData 3.0-1 caret 6.0-79 cellranger 1.1.0
chron 2.3-52 class 7.3-14 cli 1.0.0
cluster 2.0.7 codetools 0.2-15 colorspace 1.3-2
commonmark 1.4 compilatore 3.4.4 crayon 1.3.4
curl 3.2 CVST 0.2-1 dati.table 1.10.4-3
datasets 3.4.4 DBI 0,8 ddalpha 1.3.1.1
DEoptimR 1.0-8 desc 1.1.1 devtools 1.13.5
dichromat 2.0-0 digest 0.6.15 dimRed 0.1.0
doMC 1.3.5 dplyr 0.7.4 DRR 0.0.3
forcats 0.3.0 foreach 1.4.4 foreign 0.8-69
gbm 2.1.3 ggplot2 2.2.1 git2r 0.21.0
glmnet 2.0-16 glue 1.2.0 Gower 0.1.2
grafica 3.4.4 grDevices 3.4.4 grid 3.4.4
gsubfn 0,7 gtable 0.2.0 h2o 3.16.0.2
haven 1.1.1 hms 0.4.2 httr 1.3.1
hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-6
Iteratori 1.0.9 jsonlite 1,5 kernlab 0.9-25
KernSmooth 2.23-15 Etichettatura 0,3 Lattice 0.20-35
Java 1.6.1 lazyeval 0.2.1 Littler 0.3.3
lme4 1.1-17 lubridate 1.7.3 magrittr 1,5
mapproj 1.2.6 mappe 3.3.0 maptools 0.9-2
MASS 7.3-49 Matrice 1.2-13 MatrixModels 0.4-1
memoise 1.1.0 methods 3.4.4 mgcv 1.8-23
mime 0,5 minqa 1.2.4 mnormt 1.5-5
ModelMetrics 1.1.0 munsell 0.4.3 mvtnorm 1.0-7
nlme 3.1-137 nloptr 1.0.4 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.0.1 openxlsx 4.0.17
parallel 3.4.4 pbkrtest 0.4-7 Concetto fondamentale 1.2.1
pkgconfig 2.0.1 pkgKitten 0.1.4 plogr 0.2.0
plyr 1.8.4 praise 1.0.0 prettyunits 1.0.2
Proc 1.11.0 prodlim 1.6.1 proto 1.0.0
psych 1.8.3.3 purrr 0.2.4 quantreg 5.35
R.methodsS3 1.7.1 R.oo 1.21.0 R.utils 2.6.0
R6 2.2.2 randomForest 4.6-14 RColorBrewer 1.1-2
Rcpp 0.12.16 RcppEigen 0.3.3.4.0 RcppRoll 0.2.2
RCurl 1.95-4.10 readr 1.1.1 readxl 1.0.0
ricette 0.1.2 rematch 1.0.1 reshape2 1.4.3
Rio de Janeiro 0.5.10 rlang 0.2.0 robustbase 0.92-8
RODBC 1.3-15 roxygen2 6.0.1 rpart 4.1-13
rprojroot 1.3-2 Rserve 1.7-3 RSQLite 2.1.0
rstudioapi 0,7 Scalabilità 0.5.0 sfsmisc 1.1-2
sp 1.2-7 SparkR 2.3.0 SparseM 1.77
spaziale 7.3-11 Spline 3.4.4 sqldf 0.4-11
SQUAREM 2017.10-1 statmod 1.4.30 stats 3.4.4
stats4 3.4.4 stringi 1.1.7 stringr 1.3.0
Sopravvivenza 2.41-3 tcltk 3.4.4 TeachingDemos 2.10
testthat 2.0.0 tibble 1.4.2 tidyr 0.8.0
tidyselect 0.2.4 timeDate 3043.102 tools 3.4.4
UTF8 1.1.3 utils 3.4.4 viridisLite 0.3.0
whisker 0.3-2 withr 2.1.2 xml2 1.2.0

Librerie Java e Scala installate (versione del cluster Scala 2.11)

ID gruppo ID artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-distribuisci-client 1.7.3
com.amazonaws aws-java-sdk-autoscaling 1.11.313
com.amazonaws aws-java-sdk-cloudformation 1.11.313
com.amazonaws aws-java-sdk-cloudfront 1.11.313
com.amazonaws aws-java-sdk-cloudhsm 1.11.313
com.amazonaws aws-java-sdk-cloudsearch 1.11.313
com.amazonaws aws-java-sdk-cloudtrail 1.11.313
com.amazonaws aws-java-sdk-cloudwatch 1.11.313
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.313
com.amazonaws aws-java-sdk-codedeploy 1.11.313
com.amazonaws aws-java-sdk-cognitoidentity 1.11.313
com.amazonaws aws-java-sdk-cognitosync 1.11.313
com.amazonaws aws-java-sdk-config 1.11.313
com.amazonaws aws-java-sdk-core 1.11.313
com.amazonaws aws-java-sdk-datapipeline 1.11.313
com.amazonaws aws-java-sdk-directconnect 1.11.313
com.amazonaws aws-java-sdk-directory 1.11.313
com.amazonaws aws-java-sdk-dynamodb 1.11.313
com.amazonaws aws-java-sdk-ec2 1.11.313
com.amazonaws aws-java-sdk-ecs 1.11.313
com.amazonaws aws-java-sdk-efs 1.11.313
com.amazonaws aws-java-sdk-elasticache 1.11.313
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.313
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.313
com.amazonaws aws-java-sdk-elastictranscoder 1.11.313
com.amazonaws aws-java-sdk-emr 1.11.313
com.amazonaws aws-java-sdk-glacier 1.11.313
com.amazonaws aws-java-sdk-iam 1.11.313
com.amazonaws aws-java-sdk-importexport 1.11.313
com.amazonaws aws-java-sdk-consultas 1.11.313
com.amazonaws aws-java-sdk-kms 1.11.313
com.amazonaws aws-java-sdk-lambda 1.11.313
com.amazonaws aws-java-sdk-logs 1.11.313
com.amazonaws aws-java-sdk-machinelearning 1.11.313
com.amazonaws aws-java-sdk-opsworks 1.11.313
com.amazonaws aws-java-sdk-rds 1.11.313
com.amazonaws aws-java-sdk-redshift 1.11.313
com.amazonaws aws-java-sdk-route53 1.11.313
com.amazonaws aws-java-sdk-s3 1.11.313
com.amazonaws aws-java-sdk-ses 1.11.313
com.amazonaws aws-java-sdk-simpledb 1.11.313
com.amazonaws aws-java-sdk-simpleworkflow 1.11.313
com.amazonaws aws-java-sdk-sns 1.11.313
com.amazonaws aws-java-sdk-sqs 1.11.313
com.amazonaws aws-java-sdk-ssm 1.11.313
com.amazonaws aws-java-sdk-storagegateway 1.11.313
com.amazonaws aws-java-sdk-sts 1.11.313
com.amazonaws aws-java-sdk-support 1.11.313
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.313
com.amazonaws jmespath-java 1.11.313
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics stream 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.4.1-db1-spark2.3
com.databricks dbml-local_2.11-tests 0.4.1-db1-spark2.3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.mdfsoftware kryo-shaded 3.0.3
com.mdfsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.0.0
com.fasterxml.jackson.core annotazioni jackson 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava guaiava 15.0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jamesmurty.utils java-xmlbuilder 1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.mchange c3p0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter chill-java 0.8.4
com.twitter chill_2.11 0.8.4
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocità univocità-parser 2.5.9
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 2.4.1
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1.2
commons-codec commons-codec 1.10
commons-collections commons-collections 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 2.2
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift aircompressor 0,8
io.dropwizard.metrics metrics-core 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics metrics-healthchecks 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty Netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
io.prometheus simpleclient 0.0.16
io.prometheus simpleclient_common 0.0.16
io.prometheus simpleclient_dropwizard 0.0.16
io.prometheus simpleclient_servlet 0.0.16
io.prometheus.jmx agente di raccolta 0,7
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.11
joda-time joda-time 2.9.3
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.idromatico eigenbase-properties 1.1.5
net.iharder base64 2.3.8
net.java.dev.jets3t jets3t 0.9.4
net.razorvine pirolite 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato freccia 0.8.0
org.apache.arrow freccia-memoria 0.8.0
org.apache.arrow freccia-vettore 0.8.0
org.apache.avro avro 1.7.7
org.apache.avro avro-ipc 1.7.7
org.apache.avro avro-ipc-tests 1.7.7
org.apache.avro avro-mapred-hadoop2 1.7.7
org.apache.calcite calcite-avatica Incubazione 1.2.0
org.apache.calcite calcite-core Incubazione 1.2.0
org.apache.calcite calcite-linq4j Incubazione 1.2.0
org.apache.commons commons-compress 1.4.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-math3 3.4.1
org.apache.curator curatore-cliente 2.7.1
org.apache.curator curatore-framework 2.7.1
org.apache.curator ricette curatori 2.7.1
org.apache.derby derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core Incubazione 3.1.0
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents httpcore 4.4.8
org.apache.ivy ivy 2.4.0
org.apache.orc orc-core-nohive 1.4.1
org.apache.orc orc-mapreduce-nohive 1.4.1
org.apache.parquet parquet-column 1.8.2-databricks1
org.apache.parquet parquet-common 1.8.2-databricks1
org.apache.parquet codifica parquet 1.8.2-databricks1
org.apache.parquet formato parquet 2.3.1
org.apache.parquet parquet-hadoop 1.8.2-databricks1
org.apache.parquet parquet-jackson 1.8.2-databricks1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm5-shaded 4.4
org.apache.zookeeper zookeeper 3.4.6
org.bouncycastle bcprov-jdk15on 1,58
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.8
org.codehaus.janino janino 3.0.8
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.20.v20170531
org.eclipse.jetty jetty-continuation 9.3.20.v20170531
org.eclipse.jetty jetty-http 9.3.20.v20170531
org.eclipse.jetty jetty-io 9.3.20.v20170531
org.eclipse.jetty jetty-jndi 9.3.20.v20170531
org.eclipse.jetty jetty-plus 9.3.20.v20170531
org.eclipse.jetty jetty-proxy 9.3.20.v20170531
org.eclipse.jetty jetty-security 9.3.20.v20170531
org.eclipse.jetty jetty-server 9.3.20.v20170531
org.eclipse.jetty jetty-servlet 9.3.20.v20170531
org.eclipse.jetty jetty-servlets 9.3.20.v20170531
org.eclipse.jetty jetty-util 9.3.20.v20170531
org.eclipse.jetty jetty-webapp 9.3.20.v20170531
org.eclipse.jetty jetty-xml 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged maglia-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core maglia-comune 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy snappy 0.2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.2.11
org.json4s json4s-core_2.11 3.2.11
org.json4s json4s-jackson_2.11 3.2.11
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-all 1.9.5
org.objenesis objenesis 2.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.8
org.scala-lang scala-library_2.11 2.11.8
org.scala-lang scala-reflect_2.11 2.11.8
org.scala-lang scalap_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2.11 1.0.2
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 2.2.6
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-exec 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark inutilizzato 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework spring-test 4.1.4.RELEASE
org.cortanaani xz 1.0
org.typelevel machinist_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.2.6
org.yaml snakeyaml 1,16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0,52