Databricks Runtime 4.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.
Databricks ha rilasciato questa versione nel maggio 2018.
Importante
Questa versione è stata deprecata il 17 gennaio 2019. Per altre informazioni sui criteri di deprecazione e sulla pianificazione di Databricks Runtime, vedere Ciclo di vita del supporto di Databricks.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 4.1, basate su Apache Spark.
Delta Lake
Databricks Runtime versione 4.1 aggiunge importanti miglioramenti qualitativi e funzionalità a Delta Lake. Databricks consiglia vivamente a tutti i clienti Delta Lake di eseguire l'aggiornamento al nuovo runtime. Questa versione rimane in anteprima privata, ma rappresenta una versione candidata in previsione della prossima versione disponibile a livello generale.
Delta Lake è ora disponibile anche in anteprima privata per gli utenti di Azure Databricks. Contattare il proprio account manager o iscriversi all'indirizzo https://databricks.com/product/databricks-delta.
Modifiche di rilievo
Databricks Runtime 4.1 include modifiche al protocollo di transazione per abilitare nuove funzionalità, ad esempio la convalida. Tables creato con Databricks Runtime 4.1 utilizza automaticamente la nuova versione e non può essere scritto da versioni precedenti di Databricks Runtime. Per sfruttare questi miglioramenti, è necessario aggiornare il tables esistente. Per aggiornare un tableesistente, aggiornare prima tutti i processi che scrivono nel table. Eseguire quindi:
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")
Per altre informazioni, vedere Come azure Databricks gestisce la compatibilità delle funzionalità Delta Lake.
Le scritture vengono ora verificate in base al schema corrente del table anziché aggiungere automaticamente columns che mancano dalla destinazione table. Per abilitare il comportamento precedente, set l'opzione
mergeSchema
pertrue
.Se si eseguono versioni precedenti di Databricks Delta, è necessario aggiornare tutti i processi prima di usare Databricks Runtime 4.1. Se viene visualizzato uno di questi errori, eseguire l'aggiornamento a Databricks Runtime 4.1:
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchError
Tables non possono più avere columns che differiscono solo per caso.
Le configurazioni delta-specifiche di table devono ora essere precedute da
delta.
Nuove funzionalità
Schema di gestione: Databricks Delta convalida ora gli accodamenti e le sovrascrizioni a un table esistente per garantire che il schema scritto corrisponda al schema.
- Databricks Delta continua a supportare l'evoluzione automatica schema.
- Databricks Delta supporta ora il DDL seguente per modificare schema in modo esplicito:
-
ALTER TABLE ADD COLUMN
aggiungere nuovi columns a un table -
ALTER TABLE CHANGE COLUMNS
per modificare l'ordinamento di column ALTER TABLE [SET|UNSET] TBLPROPERTIES
-
Per informazioni dettagliate, vedere Schema imposizione.
DDL avanzato e table supporto
- Supporto completo per table DDL e
saveAsTable()
.save()
esaveAsTable()
ora hanno una semantica identica. - Tutti i comandi DDL e DML supportano sia table nome che
delta.`<path-to-table>`
. SHOW PARTITIONS
SHOW COLUMNS
DESC TABLE
- Informazioni dettagliate su table: è possibile visualizzare le versioni correnti del lettore e dello scrittore di un table eseguendo
DESCRIBE DETAIL
. Si veda In che modo Azure Databricks gestisce la compatibilità delle funzionalità di Delta Lake?. - Dettagli di Table: le informazioni sulla provenienza sono ora disponibili per ogni scrittura in un table. La barra laterale dei dati mostra anche informazioni dettagliate table e cronologia per Databricks Delta tables. Vedere esaminare i dettagli di Delta Lake table con la descrizione dettagliata.
- Streaming tables: è possibile creare dataframe di streaming usando
spark.readStream.format("delta").table("<table-name>")
. -
tables di sola accodamento: Databricks Delta supporta ora la governance dei dati di base. È possibile bloccare le eliminazioni e le modifiche a un table impostando la proprietà table
delta.appendOnly=true
. -
MERGE INTO
source: aggiunge un supporto più completo alla specifica della query di origine diMERGE
. Ad esempio, è possibile specificareLIMIT
eORDER BY
INLINE TABLE
nell'origine. - Supporto completo per gli elenchi di controllo di accesso di Table.
- Supporto completo per table DDL e
Miglioramenti delle prestazioni
- Riduzione del sovraccarico della raccolta di statistiche: l'efficienza della raccolta di statistiche è stata migliorata e le statistiche vengono ora raccolte solo per un numero configurabile di columnse set, con 32 come valore predefinito. Le prestazioni di scrittura di Databricks Delta sono state migliorate fino a 2 volte a causa della riduzione del sovraccarico della raccolta di statistiche. Per configurare il numero di columns, set la proprietà table
delta.dataSkippingNumIndexedCols=<number-of-columns>
. - Supporto per il push-down di limit: le statistiche vengono utilizzate per limit il numero di file scansionati per le query che hanno
LIMIT
e predicati su partitioncolumns. Ciò è applicabile alle query nei notebook a causa dell'effetto implicitolimit=1000
per tutti i comandi del notebook. - Filtrare il pushdown nell'origine di streaming: le query di streaming ora usano il partizionamento quando si avvia un nuovo flusso per ignorare i dati irrilevanti.
- Il parallelismo migliorato per
OPTIMIZE
-OPTIMIZE
ora viene eseguito come singola attività Spark e userà tutto il parallelismo disponibile nel cluster (in precedenza era limitato a 100 file compattati alla volta). - Ignora dati in DML -
UPDATE
,DELETE
eMERGE
ora usano le statistiche quando si individuano i file che devono essere riscritti. - Riduzione della conservazione dei checkpoint: i checkpoint vengono ora conservati per due giorni (la cronologia viene ancora mantenuta per 30) per ridurre i costi di archiviazione per il log delle transazioni.
Comportamento dell'API
- Il comportamento di in Databricks Delta è identico a quello di
insertInto(<table-name>)
altre origini dati.- Se non viene specificata alcuna modalità o
mode
èErrorIfExists
,Ignore
oAppend
, i dati vengono aggiunti al DataFrame nel Databricks Delta table. - Se
mode
èOverwrite
, elimina tutti i dati nella table esistente e inserisce i dati dal DataFrame in Databricks Delta table.
- Se non viene specificata alcuna modalità o
- Se memorizzato nella cache, table di destinazione di
MERGE
deve essere rimosso manualmente dalla cache.
Miglioramenti per l'usabilità
- Convalide della migrazione del carico di lavoro- Errori comuni durante la migrazione dei carichi di lavoro a Databricks Delta ora generano un'eccezione anziché non riuscire:
- Uso di
format("parquet")
per leggere o scrivere un table. - Lettura o scrittura diretta su un partition (ovvero
/path/to/delta/part=1
). - Pulizia delle sottodirectory di un table.
-
INSERT OVERWRITE DIRECTORY
l'uso di Parquet su un table.
- Uso di
- Configurazione senza distinzione tra maiuscole e minuscole: le opzioni per il lettore/writer del dataframe e le proprietà table non fanno distinzione tra maiuscole e minuscole (inclusi il percorso di lettura e il percorso di scrittura).
- Column nomi: i nomi Tablecolumn possono ora includere punti.
Problemi noti
- Gli inserimenti delle istruzioni multi-insert si trovano in unità di lavoro diverse anziché nella stessa transazione.
Correzioni di bug
- È stato risolto un ciclo infinito che si verificava quando veniva avviato un nuovo flusso su un table ad aggiornamento rapido.
Elementi deprecati
Structured Streaming non gestisce l'input che non è un accodamento e genera un'eccezione se vengono apportate modifiche al table in uso come origine. In precedenza è possibile eseguire l'override di questo comportamento usando il ignoreFileDeletion
flag , ma è ora deprecato. Usare invece ignoreDeletes
o ignoreChanges
. Vedere Delta table come origine.
Altre modifiche e miglioramenti
- Query Watchdog è abilitato per tutti i cluster creati usando l'interfaccia utente.
- Miglioramento delle prestazioni lato driver per la cache DBIO
- Miglioramento delle prestazioni per la decodifica Parquet tramite un nuovo decodificatore Parquet nativo
- Miglioramento delle prestazioni per l'eliminazione di sottoespressione comune
- Miglioramento delle prestazioni di salto dei dati per table di grandi dimensioni che si aggiungono a piccole tables (join table dimensione dei fatti)
-
display()
ora esegue il rendering di columns contenenti tipi di dati immagine come HTML avanzato. - Miglioramenti al log, caricamento e registrazione dei modelli MLflow
- Aggiornamento di dbml-local alla versione più recente 0.4.1
- Correzione di un bug con i modelli esportati con
threshold
il parametro specificato - Aggiunta del supporto per l'esportazione di
OneVsRestModel
,GBTClassificationModel
- Aggiornamento di alcune librerie Python installate:
- pip: da 9.0.1 a 10.0.0b2
- setuptools: da 38.5.1 a 39.0.1
- tornado: da 4.5.3 a 5.0.1
- ruota: da 0.30.0 a 0.31.0
- Aggiornamento di diverse librerie R installate. Vedere Librerie R installate.
- Aggiornamento di Azure Data Lake Store SDK dalla versione 2.0.11 alla versione 2.2.8.
- Aggiornamento di CUDA alla versione 9.0 da 8.0 e CUDNN alla versione 7.0 dalla 6.0 per i cluster GPU.
Apache Spark
Databricks Runtime 4.1 include Apache Spark 2.3.0. Questa versione include tutte le correzioni e i miglioramenti inclusi in Databricks Runtime 4.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-24007][SQL] EqualNullSafe per FloatType e DoubleType potrebbero generate un risultato errato da codegen.
- [SPARK-23942][PYTHON][SQL] Crea la raccolta in PySpark come azione per un listener dell'executor di query
- [SPARK-23815][CORE] La modalità di sovrascrittura dinamica del writer Spark partition potrebbe non riuscire a scrivere l'output su multi-livello partition
- [SPARK-23748][SS] Correzione del processo continuo di SS non supporta il problema di SubqueryAlias
- [SPARK-23963][SQL] Gestire correttamente un numero elevato di columns nella query su table Hive basato su testo
- [SPARK-23867][SCHEDULER] usare droppedCount in logWarning
- [SPARK-23816][CORE] Le attività terminate devono ignorare FetchFailures.
- [SPARK-23809][SQL] Active SparkSession deve essere set da getOrCreate
- [SPARK-23966][SS] Refactoring di tutti i file di checkpoint che scrivono logica in un'interfaccia CheckpointFileManager comune
- [SPARK-21351][SQL] Update nullability basato sull'output dei figli
- [SPARK-23847][PYTHON][SQL] Aggiungere asc_nulls_first, asc_nulls_last a PySpark
- [SPARK-23822][SQL] Migliorare il messaggio di errore per le incongruenze di Parquet schema
- [SPARK-23823][SQL] Mantenere l'origine in transformExpression
- [SPARK-23838][WEBUI] L'esecuzione di query SQL viene visualizzata come "completata" nella scheda SQL
- [SPARK-23802][SQL] PropagateEmptyRelation può lasciare il piano di query in uno stato non risolto
- [SPARK-23727][SQL] Supporto per il push dei filtri per DateType in parquet
- [SPARK-23574][SQL] Report SinglePartition in DataSourceV2ScanExec quando è presente esattamente 1 data reader factory.
- [SPARK-23533][SS] Aggiunta del supporto per la modifica dell'oggetto startOffset di ContinuousDataReader
- [SPARK-23491][SS] Remove annullamento esplicito dei job dalla riconfigurazione di ContinuousExecution
- [SPARK-23040][CORE] Restituisce un iteratore interrompibile per il lettore casuale
- [SPARK-23827][SS] StreamingJoinExec deve garantire che i dati di input siano partizionati in un numero specifico di partizioni
- [SPARK-23639][SQL] Ottenere il token prima del client metastore init nell'interfaccia della riga di comando di SparkSQL
- [SPARK-23806]Broadcast.unpersist può causare eccezioni irreversibili quando viene usato...
- [SPARK-23599][SQL] Usare RandomUUIDGenerator nell'espressione Uuid
- [SPARK-23599][SQL] Aggiungere un generatore UUID da numeri pseudo-casuali
- [SPARK-23759][interfaccia utente] Impossibile associare l'interfaccia utente di Spark a un nome host/IP specifico
- [SPARK-23769][CORE] Remove commenti che disabilitano inutilmente il controllo Scalastyle
- [SPARK-23614][SQL] Correzione dello scambio di riutilizzo non corretto quando viene usata la memorizzazione nella cache
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs dovrebbe salvare/restore lo stato CSE correttamente
- [SPARK-23729][CORE] Rispettare il frammento URI durante la risoluzione dei glob
- [SPARK-23550][CORE] Utilità di pulizia
- [SPARK-23288][SS] Correzione delle metriche di output con sink Parquet
- [SPARK-23264][SQL] Correggere scala. MatchError in literals.sql.out
- [SPARK-23649][SQL] Ignorare i caratteri non consentiti in UTF-8
- [SPARK-23691][PYTHON] Usare l'utilità sql_conf nei test PySpark where possibile
- [SPARK-23644][CORE][interfaccia utente] Usare il percorso assoluto per la chiamata REST in SHS
- [SPARK-23706][PYTHON] spark.conf.get(valore, default=None) deve produrre Nessuno in PySpark
- [SPARK-23623][SS] Evitare l'uso simultaneo dei consumer memorizzati nella cache in CachedKafkaConsumer
- [SPARK-23670][SQL] Correzione della perdita di memoria in SparkPlanGraphWrapper
- [SPARK-23608][CORE][WEBUI] Aggiungere la sincronizzazione in SHS tra le funzioni attachSparkUI e detachSparkUI per evitare problemi di modifica simultanei ai gestori Jetty
- [SPARK-23671][CORE] Correzione della condizione per abilitare il pool di thread SHS.
- [SPARK-23658][LAUNCHER] InProcessAppHandle usa la classe errata in getLogger
- [SPARK-23642][DOCS] Correzione della sottoclasse AnalyzerV2 isZero scaladoc fix
- [SPARK-22915][MLLIB] Streaming di test per spark.ml.feature, da N a Z
- [SPARK-23598][SQL] Rendere pubblici i metodi in BufferedRowIterator per evitare errori di runtime per una query di grandi dimensioni
- [SPARK-23546][SQL] Refactoring dei metodi senza stato/values in CodegenContext
- [SPARK-23523][SQL] Correggere il risultato errato causato dalla regola OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] Miglioramento del messaggio di errore di campo mancante in StructType
- [SPARK-23624][SQL] Rivedere la documentazione dei filtri push del metodo in Datasource V2
- [SPARK-23173][SQL] Evitare di creare file Parquet danneggiati durante il caricamento di dati da JSON
- [SPARK-23436][SQL] Inferre partition come Data solo se è possibile eseguirne il cast in Data
- [SPARK-23406][SS] Abilitare self-join di flusso
- [SPARK-23490][SQL] Controllare storage.locationUri con table esistenti in CreateTable
- [SPARK-23524]I blocchi casuali locali di grandi dimensioni non devono essere controllati per verificare la presenza di danneggiamenti.
- [SPARK-23525][SQL] Supporto ALTER TABLE CHANGE COLUMN COMMENT per hive esterno table
- [SPARK-23434][SQL] Spark non deve avvisare la directory dei metadati per un percorso di file HDFS
- [SPARK-23457][SQL] Registrare prima i listener di completamento delle attività in ParquetFileFormat
- [SPARK-23329][SQL] Correzione della documentazione delle funzioni trigonometriche
- [SPARK-23569][PYTHON] Consenti pandas_udf di usare funzioni con annotazioni di tipo Python3
- [SPARK-23570][SQL] Aggiungere Spark 2.3.0 in HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Imposta _pyspark.util. exception_message produrre la traccia da Java accanto a Py4JJavaError
- [SPARK-23508][CORE] Correggere BlockmanagerId nel caso blockManagerIdCache causa oom
- [SPARK-23448][SQL] Chiarire il comportamento del parser JSON e CSV nel documento
- [SPARK-23365][CORE] Non regolare gli executor num quando si uccidono executor inattive.
- [SPARK-23438][DSTREAMS] Correggere la perdita di dati DStreams con WAL quando il driver si arresta in modo anomalo
- [SPARK-23475][interfaccia utente] Mostra anche le fasi ignorate
- [SPARK-23518][SQL] Evitare l'accesso al metastore quando gli utenti vogliono solo leggere e scrivere frame di dati
- [SPARK-23406][SS] Abilitare self-join di flusso
- [SPARK-23541][SS] Consentire all'origine Kafka di leggere i dati con maggiore parallelismo rispetto al numero di partizioni di articolo
- [SPARK-23097][SQL][SS] Eseguire la migrazione dell'origine socket di testo alla versione 2
- [SPARK-23362][SS] Eseguire la migrazione dell'origine Microbatch Kafka alla versione 2
- [SPARK-23445]Refactoring columnStat
- [SPARK-23092][SQL] Eseguire la migrazione di MemoryStream alle API DataSourceV2
- [SPARK-23447][SQL] Modello codegen di pulizia per valore letterale
- [SPARK-23366]Migliorare il percorso di lettura ad accesso frequente in ReadAheadInputStream
- [SPARK-22624][PYSPARK] Esporre il partizionamento casuale dell'intervallo
Aggiornamenti della manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 4.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 per cluster Python 2 e 3.5.2 per cluster Python 3.
- R: R versione 3.4.4 (2018-03-15)
-
Cluster GPU: sono installate le librerie GPU NVIDIA seguenti:
- Driver Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
cryptography | 1,5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsig | 1.0.2 |
fusepy | 2.0.4 | futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 10.0.0b2 | filo | 3.9 | prompt-toolkit | 1.0.7 |
Psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | (0.10.3) |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | pygobject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
requests | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | strofinare | 0,32 | seaborn | 0.7.1 |
setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | six | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.1 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.31.0 |
wsgiref | 0.1.2 |
Librerie R installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
base | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | boot | 1.3-20 |
brew | 1.0-6 | Scopa | 0.4.4 | car | 3.0-0 |
carData | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | class | 7.3-14 | cli | 1.0.0 |
cluster | 2.0.7 | codetools | 0.2-15 | colorspace | 1.3-2 |
commonmark | 1.4 | compilatore | 3.4.4 | crayon | 1.3.4 |
curl | 3.2 | CVST | 0.2-1 | dati.table | 1.10.4-3 |
datasets | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | desc | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | digest | 0.6.15 | dimRed | 0.1.0 |
doMC | 1.3.5 | dplyr | 0.7.4 | DRR | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | foreign | 0.8-69 |
gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | glue | 1.2.0 | Gower | 0.1.2 |
grafica | 3.4.4 | grDevices | 3.4.4 | grid | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | h2o | 3.16.0.2 |
haven | 1.1.1 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iteratori | 1.0.9 | jsonlite | 1,5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | Etichettatura | 0,3 | Lattice | 0.20-35 |
Java | 1.6.1 | lazyeval | 0.2.1 | Littler | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1,5 |
mapproj | 1.2.6 | mappe | 3.3.0 | maptools | 0.9-2 |
MASS | 7.3-49 | Matrice | 1.2-13 | MatrixModels | 0.4-1 |
memoise | 1.1.0 | methods | 3.4.4 | mgcv | 1.8-23 |
mime | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | Concetto fondamentale | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | praise | 1.0.0 | prettyunits | 1.0.2 |
Proc | 1.11.0 | prodlim | 1.6.1 | proto | 1.0.0 |
psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
ricette | 0.1.2 | rematch | 1.0.1 | reshape2 | 1.4.3 |
Rio de Janeiro | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | Scalabilità | 0.5.0 | sfsmisc | 1.1-2 |
sp | 1.2-7 | SparkR | 2.3.0 | SparseM | 1.77 |
spaziale | 7.3-11 | Spline | 3.4.4 | sqldf | 0.4-11 |
SQUAREM | 2017.10-1 | statmod | 1.4.30 | stats | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
Sopravvivenza | 2.41-3 | tcltk | 3.4.4 | TeachingDemos | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | tools | 3.4.4 |
UTF8 | 1.1.3 | utils | 3.4.4 | viridisLite | 0.3.0 |
whisker | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Librerie Java e Scala installate (versione del cluster Scala 2.11)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-consultas | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | stream | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.mdfsoftware | kryo-shaded | 3.0.3 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.0.0 |
com.fasterxml.jackson.core | annotazioni jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0,3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocità | univocità-parser | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2.2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | Netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | agente di raccolta | 0,7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.idromatico | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 0.8.0 |
org.apache.arrow | freccia-memoria | 0.8.0 |
org.apache.arrow | freccia-vettore | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | Incubazione 1.2.0 |
org.apache.calcite | calcite-core | Incubazione 1.2.0 |
org.apache.calcite | calcite-linq4j | Incubazione 1.2.0 |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curatore-cliente | 2.7.1 |
org.apache.curator | curatore-framework | 2.7.1 |
org.apache.curator | ricette curatori | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | Incubazione 3.1.0 |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | codifica parquet | 1.8.2-databricks1 |
org.apache.parquet | formato parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1,58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | maglia-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | maglia-comune | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0.2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.cortanaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1,16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |