Databricks Runtime 11.3 LTS
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 11.3 LTS, con tecnologia Apache Spark 3.3.0. Databricks ha rilasciato questa versione nell'ottobre 2022.
Nota
LTS indica che questa versione è supportata a lungo termine. Vedere Ciclo di vita della versione LTS di Databricks Runtime.
Suggerimento
Per visualizzare le note sulla versione per le versioni di Databricks Runtime che hanno raggiunto la fine del supporto (EoS), vedere Note sulla versione della fine del supporto di Databricks Runtime. Le versioni EoS di Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.
Modifiche comportamentali
[Modifica di rilievo] La nuova versione di Python richiede l'aggiornamento dei client Python V1 di Databricks Connect
Nota
Un aggiornamento successivo sposta la versione di Python in Databricks Runtime 11.3 LTS alla versione 3.9.21. La versione 3.9.21 non introduce modifiche comportamentali.
Per applicare le patch di sicurezza necessarie, la versione di Python in Databricks Runtime 11.3 LTS viene aggiornata dalla versione 3.9.5 alla versione 3.9.19. Poiché queste modifiche possono causare errori nei client che usano funzioni PySpark specifiche, tutti i client che usano Databricks Connect V1 per Python con Databricks Runtime 11.3 LTS devono essere aggiornati a Python 3.9.7 o versione successiva.
Miglioramenti e nuove funzionalità
- Python aggiornato dalla versione 3.9.19 alla versione 3.9.21
- Trigger Structured Streaming una volta deprecato
- Modificare il percorso di origine per Il caricatore automatico
- Il connettore Databricks Oggigiorno supporta ora la lettura dai flussi di dati di Oggigiornos in modalità EFO
- Nuove funzioni geospaziali H3 e supporto Photon aggiunto per tutte le funzioni H3
- Nuove funzionalità per l'I/O predittivo
- Aumento delle partizioni iniziali da analizzare per le query selettive
- Nuova visualizzazione delle versioni del piano AQE
- Nuove modalità asincrone di rilevamento dello stato di avanzamento e eliminazione dei log
-
Structured Streaming nel catalogo Unity supporta ora
display()
- Gli eventi della pipeline vengono ora registrati in formato JSON
- Elaborazione arbitraria con stato in Structured Streaming con Python
- Inferenza data nei file CSV
- Il supporto clone per le tabelle Apache Parquet e Apache Iceberg (Anteprima Pubblica)
- Usare SQL per specificare percorsi di archiviazione a livello di schema e catalogo per le tabelle gestite di Unity Catalog
Python aggiornato dalla versione 3.9.19 alla versione 3.9.21
La versione di Python in Databricks Runtime 11.3 LTS viene aggiornata dalla versione 3.9.19 alla versione 3.9.21.
Trigger Structured Streaming una volta deprecato
L'impostazione Trigger.Once
è stata deprecata. Databricks consiglia di usare Trigger.AvailableNow
. Vedere Configurare gli intervalli di trigger del flusso strutturato.
Modificare il percorso di origine per Il caricatore automatico
È ora possibile modificare il percorso di input della directory per Auto Loader configurato con la modalità di elenco delle directory senza scegliere una nuova directory di checkpoint. Vedere Modificare il percorso di origine per Il caricatore automatico.
Il connettore Databricks Oggigiorno supporta ora la lettura dai flussi di dati di Oggigiornos in modalità EFO
È ora possibile usare l'origine di streaming strutturata Databricks Jsons in Databricks Runtime 11.3 LTS per eseguire query che leggono dai flussi di dati di Oggigiornos in modalità fan-out avanzata. In questo modo è possibile una velocità effettiva dedicata per partizione, per consumer e recapito di record in modalità push.
Nuove funzioni geospaziali H3 e supporto Photon aggiunto per tutte le funzioni H3
Introduzione di 4 nuove funzioni H3, h3_maxchild
, h3_minchild
, h3_pointash3
e h3_pointash3string
. Queste funzioni sono disponibili in SQL, Scala e Python. Tutte le espressioni H3 sono ora supportate in Photon. Si veda Funzioni geospaziali H3.
Nuove funzionalità per l'I/O predittivo
Photon supporta la modalità di intervallo per l'esecuzione di fotogrammi, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Photon supporta anche la modalità di intervallo per i fotogrammi in crescita, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Aumento delle partizioni iniziali da analizzare per le query selettive
Il valore delle partizioni iniziali da analizzare è stato aumentato a 10 per le query selettive con take/tail/limit
nei cluster abilitati per Photon e LIMIT
in Databricks SQL. Con 10 partizioni, è possibile evitare il sovraccarico di avvio di più processi di piccole dimensioni e un aumento delle prestazioni lento. È anche possibile configurare questa operazione tramite spark.sql.limit.selectiveInitialNumPartitions
.
Nuova visualizzazione delle versioni del piano AQE
Introduzione alle versioni del piano AQE che consentono di visualizzare gli aggiornamenti del piano di runtime dall'esecuzione di query adattive (AQE).
Nuove modalità asincrone di rilevamento dello stato di avanzamento e eliminazione dei log
Introduzione alle modalità Structured Streaming denominata rilevamento asincrono dello stato di avanzamento e eliminazione asincrona dei log. La modalità di eliminazione asincrona dei log riduce la latenza delle query di streaming rimuovendo i log usati per il rilevamento dello stato in background.
Il flusso di streaming strutturato su Unity Catalog ora supporta display()
È ora possibile usare display()
quando si usa Structured Streaming per lavorare con le tabelle registrate in Unity Catalog.
Gli eventi della pipeline vengono ora registrati in formato JSON
Azure Databricks scrive ora gli eventi della pipeline nel log del driver in formato JSON. Anche se ogni evento sarà analizzabile da JSON, gli eventi di grandi dimensioni potrebbero non contenere tutti i campi o i campi potrebbero essere troncati. Ogni evento viene registrato in una singola riga con il prefisso Event received:
. Di seguito è riportato un evento di esempio.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Elaborazione arbitraria con stato in Structured Streaming con Python
Introduzione alla applyInPandasWithState
funzione che può essere usata per eseguire l'elaborazione arbitraria con stato in PySpark. Equivale alla flatMapGroupsWithState
funzione nell'API Java.
Inferenza data nei file CSV
Introduzione di un'inferenza migliorata delle colonne di tipo data nei file CSV. Quando il formato della data è coerente tra i record di una colonna, tali colonne possono essere interpretate come DateType
. È anche possibile avere una combinazione di formati di data tra colonne diverse. Azure Databricks può dedurre automaticamente il formato della data per ogni colonna. Le colonne di data nei file CSV precedenti a Databricks Runtime 11.3 LTS vengono lasciate come StringType
.
Supporto per clonare le tabelle Apache Parquet e Apache Iceberg (anteprima pubblica)
È ora possibile usare clone per creare e aggiornare in modo incrementale le tabelle Delta che esegono il mirroring delle tabelle Apache Parquet e Apache Iceberg. È possibile aggiornare la tabella Parquet di origine e applicare in modo incrementale le modifiche alla tabella Delta clonata con il comando clone. Consulta la clonazione incrementale delle tabelle Parquet e Iceberg in Delta Lake.
Usare SQL per specificare percorsi di archiviazione a livello di schema e catalogo per le tabelle gestite del catalogo Unity
È ora possibile usare il comando SQL MANAGED LOCATION
per specificare un percorso di archiviazione cloud per le tabelle gestite a livello di catalogo e schema. Vedere CREATE CATALOG e CREATE SCHEMA.
Modifiche del comportamento
Databricks Connect 11.3.2
L'aggiornamento client di Databricks Connect 11.3.2 è ora supportato. Vedere le note sulla versione di Databricks Connect e Databricks Connect.
Aggiornamento del connettore Snowflake di Azure Databricks
Il connettore Azure Databricks Snowflake è stato aggiornato alla versione più recente del codice dal repository open source Snowflake Data Source per Apache Spark. È ora completamente compatibile con Databricks Runtime 11.3 LTS, incluso il pushdown del predicato e il pushdown del piano di query interno mantenendo tutte le funzionalità della versione open source.
La cache Hadoop per S3A è ora disabilitata
La cache Hadoop (API Principale 3.3.4 di Apache Hadoop FileSystem) per S3A è ora disabilitata. Questo è l'allineamento con altri connettori di archiviazione cloud. Per i carichi di lavoro che si basano sulla memorizzazione nella cache del file system, assicurarsi che i file system appena creati siano forniti con le configurazioni Hadoop corrette, inclusi i provider di credenziali.
Lo schema della raccolta di statistiche Delta Lake corrisponde ora all'ordine delle colonne nella definizione dello schema di tabella
Questa modifica risolve un bug nel protocollo Delta Lake in cui le statistiche non sono state raccolte per le colonne a causa di una mancata corrispondenza nell'ordinamento dei dataframe e delle colonne della tabella. In alcuni casi, è possibile che si verifichi una riduzione delle prestazioni di scrittura a causa della raccolta di statistiche sui campi non registrati in precedenza. Vedere Skipping dei dati per Delta Lake.
applyInPandasWithState genera un errore se la query ha una sequenza casuale dopo l'operatore
L'operatore applyInPandasWithState
genera un errore se la query ha shuffle
dopo l'operatore . Ciò si verifica quando l'utente aggiunge shuffle
dopo l'operazione o l'utilità di ottimizzazione o il sink aggiunge shuffle
in modo implicito.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- distlib da 0.3.5 a 0.3.6
- Librerie R aggiornate:
- scopa da 1.0.0 a 1.0.1
- chiamante dalla versione 3.7.1 alla versione 3.7.2
- dplyr da 1.0.9 a 1.0.10
- dtplyr da 1.2.1 a 1.2.2
- forcat da 0.5.1 a 0.5.2
- futuro da 1.27.0 a 1.28.0
- future.apply dalla versione 1.9.0 alla versione 1.9.1
- gert da 1.7.0 a 1.8.0
- globals da 0.16.0 a 0.16.1
- gtable da 0.3.0 a 0.3.1
- haven from 2.5.0 to 2.5.1
- hms da 1.1.1 a 1.1.2
- httr da 1.4.3 a 1.4.4
- magliare da 1,39 a 1,40
- modelr da 0.1.8 a 0.1.9
- pilastro da 1.8.0 a 1.8.1
- progressr da 0.10.1 a 0.11.0
- readxl da 1.4.0 a 1.4.1
- repository da 2.0.1 a 2.0.2
- rlang da 1.0.4 a 1.0.5
- rmarkdown da 2.14 a 2.16
- RSQLite da 2.2.15 a 2.2.16
- rstudioapi da 0.13 a 0.14
- versioni da 2.1.1 a 2.1.2
- rvest da 1.0.2 a 1.0.3
- scala da 1.2.0 a 1.2.1
- sparklyr da 1.7.7 a 1.7.8
- stringr da 1.4.0 a 1.4.1
- sopravvivenza da 3,2-13 a 3,4-0
- tinytex da 0,40 a 0,41
- viridisLite da 0.4.0 a 0.4.1
- Librerie Java aggiornate:
- com.fasterxml.jackson.core.jackson-annotations da 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-core da 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-databind da 2.13.3 a 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor da 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda da 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 da 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer da 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 da 2.13.3 a 2.13.4
- org.apache.hadoop.hadoop-client-api da 3.3.2-databricks a 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime da 3.3.2 a 3.3.4
- org.apache.orc.orc-core da 1.7.5 a 1.7.6
- org.apache.orc.orc-mapreduce da 1.7.5 a 1.7.6
- org.apache.orc.orc-shims da 1.7.5 a 1.7.6
- org.apache.parquet.parquet-column da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.common da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.encoding da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet-format-structures da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.hadoop da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet-jackson da 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet da 2.34 a 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core da 2.34 a 2.36
- org.glassfish.jersey.core.jersey-client da 2.34 a 2.36
- org.glassfish.jersey.core.jersey-common da 2.34 a 2.36
- org.glassfish.jersey.core.jersey-server da 2.34 a 2.36
- org.glassfish.jersey.inject.jersey-hk2 da 2.34 a 2.36
Apache Spark
Databricks Runtime 11.3 LTS include Apache Spark 3.3.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 11.2 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-39957] [WARMFIX][sc-111425][CORE] Ritarda onDisconnected per consentire al Driver di ricevere ExecutorExitCode
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Migliorare il processo LaunchTask per evitare errori di fase causati da messaggi LaunchTask non riusciti
- [SPARK-40474] [SC-106248][cherry-pick] Correggere il comportamento di inferenza dello schema CSV per le colonne datetime e introdurre il rilevamento automatico per i campi Data
- [SPARK-40535] [SC-111243][sql] Correzione del bug per cui il buffer di AggregatingAccumulator non verrà creato se le righe di input sono vuote
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] ImplementInPandasWithState in PySpark
-
[SPARK-40460] [SC-110832][ss] Correzione delle metriche di streaming quando si seleziona
_metadata
-
[SPARK-40324] [SC-109943][sql] Fornire un contesto di query di
ParseException
- [SPARK-40466] [SC-110899][ss] Migliorare il messaggio di errore quando DSv2 è disabilitato mentre DSv1 non è disponibile
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext dovrebbe essere economico da chiamare ripetutamente
- [SPARK-40169] [SC-110772][sql] Non eseguire il push dei filtri Parquet senza riferimenti allo schema dei dati
- [SPARK-40467] [SC-110759][ss] Suddividere FlatMapGroupsWithState in più suite di test
- [SPARK-40468] [SC-110813][sql] Correzione dell'eliminazione delle colonne in CSV quando si seleziona _corrupt_record
- [SPARK-40291] [SC-110085][sql] Migliorare il messaggio per la colonna non nel gruppo per errore della clausola
- [SPARK-40398] [SC-110762][core][SQL] Usare il ciclo anziché utilizzare l'API di Arrays.stream
- [SPARK-40433] [SC-110684][ss][PYTHON] Aggiungere toJVMRow in PythonSQLUtils per convertire una riga PySpark serializzata in una riga JVM.
- [SPARK-40414] [SC-110568][sql][PYTHON] Tipo più generico in PythonArrowInput e PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Aggiungere alias di funzione: len, datepart, dateadd, date_diff e curdate
- [SPARK-40470] [SC-110761][sql] Gestire GetArrayStructFields e GetMapValue nella funzione "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Migliorare l'implementazione di Spark Decimal
- [SPARK-40429] [SC-110675][sql] Set KeyGroupedPartitioning solo quando la colonna a cui si fa riferimento si trova nell'output
- [SPARK-40432] [SC-110716][ss][PYTHON] Introdurre GroupStateImpl e GroupStateTimeout in PySpark
- [SPARK-39915] [SC-110496][sql] Assicurarsi che il partizionamento dell'output sia specificato dall'utente in AQE
-
[SPARK-29260] [SQL] Supporto
ALTER DATABASE SET LOCATION
se HMS supporta - [SPARK-40185] [SC-110056][sql] Rimuovere il suggerimento di colonna quando l'elenco dei candidati è vuoto
- [SPARK-40362] [SC-110401][sql] Risoluzione della canonizzazione di BinaryComparison
- [SPARK-40411] [SC-110381][ss] Rifattorizzazione di FlatMapGroupsWithStateExec per avere un'interfaccia padre
- [SPARK-40293] [SC-110084][sql] Rendere il messaggio di errore della tabella V2 più significativo
-
[SPARK-38734] [SC-110383][sql] Rimuovere la classe di errore
INDEX_OUT_OF_BOUNDS
- [SPARK-40292] [SC-110300][sql] Correggere i nomi delle colonne nella funzione "arrays_zip" quando si fa riferimento agli array da struct annidati
- [SPARK-40276] [SC-109674][core] Ridurre le dimensioni del risultato di RDD.takeOrdered (funzione per l'ordinamento)
- [SPARK-40197] [SC-109176][sql] Sostituire il piano di query con il contesto per MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Eseguire la migrazione alla classe di errore
DATATYPE_MISMATCH
- [SPARK-40149] [SC-110055][sql] Propagare le colonne dei metadati tramite Project
- [SPARK-40280] [SC-110146][sql] Aggiungere il supporto per il push down parquet per int e long annotati
- [SPARK-40220] [SC-110143][sc-109175][SQL] Non restituire la mappa vuota dei parametri del messaggio di errore
- [SPARK-40295] [SC-110070][sql] Consenti funzioni v2 con argomenti testuali nella distribuzione e ordinamento di scrittura
-
[SPARK-40156] [SC-109264][sql]
url_decode()
deve restituire una classe di errore - [SPARK-39195] [SQL] OutputCommitCoordinator Spark deve interrompere la fase di interruzione quando il file di cui è stato eseguito il commit non è coerente con lo stato dell'attività
- [SPARK-40260] [SC-109424][sql] Usare classi di errore negli errori di compilazione di GROUP BY una posizione
- [SPARK-40205] [SC-110144][sc-109082][SQL] Fornire un contesto di una query di ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][sql] Migliorare la funzione TO_BINARY()
-
[SPARK-40209] [SC-109081][sql] Non modificare il valore dell'intervallo decimale in
changePrecision()
in caso di errori - [SPARK-40319] [SC-109873][sql] Rimuovere il metodo di errore di esecuzione duplicato della query per PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Le operazioni numeriche try_add/try_divide/try_subtract/try_multiply devono sollevare errori dai loro sottoelementi.
- [SPARK-40183] [SC-108907][sql] Utilizzare la classe di errore NUMERIC_VALUE_OUT_OF_RANGE per l'overflow nella conversione decimale
-
[SPARK-40180] [SC-109069][sql] Formattare i messaggi di errore per
spark-sql
- [SPARK-40153] [SC-109165][sql] Unifica le funzioni di risoluzione e le funzioni che restituiscono tabelle
-
[SPARK-40308] [SC-109880][sql] Consenti argomenti delimitatori non piegabili per
str_to_map
funzione - [SPARK-40219] [SC-110052][sc-109663][SQL] Il piano logico di visualizzazione risolto deve contenere lo schema per evitare ricerche ridondanti
- [SPARK-40098] [SC-109939][sc-108693][SQL] Formattare i messaggi di errore nel server Thrift
- [SPARK-39917] [SC-109038][sql] Usare classi di errore diverse per l'overflow aritmetico di numeri/intervalli
- [SPARK-40033] [SC-109875][sql] Supporto per l'eliminazione annidata dello schema tramite element_at
- [SPARK-40194] [SC-109660][sql] Funzione SPLIT su regex vuota deve troncare la stringa vuota finale.
- [SPARK-40228] [SC-109835][sql] Non semplificare multiLike se figlio non è un'espressione economica
- [SPARK-40039] [SC-109896][sc-109260][SS] Introduzione di una gestione file di checkpoint di streaming basata sull'interfaccia Abortable di Hadoop
-
[SPARK-40285] [SC-109679][sql] Semplificare le
roundTo[Numeric]
per SparkDecimal
- [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison dovrebbe funzionare quando il valore letterale del downcast In/InSet non è riuscito
- [SPARK-40040] [SC-109662][sql] Applicare il limite locale su entrambi i lati se la condizione di join è vuota
- [SPARK-40055] [SC-109075][sql] listCatalogs dovrebbe restituire anche spark_catalog, anche quando l'implementazione di spark_catalog è defaultSessionCatalog.
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) potrebbe non creare N partizioni nella parte non AQE
- [SPARK-40207] [SC-109401][sql] Specificare il nome della colonna quando il tipo di dati non è supportato dall'origine dati
- [SPARK-40245] [SC-109295][sql] Correzione del controllo di uguaglianza fileScan quando le colonne del filtro dati o della partizione non vengono lette
- [SPARK-40113] [SC-109405][sql] Implementazioni dell'interfaccia DataSourceV2 di Reactor ParquetScanBuilder
- [SPARK-40211] [SC-109226][core][SQL] Consenti la personalizzazione del numero di partizioni iniziali nel comportamento take()
-
[SPARK-40252] [SC-109379][sql] Sostituire
Stream.collect(Collectors.joining)
conStringJoiner
API - [SPARK-40247] [SC-109272][sql] Correzione del controllo di uguaglianza BitSet
- [SPARK-40067] [SQL] Usare Table#name() anziché Scan#name() per popolare il nome della tabella nel nodo BatchScan in SparkUI
- [SPARK-39966] [SQL] Usare il filtro V2 in SupportsDelete
- [SPARK-39607] [SC-109268][sql][DSV2] Distribuzione e ordinamento supportano la funzione V2 nella scrittura
- [SPARK-40224] [SC-109271][sql] Rilasciare la memoria di ObjectHashAggregateExec prontamente quando si passa al fallback basato sull'ordinamento.
-
[SPARK-40013] [SQL] Le espressioni DS V2 devono avere l'impostazione predefinita
toString
- [SPARK-40214] [SC-109079][python][SQL] aggiungere 'get' alle funzioni
- [SPARK-40192] [SC-109089][sql][ML] Rimuovere il groupby ridondante
- [SPARK-40146] [SC-108694][sql] Semplificare la generazione di codice per ottenere il valore di una mappa
- [SPARK-40109] [SQL] Nuova funzione SQL: get()
- [SPARK-39929] [SQL] DS V2 supporta funzioni stringa push-down (non ANSI)
- [SPARK-39819] [SQL] Il push verso il basso dell'aggregazione DS V2 può essere eseguito con top N o paging (ordinamento con espressioni)
- [SPARK-40213] [SC-109077][sql] Supporto della conversione dei valori ASCII per i caratteri Latin-1
- [SPARK-39887] [SQL] RemoveRedundantAliases deve mantenere gli alias che rendono univoco l'output dei nodi di proiezione
- [SPARK-39764] [SQL] Rendere PhysicalOperation uguale a ScanOperation
- [SPARK-39964] [SQL] Il pushdown di DS V2 deve unificare il percorso di conversione
- [SPARK-39528] [SQL] Usare il filtro V2 in SupportsRuntimeFiltering
- [SPARK-40066] [SQL] modalità ANSI: restituisce sempre Null in caso di accesso non valido alla colonna di mapping
- [SPARK-39912] [SPARK-39828][sql] Perfezionare CatalogImpl
- [SPARK-39833] [SC-108736][sql] Disabilitare l'indice di colonna Parquet in DSv1 per risolvere un problema di correttezza nel caso di colonne di dati e partizione sovrapposte
- [SPARK-39880] [SQL] V2 SHOW FUNCTIONS comando deve stampare il nome di funzione qualificato come v1
- [SPARK-39767] [SQL] Rimuovere UnresolvedDBObjectName e aggiungere UnresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(mappa)
- [SPARK-40136] [SQL] Correggere il frammento di contesti di query SQL
- [SPARK-40107] [SC-108689][sql] Estrarre la conversione da vuoto a nullo da FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Inizializzare la proiezione usata per la UDF (funzione definita dall'utente) Python
- [SPARK-40128] [SQL] Rendere vectorizedColumnReader riconoscere DELTA_LENGTH_BYTE_ARRAY come codifica di colonna autonoma
- [SPARK-40132] [ML] Ripristinare rawPredictionCol in MultilayerPerceptronClassifier.setParams
-
[SPARK-40050] [SC-108696][sql] Migliorare
EliminateSorts
per supportare la rimozione degli ordinamenti tramiteLocalLimit
- [SPARK-39629] [SQL] Supporto v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Aggiungere overload array_sort(column, comparator) alle operazioni del DataFrame
- [SPARK-40117] [PYTHON][sql] Convertire la condizione in Java in DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Migliorare la ripartizione in ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Aggiungere il nome del catalogo sessione per la tabella e la funzione del database v1
- [SPARK-39889] [SQL] Usare classi di errore diverse per l'intervallo/numerico diviso per 0
- [SPARK-39741] [SQL] Supportare la codifica/decodifica dell'URL come funzione predefinita e riordinare le funzioni correlate all'URL
- [SPARK-40102] [SQL] Usare SparkException anziché IllegalStateException in SparkPlan
- [SPARK-40014] [SQL] Supporto del cast di decimali a intervalli ANSI
- [SPARK-39776] [SQL][follow] Aggiornamento UT di PlanStabilitySuite in modalità ANSI
-
[SPARK-39963] [SQL] Semplificare
SimplifyCasts.isWiderCast
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 11.3.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.21
- R: 4.1.3
- Delta Lake: 2.1.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
argon2-cffi | 20.1.0 | async-generator | 1.10 | attrs | 21.2.0 |
backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 | black | 22.3.0 |
bleach | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.3 | cryptography | 3.4.8 |
cycler | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
debugpy | 1.4.1 | decorator | 5.1.0 | defusedxml | 0.7.1 |
distlib | 0.3.6 | entrypoints | 0.3 | facet-overview | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | ipykernel | 6.12.1 |
ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
matplotlib-inline | 0.1.2 | mistune | 0.8.4 | mypy-extensions | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | notebook | 6.4.5 | numpy | 1.20.3 |
packaging | 21.0 | pandas | 1.3.4 | pandocfilters | 1.4.3 |
parso | 0.8.2 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Pillow | 8.4.0 |
pip | 21.2.4 | platformdirs | 2.5.2 | plotly | 5.9.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2.20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
six | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacity | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.0 | typing-extensions | 3.10.0.2 |
aggiornamenti automatici | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | wheel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-09-08. Lo snapshot non è più disponibile.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | boot | 1.3-28 |
brew | 1.0-7 | brio | 1.1.3 | Scopa | 1.0.1 |
bslib | 0.4.0 | cachem | 1.0.6 | callr | 3.7.2 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.8.0 | compilatore | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | crayon | 1.5.1 | credenziali | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | digest | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
e1071 | 1.7-11 | puntini di sospensione | 0.3.2 | evaluate | 0.16 |
fansi | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
foreign | 0.8-82 | forge | 0.2.0 | fs | 1.5.2 |
future | 1.28.0 | future.apply | 1.9.1 | gargle | 1.2.0 |
generics | 0.1.3 | gert | 1.8.0 | ggplot2 | 3.3.6 |
gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globals | 0.16.1 | glue | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | grafica | 4.1.3 |
grDevices | 4.1.3 | grid | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.1 | hardhat | 1.2.0 |
haven | 2.5.1 | highr | 0.9 | hms | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iteratori | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1,40 | Etichettatura | 0.4.2 | later | 1.3.0 |
Lattice | 0.20-45 | Java | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
markdown | 1.1 | MASS | 7.3-56 | Matrice | 1.4-1 |
memoise | 2.0.1 | methods | 4.1.3 | mgcv | 1.8-40 |
mime | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallelly | 1.32.1 | Concetto fondamentale | 1.8.1 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
praise | 1.0.0 | prettyunits | 1.1.1 | Proc | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Avanzamento | 1.2.2 | progressr | 0.11.0 | promises | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-27 | ps | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.1 |
ricette | 1.0.1 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.4.2 | reprex | 2.0.2 | reshape2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0.14 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.2 |
Scalabilità | 1.2.1 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
Forma | 1.4.6 | shiny | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | spaziale | 7.3-11 |
Spline | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
stats | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | Sopravvivenza | 3.4-0 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0,41 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utils | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.1 | vroom | 1.5.7 | waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0,32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-consultas | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeina | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 2.2.1 |
dev.sdk.netlib | blas | 2.2.1 |
dev.sdk.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | freccia-vettore | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.9 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shim | 1.7.6 |
org.apache.parquet | colonna parquet | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
org.apache.parquet | codifica parquet | 1.12.0-databricks-0007 |
org.apache.parquet | strutture parquet-format-structures | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Spessori | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.threeten | treten-extra | 1.5.0 |
org.cortanaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |