Databricks Runtime 11.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 11.1, basate su Apache Spark 3.3.0. Databricks ha rilasciato questa versione a luglio 2022.
Miglioramenti e nuove funzionalità
- Photon è disponibile a livello generale
- Photon: tipi di istanza supportati
- Il feed di dati delle modifiche può ora gestire automaticamente i timestamp non compresi nell'intervallo
- Ora le funzioni SQL descritte e visualizzate mostrano i nomi Catalog di Unity nel loro output (anteprima pubblica)
- Schema inferenza ed evoluzione per i file Parquet nel caricatore automatico (anteprima pubblica)
- Auto Loader ora supporta l'evoluzione schema per Avro (GA)
- supporto Delta Lake per sovrascritture partition dinamiche
- Supporto schema informativo per gli oggetti creati in Unity Catalog
- Vincoli informativi su Delta Lake tables con Unity Catalog (anteprima pubblica)
- Catalog Unity è disponibile pubblicamente
- Delta Sharing è disponibile a livello generale
Photon è disponibile a livello generale
Photon è ora disponibile a livello generale, a partire da Databricks Runtime 11.1. Photon è il motore di query vettorizzato nativo di Azure Databricks, scritto per essere direttamente compatibile con le API Apache Spark in modo da funzionare con il codice esistente. È sviluppato in C++ per sfruttare l'hardware moderno e usa le tecniche più recenti nell'elaborazione di query vettorizzate per capitalizzare il parallelismo a livello di dati e di istruzione nelle CPU, migliorando le prestazioni su dati e applicazioni reali, tutto in modo nativo nel data lake.
Photon fa parte di un runtime ad alte prestazioni che esegue più velocemente le chiamate API SQL e DataFrame esistenti e riduce il costo totale per carico di lavoro. Photon viene usato per impostazione predefinita nei warehouse SQL Databricks.
Le nuove funzionalità e i miglioramenti includono:
- Nuovo operatore di ordinamento vettorializzato
- Nuove funzioni di window vettorializzate
- Nuovi tipi di istanza e dimensioni in tutti i cloud
Limitazioni:
- Le funzioni definite dall'utente scala/Python non sono supportate da Photon
- RDD non è supportato da Photon
- Structured Streaming non è supportato da Photon
Per altre informazioni, vedere gli annunci Photon seguenti.
Photon: Nuovo operatore di ordinamento vettorializzato
Photon supporta ora un ordinamento vettorializzato quando una query contiene SORT_BY
, CLUSTER_BY
o una funzione window con un ORDER BY
.
Limitazioni: Photon non supporta una clausola globale ORDER BY
. Gli ordinamenti per la valutazione di window verranno fotonizzati, ma l'ordinamento globale continuerà in esecuzione su Spark.
Photon: Nuove funzioni di window vettorializzate
Photon supporta ora la valutazione della funzione window vettorializzata per molti tipi di fotogrammi e funzioni. Le nuove funzioni di window includono: row_number
, rank
, dense_rank
, lag
, lead
, percent_rank
, ntile
e nth_value
. Tipi di frame supportati window: in esecuzione (UNBOUNDED PRECEDING AND CURRENT ROW
), senza limiti (UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING
), in crescita (UNBOUNDED PRECEDING AND <OFFSET> FOLLOWING
) e in riduzione (<OFFSET> PRECEDING AND UNBOUNDED FOLLOWING
).
Limitazioni:
- Photon supporta solo
ROWS
le versioni di tutti i tipi di frame. - Photon non supporta ancora il tipo di fotogramma scorrevole (
<OFFSET> PRECEDING AND <OFFSET> FOLLOWING
).
Photon: tipi di istanza supportati
- dds_v5
- ds_v5
- eas_v4
- eds_v4
- eds_v5
- es_v5
- las_v3
- ls_v3
Il feed di dati delle modifiche può ora gestire automaticamente i timestamp non compresi nell'intervallo
Il feed di dati delle modifiche (CDF) ha ora una nuova modalità per fornire timestamp o versioni successive alla versione di un commit più recente senza generare errori. Questa modalità è disabilitata per impostazione predefinita. È possibile abilitarla impostando la configurazione spark.databricks.delta.changeDataFeed.timestampOutOfRange.enabled
su true
.
Descrivere e mostrare le funzioni SQL che ora visualizzano i nomi di Unity Catalog nella loro output (anteprima pubblica)
I comandi DESC TABLE
, DESC DATABASE
, DESC SCHEMA
, DESC NAMESPACE
, DESC FUNCTION
, EXPLAIN
e SHOW CREATE TABLE
ora mostrano sempre il nome catalog nel relativo output.
Schema inferenza ed evoluzione per i file Parquet nel caricatore automatico (anteprima pubblica)
Auto Loader supporta ora l'inferenza e l'evoluzione schema per i file Parquet. Proprio come i formati JSON, CSV e Avro, è ora possibile usare i dati recuperati column per recuperare dati imprevisti che potrebbero apparire nei file Parquet. Sono inclusi i dati che non possono essere interpretati nel previsto tipo di dati, columns con un diverso utilizzo di maiuscole e minuscole, o columns aggiuntivi che non fanno parte del schemaprevisto. È possibile configurare Auto Loader per evolvere il schema automaticamente quando si rileva l'aggiunta di nuovi columns nei dati in ingresso. Consulta Configura schema inferenza ed evoluzione in Caricatore Automatico.
Auto Loader ora supporta schema evoluzione per Avro (GA)
Consulta Configura schema l'inferenza e l'evoluzione in Auto Loader.
Supporto di Delta Lake per sovrascrizioni di partition dinamiche
Delta Lake consente ora la modalità di sovrascrittura dinamica partition per sovrascrivere tutti i dati esistenti in ogni partition logico in cui la scrittura eseguirà il commit di nuovi dati. Vedere Sovrascrivere i dati in modo selettivo con Delta Lake.
Supporto di informazioni schema per gli oggetti creati in Unity Catalog
Le informazioni schema fornisce un'API basata su SQL, autodescrittiva ai metadati di vari oggetti di database, tra cui tables e views, vincoli e routines.
All'interno delle informazioni schema trovi un set di views che descrive gli oggetti noti al catalog del schemache hai il privilegio di vedere.
Le informazioni schema del SYSTEM
catalog forniscono dettagli sugli oggetti presenti in tutti i catalogs all'interno del metastore.
Vedere Informazioni schema.
Vincoli informativi su Delta Lake tables con Unity Catalog (anteprima pubblica)
È ora possibile definire vincoli di chiave primaria e di chiave esterna informativi in Delta Lake tables con Unity Catalog. I vincoli informativi non vengono applicati. Vedere CONSTRAINT clausola.
Unity Catalog è in disponibilità generale
Unity Catalog è ora disponibile a livello generale a partire da Databricks Runtime 11.1. Vedere Che cos'è Unity Catalog?.
Delta Sharing è disponibile a livello generale
La condivisione differenziale è ora disponibile a livello generale a partire da Databricks Runtime 11.1.
Databricks a Databricks Delta Sharing è completamente gestito senza la necessità di scambiare token. È possibile creare e gestire providers, recipientse shares nell'interfaccia utente o con LE API SQL e REST.
Alcune funzionalità includono la limitazione dell'accesso dei destinatari, l'esecuzione di query sui dati con gli elenchi di accesso IP e le restrizioni dell'area e la delega della gestione della condivisione delta a utenti non amministratori. È anche possibile eseguire query su modifiche ai dati o condividere versioni incrementali con feed di dati delle modifiche. Si veda Che cos'è Delta Sharing?.
Modifiche del comportamento
Redazione delle proprietà sensibili per DESCRIBE TABLE e MOSTRA TABLE PROPRIETÀ
Le proprietà sensibili vengono elaborate nei dataframe e nell'output dei DESCRIBE TABLE
comandi e SHOW TABLE PROPERTIES
.
Per impostazione predefinita, i cluster di processi hanno la modalità di accesso utente singolo con Databricks Runtime 11.1 e versioni successive
Per essere in grado di supportare Unity Catalog, i cluster di processi che utilizzano Databricks Runtime 11.1 e versioni successive, creati tramite l'interfaccia utente o l'API dei processi, avranno per impostazione predefinita la modalità di accesso utente singolo. La modalità accesso utente singolo supporta la maggior parte dei linguaggi di programmazione, delle funzionalità del cluster e delle funzionalità di governance dei dati. È comunque possibile configurare la modalità di accesso condiviso tramite l'interfaccia utente o l'API, ma le lingue o le funzionalità potrebbero essere limitate.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- filelock dalla versione 3.6.0 alla versione 3.7.1
- tracciato da 5.6.0 a 5.8.2
- protobuf da 3.20.1 a 4.21.2
- Librerie R aggiornate:
- chron da 2.3-56 a 2.3-57
- DBI da 1.1.2 a 1.1.3
- dbplyr da 2.1.1 a 2.2.0
- e1071 da 1.7-9 a 1.7-11
- futuro da 1.25.0 a 1.26.1
- globals da 0.14.0 a 0.15.1
- hardhat da 0.2.0 a 1.1.0
- ipred da 0.9-12 a 0.9-13
- openssl dalla versione 2.0.0 alla versione 2.0.2
- parallelamente da 1.31.1 a 1.32.0
- processx da 3.5.3 a 3.6.1
- progressr da 0.10.0 a 0.10.1
- proxy da 0.4-26 a 0.4-27
- ps da 1.7.0 a 1.7.1
- randomForest da 4.7-1 a 4.7-1.1
- roxygen2 da 7.1.2 a 7.2.0
- Rserve da 1.8-10 a 1.8-11
- RSQLite da 2.2.13 a 2.2.14
- sparklyr da 1.7.5 a 1.7.7
- tinytex da 0,38 a 0,40
- usethis from 2.1.5 to 2.1.6
- xfun da 0.30 a 0.31
- Librerie Java aggiornate:
- io.delta.delta-sharing-spark_2.12 da 0.4.0 a 0.5.0
Apache Spark
Databricks Runtime 11.2 include Apache Spark 3.3.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 11.1 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-40054] [SQL] Restore la sintassi di gestione degli errori di try_cast()
- [SPARK-39489] [CORE] Migliorare le prestazioni jsonProtocol di registrazione degli eventi usando Jackson invece di Json4s
-
[SPARK-39319] [CORE][SQL] Creare contesti di query come parte di
SparkThrowable
- [SPARK-40085] [SQL] Usare INTERNAL_ERROR classe di errore anziché IllegalStateException per indicare bug
- [SPARK-40001] [SQL] Eseguire scritture di valori NULL nel campo predefinito JSON columns scrivere 'null' nella memoria di archiviazione
- [SPARK-39635] [SQL] Supporto delle metriche dei driver nell'API metrica personalizzata DS v2
- [SPARK-39184] [SQL] Gestire una matrice di risultati sottodimensionata nelle sequenze di data e timestamp
-
[SPARK-40019] [SQL] Refactoring del commento di ArrayType contieneNull e refactoring delle logiche di errore nell'espressione collectionOperator su
containsNull
- [SPARK-39989] [SQL] Supportare la stima delle statistiche column se è un'espressione semplificabile
- [SPARK-39926] [SQL] Correzione del bug nel supporto column DEFAULT per le scansioni Parquet non vettorializzate
- [SPARK-40052] [SQL] Gestire buffer di byte diretti in VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Correggere il tipo di intervallo di destinazione negli errori di overflow di cast
- [SPARK-39835] [SQL] Correggere EliminateSorts remove ordinamento globale sotto l'ordinamento locale
- [SPARK-40002] [SQL] Non eseguire il push di limit tramite window usando ntile
- [SPARK-39976] [SQL] ArrayIntersect deve gestire correttamente null nell'espressione a sinistra
- [SPARK-39985] [SQL] Abilitare columnvalues DEFAULT implicito negli inserimenti da DataFrame
- [SPARK-39776] [SQL] JOIN stringa esplicativa dovrebbe aggiungere Join tipo
- [SPARK-38901] [SQL] DS V2 supporta le funzioni di push verso il basso
- [SPARK-40028] [SQL][FollowUp] Migliorare esempi di funzioni stringa
- [SPARK-39983] [CORE][SQL] Non memorizzare nella cache le relazioni di trasmissione nonrializzate sul driver
-
[SPARK-39812] [SQL] Semplificare il codice con cui creare
AggregateExpression
toAggregateExpression
- [SPARK-40028] [SQL] Aggiungere esempi binari per le espressioni stringa
- [SPARK-39981] [SQL] Generare l'eccezione QueryExecutionErrors.castingCauseOverflowErrorInTableInsert in Cast
- [SPARK-40007] [PYTHON][SQL] Aggiungere 'mode' alle funzioni
- [SPARK-40008] [SQL] Supporto del cast di integrali a intervalli ANSI
- [SPARK-40003] [PYTHON][SQL] Aggiungere 'median' alle funzioni
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand deve recachere la relazione di risultato
- [SPARK-39951] [SQL] Update controllo delle colonne Parquet V2 per i campi annidati
- [SPARK-39775] [CORE][AVRO] Disabilitare convalidare i values predefiniti durante l'analisi degli schemi Avro
- [SPARK-33236] [shuffle] Backport in DBR 11.x: abilitare il servizio shuffle basato su push per archiviare lo stato nel database a livello di NM per il riavvio mantenendo il riavvio
- [SPARK-39836] [SQL] Semplificare V2ExpressionBuilder tramite l'estrazione di un metodo comune.
- [SPARK-39867] [SQL] Il limit globale non deve ereditare OrderPreservingUnaryNode
-
[SPARK-39873] [SQL] Remove
OptimizeLimitZero
e fonderla inEliminateLimits
- [SPARK-39961] [SQL] Conversione push-down di DS V2 Cast se il cast è sicuro
-
[SPARK-39872] [SQL] Modificare l'uso con l'API
BytePackerForLong#unpack8Values
di input della matrice inVectorizedDeltaBinaryPackedReader
-
[SPARK-39858] [SQL] Remove
AliasHelper
oPredicateHelper
non necessari per alcune regole - [SPARK-39962] [WARMFIX][ES-393486][PYTHON][SQL] Applicare la proiezione quando gli attributi del gruppo sono vuoti
- [SPARK-39900] [SQL] Indirizzare una condizione parziale o negata nel pushdown del predicato del formato binario
- [SPARK-39904] [SQL] Rinominare inferDate per preferireDate e chiarire la semantica dell'opzione nell'origine dati CSV
- [SPARK-39958] [SQL] Aggiungere il log degli avvisi quando non è possibile caricare l'oggetto metrica personalizzato
- [SPARK-39936] [SQL] Archiviare schema nelle proprietà per Spark Views
- [SPARK-39932] [SQL] WindowExec deve cancellare il buffer partition finale
- [SPARK-37194] [SQL] Evitare l'ordinamento non necessario nella versione 1 se non è partition dinamico
- [SPARK-39902] [SQL] Aggiungere i dettagli dell'analisi al nodo di analisi del piano Spark in SparkUI
- [SPARK-39865] [SQL] Mostra messaggi di errore appropriati sugli errori di overflow di tableinsert
- [SPARK-39940] [SS] Refreshcatalogtable nella query di streaming con sink DSv1
-
[SPARK-39827] [SQL] Usare la classe
ARITHMETIC_OVERFLOW
di errore in int overflow inadd_months()
- [SPARK-39914] [SQL] Aggiungere il filtro DS V2 alla conversione del filtro V1
- [SPARK-39857] [SQL] Backport manuale DBR 11.x; V2ExpressionBuilder usa il tipo di dati LiteralValue errato per In predicato #43454
- [SPARK-39840] [SQL][PYTHON] Factor PythonArrowInput come simmetria per PythonArrowOutput
- [SPARK-39651] [SQL] La condizione di filtro prune se confrontata con rand è deterministica
- [SPARK-39877] [PYTHON] Aggiungere unpivot all'API DataFrame di PySpark
- [SPARK-39847] [WARMFIX][SS] Correzione della race condition in RocksDBLoader.loadLibrary() se il thread del chiamante viene interrotto
- [SPARK-39909] [SQL] Organizzare il controllo delle informazioni di push per JDBCV2Suite
- [SPARK-39834] [SQL][SS] Includere le statistiche di origine e i vincoli per LogicalRDD se proviene dal dataframe
- [SPARK-39849] [SQL] Dataset.as(StructType) riempie i nuovi columns mancanti con valore Null
- [SPARK-39860] [SQL] Più espressioni devono estendere predicato
- [SPARK-39823] [SQL][PYTHON] Rinominare Dataset.as come Dataset.to e aggiungere DataFrame.to in PySpark
- [SPARK-39918] [SQL][MINOR] Sostituire la parola "non confrontabile" con "incomparabile" nel messaggio di errore
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder usa il tipo di dati LiteralValue errato per Il predicato In
- [SPARK-39862] [SQL] Backport manuale per PR 43654 destinate a DBR 11.x: Update SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS per consentire/denyALTER TABLE ... Aggiungi i comandi COLUMN separatamente.
- [SPARK-39844] [SQL] Backport manuale per pr 43652 destinato a DBR 11.x
-
[SPARK-39899] [SQL] Correggere il passaggio del messaggio parameters a
InvalidUDFClassException
- [SPARK-39890] [SQL] Make TakeOrderedAndProjectExec inherit AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Supporto di CharType in PySpark
- [SPARK-38864] [SQL] Aggiungere unpivot/melt al set di dati
- [SPARK-39864] [SQL] Registrare in modo differire ExecutionListenerBus
- [SPARK-39808] [SQL] Supporto della modalità funzione di aggregazione
- [SPARK-39839] [SQL] Gestire casi speciali di decimale a lunghezza variabile Null con offset non zeroAndSize nel controllo dell'integrità strutturale UnsafeRow
-
[SPARK-39875] [SQL] Modificare il
protected
metodo nella classe finale inprivate
opackage-visible
- [SPARK-39731] [SQL] Correzione del problema nelle origini dati CSV e JSON durante l'analisi delle date nel formato "aaaaMMdd" con i criteri del parser di ora FIX
- [SPARK-39805] [SS] Deprecate Trigger.Once e Promote Trigger.AvailableNow
- [SPARK-39784] [SQL] Inserire values letterale a destra del filtro dell'origine dati dopo aver tradotto Catalyst Expression in filtro origine dati
- [SPARK-39672] [SQL][3.1] Correzione della rimozione del progetto prima del filtro con sottoquery correlata
-
[SPARK-39552] [SQL] Unificare v1 e v2
DESCRIBE TABLE
-
[SPARK-39806] [SQL] L'accesso a
_metadata
su table partizionato può causare l'arresto anomalo di una query - [SPARK-39810] [SQL] Catalog.tableExists deve gestire lo spazio dei nomi annidato
- [SPARK-37287] [SQL] Estrarre partition dinamici e ordinare bucket da FileFormatWriter
- [SPARK-39469] [SQL] Inferire il tipo di data per i file CSV schema
- [SPARK-39148] [SQL] Il downpush dell'aggregazione DS V2 può funzionare con OFFSET o LIMIT
- [SPARK-39818] [SQL] Correzione di bug in ARRAY, STRUCT, tipi MAP con values DEFAULT con campi NULL
- [SPARK-39792] [SQL] Aggiungere DecimalDivideWithOverflowCheck per la media decimale
-
[SPARK-39798] [SQL] Replcace
toSeq.toArray
con.toArray[Any]
nel costruttore diGenericArrayData
- [SPARK-39759] [SQL] Implementare listIndexes in JDBC (dialetto H2)
-
[SPARK-39385] [SQL] Supporta il push verso il basso
REGR_AVGX
eREGR_AVGY
- [SPARK-39787] [SQL] Usare la classe di errore nell'errore di analisi della funzione to_timestamp
- [SPARK-39760] [PYTHON] Supporto di Varchar in PySpark
- [SPARK-39557] [SQL] Backport manuale su DBR 11.x: Supporto dei tipi ARRAY, STRUCT, MAP come DEFAULT values
- [SPARK-39758] [SQL][3.3] Correzione del server dei criteri di rete dalle funzioni regexp in modelli non validi
- [SPARK-39749] [SQL] Modalità SQL ANSI: usare la rappresentazione di stringa normale per eseguire il cast di decimali in stringhe
- [SPARK-39704] [SQL] Implementare createIndex & dropIndex & indexExists in JDBC (dialetto H2)
-
[SPARK-39803] [SQL] Usare
LevenshteinDistance
invece diStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Supporto del tipo TimestampNTZ nell'origine dati JDBC
- [SPARK-39781] [SS] Aggiunta del supporto per fornire max_open_files al provider dell'archivio stati rocksdb
- [SPARK-39719] [R] Implementare databaseExists/getDatabase nello spazio dei nomi SparkR supportato da 3L
- [SPARK-39751] [SQL] Rinominare la metrica dei probe delle chiavi di aggregazione hash
- [SPARK-39772] Lo spazio dei nomi [SQL] deve essere Null quando il database è Null nei costruttori precedenti
- [SPARK-39625] [SPARK-38904][SQL] Aggiungere Dataset.as(StructType)
- [SPARK-39384] [SQL] Compilare funzioni di aggregazione di regressione lineare predefinite per il dialetto JDBC
- [SPARK-39720] [R] Implementare tableExists/getTable in SparkR per lo spazio dei nomi 3L
-
[SPARK-39744] [SQL] Aggiungere la
REGEXP_INSTR
funzione - [SPARK-39716] [R] Make currentDatabase/setCurrentDatabase/listCatalogs in SparkR support 3L namespace
-
[SPARK-39788] [SQL] Rinomina
catalogName
indialectName
perJdbcUtils
- [SPARK-39647] [CORE] Registrare l'executor con ESS prima di registrare BlockManager
-
[SPARK-39754] [CORE][SQL] Remove
import
inutilizzati o{}
non necessari -
[SPARK-39706] [SQL] Set mancante column con defaultValue impostato come costante in
ParquetColumnVector
- [SPARK-39699] [SQL] Rendere CollapseProject più intelligente sulle espressioni di creazione della raccolta
-
[SPARK-39737] [SQL]
PERCENTILE_CONT
ePERCENTILE_DISC
devono supportare il filtro aggregato - [SPARK-39579] [SQL] [PYTHON] [R] Rendere ListFunctions/getFunction/functionExists compatibile con lo spazio dei nomi a 3 livelli
- [SPARK-39627] [SQL] Il pushdown di JDBC V2 deve unificare l'API di compilazione
- [SPARK-39748] [SQL][SS] Includere il piano logico di origine per LogicalRDD se proviene dal dataframe
- [SPARK-39385] [SQL] Tradurre funzioni di aggregazione di regressione lineare per il pushdown
-
[SPARK-39695] [SQL] Aggiungere la
REGEXP_SUBSTR
funzione - [SPARK-39667] [SQL] Aggiungere un'altra soluzione alternativa quando non è disponibile memoria sufficiente per compilare e trasmettere il table
-
[SPARK-39666] [ES-337834][SQL] Usare UnsafeProjection.create per rispettare
spark.sql.codegen.factoryMode
expressionEncoder - [SPARK-39643] [SQL] Impedire espressioni di sottoquery in DEFAULT values
- [SPARK-38647] [SQL] Aggiungere la combinazione SupportsReportOrdering nell'interfaccia per l'analisi (DataSourceV2)
- [SPARK-39497] [SQL] Migliorare l'eccezione di analisi per la chiave mancante nella mappa column
- [SPARK-39661] [SQL] Evitare di creare logger SLF4J non necessari
- [SPARK-39713] [SQL] Modalità ANSI: aggiungere un suggerimento per l'uso di try_element_at per INVALID_ARRAY_INDEX errore
- [SPARK-38899] [SQL]DS V2 supporta le funzioni datetime di push
-
[SPARK-39638] [SQL] Modificare l'uso di
ConstantColumnVector
per archiviare partitioncolumns inOrcColumnarBatchReader
-
[SPARK-39653] [SQL] Eseguire la pulizia
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
daColumnVectorUtils
-
[SPARK-39231] [SQL] Usare
ConstantColumnVector
anzichéOn/OffHeapColumnVector
per archiviare partitioncolumns inVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog non deve generare NoSuchDatabaseException in loadNamspaceMetadata
- [SPARK-39447] [SQL] Evitare AssertionError in AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] MISSING_COLUMN di rielaborazione
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec deve rispettare l'ordinamento dell'output figlio
- [SPARK-39606] [SQL] Usare le statistiche figlio per stimare l'operatore order
- [SPARK-39611] [PYTHON][PS] Correggere gli alias non corretti in array_ufunc
- [SPARK-39656] [SQL][3.3] Correggere lo spazio dei nomi errato in DescribeNamespaceExec
- [SPARK-39675] [SQL] Passare alla configurazione di 'spark.sql.codegen.factoryMode' dallo scopo di test allo scopo interno
- [SPARK-39139] [SQL] DS V2 supporta il push della funzione definita dall'utente DS V2
- [SPARK-39434] [SQL] Specificare il contesto della query di errore di runtime quando l'indice della matrice non è delimitato
- [SPARK-39479] [SQL] DS V2 supporta il push delle funzioni matematiche (non ANSI)
-
[SPARK-39618] [SQL] Aggiungere la
REGEXP_COUNT
funzione - [SPARK-39553] [CORE] L'annullamento della registrazione a più thread non deve generare npe quando si usa Scala 2.13
- [SPARK-38755] [PYTHON][3.3] Aggiungere un file per risolvere le funzioni generali pandas mancanti
- [SPARK-39444] [SQL] Aggiungere OptimizeSubqueries in list nonExcludableRules
- [SPARK-39316] [SQL] Merge PromotePrecision e CheckOverflow in aritmetica binaria decimale
- [SPARK-39505] [interfaccia utente] Rendering del contenuto del log di escape nell'interfaccia utente
-
[SPARK-39448] [SQL] Aggiungere
ReplaceCTERefWithRepartition
innonExcludableRules
list - [SPARK-37961] [SQL] Eseguire l'override di maxRows/maxRowsPerPartition per alcuni operatori logici
- [SPARK-35223] Ripristinare l'aggiunta di IssueNavigationLink
- [SPARK-39633] [SQL] Supporto del timestamp in secondi per TimeFrame con le opzioni del dataframe
- [SPARK-38796] [SQL] Update documentazione per le stringhe di formato numerico con le funzioni {try_}to_number
- [SPARK-39650] [SS] Correzione del valore errato schema nella deduplicazione dello streaming mantenendo la compatibilità con le versioni precedenti
- [SPARK-39636] [CORE][interfaccia utente] Correzione di più bug in JsonProtocol, che influiscono su heap StorageLevels e Task/Executor ResourceRequests
- [SPARK-39432] [SQL] Restituire ELEMENT_AT_BY_INDEX_ZERO da element_at(*, 0)
- [SPARK-39349] Aggiungere un metodo CheckError centralizzato per qa del percorso di errore
- [SPARK-39453] [SQL] DS V2 supporta il push delle funzioni non aggregate (non ANSI)
- [SPARK-38978] [SQL] DS V2 supporta l'operatore di push down OFFSET
- [SPARK-39567] [SQL] Supportare gli intervalli ANSI nelle funzioni percentili
- [SPARK-39383] [SQL] Supportare columns DEFAULT in ALTER TABLE ALTER COLUMNS alle origini dati V2
- [SPARK-39396] [SQL] Correzione dell'eccezione di login LDAP 'codice di errore 49 - credentialsnon valido'
- [SPARK-39548] [SQL] Comando CreateView con una query con clausola window ha incontrato un problema di 'definizione window non trovata'
- [SPARK-39575] [AVRO] aggiungere ByteBuffer#rewind dopo ByteBuffer#get in Avr...
- [SPARK-39543] L'opzione DataFrameWriterV2 deve essere passata alle proprietà di archiviazione se il fallback a v1
- [SPARK-39564] [SS] Esporre le informazioni di catalogtable nel piano logico di una query di streaming
-
[SPARK-39582] [SQL] Correzione del marcatore "Since" per
array_agg
-
[SPARK-39388] [SQL] Riutilizzare
orcSchema
quando si esegue il push dei predicati orc - [SPARK-39511] [SQL] Migliorare il push verso il basso limit 1 per il lato destro del semi/anti join sinistro se join condizione è vuota
- [SPARK-38614] [SQL] Non eseguire il push di limit tramite window che usa percent_rank
- [SPARK-39551] [SQL] Aggiungere un controllo del piano non valido di AQE
- [SPARK-39383] [SQL] Supportare columns DEFAULT in ALTER TABLE AGGIUNGERE COLUMNS alle origini dati V2
- [SPARK-39538] [SQL] Evitare di creare logger SLF4J non necessari
- [SPARK-39383] [SQL] Backport manuale su DBR 11.x: Refactoring del supporto DEFAULT column per evitare il passaggio dell'Analyzer primario
- [SPARK-39397] [SQL] Relax AliasAwareOutputExpression per supportare alias con expression
-
[SPARK-39496] [SQL] Gestire lo struct Null in
Inline.eval
-
[SPARK-39545] [SQL] Eseguire l'override
concat
del metodo perExpressionSet
in Scala 2.13 per migliorare le prestazioni - [SPARK-39340] [SQL] DS v2 agg pushdown deve consentire punti nel nome di columns di primo livello
- [SPARK-39488] [SQL] Semplificare la gestione degli errori di TempResolvedColumn
- [SPARK-38846] [SQL] Aggiungere il mapping esplicito dei dati tra tipo numerico Teradata e Spark DecimalType
-
[SPARK-39520] [SQL] Eseguire l'override
--
del metodo perExpressionSet
in Scala 2.13 - [SPARK-39470] [SQL] Supporto del cast di intervalli ANSI a decimali
- [SPARK-39477] [SQL] Remove "Numero di query" dai file golden di SQLQueryTestSuite
- [SPARK-39419] [SQL] Correzione di ArraySort per generare un'eccezione quando il confronto restituisce Null
-
[SPARK-39061] [SQL] Set nullable correttamente per gli attributi di output
Inline
-
[SPARK-39320] [SQL] Supporto della funzione di aggregazione
MEDIAN
- [SPARK-39261] [CORE] Migliorare la formattazione di nuova riga per i messaggi di errore
- [SPARK-39355] [SQL] Utilizza column singolo con citazioni per costruire UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE dovrebbero oscurare le proprietà
- [SPARK-37623] [SQL] Supporto della funzione di aggregazione ANSI: regr_intercept
- [SPARK-39374] [SQL] Migliorare il messaggio di errore per l'utente specificato columnlist
- [SPARK-39255] [SQL][3.3] Migliorare i messaggi di errore
- [SPARK-39321] [SQL] Effettuare il refactoring di TryCast per usare RuntimeReplaceable
- [SPARK-39406] [PYTHON] Accettare una matrice NumPy in createDataFrame
- [SPARK-39267] [SQL] Pulire il simbolo dsl non necessario
- [SPARK-39171] [SQL] Unificare l'espressione Cast
- [SPARK-28330] [SQL] Supportare ANSI SQL: clausola offset risultato nell'espressione di query
- [SPARK-39203] [SQL] Riscrivere table ubicazione come URI assoluto basato sull'URI del database
-
[SPARK-39313] [SQL]
toCatalystOrdering
deve avere esito negativo se non è possibile convertire V2Expression - [SPARK-39301] [SQL][PYTHON] Sfruttare LocalRelation e rispettare le dimensioni del batch Arrow in createDataFrame con l'ottimizzazione freccia
- [SPARK-39400] [SQL] spark-sql deve remove dir delle risorse hive in tutti i casi
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 11.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 1.2.1
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1.10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
black | 22.3.0 | bleach | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | click | 8.0.3 |
cryptography | 3.4.8 | cycler | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | decorator | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | distro-info | 0.23ubuntu1 |
entrypoints | 0.3 | facet-overview | 1.0.0 | filelock | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
mistune | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
notebook | 6.4.5 | numpy | 1.20.3 | packaging | 21.0 |
pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 8.4.0 | pip | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2.20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
six | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacity | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.0 | typing-extensions | 3.10.0.2 |
aggiornamenti automatici | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | wheel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-08-15.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | boot | 1.3-28 |
brew | 1.0-7 | brio | 1.1.3 | Scopa | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | callr | 3.7.1 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.8.0 | compilatore | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | crayon | 1.5.1 | credentials | 1.3.2 |
curl | 4.3.2 | dati.table | 1.14.2 | datasets | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | digest | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | puntini di sospensione | 0.3.2 | evaluate | 0.16 |
fansi | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.1 | foreach | 1.5.2 |
foreign | 0.8-82 | forge | 0.2.0 | fs | 1.5.2 |
future | 1.27.0 | future.apply | 1.9.0 | gargle | 1.2.0 |
generics | 0.1.3 | gert | 1.7.0 | ggplot2 | 3.3.6 |
gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globals | 0.16.0 | glue | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | grafica | 4.1.3 |
grDevices | 4.1.3 | grid | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | hardhat | 1.2.0 |
haven | 2.5.0 | highr | 0.9 | hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iteratori | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1.39 | Etichettatura | 0.4.2 | later | 1.3.0 |
Lattice | 0.20-45 | Java | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
markdown | 1.1 | MASS | 7.3-56 | Matrice | 1.4-1 |
memoise | 2.0.1 | methods | 4.1.3 | mgcv | 1.8-40 |
mime | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallelly | 1.32.1 | Concetto fondamentale | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
praise | 1.0.0 | prettyunits | 1.1.1 | Proc | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Avanzamento | 1.2.2 | progressr | 0.10.1 | promises | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-27 | ps | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
ricette | 1.0.1 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0.13 |
rversions | 2.1.1 | rvest | 1.0.2 | sass | 0.4.2 |
Scalabilità | 1.2.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
Forma | 1.4.6 | shiny | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | spaziale | 7.3-11 |
Spline | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
stats | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | Sopravvivenza | 3.2-13 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0,40 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utils | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | vroom | 1.5.7 | waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0,32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-consultas | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.caffeina | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 2.2.1 |
dev.sdk.netlib | blas | 2.2.1 |
dev.sdk.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | freccia-vettore | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.9 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shim | 1.7.5 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | codifica parquet | 1.12.0-databricks-0004 |
org.apache.parquet | strutture parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | maglia-comune | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Spessori | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.threeten | treten-extra | 1.5.0 |
org.cortanaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |