Databricks Runtime 14.3 LTS
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 14.3 LTS, con tecnologia Apache Spark 3.5.0.
Databricks ha rilasciato questa versione a febbraio 2024.
Nota
LTS indica che questa versione è supportata a lungo termine. Vedere Ciclo di vita della versione LTS di Databricks Runtime.
Suggerimento
Per visualizzare le note sulla versione per le versioni di Databricks Runtime che hanno raggiunto la fine del supporto (EoS), vedere Note sulla versione della fine del supporto di Databricks Runtime. Le versioni EoS di Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.
Miglioramenti e nuove funzionalità
- Supporto del file system dell'area di lavoro in Funzioni definite dall'utente pySpark nei cluster condivisi
-
Supporto per le ottimizzazioni dei vettori
MERGE
di eliminazione senza Photon - API del catalogo Spark ora completamente supportate in modalità di accesso condiviso
- Delta UniForm è ora disponibile a livello generale
- nuova funzione SQL EXECUTE IMMEDIATE
- Ricalcolare le statistiche di salto dati per le tabelle Delta
- Informazioni sullo stato delle query sullo stato per le query di streaming con stato
- Usare l'ID Microsoft Entra per l'autenticazione Kafka nei cluster condivisi
- Supporto aggiunto per l'eliminazione di file e partizioni per migliorare le prestazioni delle query
- Dichiarare variabili temporanee in una sessione SQL
- Gli aggiornamenti Thriftserver per rimuovere le funzionalità inutilizzate
- Usare i file dell'archivio dei certificati di fiducia e dell'archivio chiavi nei volumi del Catalogo Unity
- Supporto del formato di file XML nativo (anteprima pubblica)
- Supporto per l'archiviazione Cloudflare R2 (anteprima pubblica)
- l'accesso a Spark e dbutils ai file dell'area di lavoro supporta i cluster del catalogo Unity con accesso condiviso
- Script di inizializzazione e supporto delle librerie del cluster nei cluster del Catalogo Unity con accesso condiviso
Supporto del file system dell'area di lavoro in Funzioni definite dall'utente pySpark nei cluster condivisi
Le funzioni definite dall'utente PySpark nei cluster condivisi possono ora importare moduli Python da cartelle Git ,file dell'area di lavoro ,o volumi UC ,.
Per altre informazioni sull'uso dei moduli nelle cartelle Git o nei file dell'area di lavoro, vedere Usare i moduli Python e R.
Supporto per le ottimizzazioni dei vettori MERGE
di eliminazione senza Photon
Photon non è più necessario per le operazioni per MERGE
sfruttare le ottimizzazioni dei vettori di eliminazione. Si veda Che cosa sono i vettori di eliminazione?.
Api del catalogo Spark ora completamente supportate in modalità di accesso condiviso
È ora possibile usare tutte le funzioni nell'API spark.catalog
sia in Python che in Scala nel calcolo configurato con la modalità di accesso condiviso.
Delta UniForm è ora disponibile a livello generale
UniForm è ora disponibile a livello generale e usa la funzionalità tabella IcebergCompatV2
. È ora possibile abilitare o aggiornare UniForm nelle tabelle esistenti. Consulta le tabelle Delta con i client Iceberg.
Nuova funzione SQL EXECUTE IMMEDIATE
È ora possibile usare la sintassi EXECUTE IMMEDIATE per supportare query con parametri in SQL. Vedere EXECUTE IMMEDIATE.
Ricalcolare le statistiche di esclusione dei dati per le tabelle Delta
È ora possibile ricompilare le statistiche archiviate nel log Delta dopo aver modificato le colonne usate per il data skipping. Vedi Specifica le colonne delle statistiche Delta.
Informazioni sullo stato delle query sullo stato per le query di streaming con stato
È ora possibile eseguire query sui dati e sui metadati dello stato structured streaming. Vedere Leggere le informazioni sullo stato di Structured Streaming.
Usare l'ID Microsoft Entra per l'autenticazione Kafka nei cluster condivisi
È ora possibile autenticare i servizi di Hub eventi tramite OAuth con Microsoft Entra ID nel calcolo configurato con la modalità di accesso condiviso. Vedere Autenticazione entità servizio con Microsoft Entra ID e Azure Event Hub.
Aggiunta del supporto per l'eliminazione di partizioni e file per ottimizzare le prestazioni delle query
Per velocizzare alcune query che si basano sull'uguaglianza tollerante ai valori Nulli nelle condizioni di JOIN, sono ora supportati DynamicFilePruning
e DynamicPartitionPruning
per l'operatore EqualNullSafe
nei JOINs.
Dichiarare variabili temporanee in una sessione SQL
Questa versione introduce la possibilità di dichiarare variabili temporanee in una sessione che è possibile impostare e quindi fare riferimento all'interno delle query. Vedere Variabili.
Aggiornamenti thriftserver per rimuovere le funzionalità inutilizzate
Il codice Thriftserver è stato aggiornato per rimuovere il codice per le funzionalità obsolete. A causa di queste modifiche, le configurazioni seguenti non sono più supportate:
- Le jar ausiliarie hive, configurate usando la proprietà
hive.aux.jars.path
, non sono più supportate per le connessionihive-thriftserver
. - Il file init globale Hive (
.hiverc
), il cui percorso è configurato usando la proprietàhive.server2.global.init.file.location
o la variabile di ambienteHIVE_CONF_DIR
, non è più supportata per le connessionihive-thriftserver
.
Utilizzare i file di truststore e keystore nei volumi di Unity Catalog
È ora possibile usare i file truststore e keystore nei volumi di Unity Catalog per eseguire l'autenticazione con un Registro schemi Confluent per i dati avro o protocol buffer. Vedere la documentazione per buffer avro o protocol.
Supporto del formato di file XML nativo (anteprima pubblica)
Supporto del formato di file XML nativo adesso disponibile in anteprima pubblica. Il supporto del formato di file XML consente l'inserimento, l'esecuzione di query e l'analisi dei dati XML per l'elaborazione batch o lo streaming. Può dedurre ed evolvere automaticamente schemi e tipi di dati, supporta espressioni SQL come from_xml
e può generare documenti XML. Non richiede file JAR esterni e funziona perfettamente con il caricatore automatico, read_files
, COPY INTO
e le tabelle live Delta. Vedere Leggere e scrivere file XML.
Supporto per l'archiviazione Cloudflare R2 (anteprima pubblica)
È ora possibile usare Cloudflare R2 come archiviazione cloud per i dati registrati nel catalogo unity. Cloudflare R2 è destinato principalmente ai casi d'uso di condivisione delta in cui si vogliono evitare le tariffe di uscita dei dati addebitate dai provider di servizi cloud quando i dati attraversano aree. L’archiviazione R2 supporta tutti gli asset di dati e intelligenza artificiale di Databricks supportati in AWS S3, Azure Data Lake Storage Gen2 e Google Cloud Storage. Consultare Usare repliche Cloudflare R2 o eseguire la migrazione dell’archiviazione a R2 e Creare credenziali di archiviazione per la connessione a Cloudflare R2.
Il supporto all'accesso di Spark e dbutils ai file dell'area di lavoro è disponibile sui cluster condivisi del catalogo Unity.
Spark e dbutils
ora supportano l'accesso in lettura e scrittura ai file dell'area di lavoro nei cluster Unity Catalog in modalità di accesso condiviso . Vedere Usare i file dell'area di lavoro.
Gli script di init e il supporto delle librerie dei cluster nei cluster del catalogo Unity ad accesso condiviso
L'installazione di script init con ambito cluster e librerie Python e JAR nei cluster del catalogo Unity in modalità di accesso condiviso, inclusa l'installazione con criteri cluster , è ora disponibile a livello generale. Databricks consiglia di installare script di inizializzazione e librerie dai volumi di Unity Catalog .
Aggiornamenti della libreria
- Librerie Python aggiornate:
- fastjsonschema da 2.19.0 a 2.19.1
- filelock da 3.12.4 a 3.13.1
- googleapis-common-protos da 1.61.0 a 1.62.0
- imballaggio da 22.0 a 23.2
- Librerie R aggiornate:
- estero da 0,8-82 a 0,8-85
- nlme da 3.1-162 a 3.1-163
- rpart dalla versione 4.1.19 alla versione 4.1.21
- Librerie Java aggiornate:
- com.databricks.databricks-sdk-java da 0.7.0 a 0.13.0
- org.apache.orc.orc-core da 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce da 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims da 1.9.1 a 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 da 2.9.0 a 2.11.0
Apache Spark
Databricks Runtime 14.3 include Apache Spark 3.5.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 14.2 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-46541] [SC-153546][SQL][CONNECT] Correggere il riferimento ambiguo alla colonna nel self join
- [SPARK-45433] Ripristinare "[SC-145163][SQL] Correzione dello schema CSV/JSON...
- [SPARK-46723] [14.3][SASP-2792][SC-153425][CONNECT][SCALA] Rendere addArtifact riprovabile
- [SPARK-46660] [SC-153391][CONNECT] ReattachExecute richiede aggiornamenti dell'integrità del sessionholder
- [SPARK-46670] [SC-153273][PYTHON][SQL] Rendere DataSourceManager auto clone-able separando origini dati Python statiche e di runtime
- [SPARK-46720] [SC-153410][SQL][PYTHON] Effettuare il refactoring dell'origine dati Python per allinearsi ad altre origini dati predefinite DSv2
- [SPARK-46684] [SC-153275][PYTHON][CONNECT] Correzione di CoGroup.applyInPandas/Arrow per passare correttamente gli argomenti
- [SPARK-46667] [SC-153271][SC-153263][SQL] XML: genera un errore in più origini dati XML
- [SPARK-46382] [SC-151881][SQL]XML: valore predefinito ignoreSurroundingSpaces su true
-
[SPARK-46382] [SC-153178][SQL] XML: Aggiorna doc per
ignoreSurroundingSpaces
- [SPARK-45292] Ripristinare "[SC-151609][SQL][HIVE] Rimuovere Guava dalle classi condivise da IsolatedClientLoader"
- [SPARK-45292] [SC-151609][SQL][HIVE] Rimuovere Guava dalle classi condivise da IsolatedClientLoader
-
[SPARK-46311] [SC-150137][CORE] Registrare lo stato finale dei driver durante
Master.removeDriver
- [SPARK-46413] [SC-151052][PYTHON] Convalidare returnType della funzione definita dall'utente python arrow
- [SPARK-46633] [WARMFIX][SC-153092][SQL] Correzione del lettore Avro per gestire blocchi di lunghezza zero
- [SPARK-46537] [SC-151286][SQL] Convertire NPE e asserzioni da comandi a errori interni
- [SPARK-46179] [SC-151678][SQL] Aggiungere CrossDbmsQueryTestSuites, che esegue altri DBMS su file golden con altri DBMS, a partire da Postgres
- [SPARK-44001] [SC-151413][PROTOBUF] Aggiungere l'opzione per consentire il wrapping di tipi wrapper noti protobuf
- [SPARK-40876] [SC-151786][SQL] Innalzamento di livello dei tipi per i decimali con scalabilità maggiore nei lettori Parquet
-
[SPARK-46605] [SC-151769][CONNECT] Supporto della
lit/typedLit
funzione in connect modules.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005][SQL] La convalida dei valori letterali non deve eseguire il drill-down in campi Null
-
[SPARK-37039] [SC-153094][PS] Correzione
Series.astype
per il corretto funzionamento con il valore mancante -
[SPARK-46312] [SC-150163][CORE] Usare
lower_camel_case
instore_types.proto
- [SPARK-46630] [SC-153084][SQL] XML: Convalidare il nome dell'elemento XML in scrittura
- [SPARK-46627] [SC-152981][SS][interfaccia utente] Correzione del contenuto della descrizione comando della sequenza temporale nell'interfaccia utente di streaming
- [SPARK-46248] [SC-151774][SQL] XML: supporto per le opzioni ignoreCorruptFiles e ignoreMissingFiles
- [SPARK-46386] [SC-150766][PYTHON] Migliorare le asserzioni di osservazione (pyspark.sql.osservazione)
- [SPARK-46581] [SC-151789][CORE] Aggiorna il commento su isZero in AccumulatorV2
- [SPARK-46601] [SC-151785] [CORE] Correzione dell'errore di log in handleStatusMessage
- [SPARK-46568] [SC-151685][PYTHON] Rendere le opzioni dell'origine dati Python un dizionario senza distinzione tra maiuscole e minuscole
- [SPARK-46611] [SC-151783][CORE] Rimuovere ThreadLocal sostituendo SimpleDateFormat con DateTimeFormatter
-
[SPARK-46604] [SC-151768][SQL] Supporto
Literal.apply
s.c.immuable.ArraySeq
- [SPARK-46324] [SC-150223][SQL][PYTHON] Correggere il nome di output di pyspark.sql.functions.user e session_user
- [SPARK-46621] [SC-151794][PYTHON] Indirizzo Null da Exception.getMessage nell'eccezione acquisita py4J
- [SPARK-46598] [SC-151767][SQL] OrcColumnarBatchReader deve rispettare la modalità di memoria durante la creazione di vettori di colonna per la colonna mancante
- [SPARK-46613] [SC-151778][SQL][PYTHON] Eccezione completa del log quando non è stato possibile cercare origini dati Python
-
[SPARK-46559] [SC-151364][MLLIB] Eseguire il wrapping di
export
nel nome del pacchetto con i backtick - [SPARK-46522] [SC-151784][PYTHON] Bloccare la registrazione dell'origine dati Python con conflitti di nomi
- [SPARK-45580] [SC-149956][SQL] Gestire il caso in cui una sottoquery nidificata diventa un join di esistenza
- [SPARK-46609] [SC-151714][SQL] Evitare l'esplosione esponenziale in PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][SQL] Correggere npe quando si descrive una colonna estesa senza statistiche di confronto
- [SPARK-46599] [SC-147661][SC-151770][SQL] XML: usare TypeCoercion.findTightestCommonType per il controllo della compatibilità
- [SPARK-40876] [SC-151129][SQL] Promozioni di tipi più ampliate nei lettori Parquet
- [SPARK-46179] [SC-151069][SQL] Estrarre il codice in funzioni riutilizzabili in SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][SQL] Supporto
s.c.immutable.ArraySeq
comecustomCollectionCls
inMapObjects
-
[SPARK-46585] [SC-151622][CORE] Costruito
metricPeaks
direttamente come inveceimmutable.ArraySeq
di usaremutable.ArraySeq.toSeq
inExecutor
- [SPARK-46488] [SC-151173][SQL] Ignorare trimAll call durante l'analisi del timestamp
-
[SPARK-46231] [SC-149724][PYTHON] Eseguire la migrazione di tutti gli altri
NotImplementedError
eTypeError
nel framework di errore pySpark -
[SPARK-46348] [SC-150281][CORE] Appoggiare
spark.deploy.recoveryTimeout
-
[SPARK-46313] [SC-150164][CORE] Durata del ripristino del log
Spark HA
-
[SPARK-46358] [SC-150307][CONNECT] Semplificare il controllo della condizione in
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][SQL]Sostituisci ora/data corrente prima di valutare espressioni di tabella inline.
- [SPARK-46563] [SC-151441][SQL] Visualizzare simpleString non seguire conf spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNCT][GRAPHX] Ridurre la profondità dello stack sostituendo (string|array).size con (string|array).length
- [SPARK-46539] [SC-151469][SQL] SELECT * EXCEPT(tutti i campi di una struttura) genera un fallimento di asserzione
- [SPARK-46565] [SC-151414][PYTHON] Perfezionare le classi di errore e i messaggi di errore per le origini dati Python
- [SPARK-46576] [SC-151614][SQL] Migliorare i messaggi di errore per la modalità di salvataggio dell'origine dati non supportata
- [SPARK-46540] [SC-151355][PYTHON] Rispettare i nomi delle colonne quando l'origine dati Python legge gli output delle funzioni denominati Oggetti Row
- [SPARK-46577] [SC-151448][SQL] HiveMetastoreLazyInitializationSuite perde SessionState di Hive
-
[SPARK-44556] [SC-151562][SQL] Riutilizzare
OrcTail
quando si abilita vectorizedReader - [SPARK-46587] [SC-151618][SQL] XML: Correzione della conversione di numeri interi grandi XSD
- [SPARK-46382] [SC-151297][SQL] XML: Acquisire valori distribuiti tra gli elementi
- [SPARK-46567] [SC-151447][CORE] Rimuovere ThreadLocal per ReadAheadInputStream
- [SPARK-45917] [SC-151269][PYTHON][SQL] Registrazione automatica dell'origine dati Python all'avvio
- [SPARK-28386] [SC-151014][SQL] Impossibile risolvere ORDER BY colonne con GROUP BY e HAVING
- [SPARK-46524] [SC-151446][SQL] Migliorare i messaggi di errore per la modalità di salvataggio non valida
- [SPARK-46294] [SC-150672][SQL] Pulire la semantica di init rispetto al valore zero
-
[SPARK-46301] [SC-150100][CORE] Appoggiare
spark.worker.(initial|max)RegistrationRetries
-
[SPARK-46542] [SC-151324][SQL] Rimuovere il controllo della
c>=0
daExternalCatalogUtils#needsEscaping
perché è sempre vero -
[SPARK-46553] [SC-151360][PS]
FutureWarning
perinterpolate
con dtype oggetto - [SPARK-45914] [SC-151312][PYTHON] Supporto del commit e dell'API di interruzione per la scrittura dell'origine dati Python
-
[SPARK-46543] [SC-151350][PYTHON][CONNECT] Creare
json_tuple
un'eccezione PySparkValueError per i campi vuoti - [SPARK-46520] [SC-151227][PYTHON] Supporto della modalità di sovrascrittura per la scrittura dell'origine dati Python
- [SPARK-46502] [SC-151235][SQL] Supportare i tipi di timestamp in UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][CONNECT] Passare i parametri dei messaggi nei metadati di
ErrorInfo
-
[SPARK-46397] Ripristinare "[SC-151311][PYTHON][CONNECT] La funzione
sha2
deve generarePySparkValueError
per " non validonumBits
- [SPARK-46170] [SC-149472][SQL] Supporto dell'inserimento delle regole di strategia post planner query adattive in SparkSessionExtensions
- [SPARK-46444] [SC-151195][SQL] V2SessionCatalog#createTable non deve caricare la tabella
-
[SPARK-46397] [SC-151311][PYTHON][CONNECT] La funzione
sha2
deve generarePySparkValueError
per un errore non validonumBits
- [SPARK-46145] [SC-149471][SQL] spark.catalog.listTables non genera eccezioni quando la tabella o la vista non viene trovata
- [SPARK-46272] [SC-151012][SQL] Supportare CTAS usando origini DSv2
- [SPARK-46480] [SC-151127][CORE][SQL] Risolvi NPE quando si tenta la cache della tabella
- [SPARK-46100] [SC-149051][CORE][PYTHON] Ridurre la profondità dello stack sostituendo (string|array).size con (string|array).length
- [SPARK-45795] [SC-150764][SQL] DS V2 supporta la modalità push down
- [SPARK-46485] [SC-151133][SQL] V1Write non deve aggiungere l'ordinamento quando non è necessario
- [SPARK-46468] [SC-151121] [SQL] Gestire il bug COUNT per le sottoquery EXISTS con Aggregazione senza raggruppare le chiavi
- [SPARK-46246] [SC-150927][SQL] EXECUTE IMMEDIATE supporto SQL
-
[SPARK-46498] [SC-151199][CORE] Rimuovere
shuffleServiceEnabled
dao.a.spark.util.Utils#getConfiguredLocalDirs
-
[SPARK-46440] [SC-150807][SQL] Impostare le configurazioni di rebase sulla modalità
CORRECTED
per impostazione predefinita - [SPARK-45525] [SC-151120][SQL][PYTHON] Supporto per la scrittura dell'origine dati Python con DSv2
-
[SPARK-46505] [SC-151187][CONNECT] Rendere configurabile la soglia byte in
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][SQL] Rimuovere le configurazioni di ricalibrazione data/ora legacy
- [SPARK-46443] [SC-151123][SQL] La precisione decimale e la scala devono essere decise dal dialetto H2.
- [SPARK-46384] [SC-150694][SPARK-46404][SS][interfaccia utente] Correzione del grafico dello stack di durata dell'operazione nella pagina Structured Streaming
- [SPARK-46207] [SC-151068][SQL] Supporto di MergeInto in DataFrameWriterV2
- [SPARK-46452] [SC-151018][SQL] Aggiungere una nuova API in DataWriter per scrivere un iteratore di record
- [SPARK-46273] [SC-150313][SQL] Supporto INSERT INTO/OVERWRITE tramite sorgenti DSv2
- [SPARK-46344] [SC-150267][CORE] Avvisa correttamente quando un driver esiste correttamente, ma il master è disconnesso
-
[SPARK-46284] [SC-149944][PYTHON][CONNECT] Aggiungere
session_user
una funzione a Python - [SPARK-46043] [SC-149786][SQL] Supporto per la creazione di una tabella con origini DSv2
- [SPARK-46323] [SC-150191][PYTHON] Correggere il nome di output di pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][PYTHON][CONNECT] Aggiungere
Column.isNaN
in PySpark -
[SPARK-46456] [SC-151050][CORE] Aggiungere
spark.ui.jettyStopTimeout
per impostare il timeout di arresto del server Jetty per sbloccare l'arresto di SparkContext - [SPARK-43427] [SC-150356][PROTOBUF] spark protobuf: allow upcasting unsigned integer types
- [SPARK-46399] [SC-151013][14.x][Core] Aggiungere lo stato di uscita all'evento Application End per l'uso del listener Spark
- [SPARK-46423] [SC-150752][PYTHON][SQL] Impostare l'istanza dell'origine dati Python in DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][PYTHON][SQL] Supportare le metriche Python nell'origine dati Python
- [SPARK-46330] [SC-151015] Caricamento dei blocchi dell'interfaccia utente spark per molto tempo quando è abilitato HybridStore
- [SPARK-46378] [SC-150397][SQL] Rimuovere comunque l'ordinamento dopo la conversione dell'aggregazione in progetto
- [SPARK-45506] [SC-146959][CONNECT] Aggiungere il supporto dell'URI ivy a SparkConnect addArtifact
- [SPARK-45814] [SC-147871][CONNECT][SQL]Impostare ArrowConverters.createEmptyArrowBatch call close() per evitare perdite di memoria
- [SPARK-46427] [SC-150759][PYTHON][SQL] Modificare la descrizione dell'origine dati Python in modo che sia più leggibile nella spiegazione
- [SPARK-45597] [SC-150730][PYTHON][SQL] Supportare la creazione di una tabella usando un'origine dati Python in SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][PYTHON] Aggiungere getMessageParameters e il supporto getQueryContext
-
[SPARK-46453] [SC-150897][CONNECT] Generare un'eccezione da
internalError()
inSessionHolder
- [SPARK-45758] [SC-147454][SQL] Introdurre un mapper per i codec di compressione hadoop
-
[SPARK-46213] [PYTHON] Introduzione
PySparkImportError
al framework degli errori -
[SPARK-46230] [SC-149960][PYTHON] Eseguire la migrazione
RetriesExceeded
in PySpark - errore - [SPARK-45035] [SC-145887][SQL] Correzione ignoreCorruptFiles/ignoreMissingFiles con CSV/JSON su più righe segnala un errore
- [SPARK-46289] [SC-150846][SQL] Supporto dell'ordinamento dei tipi definiti dall'utente in modalità interpretata
- [SPARK-46229] [SC-150798][PYTHON][CONNECT] Aggiungere applyInArrow a groupBy e cogroup in Spark Connect
- [SPARK-46420] [SC-150847][SQL] Rimuovere il trasporto inutilizzato in SparkSQLCLIDriver
-
[SPARK-46226] [PYTHON] Eseguire la migrazione di tutti i file rimanenti
RuntimeError
nel framework degli errori pySpark - [SPARK-45796] [SC-150613][SQL] Supporto della funzione MODE() WITHIN GROUP (ORDER BY col)
- [SPARK-40559] [SC-149686][PYTHON][14.X] Aggiungere applyInArrow a groupBy e cogroup
- [SPARK-46069] [SC-149672][SQL] Supporto del tipo di timestamp di annullamento del wrapping nel tipo date
- [SPARK-46406] [SC-150770][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][SS] Converti
IllegalStateException
ininternalError
negli iteratori di sessione - [SPARK-45807] [SC-150751][SQL] Migliorare l'API ViewCatalog
- [SPARK-46009] [SC-149771][SQL][CONNECT] Unire la regola di analisi di PercentileCont e PercentileDisc in functionCall
- [SPARK-46403] [SC-150756][SQL] Decodificare il file binario parquet con il metodo getBytesUnsafe
-
[SPARK-46389] [SC-150779][CORE] Chiudere manualmente l'istanza quando
RocksDB/LevelDB
si genera un'eccezionecheckVersion
-
[SPARK-46360] [SC-150376][PYTHON] Migliorare il debug dei messaggi di errore con la nuova
getMessage
API -
[SPARK-46233] [SC-149766][PYTHON] Eseguire la migrazione di tutti i file rimanenti
AttributeError
nel framework degli errori pySpark -
[SPARK-46394] [SC-150599][SQL] Correggere i problemi di spark.catalog.listDatabases() sugli schemi con caratteri speciali quando
spark.sql.legacy.keepCommandOutputSchema
impostato su true - [SPARK-45964] [SC-148484][SQL] Rimuovere il metodo di accesso sql privato nei pacchetti XML e JSON nel pacchetto catalyst
- [SPARK-45856] [SC-148691] Spostare ArtifactManager da Spark Connect in SparkSession (sql/core)
- [SPARK-46409] [SC-150714][CONNECT] Correggere lo script di avvio spark-connect-scala-client
-
[SPARK-46416] [SC-150699][CORE] Aggiungi
@tailrec
aHadoopFSUtils#shouldFilterOutPath
-
[SPARK-46115] [SC-149154][SQL] Limitare i set di caratteri in
encode()
- [SPARK-46253] [SC-150416][PYTHON] Pianificare la lettura dell'origine dati Python con MapInArrow
- [SPARK-46339] [SC-150266][SS] La directory con nome numero batch non deve essere considerata come log dei metadati
-
[SPARK-46353] [SC-150396][CORE] Effettuare il refactoring per migliorare la
RegisterWorker
copertura degli unit test - [SPARK-45826] [SC-149061][SQL] Aggiungere una configurazione SQL per le tracce dello stack nel contesto di query del dataframe
- [SPARK-45649] [SC-150300][SQL] Unificare il framework di preparazione per OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][CORE] Correzione Master per aggiornare un worker da
UNKNOWN
aALIVE
su messaggioRegisterWorker
msg -
[SPARK-46388] [SC-150496][SQL] HiveAnalysis manca la protezione del modello di
query.resolved
-
[SPARK-46401] [SC-150609][CORE] Usare
!isEmpty()
inveceRoaringBitmap
digetCardinality() > 0
inRemoteBlockPushResolver
- [SPARK-46393] [SC-150603][SQL] Classificare le eccezioni nel catalogo tabelle JDBC
- [SPARK-45798] [SC-150513][CONNECT] Completamento: aggiungere serverSessionId a SessionHolderInfo
- [SPARK-46153] [SC-146564][SC-150508][SQL] XML: Aggiunta del supporto timestampNTZType
- [SPARK-46075] [SC-150393][CONNECT] Miglioramenti a SparkConnectSessionManager
- [SPARK-46357] [SC-150596] Sostituire l'uso non corretto della documentazione di setConf con conf.set
- [SPARK-46202] [SC-150420][CONNECT] Esporre nuove API ArtifactManager per supportare directory di destinazione personalizzate
-
[SPARK-45824] [SC-147648][SQL] Applicare la classe di errore in
ParseException
- [SPARK-45845] [SC-148163][SS][interfaccia utente] Aggiungere il numero di righe di stato rimosse all'interfaccia utente di streaming
-
[SPARK-46316] [SC-150181][CORE] Abilitare
buf-lint-action
ilcore
modulo -
[SPARK-45816] [SC-147656][SQL] Restituisce
NULL
durante l'overflow durante il cast dal timestamp ai numeri interi -
[SPARK-46333] [SC-150263][SQL] Sostituire
IllegalStateException
conSparkException.internalError
in catalizzatore - [SPARK-45762] [SC-148486][CORE] Supportare i gestori casuali definiti nei file JAR utente modificando l'ordine di avvio
-
[SPARK-46239] [SC-149752][CORE] Nascondi
Jetty
informazioni -
[SPARK-45886] [SC-148089][SQL] Traccia dello stack completo di output nel
callSite
contesto del dataframe - [SPARK-46290] [SC-150059][PYTHON] Modificare saveMode in un flag booleano per DataSourceWriter
- [SPARK-45899] [SC-148097][CONNECT] Impostare errorClass in errorInfoToThrowable
-
[SPARK-45841] [SC-147657][SQL] Esporre l'analisi dello stack tramite
DataFrameQueryContext
-
[SPARK-45843] [SC-147721][CORE] Supporto
killall
nell'API di invio REST -
[SPARK-46234] [SC-149711][PYTHON] Introduzione
PySparkKeyError
al framework degli errori PySpark - [SPARK-45606] [SC-147655][SQL] Restrizioni di rilascio per il filtro di runtime multi-layer
- [SPARK-45725] [SC-147006][SQL] Eliminare il filtro di runtime della sottoquery IN che non è predefinito
-
[SPARK-45694] [SC-147314][SPARK-45695][SQL] Pulire l'utilizzo dell'API
View.force
deprecato eScalaNumberProxy.signum
-
[SPARK-45805] [SC-147488][SQL] Rendere
withOrigin
più generico - [SPARK-46292] [SC-150086][CORE][interfaccia utente] Visualizzare un riepilogo dei ruoli di lavoro in MasterPage
-
[SPARK-45685] [SC-146881][CORE][SQL] Usare
LazyList
invece diStream
- [SPARK-45888] [SC-149945][SS] Applicare il framework della classe di errore all'origine dati State (Metadata)
-
[SPARK-46261] [SC-150111][CONNECT]
DataFrame.withColumnsRenamed
deve mantenere l'ordine dict/map -
[SPARK-46263] [SC-149933][SQL][SS][ML][MLLIB][interfaccia utente] Eseguire la pulizia
SeqOps.view
eArrayOps.view
le conversioni -
[SPARK-46029] [SC-149255][SQL] Escape della virgoletta
_
singola e%
per il pushdown di DS V2 - [SPARK-46275] [SC-150189] Protobuf: restituisce Null in modalità permissiva quando la deserializzazione non riesce.
-
[SPARK-46320] [SC-150187][CORE] Appoggiare
spark.master.rest.host
- [SPARK-46092] [SC-149658][SQL] Non eseguire il push dei filtri dei gruppi di righe Parquet che superano l'overflow
- [SPARK-46300] [SC-150097][PYTHON][CONNECT] Rendere coerenti i comportamenti marginali nella colonna con una copertura completa dei test
- [SPARK-46298] [SC-150092][PYTHON][CONNECT] Corrispondere l'avviso di deprecazione, il caso di test e l'errore di Catalog.createExternalTable.
-
[SPARK-45689] [SC-146898][SPARK-45690][SPARK-45691][CORE][SQL] Pulire l'utilizzo deprecato dell'API correlato all'uso e del
StringContext/StringOps/RightProjection/LeftProjection/Either
tipo diBufferedIterator/CanBuildFrom/Traversable
- [SPARK-33393] [SC-148407][SQL] Supporto SHOW TABLE EXTENDED nella versione 2
-
[SPARK-45737] [SC-147011][SQL] Rimuovere i
.toArray[InternalRow]
non necessari inSparkPlan#executeTake
- [SPARK-46249] [SC-149797][SS] Richiedere il blocco dell'istanza per l'acquisizione delle metriche rocksDB per impedire la corsa con le operazioni in background
-
[SPARK-46260] [SC-149940][PYTHON][SQL]
DataFrame.withColumnsRenamed
deve rispettare l'ordine dict - [SPARK-46274] [SC-150043] [SQL] Correzione dell'operatore Range computeStats() per verificare la validità prolungata prima della conversione
- [SPARK-46040] [SC-149767][SQL][Python] Aggiornare l'API UDTF per le colonne di partizionamento/ordinamento 'analyze' per supportare le espressioni generali
-
[SPARK-46287] [SC-149949][PYTHON][CONNECT]
DataFrame.isEmpty
deve funzionare con tutti i tipi di dati - [SPARK-45678] [SC-146825][CORE] Coprire BufferReleasingInputStream.available/reset in tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][CORE][SQL][CONNECT] Pulire l'utilizzo deprecato dell'API correlato a
IterableOnceExtensionMethods
. -
[SPARK-43980] [SC-148992][SQL] Introduzione della
select * except
sintassi - [SPARK-46269] [SC-149816][PS] Abilitare altri test delle funzioni di compatibilità NumPy
- [SPARK-45807] [SC-149851][SQL] Aggiungere createOrReplaceView(..) / replaceView(..) a ViewCatalog
-
[SPARK-45742] [SC-147212][CORE][CONNECT][MLLIB][PYTHON] Introdurre una funzione implicita per Scala Array per eseguire il wrapping in
immutable.ArraySeq
. -
[SPARK-46205] [SC-149655][CORE] Migliorare le
PersistenceEngine
prestazioni conKryoSerializer
- [SPARK-45746] [SC-149359][Python] Restituisce messaggi di errore specifici se il metodo UDTF 'analyze' o 'eval' accetta o restituisce valori errati
- [SPARK-46186] [SC-149707][CONNECT] Correzione della transizione di stato non valida quando ExecuteThreadRunner è stato interrotto prima dell'avvio
-
[SPARK-46262] [SC-149803][PS] Abilitare il test per l'oggetto
np.left_shift
Pandas-on-Spark. - [SPARK-45093] [SC-149679][CONNECT][PYTHON] Supporta correttamente la gestione e la conversione degli errori per AddArtifactHandler
- [SPARK-46188] [SC-149571][Doc][3.5] Correggere il CSS delle tabelle generate dalla documentazione Spark
- [SPARK-45940] [SC-149549][PYTHON] Aggiungere InputPartition all'interfaccia DataSourceReader
- [SPARK-43393] [SC-148301][SQL] Bug di overflow dell'espressione della sequenza di indirizzi.
- [SPARK-46144] [SC-149466][SQL] Fail INSERT INTO ... Istruzione REPLACE se la condizione contiene sottoquery
-
[SPARK-46118] [SC-149096][SQL][SS][CONNECT] Usare
SparkSession.sessionState.conf
anzichéSQLContext.conf
e contrassegnareSQLContext.conf
come deprecato - [SPARK-45760] [SC-147550][SQL] Aggiungi con espressione per evitare la duplicazione di espressioni
- [SPARK-43228] [SC-149670][SQL] Le chiavi di join corrispondono anche a PartitioningCollection in CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][PS] Testare SparkPandasNotImplementedError con la pulizia del codice inutilizzato
-
[SPARK-46119] [SC-149205][SQL] Eseguire l'override
toString
del metodo perUnresolvedAlias
- [SPARK-46206] [SC-149674][PS] Usare un'eccezione di ambito più ristretto per il processore SQL
-
[SPARK-46191] [SC-149565][CORE] Migliorare il
FileSystemPersistenceEngine.persist
messaggio di errore nel caso del file esistente - [SPARK-46036] [SC-149356][SQL] Rimozione della classe di errore dalla funzione raise_error
- [SPARK-46055] [SC-149254][SQL] Riscrivere l'implementazione delle API del database del catalogo
- [SPARK-46152] [SC-149454][SQL] XML: Aggiungere il supporto per DecimalType nell'inferenza dello schema XML
- [SPARK-45943] [SC-149452][SQL] Spostare DetermineTableStats in regole di risoluzione
-
[SPARK-45887] [SC-148994][SQL] Allineare l'implementazione codegen e non codegen di
Encode
- [SPARK-45022] [SC-147158][SQL] Fornire il contesto per gli errori dell'API del set di dati
-
[SPARK-45469] [SC-145135][CORE][SQL][CONNECT][PYTHON] Sostituire
toIterator
coniterator
perIterableOnce
- [SPARK-46141] [SC-149357][SQL] Modificare il valore predefinito per spark.sql.legacy.ctePrecedencePolicy su CORRETTO
-
[SPARK-45663] [SC-146617][CORE][MLLIB] Sostituire
IterableOnceOps#aggregate
conIterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][SQL] Riutilizzare gli oggetti Literal nella regola ComputeCurrentTime
-
[SPARK-45803] [SC-147489][CORE] Rimuovere il
RpcAbortException
non più usato - [SPARK-46148] [SC-149350][PS] Correzione pyspark.pandas.mlflow.load_model test (Python 3.12)
- [SPARK-46110] [SC-149090][PYTHON] Usare classi di errore nei moduli di catalog, conf, connect, osservazione, pandas
- [SPARK-45827] [SC-149203][SQL] Correzioni varianti con codicegeno e lettore vettorializzato disabilitato
- [SPARK-46080] Ripristinare "[SC-149012][PYTHON] Aggiornare Cloudpickle a 3.0.0"
-
[SPARK-45460] [SC-144852][SQL] Sostituisci
scala.collection.convert.ImplicitConversions
inscala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][SQL] Rimuovere la risoluzione speciale di UnresolvedNamespace per determinati comandi
- [SPARK-45600] [SC-148976][PYTHON] Rendere il livello di sessione di registrazione dell'origine dati Python
- [SPARK-46074] [SC-149063][CONNECT][SCALA] Dettagli insufficienti nel messaggio di errore in caso di errore della funzione definita dall'utente
- [SPARK-46114] [SC-149076][PYTHON] Aggiungere PySparkIndexError per il framework degli errori
-
[SPARK-46120] [SC-149083][CONNECT][PYTHON] Rimuovere la funzione helper
DataFrame.withPlan
- [SPARK-45927] [SC-148660][PYTHON] Aggiornamento della gestione dei percorsi per l'origine dati Python
- [SPARK-46062] [14.x][SC-148991][SQL] Sincronizzare il flag isStreaming tra la definizione CTE e il riferimento
-
[SPARK-45698] [SC-146736][CORE][SQL][SS] Pulire l'utilizzo deprecato dell'API correlato a
Buffer
- [SPARK-46064] [SC-148984][SQL][SS] Spostare EliminaEventTimeWatermark nell'analizzatore e modificare in modo da rendere effettivo solo l'elemento figlio risolto
- [SPARK-45922] [SC-149038][CONNECT][CLIENT] Tentativi secondari di refactoring (completamento di più criteri)
- [SPARK-45851] [SC-148419][CONNECT][SCALA] Supportare più criteri nel client scala
- [SPARK-45974] [SC-149062][SQL] Aggiungere un giudizio non vuoto scan.filterAttributes per RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][CONNECT] Dataset.groupingSets nel client Scala Spark Connect
- [SPARK-45136] [SC-146607][CONNECT] Migliorare ClosingCleaner con il supporto di Ammonite
- [SPARK-46084] [SC-149020][PS] Eseguire il refactoring dell'operazione di cast dei tipi di dati per il tipo categorico.
- [SPARK-46083] [SC-149018][PYTHON] Impostare SparkNoSuchElementException come API di errore canonica
- [SPARK-46048] [SC-148982][PYTHON][CONNECT] Supporto di DataFrame.groupingSets in Python Spark Connect
- [SPARK-46080] [SC-149012][PYTHON] Aggiornare Cloudpickle alla versione 3.0.0
- [SPARK-46082] [SC-149015][PYTHON][CONNECT] Correzione della rappresentazione di stringa protobuf per l'API funzioni Pandas con Spark Connect
-
[SPARK-46065] [SC-148985][PS] Effettuare il refactoring
(DataFrame|Series).factorize()
per usarecreate_map
. - [SPARK-46070] [SC-148993][SQL] Compilare il modello regex in SparkDateTimeUtils.getZoneId all'esterno del ciclo critico
- [SPARK-46063] [SC-148981][PYTHON][CONNECT] Migliorare i messaggi di errore correlati ai tipi di argomento in cute, rollup, groupby e pivot
- [SPARK-44442] [SC-144120][MESOS] Rimuovere il supporto Mesos
- [SPARK-45555] [SC-147620][PYTHON] Include un oggetto di cui è possibile eseguire il debug per un'asserzione non riuscita
- [SPARK-46048] [SC-148871][PYTHON][SQL] Supporto di DataFrame.groupingSets in PySpark
- [SPARK-45768] [SC-147304][SQL][PYTHON] Rendere faulthandler una configurazione di runtime per l'esecuzione di Python in SQL
- [SPARK-45996] [SC-148586][PYTHON][CONNECT] Visualizzare i messaggi appropriati dei requisiti di dipendenza per Spark Connect
- [SPARK-45681] [SC-146893][interfaccia utente] Clonare una versione js di UIUtils.errorMessageCell per il rendering coerente degli errori nell'interfaccia utente
-
[SPARK-45767] [SC-147225][CORE] Eliminare
TimeStampedHashMap
e il relativo UT - [SPARK-45696] [SC-148864][CORE] Correzione del metodo tryCompleteWith nel tratto Promise è deprecato
- [SPARK-45503] [SC-146338][SS] Aggiungere la configurazione per impostare la compressione di RocksDB
-
[SPARK-45338] [SC-143934][CORE][SQL] Sostituisci
scala.collection.JavaConverters
inscala.jdk.CollectionConverters
-
[SPARK-44973] [SC-148804][SQL] Correzione
ArrayIndexOutOfBoundsException
inconv()
- [SPARK-45912] [SC-144982][SC-148467][SQL] Miglioramento dell'API XSDToSchema: passare all'API HDFS per l'accessibilità dell'archiviazione cloud
-
[SPARK-45819] [SC-147570][CORE] Supporto
clear
nell'API di invio REST -
[SPARK-45552] [14.x][SC-146874][PS] Introdurre parametri flessibili per
assertDataFrameEqual
-
[SPARK-45815] [SC-147877][SQL][Streaming][14.x][CHERRY-PICK] Fornire un'interfaccia per altre origini di streaming per aggiungere colonne
_metadata
- [SPARK-45929] [SC-148692][SQL] Supporto dell'operazione groupingSets nell'API del dataframe
- [SPARK-46012] [SC-148693][CORE] EventLogFileReader non deve leggere i log in sequenza se manca il file di stato dell'app
- [SPARK-45965] [SC-148575][SQL] Spostare espressioni di partizionamento DSv2 in functions.partitioning
-
[SPARK-45971] [SC-148541][CORE][SQL] Correggere il nome del pacchetto da
SparkCollectionUtils
aorg.apache.spark.util
-
[SPARK-45688] [SC-147356][SPARK-45693][CORE] Pulire l'utilizzo deprecato dell'API correlato a
MapOps
& Correzionemethod += in trait Growable is deprecated
-
[SPARK-45962] [SC-144645][SC-148497][SQL] Rimuovere
treatEmptyValuesAsNulls
e usare l'opzionenullValue
invece in XML -
[SPARK-45988] [SC-148580][SPARK-45989][PYTHON] Correzione dei typehints per gestire
list
GenericAlias in Python 3.11+ -
[SPARK-45999] [SC-148595][PS] Usare dedicato
PandasProduct
incumprod
-
[SPARK-45986] [SC-148583][ML][PYTHON] Correzione
pyspark.ml.torch.tests.test_distributor
in Python 3.11 -
[SPARK-45994] [SC-148581][PYTHON] Cambia
description-file
indescription_file
- [SPARK-45575] [SC-146713][SQL] Opzioni di spostamento del tempo di supporto per l'API di lettura di df
- [SPARK-45747] [SC-148404][SS] Utilizzare le informazioni sulla chiave del prefisso nei metadati dello stato per gestire la lettura dello stato nell'aggregazione della finestra di sessione
- [SPARK-45898] [SC-148213][SQL] Riscrivere le API della tabella del catalogo per usare un piano logico non risolto
- [SPARK-45828] [SC-147663][SQL] Rimuovere il metodo deprecato in dsl
-
[SPARK-45990] [SC-148576][SPARK-45987][PYTHON][CONNECT] Eseguire l'aggiornamento
protobuf
alla versione 4.25.1 per supportarePython 3.11
- [SPARK-45911] [SC-148226][CORE] Impostare TLS1.3 come predefinito per RPC SSL
- [SPARK-45955] [SC-148429][interfaccia utente] Comprimere il supporto per i dettagli di flamegraph e thread dump
-
[SPARK-45936] [SC-148392][PS] Ottimizzare
Index.symmetric_difference
- [SPARK-45389] [SC-144834][SQL][3.5] Correggere la regola di corrispondenza MetaException per ottenere i metadati della partizione
- [SPARK-45655] [SC-148085][SQL][SS] Consenti espressioni non deterministiche all'interno di AggregateFunctions in CollectMetrics
- [SPARK-45946] [SC-148448][SS] Correzione dell'uso di fileutils deprecati per passare il set di caratteri predefinito in RocksDBSuite
- [SPARK-45511] [SC-148285][SS] Origine dati stato - Lettore
-
[SPARK-45918] [SC-148293][PS] Ottimizzare
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][CONNECT][PYTHON] Restituire le metriche osservate dai comandi
-
[SPARK-45867] [SC-147916][CORE] Appoggiare
spark.worker.idPattern
-
[SPARK-45945] [SC-148418][CONNECT] Aggiungere una funzione helper per
parser
- [SPARK-45930] [SC-148399][SQL] Supportare funzioni definite dall'utente non deterministiche in MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][Python] Creare l'API UDTF Python per interrompere il consumo delle righe dalla tabella di input
-
[SPARK-45731] [SC-147929][SQL] Aggiornare anche le statistiche delle partizioni con
ANALYZE TABLE
comando -
[SPARK-45868] [SC-148355][CONNECT] Assicurarsi di
spark.table
usare lo stesso parser con spark vanilla - [SPARK-45882] [SC-148161][SQL] BroadcastHashJoinExec propaga il partizionamento deve rispettare CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][SQL] Assegnare nomi agli errori _LEGACY_ERROR_TEMP_21[59,60,61,62]
-
[SPARK-45915] [SC-148306][SQL] Considera decimal(x, 0) uguale a IntegralType in
PromoteStrings
- [SPARK-45786] [SC-147552][SQL] Correzione di risultati di moltiplicazione decimale e divisione non accurati
-
[SPARK-45871] [SC-148084][CONNECT] Conversioni di raccolte di ottimizzazioni correlate ai
.toBuffer
connect
moduli - [SPARK-45822] [SC-147546][CONNECT] SparkConnectSessionManager potrebbe cercare un sparkcontext arrestato
- [SPARK-45913] [SC-148289][PYTHON] Rendere privati gli attributi interni dagli errori PySpark.
- [SPARK-45827] [SC-148201][SQL] Aggiungere il tipo di dati Variant in Spark.
- [SPARK-44886] [SC-147876][SQL] Introduzione CLUSTER BY clause for CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][CORE] Appoggiare
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][CONNECT] Assert server-side session ID
-
[SPARK-45896] [SC-148091][SQL] Costrutto
ValidateExternalType
con il tipo previsto corretto -
[SPARK-45902] [SC-148123][SQL] Rimuovere
resolvePartitionColumns
funzione inutilizzata daDataSource
-
[SPARK-45909] [SC-148137][SQL] Rimuovere
NumericType
cast se è possibile eseguire un cast sicuro inIsNotNull
- [SPARK-42821] [SC-147715][SQL] Rimuovere i parametri inutilizzati nei metodi splitFiles
-
[SPARK-45875] [SC-148088][CORE] Rimuovere
MissingStageTableRowData
dal modulocore
- [SPARK-45783] [SC-148120][PYTHON][CONNECT] Migliorare i messaggi di errore quando la modalità Spark Connect è abilitata ma l'URL remoto non è impostato
- [SPARK-45804] [SC-147529][interfaccia utente] Aggiungere spark.ui.threadDump.flamegraphEnabled config per attivare/disattivare il grafico di fiamma
- [SPARK-45664] [SC-146878][SQL] Introdurre un mapper per i codec di compressione orc
- [SPARK-45481] [SC-146715][SQL] Introdurre un mapper per i codec di compressione Parquet
- [SPARK-45752] [SC-148005][SQL] Semplificare il codice per controllare le relazioni CTE senza riferimenti
- [SPARK-44752] [SC-146262][SQL] XML: Aggiorna la Documentazione di Spark
- [SPARK-45752] [SC-147869][SQL] Il CTE senza riferimenti deve essere controllato da CheckAnalysis0
- [SPARK-45842] [SC-147853][SQL] Refactoring delle API della funzione del catalogo per l'uso dell'analizzatore
- [SPARK-45639] [SC-147676][SQL][PYTHON] Supporto del caricamento di origini dati Python in DataFrameReader
- [SPARK-45592] [SC-146977][SQL] Problema di correttezza in AQE con InMemoryTableScanExec
- [SPARK-45794] [SC-147646][SS] Introdurre l'origine dei metadati di stato per eseguire query sulle informazioni sui metadati dello stato di streaming
- [SPARK-45739] [SC-147059][PYTHON] Catch IOException invece di EOFException da solo per faulthandler
- [SPARK-45677] [SC-146700] Migliore registrazione degli errori per l'API Di osservazione
- [SPARK-45544] [SC-146873][CORE] Integrare il supporto SSL in TransportContext
- [SPARK-45654] [SC-147152][PYTHON] Aggiungere l'API di scrittura dell'origine dati Python
-
[SPARK-45771] [SC-147270][CORE] Abilita
spark.eventLog.rolling.enabled
per impostazione predefinita - [SPARK-45713] [SC-146986][PYTHON] Supporto per la registrazione di origini dati Python
- [SPARK-45656] [SC-146488][SQL] Correggere l'osservazione quando le osservazioni denominate con lo stesso nome in set di dati diversi
- [SPARK-45808] [SC-147571][CONNECT][PYTHON] Migliore gestione degli errori per le eccezioni SQL
-
[SPARK-45774] [SC-147353][CORE][interfaccia utente] Supporto
spark.master.ui.historyServerUrl
inApplicationPage
-
[SPARK-45776] [SC-147327][CORE] Rimuovere il controllo difensivo dei valori null per
MapOutputTrackerMaster#unregisterShuffle
aggiunto in SPARK-39553 - [SPARK-45780] [SC-147410][CONNECT] Propagare tutti i thread del client Spark Connect in InheritableThread
-
[SPARK-45785] [SC-147419][CORE] Supporto
spark.deploy.appNumberModulo
per ruotare il numero dell'app - [SPARK-45793] [SC-147456][CORE] Migliorare i codec di compressione predefiniti
- [SPARK-45757] [SC-147282][ML] Evitare il nuovo calcolo di NNZ in Binarizer
- [SPARK-45209] [SC-146490][CORE][interfaccia utente] Supporto di Flame Graph per la pagina di dump del thread executor
-
[SPARK-45777] [SC-147319][CORE] Supporto
spark.test.appId
inLocalSchedulerBackend
- [SPARK-45523] [SC-146331][PYTHON] Effettuare il refactoring del controllo null per avere collegamenti
- [SPARK-45711] [SC-146854][SQL] Introdurre un mapper per i codec di compressione avro
- [SPARK-45523] [SC-146077][Python] Restituisce un messaggio di errore utile se UDTF restituisce None per qualsiasi colonna non annullabile
- [SPARK-45614] [SC-146729][SQL] Assegnare nomi all'errore _LEGACY_ERROR_TEMP_215[6,7,8]
-
[SPARK-45755] [SC-147164][SQL] Migliorare
Dataset.isEmpty()
applicando un limite globale a1
- [SPARK-45569] [SC-145915][SQL] Assegnare il nome al _LEGACY_ERROR_TEMP_2153 di errore
-
[SPARK-45749] [SC-147153][CORE][WEBUI] Correzione
Spark History Server
per ordinare correttamente la colonnaDuration
-
[SPARK-45754] [SC-147169][CORE] Appoggiare
spark.deploy.appIdPattern
-
[SPARK-45707] [SC-146880][SQL] Semplificare
DataFrameStatFunctions.countMinSketch
conCountMinSketchAgg
-
[SPARK-45753] [SC-147167][CORE] Appoggiare
spark.deploy.driverIdPattern
-
[SPARK-45763] [SC-147177][CORE][UI] Migliorare
MasterPage
per visualizzareResource
colonna solo quando esiste - [SPARK-45112] [SC-143259][SQL] Usare la risoluzione basata su UnresolvedFunction nelle funzioni del set di dati SQL
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 14.3.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.3 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.1.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttoken | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.4 | serv | 0.1.2 |
contourpy | 1.0.5 | cryptography | 39.0.1 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0.11 | entrypoints | 0.4 |
executing | 0.8.3 | facet-overview | 1.1.1 | fastjsonschema | 2.19.1 |
filelock | 3.13.1 | fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
mistune | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
notebook | 6.5.2 | Notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | packaging | 23.2 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 22.3.1 | platformdirs | 2.5.2 |
plotly | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0,5 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
requests | 2.28.1 | rope | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
six | 1.16.0 | sniffio | 1.2.0 | soupsieve | 2.3.2.post1 |
ssh-import-id | 5.11 | stack-data | 0.2.0 | statsmodels | 0.13.5 |
tenacity | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
wheel | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot Gestione pacchetti CRAN nel 2023-02-10.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
Scopa | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
callr | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | class | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | clock | 0.7.0 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.9.0 |
compilatore | 4.3.1 | config | 0.3.1 | in conflitto | 1.2.0 |
cpp11 | 0.4.4 | crayon | 1.5.2 | credenziali | 1.3.2 |
curl | 5.0.1 | data.table | 1.14.8 | datasets | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | desc | 1.4.2 |
devtools | 2.4.5 | diagramma | 1.6.5 | diffobj | 0.3.5 |
digest | 0.6.33 | downlit | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | puntini di sospensione | 0.3.2 |
evaluate | 0.21 | fansi | 1.0.4 | farver | 2.1.1 |
fastmap | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | foreign | 0.8-85 | forge | 0.2.0 |
fs | 1.6.2 | future | 1.33.0 | future.apply | 1.11.0 |
gargle | 1.5.1 | generics | 0.1.3 | gert | 1.9.2 |
ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globals | 0.16.2 | glue | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafica | 4.3.1 | grDevices | 4.3.1 | grid | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | haven | 2.5.3 | highr | 0,10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
Etichettatura | 0.4.2 | later | 1.3.1 | Lattice | 0.21-8 |
Java | 1.7.2.1 | lifecycle | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1.7 |
MASS | 7.3-60 | Matrice | 1.5-4.1 | memoise | 2.0.1 |
methods | 4.3.1 | mgcv | 1.8-42 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
parallelly | 1.36.0 | Concetto fondamentale | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | Avanzamento | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | ricette | 1.0.6 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2,23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.6 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | Forma | 1.4.6 |
shiny | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
spaziale | 7.3-15 | Spline | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.3.1 | stats4 | 4.3.1 |
stringi | 1.7.12 | stringr | 1.5.0 | Sopravvivenza | 3.5-5 |
sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | textshaping | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
timechange | 0.2.0 | timeDate | 4022.108 | tinytex | 0,45 |
tools | 4.3.1 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
usethis | 2.2.2 | UTF8 | 1.2.3 | utils | 4.3.1 |
uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | waldo | 0.5.1 | whisker | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
zip | 2.3.0 |
Librerie Java e Scala installate (versione cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-consultas | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeina | caffeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 3.0.3 |
dev.sdk.netlib | blas | 3.0.3 |
dev.sdk.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.3 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | arrow-vector | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shim | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-all | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | shims | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatibile con scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | treten-extra | 1.7.1 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |