Condividi tramite


Databricks Runtime 13.1 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni di Databricks Runtime supportate, consultare le note di rilascio sulle versioni e compatibilità di Databricks Runtime.

Le seguenti note sulla versione forniscono informazioni su Databricks Runtime 13.1, con tecnologia Apache Spark 3.4.0.

Databricks ha rilasciato questa versione nel maggio 2023.

Miglioramenti e nuove funzionalità

Supporto del cluster per JDK 17 (anteprima pubblica)

Databricks offre ora il supporto del cluster per il kit di sviluppo di Java (JDK) 17. Vedere Databricks SDK per Java.

Aggiungere, modificare o eliminare dati nelle tabelle di streaming

È ora possibile usare istruzioni DML per modificare le tabelle di streaming pubblicate in Unity Catalog dalle pipeline DLT. Vedere Aggiungere, modificare o eliminare dati in una tabella di streaming e Aggiungere, modificare o eliminare dati in una tabella di streaming di destinazione. È anche possibile usare istruzioni DML per modificare le tabelle di streaming create in Databricks SQL.

Leggere Kafka con SQL

È ora possibile usare la funzione SQL read_kafka per la lettura dei dati Kafka. Lo streaming con SQL è supportato solo in DLT o con tabelle di streaming in Databricks SQL. Vedere read_kafka funzione con valori di tabella.

Nuove funzioni predefinite SQL

Sono state aggiunte le funzioni seguenti:

Supporto del catalogo Unity per le librerie Python con ambito cluster

Il catalogo Unity presenta alcune limitazioni sull'utilizzo della libreria. A partire dalla versione 13.1 di Databricks Runtime, sono supportate librerie Python con ambito cluster, tra cui i file wheel Python caricati come file dell'area di lavoro. Le librerie a cui viene fatto riferimento utilizzando i percorsi file DBFS non sono supportate, sia nella radice DBFS che in un percorso esterno montato in DBFS. Le librerie non Python non sono supportate. Consultare Librerie cluster.

In Databricks Runtime 13.0 e versioni successive le librerie con ambito cluster non sono supportate nei cluster che usano la modalità di accesso standard (in precedenza modalità di accesso condiviso) in un'area di lavoro abilitata per Unity Catalog.

Abilitazione predefinita espansa per le scritture ottimizzate nel catalogo unity

Il supporto predefinito per la scrittura ottimizzata per le tabelle Delta registrate nel catalogo Unity è stato espanso in modo da includere istruzioni CTAS e operazioni INSERT per le tabelle partizionate. Questo comportamento è allineato alle impostazioni predefinite nei warehouse SQL. Vedere Scritture ottimizzate per Delta Lake in Azure Databricks.

Supporto avanzato per gli operatori con stato nei carichi di lavoro di Structured Streaming

È ora possibile collegare in sequenza più operatori con stato, il che significa che è possibile fornire l'output di un'operazione, come ad esempio un'aggregazione finestrata, a un'altra operazione con stato, come un join. Consulta Che cos'è lo streaming con stato?.

Il clone Delta per il catalogo Unity è disponibile in anteprima pubblica

È ora possibile usare un clone superficiale per creare nuove tabelle gestite del catalogo Unity a partire da tabelle gestite esistenti nel catalogo Unity. Vedere Clone superficiale per le tabelle del catalogo Unity.

Supporto pub/sub per Structured Streaming

È ora possibile usare un connettore predefinito per sottoscrivere Google Pub/Sub con Structured Streaming. Vedi Iscriviti a Google Pub/Sub.

Rimuovere duplicati all'interno di filigrane in Structured Streaming

È ora possibile usare dropDuplicatesWithinWatermark in combinazione con una soglia limite specificata per deduplicare i record in Structured Streaming. Vedere Rimuovi i duplicati all'interno della filigrana.

Supporto espanso per le conversioni Delta da tabelle Iceberg con colonne di partizione troncate

È ora possibile usare CLONE e CONVERT TO DELTA con le tabelle Iceberg con partizioni definite in colonne troncate di tipi int, long e string. Le colonne troncate di tipo decimal non sono supportate.

Le modifiche dello schema con il mapping delle colonne in Delta Lake

È ora possibile fornire un percorso di rilevamento dello schema per abilitare lo streaming da tabelle Delta con mapping di colonne abilitato. Vedere Streaming con mapping di colonne e modifiche dello schema.

Rimuovere la VERSIONE INIZIALE

START VERSION è ora deprecato per ALTER SHARE.

Nuove espressioni H3 disponibili con Python

Le espressioni h3_coverash3 e h3_coverash3string sono disponibili con Python.

Correzioni di bug

Parquet failOnUnknownFields non elimina più silenziosamente i dati in caso di tipo non corrispondente.

Se un file Parquet è stato letto solo con l'opzione failOnUnknownFields o con Auto Loader nella modalità di evoluzione dello schema, le colonne con tipi di dati diversi ora generano un errore e si consiglia l'uso di rescuedDataColumn. Il caricatore automatico ora legge correttamente e non salva più i tipi Integer, Short o Byte se viene fornito uno di questi tipi di dati. Il file Parquet suggerisce uno degli altri due tipi.

Modifiche che interrompono la compatibilità

Aggiornare sqlite-jdbc alla versione 3.42.0.0 per l'indirizzo CVE-2023-32697

Aggiornare sqlite-jdbc dalla versione 3.8.11.2 alla versione 3.42.0.0. Le API della versione 3.42.0.0 non sono completamente compatibili con la versione 3.8.11.2. Se si usa sqlite-jdbc nel codice, controllare il report di compatibilità sqlite-jdbc per informazioni dettagliate. Se migri alla versione 13.1 e usi sqlite, verifica i metodi e il tipo di ritorno nella versione 3.42.0.0.

Aggiornamenti della libreria

  • Librerie Python aggiornate:
    • facets-overview dalla versione 1.0.2 alla versione 1.0.3
    • filelock da 3.10.7 a 3.12.0
    • pyarrow da 7.0.0 a 8.0.0
    • tenacia da 8.0.1 a 8.1.0
  • Librerie R aggiornate:
  • Librerie Java aggiornate:
    • com.github.ben-manes.caffeine.caffeine da 2.3.4 a 2.9.3
    • io.delta.delta-sharing-spark_2.12 da 0.6.8 a 0.6.4
    • net.snowflake.snowflake-jdbc da 3.13.29 a 3.13.22
    • org.checkerframework.checker-qual da 3.5.0 a 3.19.0
    • org.scalactic.scalactic_2.12 dalla versione 3.0.8 alla versione 3.2.15
    • org.scalatest.scalatest_2.12 dalla versione 3.0.8 alla versione 3.2.15
    • org.xerial.sqlite-jdbc da 3.8.11.2 a 3.42.0.0

Apache Spark

Databricks Runtime 13.1 include Apache Spark 3.4.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 13.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-42719] [DBRRM-199][sc-131578] Ripristinare “[SC-125225] `MapOutputTracker#getMap…
  • [SPARK-39696] [DBRRM-166][sc-130056][CORE] Revert [SC-127830]/
  • [SPARK-43331] [SC-130064][connect] Aggiungere Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][connect][PYTHON] Consentire l'estensione di ChannelBuilder per SparkConnectClient
  • [SPARK-43323] [SC-129966][sql][PYTHON] Correggere dataframe.toPandas con Freccia abilitata per gestire correttamente le eccezioni
  • [SPARK-42940] [SC-129896][ss][CONNECT] Migliorare la gestione delle sessioni per le query di streaming
  • [SPARK-43032] [SC-125756] [CONNECT][ss] Aggiungere Gestione query di streaming
  • [SPARK-16484] [SC-129975][sql] Aggiungere il supporto per Datasketches HllSketch
  • [SPARK-43260] [SC-129281][python] Migrare gli errori di tipo arrow dei pandas in Spark SQL nelle classi di errore.
  • [SPARK-41766] [SC-129964][core] Gestire la richiesta di disattivazione inviata prima della registrazione dell'executor
  • [SPARK-43307] [SC-129971][python] Eseguire la migrazione degli errori del valore PandasUDF nella classe di errore
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] L'eccezione di StreamingQuery() include la traccia dello stack
  • [SPARK-43311] [SC-129905][ss] Aggiungi miglioramenti alla gestione della memoria del provider di archiviazione dello stato RocksDB
  • [SPARK-43237] [SC-129898][core] Gestire il messaggio di eccezione Null nel registro eventi
  • [SPARK-43320] [SC-129899][sql][HIVE] chiamare direttamente l'API Hive 2.3.9
  • [SPARK-43270] [SC-129897][python] Implementare __dir__() in pyspark.sql.dataframe.DataFrame per includere colonne
  • [SPARK-43183] Ripristinare "[SC-128938][ss] Introdurre un nuovo callback "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][sql] Sostituire la classe di errore _LEGACY_ERROR_TEMP_2022 da un errore interno
  • [SPARK-43198] [SC-129470][connect] Correggi "Impossibile inizializzare la classe ammonite..." errore durante l'uso del filtro
  • [SPARK-43165] [SC-129777][sql] Move canWrite to DataTypeUtils
  • [SPARK-43298] [SC-129729][python][ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a una
  • [SPARK-43298] [SC-129700]Revert "[PYTHON][ml] predict_batch_udf con input scalare ha esito negativo con dimensioni batch di uno"
  • [SPARK-43052] [SC-129663][core] Gestire stacktrace con nome file nullo nel registro eventi
  • [SPARK-43183] [SC-128938][ss] Introdurre un nuovo callback "onQueryIdle" in StreamingQueryListener
  • [SPARK-43209] [SC-129190][connect][PYTHON] Eseguire la migrazione degli errori di espressione nella classe di errore
  • [SPARK-42151] [SC-128754][sql] Allineare le assegnazioni UPDATE con attributi di tabella
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] eccezione() dell'API StreamingQuery del client JVM
  • [SPARK-43298] [SC-129699][python][ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a uno
  • [SPARK-43248] [SC-129660][sql] Inutile serialize/deserialize di Path su raccolta parallela delle statistiche di partizione
  • [SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Introdurre PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][connect][PYTHON] Implementare la valutazione anticipata per repr e repr_html
  • [SPARK-42953] [SC-129469][connect][Followup] Correggere la build di test Maven per i test UDF del client Scala
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358][connect] Aggiunta di groupByKey + mapGroup + coGroup funzioni
  • [SPARK-43156] [SC-129672][sc-128532][SQL] Correzione di bug COUNT(*) is null nella sottoquery scalare correlata
  • [SPARK-43046] [SC-129110] [SS] [Connetti] Implementazione dell'api Python dropDuplicatesWithinWatermark per Spark Connect
  • [SPARK-43199] [SC-129467][sql] Rendere InlineCTE idempotente
  • [SPARK-43293] [SC-129657][sql] __qualified_access_only devono essere ignorate nelle colonne normali
  • [SPARK-43276] [SC-129461][connect][PYTHON] Eseguire la migrazione degli errori della finestra di Spark Connect nella classe di errore
  • [SPARK-43174] [SC-129109][sql] Correzione del completatore SparkSQLCLIDriver
  • [SPARK-43084] [SC-128654] [SS] Aggiungere il supporto applyInPandasWithState per spark connect
  • [SPARK-43119] [SC-129040][sql] Supporto per Ottenere le keyword SQL in modo dinamico tramite API JDBC e TVF
  • [SPARK-43082] [SC-129112][connect][PYTHON] Funzioni definite dall'utente Python ottimizzate con Arrow in Spark Connect
  • [SPARK-43085] [SC-128432][sql] Supporto dell'assegnazione DEFAULT della colonna per nomi di tabelle in più parti
  • [SPARK-43226] [LC-671] Definire gli estrattori per i metadati costanti dei file
  • [SPARK-43210] [SC-129189][connect][PYTHON] Introdurre PySparkAssertionError
  • [SPARK-43214] [SC-129199][sql] Pubblica metriche lato driver per LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Correggere l'errore costante di ReplE2ESuite con JDK 17
  • [SPARK-43268] [SC-129249][sql] Usare classi di errore appropriate quando le eccezioni vengono costruite con un messaggio
  • [SPARK-43142] [SC-129299] Correggere le espressioni DSL sugli attributi con caratteri speciali
  • [SPARK-43129] [SC-128896] API di base di Scala per lo streaming di Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Aggiungere la registrazione per la lettura batch Kafka per la partizione dell'argomento, l'intervallo di offset e l'ID attività
  • [SPARK-43249] [SC-129195][connect] Correzione delle statistiche mancanti per il comando SQL
  • [SPARK-42945] [SC-129188][connect] Supporto PYSPARK_JVM_STACKTRACE_ENABLED in Spark Connect
  • [SPARK-43178] [SC-129197][connect][PYTHON] Eseguire la migrazione degli errori UDF nel framework degli errori pySpark
  • [SPARK-43123] [SC-128494][sql] I metadati dei campi interni non devono essere rivelati nei cataloghi
  • [SPARK-43217] [SC-129205] Si ripete correttamente in mappe/matrici annidate in findNestedField
  • [SPARK-43243] [SC-129294][python][CONNECT] Aggiungere parametri di livello a printSchema per Python
  • [SPARK-43230] [SC-129191][connect] Semplificare DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][sql] Respect RequiresDistributionAndOrdering in CTAS/RTAS
  • [SPARK-43234] [SC-129192][connect][PYTHON] Eseguire la migrazione di ValueError dal dataframe conect alla classe di errore
  • [SPARK-43212] [SC-129187][ss][PYTHON] Eseguire la migrazione degli errori di Structured Streaming nella classe di errore
  • [SPARK-43239] [SC-129186][ps] Rimuovere null_counts da info()
  • [SPARK-43190] [SC-128930][sql] ListQuery.childOutput deve essere coerente con l'output del figlio
  • [SPARK-43191] [SC-128924][core] Sostituire la reflection con una chiamata diretta per Hadoop CallerContext
  • [SPARK-43193] [SC-129042][ss] Rimuovere la soluzione alternativa per HADOOP-12074
  • [SPARK-42657] [SC-128621][connect] Supporto per trovare e trasferire i file di classe REPL dal lato client al server come artefatti.
  • [SPARK-43098] [SC-77059][sql] Correzione del bug COUNT di precisione quando la sottoquery scalare contiene una clausola GROUP BY
  • [SPARK-43213] [SC-129062][python] Aggiungere DataFrame.offset a vanilla PySpark
  • [SPARK-42982] [SC-128400][connect][PYTHON] Correggere createDataFrame per rispettare il ddl dello schema specificato
  • [SPARK-43124] [SC-129011][sql] Dataset.show projects CommandResults localmente
  • [SPARK-42998] [SC-127422][connect][PYTHON] Correggere DataFrame.collect con struttura nulla
  • [SPARK-41498] [SC-125343] Annullare ” Propagare i metadati tramite Union”
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Aggiungere await_termination() e api exception() per query di streaming in Python
  • [SPARK-42552] [SC-128824][sql] Correggere la strategia di analisi a due fasi del parser antlr
  • [SPARK-43207] [SC-128937][connect] Aggiungere funzioni helper per estrarre valore dall'espressione letterale
  • [SPARK-43186] [SC-128841][sql][HIVE] Rimuovere la soluzione alternativa per FileSinkDesc
  • [SPARK-43107] [SC-128533][sql] Unire i bucket nel join applicato sul lato di flusso del join broadcast
  • [SPARK-43195] [SC-128922][core] Rimuovere il wrapper serializzabile non necessario in HadoopFSUtils
  • [SPARK-43137] [SC-128828][sql] Migliorare ArrayInsert se la posizione è piegabile e positiva.
  • [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join deve restituire un valore Null per la riga senza corrispondenza
  • [SPARK-43042] [SC-128602] [SS] [Connetti] Aggiungere il supporto dell'API table() per DataStreamReader
  • [SPARK-43153] [SC-128753][connect] Ignorare l'esecuzione di Spark quando il dataframe è locale
  • [SPARK-43064] [SC-128496][sql] La scheda SQL dell'interfaccia della riga di comando di Spark SQL deve mostrare una sola volta ogni istruzione
  • [SPARK-43126] [SC-128447][sql] Contrassegnare due espressioni UDF Hive come stateful
  • [SPARK-43111] [SC-128750][ps][CONNECT][python] Unire istruzioni if annidate in singole istruzioni if
  • [SPARK-43113] [SC-128749][sql] Valutare le variabili lato flusso durante la generazione di codice per una condizione vincolata
  • [SPARK-42895] [SC-127258][connect] Migliorare i messaggi di errore per le sessioni Spark arrestate
  • [SPARK-42884] [SC-126662][connect] Aggiungere l'integrazione di Ammonite REPL
  • [SPARK-43168] [SC-128674][sql] Rimuovere il metodo PhysicalDataType dalla classe Datatype
  • [SPARK-43121] [SC-128455][sql] Usare BytesWritable.copyBytes anziché la copia manuale in 'HiveInspectors
  • [SPARK-42916] [SC-128389][sql] JDBCTableCatalog mantiene il meta Char/Varchar sul lato di lettura
  • [SPARK-43050] [SC-128550][sql] Correggere le espressioni di aggregazione dei costrutti sostituendo le funzioni di raggruppamento
  • [SPARK-43095] [SC-128549][sql] Evitare che l'idempotenza della strategia Once venga compromessa per il batch: Infer Filters
  • [SPARK-43130] [SC-128597][sql] Spostare InternalType in PhysicalDataType
  • [SPARK-43105] [SC-128456][connect] Abbrevia Byte e Stringhe nel messaggio proto
  • [SPARK-43099] [SC-128596][sql] Usare getName anziché getCanonicalName per ottenere il nome della classe del generatore durante la registrazione di udf in FunctionRegistry
  • [SPARK-42994] [SC-128586][ml][CONNECT] Supporto della modalità locale del server di distribuzione PyTorch
  • [SPARK-42859] Ripristinare "[SC-127935][connect][PS] Supporto di base per l'API pandas in Spark Connect"
  • [SPARK-43021] [SC-128472][sql] CoalesceBucketsInJoin non funzionano quando si usa AQE
  • [SPARK-43125] [SC-128477][connect] Risoluzione del problema nel server Connect che non gestisce le eccezioni con messaggi nulli.
  • [SPARK-43147] [SC-128594] correggere il linting di flake8 per controllo locale
  • [SPARK-43031] [SC-128360] [SS] [Connetti] Abilitare unit test e doctest per lo streaming
  • [SPARK-43039] [LC-67] Supportare i campi personalizzati nella colonna _metadata origine file.
  • [SPARK-43120] [SC-128407][ss] Aggiungere il supporto per tenere traccia dell'utilizzo della memoria dei blocchi fissati per l'archivio stati di RocksDB
  • [SPARK-43110] [SC-128381][sql] Spostare asIntegral in PhysicalDataType
  • [SPARK-43118] [SC-128398][ss] Rimuovere l'asserzione non necessaria per UninterruptibleThread in KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][connect][PYTHON] Supporta i nomi dei campi annidati duplicati
  • [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable consentirà di specificare il livello di archiviazione
  • [SPARK-42985] [SC-128332][connect][PYTHON] Correzione di createDataFrame per rispettare le configurazioni SQL
  • [SPARK-39696] [SC-127830][core] Correzione della race dei dati nell'accesso a TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][sql] Spostamento di integrali in PhysicalDataType
  • [SPARK-42741] [SC-125547][sql] Non rimuovere i cast nel confronto binario quando il letterale è null
  • [SPARK-43057] [SC-127948][connect][PYTHON] Eseguire la migrazione degli errori della colonna Spark Connect nella classe di errore
  • [SPARK-42859] [SC-127935][connect][PS] Supporto di base per l'API pandas in Spark Connect
  • [SPARK-43013] [SC-127773][python] Eseguire la migrazione di ValueError dal dataframe a PySparkValueError.
  • [SPARK-43089] [SC-128051][connect] Modifica la stringa di debug nell'interfaccia utente
  • [SPARK-43028] [SC-128070][sql] Aggiungere una classe di errore SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][sql] Aggiungere test per dropDuplicates in JavaDatasetSuite
  • [SPARK-43075] [SC-127939][connect] Modificare gRPC in grpcio quando non è installato.
  • [SPARK-42953] [SC-127809][connect] Filtro tipizzato, mappa, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][sql] Supporto alla conversione del tipo data nel tipo timestamp
  • [SPARK-42931] [SC-127933][ss] Introdurre dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943][connect] Aggiungere costanti dei tipi di dati proto
  • [SPARK-43077] [SC-128050][sql] Migliorare il messaggio di errore di UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][ss][Connect] API di DataStreamReader
  • [SPARK-43049] [SC-127846][sql] Usare CLOB anziché VARCHAR(255) per StringType per Oracle JDBC
  • [SPARK-43018] [SC-127762][sql] Correzione del bug per i comandi INSERT con valori di tipo timestamp
  • [SPARK-42855] [SC-127722][sql] Usare controlli di null runtime in TableOutputResolver
  • [SPARK-43030] [SC-127847][sql] Deduplicare le relazioni con colonne di metadati
  • [SPARK-42993] [SC-127829][ml][CONNECT] Rendere il server di distribuzione PyTorch compatibile con Spark Connect
  • [SPARK-43058] [SC-128072][sql] Spostare numerico e frazionaria in PhysicalDataType
  • [SPARK-43056] [SC-127946][ss] Il commit dell'archivio stati di RocksDB deve continuare il lavoro in background solo se è stato sospeso.
  • [SPARK-43059] [SC-127947][connect][PYTHON] Eseguire la migrazione di TypeError da DataFrame(Reader|Writer) nella classe error
  • [SPARK-43071] [SC-128018][sql] Supporto SELECT DEFAULT con ORDER BY, LIMIT, OFFSET per la relazione sorgente INSERT
  • [SPARK-43061] [SC-127956][core][SQL] Introdurre PartitionEvaluator per l'esecuzione dell'operatore SQL
  • [SPARK-43067] [SC-127938][ss] Correggere il percorso del file di risorse della classe di errore nel connettore Kafka
  • [SPARK-43019] [SC-127844][sql] Move Ordering to PhysicalDataType
  • [SPARK-43010] [SC-127759][python] Eseguire la migrazione degli errori di colonna nella classe di errore
  • [SPARK-42840] [SC-127782][sql] Cambia _LEGACY_ERROR_TEMP_2004 errore in errore interno
  • [SPARK-43041] [SC-127765][sql] Ripristinare costruttori di eccezioni per la compatibilità nell'API del connettore
  • [SPARK-42939] [SC-127761][ss][CONNECT] API Python di streaming core per Spark Connect
  • [SPARK-42844] [SC-127766][sql] Aggiornare la classe di errore _LEGACY_ERROR_TEMP_2008 a INVALID_URL
  • [SPARK-42316] [SC-127720][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][connect][PYTHON] Eseguire la migrazione degli errori del DataFrame Spark Connect nella classe di errore
  • [SPARK-42983] [SC-127717][connect][PYTHON] Correggi createDataFrame per gestire correttamente la matrice numpy a 0 dimensioni.
  • [SPARK-42955] [SC-127476][sql] Ignora classifyException e incapsula AnalysisException per SparkThrowable
  • [SPARK-42949] [SC-127255][sql] Semplificare il codice per NAAJ
  • [SPARK-43011] [SC-127577][sql] array_insert dovrebbe avere esito negativo con 0 indice
  • [SPARK-42974] [SC-127487][core] Ripristinare Utils.createTempDir per usare ShutdownHookManager e pulire il metodo JavaUtils.createTempDir.
  • [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' significa anche che la tabella esiste già
  • [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME non può qualificare il new-table-Name con uno schema-Name
  • [SPARK-37980] [SC-127668][sql] Access row_index tramite _metadata, se possibile nei test
  • [SPARK-42655] [SC-127591][sql] Errore di riferimento di colonna ambiguo non corretto
  • [SPARK-43009] [SC-127596][sql] Parametrizzato sql() con costanti Any
  • [SPARK-43026] [SC-127590][sql] Applica AQE con cache di tabella non di scambio
  • [SPARK-42963] [SC-127576][sql] Estendere SparkSessionExtensions per iniettare regole nell'ottimizzatore del livello di query AQE
  • [SPARK-42918] [SC-127357] Generalizzare la gestione degli attributi dei metadati in FileSourceStrategy
  • [SPARK-42806] [SC-127452][spark-42811][CONNECT] Aggiungere Catalog supporto
  • [SPARK-42997] [SC-127535][sql] TableOutputResolver deve usare percorsi di colonna corretti nei messaggi di errore per matrici e mappe
  • [SPARK-43006] [SC-127486][pyspark] Correzione dell'errore di digitazione in StorageLevel eq()
  • [SPARK-43005] [SC-127485][pyspark] Correzione di un errore di battitura in pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][core] Correzione dell'ortografia in ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][connect][PYTHON] Implementare le funzionalità Avro
  • [SPARK-42979] [SC-127272][sql] Definire costruttori letterali come parole chiave
  • [SPARK-42946] [SC-127252][sql] Redigere i dati sensibili che sono annidati attraverso la sostituzione delle variabili
  • [SPARK-42952] [SC-127260][sql] Semplificare il parametro della regola dell'analizzatore "PreprocessTableCreation" e "DataSourceAnalysis"
  • [SPARK-42683] [LC-75] Rinominare automaticamente le colonne di metadati in conflitto
  • [SPARK-42853] [SC-126101][followup] Correzione dei conflitti
  • [SPARK-42929] [SC-126748][connect] rendere compatibili mapInPandas / mapInArrow con "is_barrier"
  • [SPARK-42968] [SC-127271][ss] Aggiungere l'opzione per saltare il coordinatore del commit come parte dell'API StreamingWrite per sorgenti/sink DSv2
  • [SPARK-42954] [SC-127261][python][CONNECT] Aggiungere YearMonthIntervalType al client Python PySpark e Spark Connect
  • [SPARK-41359] [SC-127256][sql] Usare PhysicalDataType anziché DataType in UnsafeRow
  • [SPARK-42873] [SC-127262][sql] Definire i tipi Spark SQL come parole chiave
  • [SPARK-42808] [SC-126302][core] Evitare di ottenere i processori disponibili ogni volta che si accede a MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][sql] PlanSubqueries deve impostare InSubqueryExec#shouldBroadcast su true
  • [SPARK-42896] [SC-126729][sql][PYTHON] Rendi mapInPandas / mapInArrow compatibile con l'esecuzione in modalità barriera
  • [SPARK-42874] [SC-126442][sql] Abilitare il nuovo framework di test dei file di riferimento per l'analisi per tutti i file di input
  • [SPARK-42922] [SC-126850][sql] Passare da Random a SecureRandom
  • [SPARK-42753] [SC-126369] ReusedExchange fa riferimento a nodi inesistenti
  • [SPARK-40822] [SC-126274][sql] Alias di colonna derivati stabili
  • [SPARK-42908] [SC-126856][python] Generare RuntimeError quando SparkContext è obbligatorio ma non inizializzato
  • [SPARK-42779] [SC-126042][sql] Consenti alle scritture V2 di indicare la dimensione consigliata delle partizioni shuffle
  • [SPARK-42914] [SC-126727][python] Riutilizzare transformUnregisteredFunction per DistributedSequenceID.
  • [SPARK-42878] [SC-126882][connect] L'API tabella in DataFrameReader potrebbe accettare anche opzioni
  • [SPARK-42927] [SC-126883][core] Modificare l'ambito di accesso di o.a.spark.util.Iterators#size in private[util]
  • [SPARK-42943] [SC-126879][sql] Usare LONGTEXT anziché TEXT per StringType per una lunghezza effettiva
  • [SPARK-37677] [SC-126855][core] Unzip potrebbe mantenere le autorizzazioni per i file
  • [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implementare l'API Mappa co-gruppata
  • [SPARK-41876] [SC-126849][connect][PYTHON] Implementare DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][core][SQL] Modificare l'ambito di accesso delle implementazioni correlate ProtobufSerDe in private[protobuf]
  • [SPARK-42819] [SC-125879][ss] Aggiungere il supporto per l'impostazione di max_write_buffer_number e write_buffer_size per RocksDB usato nello streaming
  • [SPARK-42924] [SC-126737][sql][CONNECT][python] Chiarire il commento degli argomenti SQL con parametri
  • [SPARK-42748] [SC-126455][connect] Gestione degli artefatti lato server
  • [SPARK-42816] [SC-126365][connect] Supporto delle dimensioni massime dei messaggi fino a 128 MB
  • [SPARK-42850] [SC-126109][sql] Rimuovere la regola duplicata CombineFilters nell'Optimizer
  • [SPARK-42662] [SC-126355][connect][PS] Aggiungere un messaggio proto per l'API pandas nell'indice predefinito di Spark
  • [SPARK-42720] [SC-126136][ps][SQL] Usa l'espressione per l'indice predefinito della sequenza distribuita anziché per il piano
  • [SPARK-42790] [SC-126174][sql] Astrarre il metodo escluso per un test migliore per i test docker JDBC.
  • [SPARK-42900] [SC-126473][connect][PYTHON] Correzione di createDataFrame per rispettare i nomi di inferenza e colonna
  • [SPARK-42917] [SC-126657][sql] Correct getUpdateColumnNullabilityQuery for DerbyDialect
  • [SPARK-42684] [SC-125157][sql] il catalogo v2 non dovrebbe consentire il valore predefinito della colonna di default
  • [SPARK-42861] [SC-126635][sql] Usare private[sql] anziché protected[sql] per evitare di generare la documentazione api
  • [SPARK-42920] [SC-126728][connect][PYTHON] Abilitare i test per le funzioni definite dall'utente (UDF) con tipi definiti dall'utente (UDT)
  • [SPARK-42791] [SC-126617][sql] Creare un nuovo framework di test "golden file" per l'analisi
  • [SPARK-42911] [SC-126652][python] Introdurre altre eccezioni di base
  • [SPARK-42904] [SC-126634][sql] Supporto Char/Varchar per il Catalogo JDBC
  • [SPARK-42901] [SC-126459][connect][PYTHON] Trasferire StorageLevel in un file separato per evitare possibili file recursively imports
  • [SPARK-42894] [SC-126451][connect] Supporto cache/persist/unpersist/storageLevel per il client JVM di Spark connect
  • [SPARK-42792] [SC-125852][ss] Aggiungere il supporto per WRITE_FLUSH_BYTES per RocksDB utilizzato negli operatori stateful di streaming.
  • [SPARK-41233] [SC-126441][connect][PYTHON] Aggiungere array_prepend al client Python Spark Connect
  • [SPARK-42681] [SC-125149][sql] Allentare il vincolo di ordinamento per ALTER TABLE Descrittore di colonna ADD|REPLACE
  • [SPARK-42889] [SC-126367][connect][PYTHON] Implementare cache, rendere persistente, eliminare la persistenza e livello di memorizzazione
  • [SPARK-42824] [SC-125985][connect][PYTHON] Specificare un messaggio di errore chiaro per gli attributi JVM non supportati
  • [SPARK-42340] [SC-126131][connect][PYTHON] Implementare l'API mappa raggruppata
  • [SPARK-42892] [SC-126454][sql] Spostare sameType e metodi pertinenti da DataType
  • [SPARK-42827] [SC-126126][connect] Supporto functions#array_prepend per il client di connessione Scala
  • [SPARK-42823] [SC-125987][sql] spark-sql shell supporta spazi dei nomi multipart per l'inizializzazione
  • [SPARK-42817] [SC-125960][core] Registrare il nome del servizio shuffle una volta in ApplicationMaster
  • [SPARK-42786] [SC-126438][connect] Selezionato Digitato
  • [SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementare la funzione ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][sql] Supporto codegen per HiveSimpleUDF
  • [SPARK-41233] [SC-126110][sql][PYTHON] Aggiungere array_prepend funzione
  • [SPARK-42864] [SC-126268][ml][3.4] Rendere IsotonicRegression.PointsAccumulator privato
  • [SPARK-42876] [SC-126281][sql] DataType physicalDataType deve essere privato[sql]
  • [SPARK-42101] [SC-125437][sql] Rendere AQE compatibile con InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][sql] Supportare le espressioni GENERATED ALWAYS AS per le colonne nelle istruzioni di create/replace table
  • [SPARK-42870] [SC-126220][connect] Spostare toCatalystValue in connect-common
  • [SPARK-42247] [SC-126107][connect][PYTHON] Correggere la funzione definita dall'utente per avere un tipo di ritorno
  • [SPARK-42875] [SC-126258][connect][PYTHON] Correzione di toPandas per gestire correttamente i tipi di fuso orario e mappa
  • [SPARK-42757] [SC-125626][connect] Implementare textFile per DataFrameReader
  • [SPARK-42803] [SC-126081][core][SQL][ml] Usare la funzione getParameterCount anziché getParameterTypes.length
  • [SPARK-42833] [SC-126043][sql] Rifattorizzare applyExtensions in SparkSession
  • [SPARK-41765] Annullare “[SC-123550][sql] Rimuovere le metriche di scrittura v1...
  • [SPARK-42848] [SC-126105][connect][PYTHON] Implementare DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][connect][PYTHON] Supporto di UserDefinedType in Spark Connect
  • [SPARK-42818] [SC-125861][connect][PYTHON] Implementare DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867][connect] Aggiungere client_type al messaggio Protobuf di AddArtifactsRequest
  • [SPARK-42772] [SC-125860][sql] Modificare il valore predefinito delle opzioni JDBC relative al push fino a true
  • [SPARK-42771] [SC-125855][sql] Refactor HiveGenericUDF
  • [SPARK-25050] [SC-123839][sql] Avro: scrittura di unioni complesse
  • [SPARK-42765] [SC-125850][connect][PYTHON] Abilitare l'importazione di pandas_udf da pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][core] MapOutputTracker#getMapLocation deve rispettare spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][sql] Migliorare le prestazioni delle partizioni di eliminazione
  • [SPARK-42689] [SC-125195][core][SHUFFLE] Consenti a ShuffleDriverComponent di dichiarare se i dati di shuffle vengono archiviati in modo affidabile
  • [SPARK-42726] [SC-125279][connect][PYTHON] Implementare DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][sql] Estrarre le metriche di scrittura v1 in WriteFiles
  • [SPARK-41171] [SC-124191][sql] Dedurre e eseguire il push del limite di finestra verso il basso se partitionSpec è vuoto
  • [SPARK-42686] [SC-125292][core] Rinviare la formattazione per i messaggi di debug in TaskMemoryManager
  • [SPARK-42756] [SC-125443][connect][PYTHON] Funzione helper per convertire il proto literal in un valore nel client Python
  • [SPARK-42793] [SC-125627][connect] connect modulo richiede build_profile_flags
  • [SPARK-42701] [SC-125192][sql] Aggiungere la funzione try_aes_decrypt()
  • [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame non funziona con uno schema non annullabile
  • [SPARK-42733] [SC-125542][connect][Followup] Scrivere senza percorso o tabella
  • [SPARK-42777] [SC-125525][sql] Supporta la conversione delle statistiche del catalogo TimestampNTZ in statistiche del piano
  • [SPARK-42770] [SC-125558][connect] Aggiungere truncatedTo(ChronoUnit.MICROS) per fare in modo che SQLImplicitsTestSuite nel test giornaliero di Java 17 passi il compito di GA
  • [SPARK-42752] [SC-125550][pyspark][SQL] Rendere stampabili le eccezioni PySpark durante l'inizializzazione
  • [SPARK-42732] [SC-125544][pyspark][CONNECT] Supportare il metodo getActiveSession nella sessione di connessione a spark
  • [SPARK-42755] [SC-125442][connect] Conversione del valore letterale del fattore in connect-common
  • [SPARK-42747] [SC-125399][ml] Correzione dello stato interno errato di LoR e AFT
  • [SPARK-42740] [SC-125439][sql] Correggere il bug che scostamento o paging del pushdown non è valido per alcuni dialetti predefiniti
  • [SPARK-42745] [SC-125332][sql] Improved AliasAwareOutputExpression funziona con DSv2
  • [SPARK-42743] [SC-125330][sql] Supportare l'analisi delle colonne TimestampNTZ
  • [SPARK-42721] [SC-125371][connect] Intercettore di log RPC
  • [SPARK-42691] [SC-125397][connect][PYTHON] Implement Dataset.semanticHash
  • [SPARK-42688] [SC-124922][Connect] Rinominare Connect proto Request client_id in session_id
  • [SPARK-42310] [SC-122792][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][core] Ottimizzare le routine Utils.bytesToString
  • [SPARK-42725] [SC-125296][connect][PYTHON] Consentire a LiteralExpression di supportare parametri di tipo array
  • [SPARK-42702] [SC-125293][spark-42623][SQL] Supportare le query parametrizzate in sottoquery e CTE
  • [SPARK-42697] [SC-125189][webui] Correzione della funzione /api/v1/applications per restituire il tempo totale di attività anziché 0 nel campo relativa alla durata
  • [SPARK-42733] [SC-125278][connect][PYTHON] Risolve il problema di DataFrameWriter.save per funzionare senza il parametro path
  • [SPARK-42376] [SC-124928][ss] Introdurre la propagazione delle filigrane tra gli operatori
  • [SPARK-42710] [SC-125205][connect][PYTHON] Rinominare il prototipo FrameMap in MapPartitions
  • [SPARK-37099] [SC-123542][sql] Introdurre il limite di gruppo per la finestra per il filtro basato sul rango per ottimizzare il calcolo dei primi-k
  • [SPARK-42630] [SC-125207][connect][PYTHON] Introdurre UnparsedDataType e ritardare l'analisi della stringa DDL fino a quando SparkConnectClient non è disponibile
  • [SPARK-42690] [SC-125193][connect] Implementare funzioni di analisi CSV/JSON per il client Scala
  • [SPARK-42709] [SC-125172][python] Rimuovere il presupposto della disponibilità di __file__
  • [SPARK-42318] [SC-122648][spark-42319][SQL] Assegnare il nome a LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][sql] Aggiungere il supporto per il tipo di dati del parser json "timestamp_ltz" come TimestampType
  • [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def Schema() non deve memorizzare nella cache lo schema
  • [SPARK-42643] [SC-125152][connect][PYTHON] Registrare funzioni Java (aggregate) definite dall'utente
  • [SPARK-42656] [SC-125177][connect][Followup] Correggere lo script spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Consentire ai dialetti jdbc di eseguire l'override della query usata per creare una tabella
  • [SPARK-41725] [SC-124396][connect] Esecuzione immediata di DF.sql()
  • [SPARK-42687] [SC-124896][ss] Messaggio di errore migliorato per l'operazione pivot non supportata in Streaming
  • [SPARK-42676] [SC-124809][ss] Scrivi checkpoint temporanei per le query di streaming nel file system locale anche se il FS predefinito è impostato in modo diverso.
  • [SPARK-42303] [SC-122644][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][sql] Assicurarsi di avere almeno un'unità di tempo dopo "interval"
  • [SPARK-42649] [SC-124576][core] Rimuovere l'intestazione della licenza Apache standard dall'inizio dei file di origine di terze parti
  • [SPARK-42611] [SC-124395][sql] Inserire controlli di lunghezza char/varchar per i campi interni durante la risoluzione
  • [SPARK-42419] [SC-124019][connect][PYTHON] Eseguire la migrazione nel framework di errore per la Colonna API di Spark Connect.
  • [SPARK-42637] [SC-124522][connect] Aggiungi SparkSession.stop()
  • [SPARK-42647] [SC-124647][python] Modificare l'alias per i tipi numpy deprecati e rimossi
  • [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver chiuderà solo Hive sessionState avviato
  • [SPARK-42593] [SC-124405][ps] Deprecate & rimuovere le API che verranno rimosse in pandas 2.0.
  • [SPARK-41870] [SC-124402][connect][PYTHON] Correggere createDataFrame per gestire i nomi di colonna duplicati
  • [SPARK-42569] [SC-124379][connect] Generare eccezioni per l'API di sessione non supportata
  • [SPARK-42631] [SC-124526][connect] Supportare estensioni personalizzate nel client Scala
  • [SPARK-41868] [SC-124387][connect][PYTHON] Correggere createDataFrame per supportare le durate
  • [SPARK-42572] [SC-124171][sql][SS] Correzione del comportamento per StateStoreProvider.validateStateRowFormat

Aggiornamenti di manutenzione

Vedere Aggiornamenti di manutenzione di Databricks Runtime 13.1.

Ambiente di sistema

  • Sistema operativo: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Librerie Python installate

Biblioteca Versione Biblioteca Versione Biblioteca Versione
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttoken 2.2.1 attrs 21.4.0 richiamata 0.2.0
beautifulsoup4 4.11.1 nero 22.6.0 bleach 4.1.0
freccia 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 clic 8.0.4 cryptography 37.0.1
ciclatore 0.11.0 Cython 0.29.32 dbus-python 1.2.18
debugpy 1.5.1 decoratore 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown (conversione da docstring a markdown) 0.12 punti di ingresso 0.4
eseguendo 1.2.0 panoramica delle facette 1.0.3 fastjsonschema 2.16.3
blocco del file 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 portachiavi 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
mccabe 0.7.0 mistune 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.12 numpy 1.21.5 oauthlib 3.2.0
confezionamento 21.3 pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 vittima 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 cuscino 9.2.0
pip 22.2.2 platformdirs 2.5.2 plotly 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 richieste 2.28.1 corda 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 sei 1.16.0 soupsieve 2.3.1
ssh-import-id 5.11 stack-data 0.6.2 statsmodels 0.13.2
tenacia 8.1.0 terminato 0.13.1 percorso di test 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 aggiornamenti-automatici 0.1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 ruota 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Librerie R installate

Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2023-02-10.

Biblioteca Versione Biblioteca Versione Biblioteca Versione
freccia 10.0.1 askpass 1.1 assertthat 0.2.1
backports (retroportazioni) 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.5 bit 64 4.0.5 blob 1.2.3
boot 1.3-28 brew 1.0-8 vivacità 1.1.3
Scopa 1.0.3 bslib 0.4.2 cashmere 1.0.6
callr 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-59 classe 7.3-21 cli 3.6.0
clipr 0.8.0 orologio 0.6.1 gruppo 2.1.4
codetools 0.2-19 spazio colore 2.1-0 commonmark 1.8.1
compilatore 4.2.2 configurazione 0.3.1 cpp11 0.4.3
crayon 1.5.2 credenziali 1.3.2 curl 5.0.0
data.table 1.14.6 insiemi di dati 4.2.2 DBI 1.1.3
dbplyr 2.3.0 descrizione 1.4.2 devtools 2.4.5
diffobj 0.3.5 sommario 0.6.31 illuminazione dall'alto 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
puntini di sospensione 0.3.2 valutare 0,20 fan 1.0.4
colori 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
N/A (without additional context or clarification, this cannot be accurately translated). 1.0.0 foreach 1.5.2 straniero 0.8-82
forgia 0.2.0 fs 1.6.1 futuro 1.31.0
future.apply 1.10.0 gargle 1.3.0 generici 0.1.3
gert 1.9.2 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 variabili globali 0.16.2
colla 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 grafica 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 casco da cantiere 1.2.0 rifugio 2.5.1
highr 0,10 hms 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteratori 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 knitr 1.42
Etichettatura 0.4.2 più tardi 1.3.0 Reticolo 0.20-45
lava 1.7.1 ciclo di vita 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 markdown 1,5
Massa 7.3-58.2 Matrice 1.5-1 memorizzare 2.0.1
metodi 4.2.2 mgcv 1.8-41 mime 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallelo 4.2.2
parallelamente 1.34.0 pilastro 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 praise 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Avanzamento 1.2.2
progressr 0.13.0 promesse 1.2.0.1 proto 1.0.0
intermediario 0.4-27 ps 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 ricette 1.0.4
rivincita 1.0.1 rematch2 2.1.2 remotes 2.4.2
esempio riproducibile (reprex) 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 sass 0.4.5 Scalabilità 1.2.1
selectr 0.4-2 informazioni sulla sessione 1.2.2 Forma 1.4.6
lucido 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 spaziale 7.3-15 Spline 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 statistiche 4.2.2
stats4 4.2.2 stringi 1.7.12 stringr 1.5.0
Sopravvivenza 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 formattazione del testo 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 cambio dell'ora 0.2.0 timeDate 4022.108
tinytex 0.44 strumenti 4.2.2 tzdb 0.3.0
verificatore di URL 1.0.1 usethis 2.1.6 UTF8 1.2.3
utils 4.2.2 uuid (Identificatore Unico Universale) 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 vruum 1.6.1 waldo 0.4.0
whisker 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Librerie Java e Scala installate (versione del cluster di Scala 2.12)

identificativo del gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics flusso 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.caffeine caffeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-nativi
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-indigeni
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-nativi
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-nativi
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink tink 1.7.0
com.google.errorprone annotazioni_propense_agli_errori 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger profilatore 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configurazione 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metrics-core 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metriche-verifichegesundità 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metriche-servlet 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API di transazione 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr modello di stringa 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow formato freccia 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow freccia-vettore 11.0.0
org.apache.avro Avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curatore-cliente 2.13.0
org.apache.curator framework del curatore 2.13.0
org.apache.curator ricette dei curatori 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus annotazioni del pubblico 0.13.0
org.apache.zookeeper guardiano dello zoo 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-continuation 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket WebSocket-API 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core maglia-comune 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotazioni 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Spessori 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaccia di test 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatibile con scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1