Databricks Runtime 13.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni di Databricks Runtime supportate, consultare le note di rilascio sulle versioni e compatibilità di Databricks Runtime.
Le seguenti note sulla versione forniscono informazioni su Databricks Runtime 13.1, con tecnologia Apache Spark 3.4.0.
Databricks ha rilasciato questa versione nel maggio 2023.
Miglioramenti e nuove funzionalità
- Supporto del cluster per JDK 17 (anteprima pubblica)
- Aggiungere, modificare o eliminare dati nelle tabelle di streaming
- Leggere Kafka con SQL
- Nuove funzioni predefinite SQL
- Supporto del catalogo Unity per le librerie Python con ambito cluster
- Espansione dell'abilitazione predefinita per le scritture ottimizzate nel Catalogo Unity
- Supporto avanzato per gli operatori a stato nei carichi di lavoro di Structured Streaming
- Il clone Delta per il catalogo Unity è disponibile in anteprima pubblica
- Supporto Pub/Sub per Structured Streaming
- Rimuovere duplicati nelle filigrane di Structured Streaming
- Supporto espanso per le conversioni Delta da tabelle Iceberg con colonne di partizione troncate
- Trasmettere le modifiche allo schema con il mapping delle colonne in Delta Lake
- Rimuovere la VERSIONE INIZIALE
- Nuove espressioni H3 disponibili con Python
Supporto del cluster per JDK 17 (anteprima pubblica)
Databricks offre ora il supporto del cluster per il kit di sviluppo di Java (JDK) 17. Vedere Databricks SDK per Java.
Aggiungere, modificare o eliminare dati nelle tabelle di streaming
È ora possibile usare istruzioni DML per modificare le tabelle di streaming pubblicate in Unity Catalog dalle pipeline DLT. Vedere Aggiungere, modificare o eliminare dati in una tabella di streaming e Aggiungere, modificare o eliminare dati in una tabella di streaming di destinazione. È anche possibile usare istruzioni DML per modificare le tabelle di streaming create in Databricks SQL.
Leggere Kafka con SQL
È ora possibile usare la funzione SQL read_kafka
per la lettura dei dati Kafka. Lo streaming con SQL è supportato solo in DLT o con tabelle di streaming in Databricks SQL. Vedere read_kafka
funzione con valori di tabella.
Nuove funzioni predefinite SQL
Sono state aggiunte le funzioni seguenti:
-
array_prepend(array, elem) Restituisce
array
preceduto daelem
. -
try_aes_decrypt(expr, key [, mode [, padding]]) Decrittografa un file binario generato usando la crittografia AES e restituisce
NULL
se si verifica un errore. - sql_keywords() Restituisce una tabella di parole chiave SQL di Azure Databricks.
Supporto del catalogo Unity per le librerie Python con ambito cluster
Il catalogo Unity presenta alcune limitazioni sull'utilizzo della libreria. A partire dalla versione 13.1 di Databricks Runtime, sono supportate librerie Python con ambito cluster, tra cui i file wheel Python caricati come file dell'area di lavoro. Le librerie a cui viene fatto riferimento utilizzando i percorsi file DBFS non sono supportate, sia nella radice DBFS che in un percorso esterno montato in DBFS. Le librerie non Python non sono supportate. Consultare Librerie cluster.
In Databricks Runtime 13.0 e versioni successive le librerie con ambito cluster non sono supportate nei cluster che usano la modalità di accesso standard (in precedenza modalità di accesso condiviso) in un'area di lavoro abilitata per Unity Catalog.
Abilitazione predefinita espansa per le scritture ottimizzate nel catalogo unity
Il supporto predefinito per la scrittura ottimizzata per le tabelle Delta registrate nel catalogo Unity è stato espanso in modo da includere istruzioni CTAS
e operazioni INSERT
per le tabelle partizionate. Questo comportamento è allineato alle impostazioni predefinite nei warehouse SQL. Vedere Scritture ottimizzate per Delta Lake in Azure Databricks.
Supporto avanzato per gli operatori con stato nei carichi di lavoro di Structured Streaming
È ora possibile collegare in sequenza più operatori con stato, il che significa che è possibile fornire l'output di un'operazione, come ad esempio un'aggregazione finestrata, a un'altra operazione con stato, come un join. Consulta Che cos'è lo streaming con stato?.
Il clone Delta per il catalogo Unity è disponibile in anteprima pubblica
È ora possibile usare un clone superficiale per creare nuove tabelle gestite del catalogo Unity a partire da tabelle gestite esistenti nel catalogo Unity. Vedere Clone superficiale per le tabelle del catalogo Unity.
Supporto pub/sub per Structured Streaming
È ora possibile usare un connettore predefinito per sottoscrivere Google Pub/Sub con Structured Streaming. Vedi Iscriviti a Google Pub/Sub.
Rimuovere duplicati all'interno di filigrane in Structured Streaming
È ora possibile usare dropDuplicatesWithinWatermark
in combinazione con una soglia limite specificata per deduplicare i record in Structured Streaming. Vedere Rimuovi i duplicati all'interno della filigrana.
Supporto espanso per le conversioni Delta da tabelle Iceberg con colonne di partizione troncate
È ora possibile usare CLONE
e CONVERT TO DELTA
con le tabelle Iceberg con partizioni definite in colonne troncate di tipi int
, long
e string
. Le colonne troncate di tipo decimal
non sono supportate.
Le modifiche dello schema con il mapping delle colonne in Delta Lake
È ora possibile fornire un percorso di rilevamento dello schema per abilitare lo streaming da tabelle Delta con mapping di colonne abilitato. Vedere Streaming con mapping di colonne e modifiche dello schema.
Rimuovere la VERSIONE INIZIALE
START VERSION
è ora deprecato per ALTER SHARE
.
Nuove espressioni H3 disponibili con Python
Le espressioni h3_coverash3
e h3_coverash3string
sono disponibili con Python.
Correzioni di bug
Parquet failOnUnknownFields non elimina più silenziosamente i dati in caso di tipo non corrispondente.
Se un file Parquet è stato letto solo con l'opzione failOnUnknownFields
o con Auto Loader nella modalità di evoluzione dello schema, le colonne con tipi di dati diversi ora generano un errore e si consiglia l'uso di rescuedDataColumn
. Il caricatore automatico ora legge correttamente e non salva più i tipi Integer, Short o Byte se viene fornito uno di questi tipi di dati. Il file Parquet suggerisce uno degli altri due tipi.
Modifiche che interrompono la compatibilità
Aggiornare sqlite-jdbc alla versione 3.42.0.0 per l'indirizzo CVE-2023-32697
Aggiornare sqlite-jdbc dalla versione 3.8.11.2 alla versione 3.42.0.0. Le API della versione 3.42.0.0 non sono completamente compatibili con la versione 3.8.11.2. Se si usa sqlite-jdbc nel codice, controllare il report di compatibilità sqlite-jdbc per informazioni dettagliate. Se migri alla versione 13.1 e usi sqlite, verifica i metodi e il tipo di ritorno nella versione 3.42.0.0.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- facets-overview dalla versione 1.0.2 alla versione 1.0.3
- filelock da 3.10.7 a 3.12.0
- pyarrow da 7.0.0 a 8.0.0
- tenacia da 8.0.1 a 8.1.0
- Librerie R aggiornate:
- Librerie Java aggiornate:
- com.github.ben-manes.caffeine.caffeine da 2.3.4 a 2.9.3
- io.delta.delta-sharing-spark_2.12 da 0.6.8 a 0.6.4
- net.snowflake.snowflake-jdbc da 3.13.29 a 3.13.22
- org.checkerframework.checker-qual da 3.5.0 a 3.19.0
- org.scalactic.scalactic_2.12 dalla versione 3.0.8 alla versione 3.2.15
- org.scalatest.scalatest_2.12 dalla versione 3.0.8 alla versione 3.2.15
- org.xerial.sqlite-jdbc da 3.8.11.2 a 3.42.0.0
Apache Spark
Databricks Runtime 13.1 include Apache Spark 3.4.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 13.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-42719] [DBRRM-199][sc-131578] Ripristinare “[SC-125225] `MapOutputTracker#getMap…
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Revert [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Aggiungere Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][connect][PYTHON] Consentire l'estensione di ChannelBuilder per SparkConnectClient
- [SPARK-43323] [SC-129966][sql][PYTHON] Correggere dataframe.toPandas con Freccia abilitata per gestire correttamente le eccezioni
- [SPARK-42940] [SC-129896][ss][CONNECT] Migliorare la gestione delle sessioni per le query di streaming
- [SPARK-43032] [SC-125756] [CONNECT][ss] Aggiungere Gestione query di streaming
- [SPARK-16484] [SC-129975][sql] Aggiungere il supporto per Datasketches HllSketch
- [SPARK-43260] [SC-129281][python] Migrare gli errori di tipo arrow dei pandas in Spark SQL nelle classi di errore.
- [SPARK-41766] [SC-129964][core] Gestire la richiesta di disattivazione inviata prima della registrazione dell'executor
- [SPARK-43307] [SC-129971][python] Eseguire la migrazione degli errori del valore PandasUDF nella classe di errore
- [SPARK-43206] [SC-129903] [SS] [CONNECT] L'eccezione di StreamingQuery() include la traccia dello stack
- [SPARK-43311] [SC-129905][ss] Aggiungi miglioramenti alla gestione della memoria del provider di archiviazione dello stato RocksDB
- [SPARK-43237] [SC-129898][core] Gestire il messaggio di eccezione Null nel registro eventi
- [SPARK-43320] [SC-129899][sql][HIVE] chiamare direttamente l'API Hive 2.3.9
-
[SPARK-43270] [SC-129897][python] Implementare
__dir__()
inpyspark.sql.dataframe.DataFrame
per includere colonne - [SPARK-43183] Ripristinare "[SC-128938][ss] Introdurre un nuovo callback "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][sql] Sostituire la classe di errore _LEGACY_ERROR_TEMP_2022 da un errore interno
- [SPARK-43198] [SC-129470][connect] Correggi "Impossibile inizializzare la classe ammonite..." errore durante l'uso del filtro
- [SPARK-43165] [SC-129777][sql] Move canWrite to DataTypeUtils
- [SPARK-43298] [SC-129729][python][ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a una
- [SPARK-43298] [SC-129700]Revert "[PYTHON][ml] predict_batch_udf con input scalare ha esito negativo con dimensioni batch di uno"
- [SPARK-43052] [SC-129663][core] Gestire stacktrace con nome file nullo nel registro eventi
- [SPARK-43183] [SC-128938][ss] Introdurre un nuovo callback "onQueryIdle" in StreamingQueryListener
- [SPARK-43209] [SC-129190][connect][PYTHON] Eseguire la migrazione degli errori di espressione nella classe di errore
- [SPARK-42151] [SC-128754][sql] Allineare le assegnazioni UPDATE con attributi di tabella
- [SPARK-43134] [SC-129468] [CONNECT] [SS] eccezione() dell'API StreamingQuery del client JVM
- [SPARK-43298] [SC-129699][python][ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a uno
- [SPARK-43248] [SC-129660][sql] Inutile serialize/deserialize di Path su raccolta parallela delle statistiche di partizione
-
[SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Introdurre
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][connect][PYTHON] Implementare la valutazione anticipata per repr e repr_html
- [SPARK-42953] [SC-129469][connect][Followup] Correggere la build di test Maven per i test UDF del client Scala
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][connect] Aggiunta di groupByKey + mapGroup + coGroup funzioni
-
[SPARK-43156] [SC-129672][sc-128532][SQL] Correzione di bug
COUNT(*) is null
nella sottoquery scalare correlata - [SPARK-43046] [SC-129110] [SS] [Connetti] Implementazione dell'api Python dropDuplicatesWithinWatermark per Spark Connect
- [SPARK-43199] [SC-129467][sql] Rendere InlineCTE idempotente
-
[SPARK-43293] [SC-129657][sql]
__qualified_access_only
devono essere ignorate nelle colonne normali - [SPARK-43276] [SC-129461][connect][PYTHON] Eseguire la migrazione degli errori della finestra di Spark Connect nella classe di errore
- [SPARK-43174] [SC-129109][sql] Correzione del completatore SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] Aggiungere il supporto applyInPandasWithState per spark connect
- [SPARK-43119] [SC-129040][sql] Supporto per Ottenere le keyword SQL in modo dinamico tramite API JDBC e TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] Funzioni definite dall'utente Python ottimizzate con Arrow in Spark Connect
- [SPARK-43085] [SC-128432][sql] Supporto dell'assegnazione DEFAULT della colonna per nomi di tabelle in più parti
- [SPARK-43226] [LC-671] Definire gli estrattori per i metadati costanti dei file
-
[SPARK-43210] [SC-129189][connect][PYTHON] Introdurre
PySparkAssertionError
- [SPARK-43214] [SC-129199][sql] Pubblica metriche lato driver per LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Correggere l'errore costante di ReplE2ESuite con JDK 17
- [SPARK-43268] [SC-129249][sql] Usare classi di errore appropriate quando le eccezioni vengono costruite con un messaggio
- [SPARK-43142] [SC-129299] Correggere le espressioni DSL sugli attributi con caratteri speciali
- [SPARK-43129] [SC-128896] API di base di Scala per lo streaming di Spark Connect
- [SPARK-43233] [SC-129250] [SS] Aggiungere la registrazione per la lettura batch Kafka per la partizione dell'argomento, l'intervallo di offset e l'ID attività
- [SPARK-43249] [SC-129195][connect] Correzione delle statistiche mancanti per il comando SQL
- [SPARK-42945] [SC-129188][connect] Supporto PYSPARK_JVM_STACKTRACE_ENABLED in Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Eseguire la migrazione degli errori UDF nel framework degli errori pySpark
- [SPARK-43123] [SC-128494][sql] I metadati dei campi interni non devono essere rivelati nei cataloghi
- [SPARK-43217] [SC-129205] Si ripete correttamente in mappe/matrici annidate in findNestedField
- [SPARK-43243] [SC-129294][python][CONNECT] Aggiungere parametri di livello a printSchema per Python
-
[SPARK-43230] [SC-129191][connect] Semplificare
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][sql] Respect RequiresDistributionAndOrdering in CTAS/RTAS
-
[SPARK-43234] [SC-129192][connect][PYTHON] Eseguire la migrazione di
ValueError
dal dataframe conect alla classe di errore - [SPARK-43212] [SC-129187][ss][PYTHON] Eseguire la migrazione degli errori di Structured Streaming nella classe di errore
-
[SPARK-43239] [SC-129186][ps] Rimuovere
null_counts
da info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput deve essere coerente con l'output del figlio
- [SPARK-43191] [SC-128924][core] Sostituire la reflection con una chiamata diretta per Hadoop CallerContext
- [SPARK-43193] [SC-129042][ss] Rimuovere la soluzione alternativa per HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Supporto per trovare e trasferire i file di classe REPL dal lato client al server come artefatti.
- [SPARK-43098] [SC-77059][sql] Correzione del bug COUNT di precisione quando la sottoquery scalare contiene una clausola GROUP BY
-
[SPARK-43213] [SC-129062][python] Aggiungere
DataFrame.offset
a vanilla PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Correggere createDataFrame per rispettare il ddl dello schema specificato
- [SPARK-43124] [SC-129011][sql] Dataset.show projects CommandResults localmente
- [SPARK-42998] [SC-127422][connect][PYTHON] Correggere DataFrame.collect con struttura nulla
- [SPARK-41498] [SC-125343] Annullare ” Propagare i metadati tramite Union”
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Aggiungere await_termination() e api exception() per query di streaming in Python
- [SPARK-42552] [SC-128824][sql] Correggere la strategia di analisi a due fasi del parser antlr
- [SPARK-43207] [SC-128937][connect] Aggiungere funzioni helper per estrarre valore dall'espressione letterale
- [SPARK-43186] [SC-128841][sql][HIVE] Rimuovere la soluzione alternativa per FileSinkDesc
- [SPARK-43107] [SC-128533][sql] Unire i bucket nel join applicato sul lato di flusso del join broadcast
- [SPARK-43195] [SC-128922][core] Rimuovere il wrapper serializzabile non necessario in HadoopFSUtils
- [SPARK-43137] [SC-128828][sql] Migliorare ArrayInsert se la posizione è piegabile e positiva.
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join deve restituire un valore Null per la riga senza corrispondenza
- [SPARK-43042] [SC-128602] [SS] [Connetti] Aggiungere il supporto dell'API table() per DataStreamReader
- [SPARK-43153] [SC-128753][connect] Ignorare l'esecuzione di Spark quando il dataframe è locale
- [SPARK-43064] [SC-128496][sql] La scheda SQL dell'interfaccia della riga di comando di Spark SQL deve mostrare una sola volta ogni istruzione
- [SPARK-43126] [SC-128447][sql] Contrassegnare due espressioni UDF Hive come stateful
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] Unire istruzioni
if
annidate in singole istruzioniif
- [SPARK-43113] [SC-128749][sql] Valutare le variabili lato flusso durante la generazione di codice per una condizione vincolata
- [SPARK-42895] [SC-127258][connect] Migliorare i messaggi di errore per le sessioni Spark arrestate
- [SPARK-42884] [SC-126662][connect] Aggiungere l'integrazione di Ammonite REPL
- [SPARK-43168] [SC-128674][sql] Rimuovere il metodo PhysicalDataType dalla classe Datatype
-
[SPARK-43121] [SC-128455][sql] Usare
BytesWritable.copyBytes
anziché la copia manuale in 'HiveInspectors - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog mantiene il meta Char/Varchar sul lato di lettura
- [SPARK-43050] [SC-128550][sql] Correggere le espressioni di aggregazione dei costrutti sostituendo le funzioni di raggruppamento
-
[SPARK-43095] [SC-128549][sql] Evitare che l'idempotenza della strategia Once venga compromessa per il batch:
Infer Filters
- [SPARK-43130] [SC-128597][sql] Spostare InternalType in PhysicalDataType
- [SPARK-43105] [SC-128456][connect] Abbrevia Byte e Stringhe nel messaggio proto
-
[SPARK-43099] [SC-128596][sql] Usare
getName
anzichégetCanonicalName
per ottenere il nome della classe del generatore durante la registrazione di udf in FunctionRegistry - [SPARK-42994] [SC-128586][ml][CONNECT] Supporto della modalità locale del server di distribuzione PyTorch
- [SPARK-42859] Ripristinare "[SC-127935][connect][PS] Supporto di base per l'API pandas in Spark Connect"
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoin
non funzionano quando si usa AQE - [SPARK-43125] [SC-128477][connect] Risoluzione del problema nel server Connect che non gestisce le eccezioni con messaggi nulli.
- [SPARK-43147] [SC-128594] correggere il linting di flake8 per controllo locale
- [SPARK-43031] [SC-128360] [SS] [Connetti] Abilitare unit test e doctest per lo streaming
- [SPARK-43039] [LC-67] Supportare i campi personalizzati nella colonna _metadata origine file.
- [SPARK-43120] [SC-128407][ss] Aggiungere il supporto per tenere traccia dell'utilizzo della memoria dei blocchi fissati per l'archivio stati di RocksDB
- [SPARK-43110] [SC-128381][sql] Spostare asIntegral in PhysicalDataType
- [SPARK-43118] [SC-128398][ss] Rimuovere l'asserzione non necessaria per UninterruptibleThread in KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Supporta i nomi dei campi annidati duplicati
- [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable consentirà di specificare il livello di archiviazione
- [SPARK-42985] [SC-128332][connect][PYTHON] Correzione di createDataFrame per rispettare le configurazioni SQL
- [SPARK-39696] [SC-127830][core] Correzione della race dei dati nell'accesso a TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Spostamento di integrali in PhysicalDataType
- [SPARK-42741] [SC-125547][sql] Non rimuovere i cast nel confronto binario quando il letterale è null
- [SPARK-43057] [SC-127948][connect][PYTHON] Eseguire la migrazione degli errori della colonna Spark Connect nella classe di errore
- [SPARK-42859] [SC-127935][connect][PS] Supporto di base per l'API pandas in Spark Connect
-
[SPARK-43013] [SC-127773][python] Eseguire la migrazione di
ValueError
dal dataframe aPySparkValueError
. - [SPARK-43089] [SC-128051][connect] Modifica la stringa di debug nell'interfaccia utente
- [SPARK-43028] [SC-128070][sql] Aggiungere una classe di errore SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Aggiungere test per dropDuplicates in JavaDatasetSuite
-
[SPARK-43075] [SC-127939][connect] Modificare
gRPC
ingrpcio
quando non è installato. - [SPARK-42953] [SC-127809][connect] Filtro tipizzato, mappa, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][sql] Supporto alla conversione del tipo data nel tipo timestamp
- [SPARK-42931] [SC-127933][ss] Introdurre dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][connect] Aggiungere costanti dei tipi di dati proto
- [SPARK-43077] [SC-128050][sql] Migliorare il messaggio di errore di UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] API di DataStreamReader
- [SPARK-43049] [SC-127846][sql] Usare CLOB anziché VARCHAR(255) per StringType per Oracle JDBC
- [SPARK-43018] [SC-127762][sql] Correzione del bug per i comandi INSERT con valori di tipo timestamp
- [SPARK-42855] [SC-127722][sql] Usare controlli di null runtime in TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Deduplicare le relazioni con colonne di metadati
- [SPARK-42993] [SC-127829][ml][CONNECT] Rendere il server di distribuzione PyTorch compatibile con Spark Connect
- [SPARK-43058] [SC-128072][sql] Spostare numerico e frazionaria in PhysicalDataType
- [SPARK-43056] [SC-127946][ss] Il commit dell'archivio stati di RocksDB deve continuare il lavoro in background solo se è stato sospeso.
- [SPARK-43059] [SC-127947][connect][PYTHON] Eseguire la migrazione di TypeError da DataFrame(Reader|Writer) nella classe error
- [SPARK-43071] [SC-128018][sql] Supporto SELECT DEFAULT con ORDER BY, LIMIT, OFFSET per la relazione sorgente INSERT
- [SPARK-43061] [SC-127956][core][SQL] Introdurre PartitionEvaluator per l'esecuzione dell'operatore SQL
- [SPARK-43067] [SC-127938][ss] Correggere il percorso del file di risorse della classe di errore nel connettore Kafka
- [SPARK-43019] [SC-127844][sql] Move Ordering to PhysicalDataType
- [SPARK-43010] [SC-127759][python] Eseguire la migrazione degli errori di colonna nella classe di errore
-
[SPARK-42840] [SC-127782][sql] Cambia
_LEGACY_ERROR_TEMP_2004
errore in errore interno - [SPARK-43041] [SC-127765][sql] Ripristinare costruttori di eccezioni per la compatibilità nell'API del connettore
- [SPARK-42939] [SC-127761][ss][CONNECT] API Python di streaming core per Spark Connect
-
[SPARK-42844] [SC-127766][sql] Aggiornare la classe di errore
_LEGACY_ERROR_TEMP_2008
aINVALID_URL
- [SPARK-42316] [SC-127720][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][connect][PYTHON] Eseguire la migrazione degli errori del DataFrame Spark Connect nella classe di errore
- [SPARK-42983] [SC-127717][connect][PYTHON] Correggi createDataFrame per gestire correttamente la matrice numpy a 0 dimensioni.
- [SPARK-42955] [SC-127476][sql] Ignora classifyException e incapsula AnalysisException per SparkThrowable
- [SPARK-42949] [SC-127255][sql] Semplificare il codice per NAAJ
-
[SPARK-43011] [SC-127577][sql]
array_insert
dovrebbe avere esito negativo con 0 indice -
[SPARK-42974] [SC-127487][core] Ripristinare
Utils.createTempDir
per usareShutdownHookManager
e pulire il metodoJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' significa anche che la tabella esiste già
- [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME non può qualificare il new-table-Name con uno schema-Name
- [SPARK-37980] [SC-127668][sql] Access row_index tramite _metadata, se possibile nei test
- [SPARK-42655] [SC-127591][sql] Errore di riferimento di colonna ambiguo non corretto
-
[SPARK-43009] [SC-127596][sql] Parametrizzato
sql()
con costantiAny
- [SPARK-43026] [SC-127590][sql] Applica AQE con cache di tabella non di scambio
- [SPARK-42963] [SC-127576][sql] Estendere SparkSessionExtensions per iniettare regole nell'ottimizzatore del livello di query AQE
- [SPARK-42918] [SC-127357] Generalizzare la gestione degli attributi dei metadati in FileSourceStrategy
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT] Aggiungere
Catalog
supporto - [SPARK-42997] [SC-127535][sql] TableOutputResolver deve usare percorsi di colonna corretti nei messaggi di errore per matrici e mappe
- [SPARK-43006] [SC-127486][pyspark] Correzione dell'errore di digitazione in StorageLevel eq()
- [SPARK-43005] [SC-127485][pyspark] Correzione di un errore di battitura in pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Correzione dell'ortografia in ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Implementare le funzionalità Avro
- [SPARK-42979] [SC-127272][sql] Definire costruttori letterali come parole chiave
- [SPARK-42946] [SC-127252][sql] Redigere i dati sensibili che sono annidati attraverso la sostituzione delle variabili
- [SPARK-42952] [SC-127260][sql] Semplificare il parametro della regola dell'analizzatore "PreprocessTableCreation" e "DataSourceAnalysis"
- [SPARK-42683] [LC-75] Rinominare automaticamente le colonne di metadati in conflitto
- [SPARK-42853] [SC-126101][followup] Correzione dei conflitti
- [SPARK-42929] [SC-126748][connect] rendere compatibili mapInPandas / mapInArrow con "is_barrier"
- [SPARK-42968] [SC-127271][ss] Aggiungere l'opzione per saltare il coordinatore del commit come parte dell'API StreamingWrite per sorgenti/sink DSv2
-
[SPARK-42954] [SC-127261][python][CONNECT] Aggiungere
YearMonthIntervalType
al client Python PySpark e Spark Connect -
[SPARK-41359] [SC-127256][sql] Usare
PhysicalDataType
anziché DataType in UnsafeRow - [SPARK-42873] [SC-127262][sql] Definire i tipi Spark SQL come parole chiave
-
[SPARK-42808] [SC-126302][core] Evitare di ottenere i processori disponibili ogni volta che si accede a
MapOutputTrackerMaster#getStatistics
-
[SPARK-42937] [SC-126880][sql]
PlanSubqueries
deve impostareInSubqueryExec#shouldBroadcast
su true -
[SPARK-42896] [SC-126729][sql][PYTHON] Rendi
mapInPandas
/mapInArrow
compatibile con l'esecuzione in modalità barriera - [SPARK-42874] [SC-126442][sql] Abilitare il nuovo framework di test dei file di riferimento per l'analisi per tutti i file di input
- [SPARK-42922] [SC-126850][sql] Passare da Random a SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange fa riferimento a nodi inesistenti
- [SPARK-40822] [SC-126274][sql] Alias di colonna derivati stabili
- [SPARK-42908] [SC-126856][python] Generare RuntimeError quando SparkContext è obbligatorio ma non inizializzato
- [SPARK-42779] [SC-126042][sql] Consenti alle scritture V2 di indicare la dimensione consigliata delle partizioni shuffle
-
[SPARK-42914] [SC-126727][python] Riutilizzare
transformUnregisteredFunction
perDistributedSequenceID
. - [SPARK-42878] [SC-126882][connect] L'API tabella in DataFrameReader potrebbe accettare anche opzioni
-
[SPARK-42927] [SC-126883][core] Modificare l'ambito di accesso di
o.a.spark.util.Iterators#size
inprivate[util]
- [SPARK-42943] [SC-126879][sql] Usare LONGTEXT anziché TEXT per StringType per una lunghezza effettiva
- [SPARK-37677] [SC-126855][core] Unzip potrebbe mantenere le autorizzazioni per i file
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implementare l'API Mappa co-gruppata
- [SPARK-41876] [SC-126849][connect][PYTHON] Implementare DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][core][SQL] Modificare l'ambito di accesso delle implementazioni correlate
ProtobufSerDe
inprivate[protobuf]
- [SPARK-42819] [SC-125879][ss] Aggiungere il supporto per l'impostazione di max_write_buffer_number e write_buffer_size per RocksDB usato nello streaming
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Chiarire il commento degli argomenti SQL con parametri
- [SPARK-42748] [SC-126455][connect] Gestione degli artefatti lato server
- [SPARK-42816] [SC-126365][connect] Supporto delle dimensioni massime dei messaggi fino a 128 MB
- [SPARK-42850] [SC-126109][sql] Rimuovere la regola duplicata CombineFilters nell'Optimizer
- [SPARK-42662] [SC-126355][connect][PS] Aggiungere un messaggio proto per l'API pandas nell'indice predefinito di Spark
- [SPARK-42720] [SC-126136][ps][SQL] Usa l'espressione per l'indice predefinito della sequenza distribuita anziché per il piano
- [SPARK-42790] [SC-126174][sql] Astrarre il metodo escluso per un test migliore per i test docker JDBC.
- [SPARK-42900] [SC-126473][connect][PYTHON] Correzione di createDataFrame per rispettare i nomi di inferenza e colonna
- [SPARK-42917] [SC-126657][sql] Correct getUpdateColumnNullabilityQuery for DerbyDialect
- [SPARK-42684] [SC-125157][sql] il catalogo v2 non dovrebbe consentire il valore predefinito della colonna di default
- [SPARK-42861] [SC-126635][sql] Usare private[sql] anziché protected[sql] per evitare di generare la documentazione api
- [SPARK-42920] [SC-126728][connect][PYTHON] Abilitare i test per le funzioni definite dall'utente (UDF) con tipi definiti dall'utente (UDT)
- [SPARK-42791] [SC-126617][sql] Creare un nuovo framework di test "golden file" per l'analisi
- [SPARK-42911] [SC-126652][python] Introdurre altre eccezioni di base
- [SPARK-42904] [SC-126634][sql] Supporto Char/Varchar per il Catalogo JDBC
-
[SPARK-42901] [SC-126459][connect][PYTHON] Trasferire
StorageLevel
in un file separato per evitare possibilifile recursively imports
-
[SPARK-42894] [SC-126451][connect] Supporto
cache
/persist
/unpersist
/storageLevel
per il client JVM di Spark connect - [SPARK-42792] [SC-125852][ss] Aggiungere il supporto per WRITE_FLUSH_BYTES per RocksDB utilizzato negli operatori stateful di streaming.
- [SPARK-41233] [SC-126441][connect][PYTHON] Aggiungere array_prepend al client Python Spark Connect
- [SPARK-42681] [SC-125149][sql] Allentare il vincolo di ordinamento per ALTER TABLE Descrittore di colonna ADD|REPLACE
- [SPARK-42889] [SC-126367][connect][PYTHON] Implementare cache, rendere persistente, eliminare la persistenza e livello di memorizzazione
- [SPARK-42824] [SC-125985][connect][PYTHON] Specificare un messaggio di errore chiaro per gli attributi JVM non supportati
- [SPARK-42340] [SC-126131][connect][PYTHON] Implementare l'API mappa raggruppata
- [SPARK-42892] [SC-126454][sql] Spostare sameType e metodi pertinenti da DataType
-
[SPARK-42827] [SC-126126][connect] Supporto
functions#array_prepend
per il client di connessione Scala -
[SPARK-42823] [SC-125987][sql]
spark-sql
shell supporta spazi dei nomi multipart per l'inizializzazione - [SPARK-42817] [SC-125960][core] Registrare il nome del servizio shuffle una volta in ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Selezionato Digitato
-
[SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementare la funzione ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][sql] Supporto codegen per HiveSimpleUDF
-
[SPARK-41233] [SC-126110][sql][PYTHON] Aggiungere
array_prepend
funzione -
[SPARK-42864] [SC-126268][ml][3.4] Rendere
IsotonicRegression.PointsAccumulator
privato - [SPARK-42876] [SC-126281][sql] DataType physicalDataType deve essere privato[sql]
- [SPARK-42101] [SC-125437][sql] Rendere AQE compatibile con InMemoryTableScanExec
- [SPARK-41290] [SC-124030][sql] Supportare le espressioni GENERATED ALWAYS AS per le colonne nelle istruzioni di create/replace table
-
[SPARK-42870] [SC-126220][connect] Spostare
toCatalystValue
inconnect-common
- [SPARK-42247] [SC-126107][connect][PYTHON] Correggere la funzione definita dall'utente per avere un tipo di ritorno
- [SPARK-42875] [SC-126258][connect][PYTHON] Correzione di toPandas per gestire correttamente i tipi di fuso orario e mappa
- [SPARK-42757] [SC-125626][connect] Implementare textFile per DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Usare la funzione getParameterCount anziché getParameterTypes.length
-
[SPARK-42833] [SC-126043][sql] Rifattorizzare
applyExtensions
inSparkSession
- [SPARK-41765] Annullare “[SC-123550][sql] Rimuovere le metriche di scrittura v1...
- [SPARK-42848] [SC-126105][connect][PYTHON] Implementare DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] Supporto di UserDefinedType in Spark Connect
- [SPARK-42818] [SC-125861][connect][PYTHON] Implementare DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][connect] Aggiungere client_type al messaggio Protobuf di AddArtifactsRequest
- [SPARK-42772] [SC-125860][sql] Modificare il valore predefinito delle opzioni JDBC relative al push fino a true
- [SPARK-42771] [SC-125855][sql] Refactor HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: scrittura di unioni complesse
-
[SPARK-42765] [SC-125850][connect][PYTHON] Abilitare l'importazione di
pandas_udf
dapyspark.sql.connect.functions
-
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocation
deve rispettarespark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][sql] Migliorare le prestazioni delle partizioni di eliminazione
- [SPARK-42689] [SC-125195][core][SHUFFLE] Consenti a ShuffleDriverComponent di dichiarare se i dati di shuffle vengono archiviati in modo affidabile
-
[SPARK-42726] [SC-125279][connect][PYTHON] Implementare
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][sql] Estrarre le metriche di scrittura v1 in WriteFiles
- [SPARK-41171] [SC-124191][sql] Dedurre e eseguire il push del limite di finestra verso il basso se partitionSpec è vuoto
- [SPARK-42686] [SC-125292][core] Rinviare la formattazione per i messaggi di debug in TaskMemoryManager
- [SPARK-42756] [SC-125443][connect][PYTHON] Funzione helper per convertire il proto literal in un valore nel client Python
-
[SPARK-42793] [SC-125627][connect]
connect
modulo richiedebuild_profile_flags
-
[SPARK-42701] [SC-125192][sql] Aggiungere la funzione
try_aes_decrypt()
- [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame non funziona con uno schema non annullabile
- [SPARK-42733] [SC-125542][connect][Followup] Scrivere senza percorso o tabella
- [SPARK-42777] [SC-125525][sql] Supporta la conversione delle statistiche del catalogo TimestampNTZ in statistiche del piano
-
[SPARK-42770] [SC-125558][connect] Aggiungere
truncatedTo(ChronoUnit.MICROS)
per fare in modo cheSQLImplicitsTestSuite
nel test giornaliero di Java 17 passi il compito di GA - [SPARK-42752] [SC-125550][pyspark][SQL] Rendere stampabili le eccezioni PySpark durante l'inizializzazione
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Supportare il metodo getActiveSession nella sessione di connessione a spark
-
[SPARK-42755] [SC-125442][connect] Conversione del valore letterale del fattore in
connect-common
- [SPARK-42747] [SC-125399][ml] Correzione dello stato interno errato di LoR e AFT
- [SPARK-42740] [SC-125439][sql] Correggere il bug che scostamento o paging del pushdown non è valido per alcuni dialetti predefiniti
- [SPARK-42745] [SC-125332][sql] Improved AliasAwareOutputExpression funziona con DSv2
- [SPARK-42743] [SC-125330][sql] Supportare l'analisi delle colonne TimestampNTZ
- [SPARK-42721] [SC-125371][connect] Intercettore di log RPC
- [SPARK-42691] [SC-125397][connect][PYTHON] Implement Dataset.semanticHash
- [SPARK-42688] [SC-124922][Connect] Rinominare Connect proto Request client_id in session_id
- [SPARK-42310] [SC-122792][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][core] Ottimizzare le routine Utils.bytesToString
- [SPARK-42725] [SC-125296][connect][PYTHON] Consentire a LiteralExpression di supportare parametri di tipo array
- [SPARK-42702] [SC-125293][spark-42623][SQL] Supportare le query parametrizzate in sottoquery e CTE
- [SPARK-42697] [SC-125189][webui] Correzione della funzione /api/v1/applications per restituire il tempo totale di attività anziché 0 nel campo relativa alla durata
- [SPARK-42733] [SC-125278][connect][PYTHON] Risolve il problema di DataFrameWriter.save per funzionare senza il parametro path
- [SPARK-42376] [SC-124928][ss] Introdurre la propagazione delle filigrane tra gli operatori
- [SPARK-42710] [SC-125205][connect][PYTHON] Rinominare il prototipo FrameMap in MapPartitions
- [SPARK-37099] [SC-123542][sql] Introdurre il limite di gruppo per la finestra per il filtro basato sul rango per ottimizzare il calcolo dei primi-k
- [SPARK-42630] [SC-125207][connect][PYTHON] Introdurre UnparsedDataType e ritardare l'analisi della stringa DDL fino a quando SparkConnectClient non è disponibile
- [SPARK-42690] [SC-125193][connect] Implementare funzioni di analisi CSV/JSON per il client Scala
-
[SPARK-42709] [SC-125172][python] Rimuovere il presupposto della disponibilità di
__file__
- [SPARK-42318] [SC-122648][spark-42319][SQL] Assegnare il nome a LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Aggiungere il supporto per il tipo di dati del parser json "timestamp_ltz" come TimestampType
- [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def Schema() non deve memorizzare nella cache lo schema
- [SPARK-42643] [SC-125152][connect][PYTHON] Registrare funzioni Java (aggregate) definite dall'utente
- [SPARK-42656] [SC-125177][connect][Followup] Correggere lo script spark-connect
- [SPARK-41516] [SC-123899] [SQL] Consentire ai dialetti jdbc di eseguire l'override della query usata per creare una tabella
- [SPARK-41725] [SC-124396][connect] Esecuzione immediata di DF.sql()
-
[SPARK-42687] [SC-124896][ss] Messaggio di errore migliorato per l'operazione
pivot
non supportata in Streaming - [SPARK-42676] [SC-124809][ss] Scrivi checkpoint temporanei per le query di streaming nel file system locale anche se il FS predefinito è impostato in modo diverso.
- [SPARK-42303] [SC-122644][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][sql] Assicurarsi di avere almeno un'unità di tempo dopo "interval"
- [SPARK-42649] [SC-124576][core] Rimuovere l'intestazione della licenza Apache standard dall'inizio dei file di origine di terze parti
- [SPARK-42611] [SC-124395][sql] Inserire controlli di lunghezza char/varchar per i campi interni durante la risoluzione
- [SPARK-42419] [SC-124019][connect][PYTHON] Eseguire la migrazione nel framework di errore per la Colonna API di Spark Connect.
- [SPARK-42637] [SC-124522][connect] Aggiungi SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Modificare l'alias per i tipi numpy deprecati e rimossi
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver chiuderà solo Hive sessionState avviato
- [SPARK-42593] [SC-124405][ps] Deprecate & rimuovere le API che verranno rimosse in pandas 2.0.
- [SPARK-41870] [SC-124402][connect][PYTHON] Correggere createDataFrame per gestire i nomi di colonna duplicati
- [SPARK-42569] [SC-124379][connect] Generare eccezioni per l'API di sessione non supportata
- [SPARK-42631] [SC-124526][connect] Supportare estensioni personalizzate nel client Scala
- [SPARK-41868] [SC-124387][connect][PYTHON] Correggere createDataFrame per supportare le durate
- [SPARK-42572] [SC-124171][sql][SS] Correzione del comportamento per StateStoreProvider.validateStateRowFormat
Aggiornamenti di manutenzione
Vedere Aggiornamenti di manutenzione di Databricks Runtime 13.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Librerie Python installate
Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttoken | 2.2.1 | attrs | 21.4.0 | richiamata | 0.2.0 |
beautifulsoup4 | 4.11.1 | nero | 22.6.0 | bleach | 4.1.0 |
freccia | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | clic | 8.0.4 | cryptography | 37.0.1 |
ciclatore | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | decoratore | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown (conversione da docstring a markdown) | 0.12 | punti di ingresso | 0.4 |
eseguendo | 1.2.0 | panoramica delle facette | 1.0.3 | fastjsonschema | 2.16.3 |
blocco del file | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | portachiavi | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
confezionamento | 21.3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | vittima | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | cuscino | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | richieste | 2.28.1 | corda | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | sei | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
tenacia | 8.1.0 | terminato | 0.13.1 | percorso di test | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | aggiornamenti-automatici | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | ruota | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2023-02-10.
Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
---|---|---|---|---|---|
freccia | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports (retroportazioni) | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit 64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1.0-8 | vivacità | 1.1.3 |
Scopa | 1.0.3 | bslib | 0.4.2 | cashmere | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | classe | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | orologio | 0.6.1 | gruppo | 2.1.4 |
codetools | 0.2-19 | spazio colore | 2.1-0 | commonmark | 1.8.1 |
compilatore | 4.2.2 | configurazione | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credenziali | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | insiemi di dati | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | descrizione | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | sommario | 0.6.31 | illuminazione dall'alto | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
puntini di sospensione | 0.3.2 | valutare | 0,20 | fan | 1.0.4 |
colori | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
N/A (without additional context or clarification, this cannot be accurately translated). | 1.0.0 | foreach | 1.5.2 | straniero | 0.8-82 |
forgia | 0.2.0 | fs | 1.6.1 | futuro | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | generici | 0.1.3 |
gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | variabili globali | 0.16.2 |
colla | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafica | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | casco da cantiere | 1.2.0 | rifugio | 2.5.1 |
highr | 0,10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
Etichettatura | 0.4.2 | più tardi | 1.3.0 | Reticolo | 0.20-45 |
lava | 1.7.1 | ciclo di vita | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1,5 |
Massa | 7.3-58.2 | Matrice | 1.5-1 | memorizzare | 2.0.1 |
metodi | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallelo | 4.2.2 |
parallelamente | 1.34.0 | pilastro | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Avanzamento | 1.2.2 |
progressr | 0.13.0 | promesse | 1.2.0.1 | proto | 1.0.0 |
intermediario | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | ricette | 1.0.4 |
rivincita | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
esempio riproducibile (reprex) | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | informazioni sulla sessione | 1.2.2 | Forma | 1.4.6 |
lucido | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | spaziale | 7.3-15 | Spline | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistiche | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
Sopravvivenza | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | formattazione del testo | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | cambio dell'ora | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | strumenti | 4.2.2 | tzdb | 0.3.0 |
verificatore di URL | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.3 |
utils | 4.2.2 | uuid (Identificatore Unico Universale) | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vruum | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Librerie Java e Scala installate (versione del cluster di Scala 2.12)
identificativo del gruppo | ID dell'artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | flusso | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-nativi |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | sistema_nativo-java | 1.1-indigeni |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativi |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-nativi |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | annotazioni_propense_agli_errori | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profilatore | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configurazione | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressore d'aria | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metriche-verifichegesundità | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metriche-servlet | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | attivazione | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API di transazione | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | modello di stringa | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | formato freccia | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | freccia-vettore | 11.0.0 |
org.apache.avro | Avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | framework del curatore | 2.13.0 |
org.apache.curator | ricette dei curatori | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | annotazioni del pubblico | 0.13.0 |
org.apache.zookeeper | guardiano dello zoo | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | WebSocket-API | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotazioni | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Spessori | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfaccia di test | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatibile con scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |