Databricks Runtime 12.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, consultare note di rilascio delle versioni e compatibilità di Databricks Runtime.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 12.1, basate su Apache Spark 3.3.1.
Databricks ha rilasciato questa versione a gennaio 2023.
Miglioramenti e nuove funzionalità
- Funzionalità delle tabelle Delta Lake supportate per la gestione dei protocolli
- L'I/O predittivo per gli aggiornamenti è disponibile in anteprima pubblica
- Esplora cataloghi è ora disponibile per tutti gli utenti
- Supporto per più operatori con stato in una singola query di streaming
- Il supporto per i buffer del protocollo è disponibile in anteprima pubblica
- Supporto per l'autenticazione del Confluent Schema Registry
- Supporto per la condivisione della cronologia delle tabelle con Delta Sharing
- Supporto per lo streaming con Delta Sharing
- Versione delle tabelle con timestamp ora supportata per le tabelle Delta Sharing nei cataloghi
- supporto per "WHEN NOT MATCHED BY SOURCE" per MERGE INTO
- raccolta di statistiche ottimizzate per CONVERT TO DELTA
- Supporto per il ripristino delle tabelle nel Unity Catalog
Funzionalità delle tabelle Delta Lake supportate per la gestione dei protocolli
Azure Databricks ha introdotto il supporto per le funzionalità di tabella Delta Lake, che introducono flag granulari che specificano quali funzionalità sono supportate da una determinata tabella. Si veda In che modo Azure Databricks gestisce la compatibilità delle funzionalità di Delta Lake?.
L'I/O predittivo per gli aggiornamenti è attualmente in anteprima pubblica
L'I/O predittivo accelera ora le operazioni DELETE
, MERGE
e UPDATE
per le tabelle Delta con vettori di eliminazione attivati nell'elaborazione abilitata per Photon. Si veda Che cos'è l'I/O predittivo?.
Esplora cataloghi è ora disponibile per tutti gli utenti
Esplora cataloghi è ora disponibile per tutti gli utenti di Azure Databricks quando si usa Databricks Runtime 7.3 LTS e versioni successive.
Supporto per più operatori con stato in una singola query di streaming
Gli utenti possono ora concatenare gli operatori con stato in modalità di aggiunta nella query di streaming. Non tutti gli operatori sono completamente supportati. Join basato sull'intervallo di tempo del flusso-flusso e flatMapGroupsWithState
non consente il collegamento di altri operatori con stato.
Il supporto per i buffer del protocollo è disponibile in anteprima pubblica
È possibile usare le from_protobuf
funzioni e to_protobuf
per scambiare dati tra tipi binari e struct. Vedere Buffer del protocollo di lettura e scrittura.
Supporto per l'autenticazione del Confluent Schema Registry
L'integrazione di Azure Databricks con il Confluent Schema Registry ora supporta gli indirizzi esterni del registro degli schemi con autenticazione. Questa funzionalità è disponibile per from_avro
, to_avro
, from_protobuf
, e to_protobuf
. Vedi Protobuf o Avro.
Supporto per la condivisione della cronologia delle tabelle con le condivisioni di Delta Sharing.
È ora possibile condividere una tabella con cronologia completa usando la condivisione delta, consentendo ai destinatari di eseguire query di spostamento del tempo ed eseguire query sulla tabella usando Spark Structured Streaming.
WITH HISTORY
è consigliato invece di CHANGE DATA FEED
, anche se quest'ultimo continua a essere supportato. Vedere ALTER SHARE e Aggiungere tabelle a una condivisione.
Supporto per lo streaming con le condivisioni Delta Sharing
Spark Structured Streaming ora funziona con il formato deltasharing
in una tabella di condivisione delta di origine condivisa con WITH HISTORY
.
Versione delle tabelle che usa il timestamp ora supportato per le tabelle di Condivisione Delta nei cataloghi
È ora possibile usare la sintassi TIMESTAMP AS OF
SQL nelle SELECT
istruzioni per specificare la versione di una tabella Delta Sharing montata in un catalogo. Le tabelle devono essere condivise tramite WITH HISTORY
.
Supporto per WHEN NOT MATCHED BY SOURCE per MERGE INTO
È ora possibile aggiungere WHEN NOT MATCHED BY SOURCE
clausole a MERGE INTO
per aggiornare o eliminare righe nella tabella scelta che non hanno corrispondenze nella tabella di origine in base alla condizione di merge. La nuova clausola è disponibile in SQL, Python, Scala e Java. Vedere MERGE INTO.
Raccolta di statistiche ottimizzate per CONVERT TO DELTA
La raccolta di statistiche per l'operazione CONVERT TO DELTA
è ora molto più veloce. In questo modo si riduce il numero di carichi che potrebbero utilizzare NO STATISTICS
per l'efficienza.
Supporto del catalogo Unity per l'annullamento del drop delle tabelle
Questa funzionalità è stata inizialmente rilasciata in anteprima pubblica. È disponibile a partire dal 25 ottobre 2023.
È ora possibile eliminare una tabella gestita o esterna eliminata in uno schema esistente entro sette giorni dall'eliminazione. Vedere UNDROP e SHOW TABLES DROPPED.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- filelock da 3.8.0 a 3.8.2
- platformdirs dalla versione 2.5.4 alla versione 2.6.0
- setuptools da 58.0.4 a 61.2.0
- Librerie R aggiornate:
- Librerie Java aggiornate:
- io.delta.delta-sharing-spark_2.12 da 0.5.2 a 0.6.2
- org.apache.hive.hive-storage-api dalla versione 2.7.2 alla versione 2.8.1
- org.apache.parquet-column da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.common da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet-jackson da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.tukaani.xz da 1.8 a 1.9
Apache Spark
Databricks Runtime 12.1 include Apache Spark 3.3.1. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 12.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-41405] [SC-119769][12.1.0] Ripristinare "[SC-119411][sql] Centralizzare la logica di risoluzione delle colonne" e "[SC-117170][spark-41338][SQL] Risolvere riferimenti esterni e colonne normali nello stesso batch di analizzatori"
- [SPARK-41405] [SC-119411][sql] Centralizzare la logica di risoluzione delle colonne
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand deve impostare correttamente il flag di sovrascrittura
- [SPARK-41659] [SC-119526][connect][12.X] Abilitare doctest in pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][sql] Risolvere la regressione delle prestazioni del lettore ORC a causa della funzionalità del valore predefinito
- [SPARK-41807] [SC-119399][core] Rimuovere la classe di errore inesistente: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] Assegnare il nome a _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][connect] Dedurre i nomi da un elenco di dizionari in SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Spostare la documentazione e lo script di Spark Connect in dev/ e nella documentazione di Python
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Configurare il modulo client iniziale per Spark Connect
- [SPARK-41365] [SC-118498][ui][3.3] La pagina UI delle fasi non viene caricata per il proxy in un ambiente yarn specifico
-
[SPARK-41481] [SC-118150][core][SQL] Riutilizzare
INVALID_TYPED_LITERAL
anziché_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305][sql] Rivedere la gestione delle espressioni con stato
-
[SPARK-41726] [SC-119248][sql] Rimuovere
OptimizedCreateHiveTableAsSelectCommand
-
[SPARK-41271] [SC-118648][sc-118348][SQL] Supportare query SQL con parametri per
sql()
-
[SPARK-41066] [SC-119344][connect][PYTHON] Implementare
DataFrame.sampleBy
eDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402][sc-119012][SQL][tutti i test] Eseguire il pull di scrittura v1 in WriteFiles
-
[SPARK-41565] [SC-118868][sql] Aggiungere la classe di errore
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][sql] La funzione DECODE restituisce risultati errati quando viene passato NULL
- [SPARK-41554] [SC-119274] correzione della modifica della scala decimale quando la scala è diminuita di m...
-
[SPARK-41065] [SC-119324][connect][PYTHON] Implementare
DataFrame.freqItems
eDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Riabilitare i test della documentazione e aggiungere l'alias di colonna mancante al conteggio()
-
[SPARK-41069] [SC-119310][connect][PYTHON] Implementare
DataFrame.approxQuantile
eDataFrame.stat.approxQuantile
-
[SPARK-41809] [SC-119367][connect][PYTHON] Rendere la funzione
from_json
compatibile con lo Schema dei Tipi di Dati -
[SPARK-41804] [SC-119382][sql] Scegliere le dimensioni corrette degli elementi in
InterpretedUnsafeProjection
per l'array di UDT - [SPARK-41786] [SC-119308][connect][PYTHON] Eliminare le duplicazioni delle funzioni di supporto
-
[SPARK-41745] [SC-119378][spark-41789][12.X] Rendi
createDataFrame
supportare un elenco di righe - [SPARK-41344] [SC-119217][sql] Rendere più chiaro l'errore quando la tabella non è stata trovata nel catalogo SupportsCatalogOptions
-
[SPARK-41803] [SC-119380][connect][PYTHON] Aggiungere una funzione mancante
log(arg1, arg2)
- [SPARK-41808] [SC-119356][connect][PYTHON] Fare in modo che le funzioni JSON supportino le opzioni
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Rendere
__getitem__
in grado di supportare filtro e selezione. - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Rendi l'operazione di colonna compatibile con None
- [SPARK-41440] [SC-119279][connect][PYTHON] Evitare l'operatore cache per un campione generico.
-
[SPARK-41785] [SC-119290][connect][PYTHON] Implementare
GroupedData.mean
- [SPARK-41629] [SC-119276][connect] Supporto per le estensioni del protocollo in relazione ed espressioni
-
[SPARK-41417] [SC-118000][core][SQL] Rinominare
_LEGACY_ERROR_TEMP_0019
inINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][connect][12.X] Gestione corretta degli errori per il server Spark Connect/Client
- [SPARK-41292] [SC-119357][connect][12.X] Finestra di supporto nello spazio dei nomi pyspark.sql.window
- [SPARK-41493] [SC-119339][connect][PYTHON] Rendi le funzioni csv compatibili con le opzioni
- [SPARK-39591] [SC-118675][ss] Monitoraggio dei progressi asincrono
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implementare
Column.{withField, dropFields}
-
[SPARK-41068] [SC-119268][connect][PYTHON] Implementare
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][connect][12.X] Abilitare doctest in pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][connect] Mescolare ClientId nella cache di SparkSession
-
[SPARK-41354] [SC-119194][connect] Aggiungere
RepartitionByExpression
a proto -
[SPARK-41784] [SC-119289][connect][PYTHON] Aggiungere
__rmod__
mancanti nella colonna - [SPARK-41778] [SC-119262][sql] Aggiungere un alias "reduce" a ArrayAggregate
-
[SPARK-41067] [SC-119171][connect][PYTHON] Implementare
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][connect][PYTHON] Rendere il nome operativo interno della stringa coerente con FunctionRegistry
- [SPARK-41734] [SC-119160][connect] Aggiungi un messaggio padre per catalogo
- [SPARK-41742] [SC-119263] Supporto di df.groupBy().agg({"*":"count"})
-
[SPARK-41761] [SC-119213][connect][PYTHON] Correzione di operazioni aritmetiche:
__neg__
,__pow__
,__rpow__
-
[SPARK-41062] [SC-118182][sql] Rinominare
UNSUPPORTED_CORRELATED_REFERENCE
inCORRELATED_REFERENCE
-
[SPARK-41751] [SC-119211][connect][PYTHON] Correzione
Column.{isNull, isNotNull, eqNullSafe}
-
[SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implementare la funzione
unwrap_udt
-
[SPARK-41333] [SC-119195][spark-41737] Implementare
GroupedData.{min, max, avg, sum}
-
[SPARK-41751] [SC-119206][connect][PYTHON] Correzione
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][sql] Supportare la risoluzione implicita degli alias delle colonne laterali nell'aggregazione
- [SPARK-41529] [SC-119207][connect][12.X] Implementare SparkSession.stop
-
[SPARK-41729] [SC-119205][core][SQL][12.x] Rinominare
_LEGACY_ERROR_TEMP_0011
inUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078][connect][12.X] Deduplicate stampa e repr_html nel LogicalPlan
-
[SPARK-41740] [SC-119169][connect][PYTHON] Implementa
Column.name
- [SPARK-41733] [SC-119163][sql][SS] Applicare la potatura basata su modelli ad albero per la regola ResolveWindowTime
- [SPARK-41732] [SC-119157][sql][SS] Applicare l'eliminazione basata su criteri ad albero per la regola SessionWindowing
- [SPARK-41498] [SC-119018] Propagare i metadati tramite Union
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implementare la funzione di accesso alla colonna
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_types
deve supportareArrayType
-
[SPARK-41473] [SC-119092][connect][PYTHON] Implementare la funzione
format_number
- [SPARK-41707] [SC-119141][connect][12.X] Implementare l'API Catalogo in Spark Connect
-
[SPARK-41710] [SC-119062][connect][PYTHON] Implementare
Column.between
- [SPARK-41235] [SC-119088][sql][PYTHON]Funzione di ordine superiore: implementazione di array_compact
-
[SPARK-41518] [SC-118453][sql] Assegnare un nome alla classe di errore
_LEGACY_ERROR_TEMP_2422
-
[SPARK-41723] [SC-119091][connect][PYTHON] Implementare la
sequence
funzione - [SPARK-41703] [SC-119060][connect][PYTHON] Combinare NullType e typed_null in Literal
- [SPARK-41722] [SC-119090][connect][PYTHON] Implementare 3 funzioni finestra temporale attualmente mancanti
- [SPARK-41503] [SC-119043][connect][PYTHON] Implementare funzioni di trasformazione delle partizioni
- [SPARK-41413] [SC-118968][sql] Evitare l'operazione di shuffling in Storage-Partitioned Join quando le chiavi di partizione non corrispondono, ma le espressioni di join sono compatibili
-
[SPARK-41700] [SC-119046][connect][PYTHON] Rimuovere
FunctionBuilder
-
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_types
deve supportareMapType
- [SPARK-41702] [SC-119049][connect][PYTHON] Aggiungere operazioni di colonna non valide
- [SPARK-41660] [SC-118866][sql] Propaga solo le colonne di metadati se vengono usate
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] Implementare un enumeratore per raccogliere le metriche del conteggio delle righe per mapper
- [SPARK-41647] [SC-119064][connect][12.X] Deduplicate docstrings in pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][connect][PYTHON] Aggiungere supporto per l'operazione della colonna
decimal
-
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementare
rollup
,cube
epivot
- [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] Deduplicate docstrings in pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][connect][PYTHON] Spostare le espressioni in expressions.py
- [SPARK-41687] [SC-118949][connect] Deduplicare le stringhe di documentazione in pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][connect] Deduplicare le docstring in pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][connect] Factor GroupedData out per group.py
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementare funzioni di
Window
-
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Implementare il supporto per l'operazione Column
datetime
- [SPARK-41672] [SC-118929][connect][PYTHON] Abilitare le funzioni deprecate
-
[SPARK-41673] [SC-118932][connect][PYTHON] Implementare
Column.astype
-
[SPARK-41364] [SC-118865][connect][PYTHON] Implementare
broadcast
funzione - [SPARK-41648] [SC-118914][connect][12.X] Deduplicare le docstring in pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][connect][12.X] Eliminare i duplicati dei docstrings in pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][connect][12.X] Deduplicare le docstring in pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementare le altre funzioni Lambda
- [SPARK-41441] [SC-118557][sql] Consentire la generazione senza l'output figlio richiesto per gestire riferimenti esterni
- [SPARK-41669] [SC-118923][sql] Eliminazione anticipata in canCollapseExpressions
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : Remove ScalaReflectionLock from SchemaConverters
-
[SPARK-41464] [SC-118861][connect][PYTHON] Implementare
DataFrame.to
-
[SPARK-41434] [SC-118857][connect][PYTHON] Implementazione iniziale
LambdaFunction
- [SPARK-41539] [SC-118802][sql] Eseguire il remap delle statistiche e dei vincoli rispetto all'output nel piano logico per LogicalRDD
- [SPARK-41396] [SC-118786][sql][PROTOBUF] Supporto per i campi OneOf e controlli di ricorsione
- [SPARK-41528] [SC-118769][connect][12.X] Unire il namespace di Spark Connect e dell'API PySpark
- [SPARK-41568] [SC-118715][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][connect][PYTHON] Implementare
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Aggiungere Spark Connect e protobuf in setup.py con le dipendenze specificate
- [SPARK-27561] [SC-101081][12.x][SQL] Supportare la risoluzione implicita degli alias di colonna laterale in Project
-
[SPARK-41535] [SC-118645][sql] Impostare null correttamente per i campi intervallo di calendario in
InterpretedUnsafeProjection
eInterpretedMutableProjection
- [SPARK-40687] [SC-118439][sql] Supporta la maschera dati predefinita 'mask'
- [SPARK-41520] [SC-118440][sql] Dividere il TreePattern AND_OR per separare i TreePattern AND e OR
- [SPARK-41349] [SC-118668][connect][PYTHON] Implementare DataFrame.hint
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_types
dovrebbe supportare il StructType. -
[SPARK-41334] [SC-118549][connect][PYTHON] Spostare
SortOrder
proto dalle relazioni alle espressioni - [SPARK-41387] [SC-118450][ss] Verifica l'offset finale corrente dalla sorgente di dati Kafka per Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][core][SQL] Rinominare
_LEGACY_ERROR_TEMP_1180
inUNEXPECTED_INPUT_TYPE
e rimuovere_LEGACY_ERROR_TEMP_1179
-
[SPARK-41319] [SC-118441][connect][PYTHON] Implementare la colonna. {when, otherwise} e Function
when
conUnresolvedFunction
- [SPARK-41541] [SC-118460][sql] Correzione della chiamata al metodo figlio errato in SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][connect][PYTHON] Implementare
DataFrame.subtract
- [SPARK-41248] [SC-118436][sc-118303][SQL] Aggiungere "spark.sql.json.enablePartialResults" per abilitare/disabilitare i risultati parziali JSON
- [SPARK-41437] Ripristinare "[SC-117601][sql] Non ottimizzare la query di input due volte per il fallback di scrittura v1"
- [SPARK-41472] [SC-118352][connect][PYTHON] Implementare il resto delle funzioni stringa/binarie
-
[SPARK-41526] [SC-118355][connect][PYTHON] Implementare
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Migliorare la speculazione tramite le metriche delle attività di fase.
- [SPARK-41524] [SC-118399][ss] Differenziare SQLConf ed extraOptions in StateStoreConf per il loro utilizzo in RocksDBConf
- [SPARK-41465] [SC-118381][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] Il supporto di LongToUnsafeRowMap ignora le chiavi duplicate
-
[SPARK-41409] [SC-118302][core][SQL] Rinominare
_LEGACY_ERROR_TEMP_1043
inWRONG_NUM_ARGS.WITHOUT_SUGGESTION
-
[SPARK-41438] [SC-118344][connect][PYTHON] Implementare
DataFrame.colRegex
- [SPARK-41437] [SC-117601][sql] Non ottimizzare la query di input due volte per il ritorno alla scrittura v1
-
[SPARK-41314] [SC-117172][sql] Assegnare un nome alla classe di errore
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression per il supporto di DataType
- [SPARK-41448] [SC-118046] Rendere coerenti gli ID dei job MR in FileBatchWriter e FileFormatWriter
- [SPARK-41456] [SC-117970][sql] Migliorare le prestazioni di try_cast
-
[SPARK-41495] [SC-118125][connect][PYTHON] Implementare
collection
funzioni: P~Z - [SPARK-41478] [SC-118167][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] Ristrutturare il messaggio di errore per
NUM_COLUMNS_MISMATCH
per renderlo più generico -
[SPARK-41404] [SC-118016][sql] Rifattorizzare
ColumnVectorUtils#toBatch
per fare in modo che il testColumnarBatchSuite#testRandomRows
dei tipi di dati più primitivi - [SPARK-41468] [SC-118044][sql] Correzione della gestione di PlanExpression in EquivalentExpressions
- [SPARK-40775] [SC-118045][sql] Correzione delle voci di descrizione duplicate per la scansione dei file V2
- [SPARK-41492] [SC-118042][connect][PYTHON] Implementare le funzioni MISC
- [SPARK-41459] [SC-118005][sql] correggere l'output vuoto del log delle operazioni del server Thrift
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjection
deve usaresetDecimal
per impostare valori Null per i decimali in una riga non sicura - [SPARK-41376] [SC-117840][core][3.3] Correggere la logica di verifica Netty preferDirectBufs all'avvio dell'executor
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementare funzioni
collection
: E~M -
[SPARK-41389] [SC-117426][core][SQL] Riutilizzare
WRONG_NUM_ARGS
anziché_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920][sql] I tipi Data e Timestamp possono essere convertiti in TimestampNTZ
-
[SPARK-41435] [SC-117810][sql] Modificare per chiamare
invalidFunctionArgumentsError
percurdate()
quandoexpressions
non è vuoto - [SPARK-41187] [SC-118030][core] Problema di memoria LiveExecutor in AppStatusListener quando si verifica la perdita di Executor
- [SPARK-41360] [SC-118083][core] Evitare la nuova registrazione di BlockManager se l'executor è stato perso
- [SPARK-41378] [SC-117686][sql] Supporto per le statistiche delle colonne in DS v2
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Eseguire l'override di prettyName di StringDecode
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementare funzioni di data/timestamp
- [SPARK-41329] [SC-117975][connect] Risolvere le importazioni circolari in Spark Connect
- [SPARK-41477] [SC-118025][connect][PYTHON] Dedurre correttamente il tipo di dati dei numeri interi letterali
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x] Rendi
createDataFrame
compatibile con lo schema e con più tipi di dataset di input - [SPARK-41475] [SC-117997][connect] Correggere errore del comando lint-scala e typo
- [SPARK-38277] [SC-117799][ss] Cancellare il batch di scrittura dopo il commit dell'archivio stati di RocksDB
- [SPARK-41375] [SC-117801][ss] Evitare la versione più recente di KafkaSourceOffset vuota
-
[SPARK-41412] [SC-118015][connect] Implementare
Column.cast
-
[SPARK-41439] [SC-117893][connect][PYTHON] Implementare
DataFrame.melt
eDataFrame.unpivot
- [SPARK-41399] [SC-118007][sc-117474][CONNECT] Rifattorizzare i test relativi alle colonne in test_connect_column
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] La colonna deve supportare l'operatore !=
- [SPARK-40697] [SC-117806][sc-112787][SQL] Aggiungere il riempimento dei caratteri sul lato di lettura per coprire i file di dati esterni
- [SPARK-41349] [SC-117594][connect][12.X] Implementazione di DataFrame.hint
- [SPARK-41338] [SC-117170][sql] Risolvere i riferimenti esterni e le colonne normali nella stessa fase di analisi
-
[SPARK-41436] [SC-117805][connect][PYTHON] Implementare funzioni di
collection
: A~C - [SPARK-41445] [SC-117802][connect] Implementare DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][sql]
to_char
deve restituire null quando format è null - [SPARK-41444] [SC-117796][connect] Supporto read.json()
- [SPARK-41398] [SC-117508][sql] Rilassare i vincoli su Storage-Partitioned Join quando le chiavi di partizione dopo il filtraggio a runtime non corrispondono
-
[SPARK-41228] [SC-117169][sql] Rinominare & Migliorare il messaggio di errore per
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. -
[SPARK-41381] [SC-117593][connect][PYTHON] Implementare funzioni di
count_distinct
esum_distinct
- [SPARK-41433] [SC-117596][connect] Rendere configurabile Max Arrow BatchSize
- [SPARK-41397] [SC-117590][connect][PYTHON] Implementare parte delle funzioni di tipo stringa/binario
-
[SPARK-41382] [SC-117588][connect][PYTHON] Implementare
product
funzione -
[SPARK-41403] [SC-117595][connect][PYTHON] Implementare
DataFrame.describe
- [SPARK-41366] [SC-117580][connect] DF.groupby.agg() deve essere compatibile
- [SPARK-41369] [SC-117584][connect] Aggiungere la connessione comune al file JAR ombreggiato dei server
- [SPARK-41411] [SC-117562][ss] Correzione di bug per il supporto alla filigrana dell'operatore multi-stato
- [SPARK-41176] [SC-116630][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementare funzioni di aggregazione
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementare funzioni normali
- [SPARK-41305] [SC-117411][connect] Migliorare la documentazione per il comando Proto
- [SPARK-41372] [SC-117427][connect][PYTHON] Implement DataFrame TempView
- [SPARK-41379] [SC-117420][ss][PYTHON] Fornire una sessione Spark clonata nel DataFrame nella funzione utente per il sink foreachBatch in PySpark
- [SPARK-41373] [SC-117405][sql][ERROR] Rinominare CAST_WITH_FUN_SUGGESTION in CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][sql] Refactoring del metodo
ColumnVectorUtils#populate
per usarePhysicalDataType
anzichéDataType
- [SPARK-41355] [SC-117423][sql] Soluzione alternativa al problema di convalida del nome della tabella Hive
-
[SPARK-41390] [SC-117429][sql] Aggiornare lo script usato per generare la funzione
register
inUDFRegistration
-
[SPARK-41206] [SC-117233][sc-116381][SQL] Rinominare la classe di errore
_LEGACY_ERROR_TEMP_1233
inCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementare funzioni matematiche
- [SPARK-40970] [SC-117308][connect][PYTHON] Supportare Lista[Colonna] per l'argomento Join su
- [SPARK-41345] [SC-117178][connect] Aggiungi suggerimento a Connect Proto
- [SPARK-41226] [SC-117194][sql][12.x] Refattorizzare i tipi di Spark introducendo tipi fisici
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Aggiungere il supporto di base per DataFrameWriter
- [SPARK-41347] [SC-117173][connect] Aggiungi Cast al proto dell'Espressione
- [SPARK-41323] [SC-117128][sql] Supporto per 'current_schema'
- [SPARK-41339] [SC-117171][sql] Chiudere e ricreare il batch di scrittura RocksDB piuttosto che cancellare semplicemente.
- [SPARK-41227] [SC-117165][connect][PYTHON] Implementare il cross join tra dataframe
-
[SPARK-41346] [SC-117176][connect][PYTHON] Implementare funzioni di
asc
edesc
- [SPARK-41343] [SC-117166][connect] Spostare l'analisi di FunctionName sul lato server
- [SPARK-41321] [SC-117163][connect] Campo di destinazione del supporto per UnresolvedStar
-
[SPARK-41237] [SC-117167][sql] Riutilizzare la classe di errore
UNSUPPORTED_DATATYPE
per_LEGACY_ERROR_TEMP_0030
-
[SPARK-41309] [SC-116916][sql] Riutilizzare
INVALID_SCHEMA.NON_STRING_LITERAL
anziché_LEGACY_ERROR_TEMP_1093
-
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Ottimizzare l'uso del costruttore di
StructType
- [SPARK-41335] [SC-117135][connect][PYTHON] Supporto di IsNull e IsNotNull nella colonna
-
[SPARK-41332] [SC-117131][connect][PYTHON] Correzione
nullOrdering
inSortOrder
- [SPARK-41325] [SC-117132][connect][12.X] Correzione dell'assenza della funzione avg() per GroupBy in DF
-
[SPARK-41327] [SC-117137][core] Correzione
SparkStatusTracker.getExecutorInfos
tramite l'opzione On/OffHeapStorageMemory info -
[SPARK-41315] [SC-117129][connect][PYTHON] Implementare
DataFrame.replace
eDataFrame.na.replace
- [SPARK-41328] [SC-117125][connect][PYTHON] Aggiungere API logica e stringa alla Colonna
-
[SPARK-41331] [SC-117127][connect][PYTHON] Aggiungere
orderBy
edrop_duplicates
-
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternal
assicurarsi che il blocco venga sbloccato normalmente - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Rifattorizzazione “Column” per compatibilità API
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implement DataFrame.withColumnRenamed
-
[SPARK-41221] [SC-116607][sql] Aggiungere la classe di errore
INVALID_FORMAT
- [SPARK-41272] [SC-116742][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql] Riutilizzare
INVALID_SCHEMA
anziché_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][python][SS][12.x] Convertire le istanze di NumPy in tipi primitivi di Python nell'aggiornamento di GroupState
-
[SPARK-41174] [SC-116609][core][SQL] Propagare una classe di errore agli utenti per
format
non valido dito_binary()
- [SPARK-41264] [SC-116971][connect][PYTHON] Fare in modo che Literal supporti più tipi di dati
- [SPARK-41326] [SC-116972] [CONNECT] Correggere l'assenza di input nella deduplicazione
- [SPARK-41316] [SC-116900][sql] Abilitare la ricorsione di coda laddove possibile
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Supportare le espressioni stringa nel filtro.
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implement DataFrame.withColumn(s)
- [SPARK-41182] [SC-116632][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] Eseguire la migrazione degli errori delle opzioni della mappa nelle classi di errore
- [SPARK-40940] [SC-115993][12.x] Rimuovere i controlli degli operatori con più stati per le query di streaming.
- [SPARK-41310] [SC-116885][connect][PYTHON] Implementare la funzione DataFrame.toDF
- [SPARK-41179] [SC-116631][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] BHJ LeftAnti non aggiorna numOutputRows quando codegen è disabilitato
-
[SPARK-41148] [SC-116878][connect][PYTHON] Implementare
DataFrame.dropna
eDataFrame.na.drop
-
[SPARK-41217] [SC-116380][sql] Aggiungere la classe di errore
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][connect][PYTHON] Migliorare DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Comportamento omogeneo per SparkSession.range()
- [SPARK-41306] [SC-116860][connect] Migliorare la documentazione di Connect Expression proto
- [SPARK-41280] [SC-116733][connect] Implementazione di DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Uno schema non impostato viene interpretato come Schema
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Rename RemoteSparkSession
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas non deve restituire il dataframe pandas facoltativo
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explain
devono stampare e restituire None - [SPARK-41278] [SC-116732][connect] Eliminare il QualifiedAttribute non usato in Expression.proto
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Rimuovere la conversione delle collezioni ridondanti in base al codice Scala 2.13
- [SPARK-41261] [SC-116718][python][SS] Correzione del problema relativo a applyInPandasWithState quando le colonne delle chiavi di raggruppamento non vengono posizionate in ordine dal più presto
- [SPARK-40872] [SC-116717][3.3] Ritorno al blocco shuffle originale quando un blocco shuffle push-unito è di dimensioni pari a zero
- [SPARK-41114] [SC-116628][connect] Supportare i dati locali per LocalRelation
-
[SPARK-41216] [SC-116678][connect][PYTHON] Implementare
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][connect][PYTHON] Supportare più tipi di dati predefiniti
-
[SPARK-41230] [SC-116674][connect][PYTHON] Rimuovere
str
dal tipo di espressione aggregate - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implementazione di raccolta basata su freccia ottimizzata per lo streaming da server a client
- [SPARK-41222] [SC-116625][connect][PYTHON] Unificare le definizioni di digitazione
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Disabilitare le funzioni non supportate.
-
[SPARK-41201] [SC-116526][connect][PYTHON] Implementare
DataFrame.SelectExpr
nel client Python - [SPARK-41203] [SC-116258] [CONNECT] Supporto di Dataframe.tansform nel client Python.
-
[SPARK-41213] [SC-116375][connect][PYTHON] Implementare
DataFrame.__repr__
eDataFrame.dtypes
-
[SPARK-41169] [SC-116378][connect][PYTHON] Implementare
DataFrame.drop
- [SPARK-41172] [SC-116245][sql] Eseguire la migrazione dell'errore di riferimento ambiguo a una classe di errore
- [SPARK-41122] [SC-116141][connect] Explain API può supportare diverse modalità
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] Migliorare l'inferenza del tipo PySpark nel metodo _merge_type
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Omogenizzare la versione protobuf nel server di connessione Spark per usare la stessa versione principale.
- [SPARK-35531] [SC-116409][sql] Aggiornare le statistiche della tabella hive senza conversione non necessaria
- [SPARK-41154] [SC-116289][sql] Memorizzazione nella cache delle relazioni non corretta per le query con specifiche di spostamento temporale
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementare
DataFrame.isEmpty
-
[SPARK-41135] [SC-116400][sql] Rinominare
UNSUPPORTED_EMPTY_LOCATION
inINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][sql] Aggiungere un'API di estensione per pianificare la normalizzazione per la memorizzazione nella cache
- [SPARK-41054] [SC-116447][ui][CORE] Supporta RocksDB come KVStore nell'interfaccia utente live
- [SPARK-38550] [SC-115223]Ripristina "[SQL][core] Usare un archivio basato su disco per salvare altre informazioni di debug per l'interfaccia utente dinamica"
-
[SPARK-41173] [SC-116185][sql] Spostare
require()
fuori dai costruttori di espressioni di stringa - [SPARK-41188] [SC-116242][core][ML] Impostare executorEnv OMP_NUM_THREADS come spark.task.cpus per impostazione predefinita per i processi JVM dell'executor spark
-
[SPARK-41130] [SC-116155][sql] Rinominare
OUT_OF_DECIMAL_TYPE_RANGE
inNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] Ridurre la conversione delle raccolte quando si crea AttributeMap
-
[SPARK-41139] [SC-115983][sql] Migliorare la classe di errore:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][protobuf] Richiedere l'ombreggiatura per il file JAR della classe Java, migliorare la gestione degli errori
- [SPARK-40999] [SC-116168] Propagazione degli hint nelle sottoquery
- [SPARK-41017] [SC-116054][sql] Supportare l'eliminazione delle colonne con più filtri non deterministici
- [SPARK-40834] [SC-114773][sql] Usare SparkListenerSQLExecutionEnd per tenere traccia dello stato SQL finale nell'interfaccia utente
-
[SPARK-41118] [SC-116027][sql]
to_number
/try_to_number
deve restituirenull
quando il formato ènull
- [SPARK-39799] [SC-115984][sql] DataSourceV2: Interfaccia di visualizzazione del catalogo
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Evitare di incorporare Spark Connect nella versione binaria di Apache Spark
- [SPARK-41048] [SC-116043][sql] Migliorare il partizionamento e l'ordinamento dell'output con la cache AQE
- [SPARK-41198] [SC-116256][ss] Correzione delle metriche nella query di streaming con origine di streaming CTE e DSv1
- [SPARK-41199] [SC-116244][ss] Correzione dei problemi di metriche quando l'origine di streaming DSv1 e l'origine di streaming DSv2 vengono co-usate
- [SPARK-40957] [SC-116261][sc-114706] Aggiungere nella cache della memoria in HDFSMetadataLog
- [SPARK-40940] Ripristinare "[SC-115993] Rimuovere i controlli degli operatori con più stati per le query di streaming".
-
[SPARK-41090] [SC-116040][sql] Generare un'eccezione per
db_name.view_name
durante la creazione della visualizzazione temporanea dall'API del set di dati -
[SPARK-41133] [SC-116085][sql] Integrare
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
inNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][sc-111442][CONNECT] Commit di dump del codice 9
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect build as Driver Plugin with Shaded Dependencies
- [SPARK-41096] [SC-115812][sql] Supporto alla lettura del tipo parquet FIXED_LEN_BYTE_ARRAY
-
[SPARK-41140] [SC-115879][sql] Rinominare la classe di errore
_LEGACY_ERROR_TEMP_2440
inINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][sql] Mancata corrispondenza tra FileSourceScanExec e Orc e ParquetFileFormat per la produzione di output a colonne
- [SPARK-41155] [SC-115991][sql] Aggiungere un messaggio di errore a SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Rimuovere i verificatori degli operatori multistatali per le query di streaming.
-
[SPARK-41098] [SC-115790][sql] Rinominare
GROUP_BY_POS_REFERS_AGG_EXPR
inGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][sql] Migrare le verifiche fallite del tipo di formattazione dei numeri nelle classi di errore
-
[SPARK-41059] [SC-115658][sql] Rinominare
_LEGACY_ERROR_TEMP_2420
inNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][sql] Convertire DATATYPE_MISMATCH.UNSPECIFIED_FRAME in INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][sql] Rinominare
_LEGACY_ERROR_TEMP_0055
inUNCLOSED_BRACKETED_COMMENT
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 12.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Librerie Python installate
Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttoken | 2.0.5 |
attrs | 21.4.0 | richiamata | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | nero | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | normalizzatore di charset | 2.0.4 |
clic | 8.0.4 | criptografia | 3.4.8 | ciclista | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decoratore | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0.11 | punti di ingresso | 0.4 | eseguendo | 0.8.3 |
panoramica-delle-facce | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | imballaggio | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | capro espiatorio | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | cuscino | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
richieste | 2.27.1 | requests-unixsocket | 0.2.0 | corda | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
sei | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacia | 8.0.1 |
terminato | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
aggiornamenti automatici (unattended-upgrades) | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | codifiche web | 0.5.1 | whatthepatch | 1.0.3 |
ruota | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-11-11.
Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
---|---|---|---|---|---|
freccia | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | infusione | 1.0-8 | vivacità | 1.1.3 |
Scopa | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
cron | 2.3-58 | classe | 7.3-20 | cli | 3.4.1 |
clipr | 0.8.0 | orologio | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-18 | spazio colore | 2.0-3 | commonmark | 1.8.1 |
compilatore | 4.2.2 | configurazione | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credenziali | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | insiemi di dati | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Descrizione | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | sommario | 0.6.30 | illuminato verso il basso | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
puntini di sospensione | 0.3.2 | valutare | 0,18 | fansi | 1.0.3 |
colori | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | straniero | 0.8-82 |
forgia | 0.2.0 | fs | 1.5.2 | futuro | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generici | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
colla | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafiche | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | casco da cantiere | 1.2.0 | rifugio | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
Etichettatura | 0.4.2 | più tardi | 1.3.0 | reticolo | 0.20-45 |
lava | 1.7.0 | ciclo di vita | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
Massa | 7.3-58 | Matrice | 1.5-1 | memoise | 2.0.1 |
metodi | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallelo | 4.2.2 |
parallelamente | 1.32.1 | pilastro | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | elogio | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Avanzamento | 1.2.2 |
progressr | 0.11.0 | promesse | 1.2.0.1 | prototipo | 1.0.0 |
proxy | 0.4-27 | P.S. | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | ricette | 1.0.3 |
rivincita | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
esempio riproducibile | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | informazioni sulla sessione | 1.2.2 | Forma | 1.4.6 |
lucido | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | spaziale | 7.3-11 | Spline | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistiche | 4.2.2 |
stats4 | 4.2.2 | perizoma | 1.7.8 | stringr | 1.4.1 |
Sopravvivenza | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | formattazione del testo | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | cambio dell'ora | 0.1.1 | tempoData | 4021.106 |
tinytex | 0,42 | strumenti | 4.2.2 | tzdb | 0.3.0 |
controllore di url | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utils | 4.2.2 | identificatore univoco universale (UUID) | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | brum | 1.6.0 | waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Librerie Java e Scala installate (versione cluster di Scala 2.12)
ID del gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Amazon Kinesis Client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flusso | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | nucleo | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilatore | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configurazione | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | Collezioni-Comuni | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressore d'aria | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriche-verifiche dello stato di salute | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | attivazione | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API di transazione | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | freccia-vettore | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | colonna parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | codifica del formato Parquet | 1.12.3-databricks-0002 |
org.apache.parquet | strutture formato parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | annotazioni del pubblico | 0.13.0 |
org.apache.zookeeper | custode dello zoo | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotazioni | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Spessori | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfaccia di test | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |