Condividi tramite


Databricks Runtime 12.1 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, consultare note di rilascio delle versioni e compatibilità di Databricks Runtime.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 12.1, basate su Apache Spark 3.3.1.

Databricks ha rilasciato questa versione a gennaio 2023.

Miglioramenti e nuove funzionalità

Funzionalità delle tabelle Delta Lake supportate per la gestione dei protocolli

Azure Databricks ha introdotto il supporto per le funzionalità di tabella Delta Lake, che introducono flag granulari che specificano quali funzionalità sono supportate da una determinata tabella. Si veda In che modo Azure Databricks gestisce la compatibilità delle funzionalità di Delta Lake?.

L'I/O predittivo per gli aggiornamenti è attualmente in anteprima pubblica

L'I/O predittivo accelera ora le operazioni DELETE, MERGE e UPDATE per le tabelle Delta con vettori di eliminazione attivati nell'elaborazione abilitata per Photon. Si veda Che cos'è l'I/O predittivo?.

Esplora cataloghi è ora disponibile per tutti gli utenti

Esplora cataloghi è ora disponibile per tutti gli utenti di Azure Databricks quando si usa Databricks Runtime 7.3 LTS e versioni successive.

Supporto per più operatori con stato in una singola query di streaming

Gli utenti possono ora concatenare gli operatori con stato in modalità di aggiunta nella query di streaming. Non tutti gli operatori sono completamente supportati. Join basato sull'intervallo di tempo del flusso-flusso e flatMapGroupsWithState non consente il collegamento di altri operatori con stato.

Il supporto per i buffer del protocollo è disponibile in anteprima pubblica

È possibile usare le from_protobuf funzioni e to_protobuf per scambiare dati tra tipi binari e struct. Vedere Buffer del protocollo di lettura e scrittura.

Supporto per l'autenticazione del Confluent Schema Registry

L'integrazione di Azure Databricks con il Confluent Schema Registry ora supporta gli indirizzi esterni del registro degli schemi con autenticazione. Questa funzionalità è disponibile per from_avro, to_avro, from_protobuf, e to_protobuf. Vedi Protobuf o Avro.

Supporto per la condivisione della cronologia delle tabelle con le condivisioni di Delta Sharing.

È ora possibile condividere una tabella con cronologia completa usando la condivisione delta, consentendo ai destinatari di eseguire query di spostamento del tempo ed eseguire query sulla tabella usando Spark Structured Streaming. WITH HISTORY è consigliato invece di CHANGE DATA FEED, anche se quest'ultimo continua a essere supportato. Vedere ALTER SHARE e Aggiungere tabelle a una condivisione.

Supporto per lo streaming con le condivisioni Delta Sharing

Spark Structured Streaming ora funziona con il formato deltasharing in una tabella di condivisione delta di origine condivisa con WITH HISTORY.

Versione delle tabelle che usa il timestamp ora supportato per le tabelle di Condivisione Delta nei cataloghi

È ora possibile usare la sintassi TIMESTAMP AS OF SQL nelle SELECT istruzioni per specificare la versione di una tabella Delta Sharing montata in un catalogo. Le tabelle devono essere condivise tramite WITH HISTORY.

Supporto per WHEN NOT MATCHED BY SOURCE per MERGE INTO

È ora possibile aggiungere WHEN NOT MATCHED BY SOURCE clausole a MERGE INTO per aggiornare o eliminare righe nella tabella scelta che non hanno corrispondenze nella tabella di origine in base alla condizione di merge. La nuova clausola è disponibile in SQL, Python, Scala e Java. Vedere MERGE INTO.

Raccolta di statistiche ottimizzate per CONVERT TO DELTA

La raccolta di statistiche per l'operazione CONVERT TO DELTA è ora molto più veloce. In questo modo si riduce il numero di carichi che potrebbero utilizzare NO STATISTICS per l'efficienza.

Supporto del catalogo Unity per l'annullamento del drop delle tabelle

Questa funzionalità è stata inizialmente rilasciata in anteprima pubblica. È disponibile a partire dal 25 ottobre 2023.

È ora possibile eliminare una tabella gestita o esterna eliminata in uno schema esistente entro sette giorni dall'eliminazione. Vedere UNDROP e SHOW TABLES DROPPED.

Aggiornamenti della libreria

  • Librerie Python aggiornate:
    • filelock da 3.8.0 a 3.8.2
    • platformdirs dalla versione 2.5.4 alla versione 2.6.0
    • setuptools da 58.0.4 a 61.2.0
  • Librerie R aggiornate:
  • Librerie Java aggiornate:
    • io.delta.delta-sharing-spark_2.12 da 0.5.2 a 0.6.2
    • org.apache.hive.hive-storage-api dalla versione 2.7.2 alla versione 2.8.1
    • org.apache.parquet-column da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.common da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet-jackson da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.tukaani.xz da 1.8 a 1.9

Apache Spark

Databricks Runtime 12.1 include Apache Spark 3.3.1. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 12.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Ripristinare "[SC-119411][sql] Centralizzare la logica di risoluzione delle colonne" e "[SC-117170][spark-41338][SQL] Risolvere riferimenti esterni e colonne normali nello stesso batch di analizzatori"
  • [SPARK-41405] [SC-119411][sql] Centralizzare la logica di risoluzione delle colonne
  • [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand deve impostare correttamente il flag di sovrascrittura
  • [SPARK-41659] [SC-119526][connect][12.X] Abilitare doctest in pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][sql] Risolvere la regressione delle prestazioni del lettore ORC a causa della funzionalità del valore predefinito
  • [SPARK-41807] [SC-119399][core] Rimuovere la classe di errore inesistente: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Assegnare il nome a _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][connect] Dedurre i nomi da un elenco di dizionari in SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Spostare la documentazione e lo script di Spark Connect in dev/ e nella documentazione di Python
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] Configurare il modulo client iniziale per Spark Connect
  • [SPARK-41365] [SC-118498][ui][3.3] La pagina UI delle fasi non viene caricata per il proxy in un ambiente yarn specifico
  • [SPARK-41481] [SC-118150][core][SQL] Riutilizzare INVALID_TYPED_LITERAL anziché _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][sql] Rivedere la gestione delle espressioni con stato
  • [SPARK-41726] [SC-119248][sql] Rimuovere OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][sc-118348][SQL] Supportare query SQL con parametri per sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] Implementare DataFrame.sampleBy e DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][sc-119012][SQL][tutti i test] Eseguire il pull di scrittura v1 in WriteFiles
  • [SPARK-41565] [SC-118868][sql] Aggiungere la classe di errore UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] La funzione DECODE restituisce risultati errati quando viene passato NULL
  • [SPARK-41554] [SC-119274] correzione della modifica della scala decimale quando la scala è diminuita di m...
  • [SPARK-41065] [SC-119324][connect][PYTHON] Implementare DataFrame.freqItems e DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Riabilitare i test della documentazione e aggiungere l'alias di colonna mancante al conteggio()
  • [SPARK-41069] [SC-119310][connect][PYTHON] Implementare DataFrame.approxQuantile e DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][connect][PYTHON] Rendere la funzione from_json compatibile con lo Schema dei Tipi di Dati
  • [SPARK-41804] [SC-119382][sql] Scegliere le dimensioni corrette degli elementi in InterpretedUnsafeProjection per l'array di UDT
  • [SPARK-41786] [SC-119308][connect][PYTHON] Eliminare le duplicazioni delle funzioni di supporto
  • [SPARK-41745] [SC-119378][spark-41789][12.X] Rendi createDataFrame supportare un elenco di righe
  • [SPARK-41344] [SC-119217][sql] Rendere più chiaro l'errore quando la tabella non è stata trovata nel catalogo SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][connect][PYTHON] Aggiungere una funzione mancante log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] Fare in modo che le funzioni JSON supportino le opzioni
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Rendere __getitem__ in grado di supportare filtro e selezione.
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Rendi l'operazione di colonna compatibile con None
  • [SPARK-41440] [SC-119279][connect][PYTHON] Evitare l'operatore cache per un campione generico.
  • [SPARK-41785] [SC-119290][connect][PYTHON] Implementare GroupedData.mean
  • [SPARK-41629] [SC-119276][connect] Supporto per le estensioni del protocollo in relazione ed espressioni
  • [SPARK-41417] [SC-118000][core][SQL] Rinominare _LEGACY_ERROR_TEMP_0019 in INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] Gestione corretta degli errori per il server Spark Connect/Client
  • [SPARK-41292] [SC-119357][connect][12.X] Finestra di supporto nello spazio dei nomi pyspark.sql.window
  • [SPARK-41493] [SC-119339][connect][PYTHON] Rendi le funzioni csv compatibili con le opzioni
  • [SPARK-39591] [SC-118675][ss] Monitoraggio dei progressi asincrono
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implementare Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][connect][PYTHON] Implementare DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Abilitare doctest in pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][connect] Mescolare ClientId nella cache di SparkSession
  • [SPARK-41354] [SC-119194][connect] Aggiungere RepartitionByExpression a proto
  • [SPARK-41784] [SC-119289][connect][PYTHON] Aggiungere __rmod__ mancanti nella colonna
  • [SPARK-41778] [SC-119262][sql] Aggiungere un alias "reduce" a ArrayAggregate
  • [SPARK-41067] [SC-119171][connect][PYTHON] Implementare DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] Rendere il nome operativo interno della stringa coerente con FunctionRegistry
  • [SPARK-41734] [SC-119160][connect] Aggiungi un messaggio padre per catalogo
  • [SPARK-41742] [SC-119263] Supporto di df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][connect][PYTHON] Correzione di operazioni aritmetiche: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][sql] Rinominare UNSUPPORTED_CORRELATED_REFERENCE in CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Correzione Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implementare la funzione unwrap_udt
  • [SPARK-41333] [SC-119195][spark-41737] Implementare GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Correzione Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][sql] Supportare la risoluzione implicita degli alias delle colonne laterali nell'aggregazione
  • [SPARK-41529] [SC-119207][connect][12.X] Implementare SparkSession.stop
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Rinominare _LEGACY_ERROR_TEMP_0011 in UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][connect][12.X] Deduplicate stampa e repr_html nel LogicalPlan
  • [SPARK-41740] [SC-119169][connect][PYTHON] Implementa Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Applicare la potatura basata su modelli ad albero per la regola ResolveWindowTime
  • [SPARK-41732] [SC-119157][sql][SS] Applicare l'eliminazione basata su criteri ad albero per la regola SessionWindowing
  • [SPARK-41498] [SC-119018] Propagare i metadati tramite Union
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implementare la funzione di accesso alla colonna
  • [SPARK-41736] [SC-119161][connect][PYTHON] pyspark_types_to_proto_types deve supportare ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Implementare la funzione format_number
  • [SPARK-41707] [SC-119141][connect][12.X] Implementare l'API Catalogo in Spark Connect
  • [SPARK-41710] [SC-119062][connect][PYTHON] Implementare Column.between
  • [SPARK-41235] [SC-119088][sql][PYTHON]Funzione di ordine superiore: implementazione di array_compact
  • [SPARK-41518] [SC-118453][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] Implementare la sequence funzione
  • [SPARK-41703] [SC-119060][connect][PYTHON] Combinare NullType e typed_null in Literal
  • [SPARK-41722] [SC-119090][connect][PYTHON] Implementare 3 funzioni finestra temporale attualmente mancanti
  • [SPARK-41503] [SC-119043][connect][PYTHON] Implementare funzioni di trasformazione delle partizioni
  • [SPARK-41413] [SC-118968][sql] Evitare l'operazione di shuffling in Storage-Partitioned Join quando le chiavi di partizione non corrispondono, ma le espressioni di join sono compatibili
  • [SPARK-41700] [SC-119046][connect][PYTHON] Rimuovere FunctionBuilder
  • [SPARK-41706] [SC-119094][connect][PYTHON] pyspark_types_to_proto_types deve supportare MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Aggiungere operazioni di colonna non valide
  • [SPARK-41660] [SC-118866][sql] Propaga solo le colonne di metadati se vengono usate
  • [SPARK-41637] [SC-119003][sql] ORDER BY ALL
  • [SPARK-41513] [SC-118945][sql] Implementare un enumeratore per raccogliere le metriche del conteggio delle righe per mapper
  • [SPARK-41647] [SC-119064][connect][12.X] Deduplicate docstrings in pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][connect][PYTHON] Aggiungere supporto per l'operazione della colonna decimal
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementare rollup, cube e pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY ALL
  • [SPARK-41645] [SC-119057][connect][12.X] Deduplicate docstrings in pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][connect][PYTHON] Spostare le espressioni in expressions.py
  • [SPARK-41687] [SC-118949][connect] Deduplicare le stringhe di documentazione in pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][connect] Deduplicare le docstring in pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][connect] Factor GroupedData out per group.py
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementare funzioni di Window
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Implementare il supporto per l'operazione Column datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Abilitare le funzioni deprecate
  • [SPARK-41673] [SC-118932][connect][PYTHON] Implementare Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] Implementare broadcast funzione
  • [SPARK-41648] [SC-118914][connect][12.X] Deduplicare le docstring in pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][connect][12.X] Eliminare i duplicati dei docstrings in pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][connect][12.X] Deduplicare le docstring in pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementare le altre funzioni Lambda
  • [SPARK-41441] [SC-118557][sql] Consentire la generazione senza l'output figlio richiesto per gestire riferimenti esterni
  • [SPARK-41669] [SC-118923][sql] Eliminazione anticipata in canCollapseExpressions
  • [SPARK-41639] [SC-118927][sql][PROTOBUF] : Remove ScalaReflectionLock from SchemaConverters
  • [SPARK-41464] [SC-118861][connect][PYTHON] Implementare DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Implementazione iniziale LambdaFunction
  • [SPARK-41539] [SC-118802][sql] Eseguire il remap delle statistiche e dei vincoli rispetto all'output nel piano logico per LogicalRDD
  • [SPARK-41396] [SC-118786][sql][PROTOBUF] Supporto per i campi OneOf e controlli di ricorsione
  • [SPARK-41528] [SC-118769][connect][12.X] Unire il namespace di Spark Connect e dell'API PySpark
  • [SPARK-41568] [SC-118715][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][connect][PYTHON] Implementare DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Aggiungere Spark Connect e protobuf in setup.py con le dipendenze specificate
  • [SPARK-27561] [SC-101081][12.x][SQL] Supportare la risoluzione implicita degli alias di colonna laterale in Project
  • [SPARK-41535] [SC-118645][sql] Impostare null correttamente per i campi intervallo di calendario in InterpretedUnsafeProjection e InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][sql] Supporta la maschera dati predefinita 'mask'
  • [SPARK-41520] [SC-118440][sql] Dividere il TreePattern AND_OR per separare i TreePattern AND e OR
  • [SPARK-41349] [SC-118668][connect][PYTHON] Implementare DataFrame.hint
  • [SPARK-41546] [SC-118541][connect][PYTHON] pyspark_types_to_proto_types dovrebbe supportare il StructType.
  • [SPARK-41334] [SC-118549][connect][PYTHON] Spostare SortOrder proto dalle relazioni alle espressioni
  • [SPARK-41387] [SC-118450][ss] Verifica l'offset finale corrente dalla sorgente di dati Kafka per Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][core][SQL] Rinominare _LEGACY_ERROR_TEMP_1180 in UNEXPECTED_INPUT_TYPE e rimuovere _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Implementare la colonna. {when, otherwise} e Function when con UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Correzione della chiamata al metodo figlio errato in SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][connect][PYTHON] Implementare DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Aggiungere "spark.sql.json.enablePartialResults" per abilitare/disabilitare i risultati parziali JSON
  • [SPARK-41437] Ripristinare "[SC-117601][sql] Non ottimizzare la query di input due volte per il fallback di scrittura v1"
  • [SPARK-41472] [SC-118352][connect][PYTHON] Implementare il resto delle funzioni stringa/binarie
  • [SPARK-41526] [SC-118355][connect][PYTHON] Implementare Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Migliorare la speculazione tramite le metriche delle attività di fase.
  • [SPARK-41524] [SC-118399][ss] Differenziare SQLConf ed extraOptions in StateStoreConf per il loro utilizzo in RocksDBConf
  • [SPARK-41465] [SC-118381][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][sql] Il supporto di LongToUnsafeRowMap ignora le chiavi duplicate
  • [SPARK-41409] [SC-118302][core][SQL] Rinominare _LEGACY_ERROR_TEMP_1043 in WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Implementare DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Non ottimizzare la query di input due volte per il ritorno alla scrittura v1
  • [SPARK-41314] [SC-117172][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression per il supporto di DataType
  • [SPARK-41448] [SC-118046] Rendere coerenti gli ID dei job MR in FileBatchWriter e FileFormatWriter
  • [SPARK-41456] [SC-117970][sql] Migliorare le prestazioni di try_cast
  • [SPARK-41495] [SC-118125][connect][PYTHON] Implementare collection funzioni: P~Z
  • [SPARK-41478] [SC-118167][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] Ristrutturare il messaggio di errore per NUM_COLUMNS_MISMATCH per renderlo più generico
  • [SPARK-41404] [SC-118016][sql] Rifattorizzare ColumnVectorUtils#toBatch per fare in modo che il test ColumnarBatchSuite#testRandomRows dei tipi di dati più primitivi
  • [SPARK-41468] [SC-118044][sql] Correzione della gestione di PlanExpression in EquivalentExpressions
  • [SPARK-40775] [SC-118045][sql] Correzione delle voci di descrizione duplicate per la scansione dei file V2
  • [SPARK-41492] [SC-118042][connect][PYTHON] Implementare le funzioni MISC
  • [SPARK-41459] [SC-118005][sql] correggere l'output vuoto del log delle operazioni del server Thrift
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjection deve usare setDecimal per impostare valori Null per i decimali in una riga non sicura
  • [SPARK-41376] [SC-117840][core][3.3] Correggere la logica di verifica Netty preferDirectBufs all'avvio dell'executor
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementare funzioni collection: E~M
  • [SPARK-41389] [SC-117426][core][SQL] Riutilizzare WRONG_NUM_ARGS anziché _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][sql] I tipi Data e Timestamp possono essere convertiti in TimestampNTZ
  • [SPARK-41435] [SC-117810][sql] Modificare per chiamare invalidFunctionArgumentsError per curdate() quando expressions non è vuoto
  • [SPARK-41187] [SC-118030][core] Problema di memoria LiveExecutor in AppStatusListener quando si verifica la perdita di Executor
  • [SPARK-41360] [SC-118083][core] Evitare la nuova registrazione di BlockManager se l'executor è stato perso
  • [SPARK-41378] [SC-117686][sql] Supporto per le statistiche delle colonne in DS v2
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Eseguire l'override di prettyName di StringDecode
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementare funzioni di data/timestamp
  • [SPARK-41329] [SC-117975][connect] Risolvere le importazioni circolari in Spark Connect
  • [SPARK-41477] [SC-118025][connect][PYTHON] Dedurre correttamente il tipo di dati dei numeri interi letterali
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] Rendi createDataFrame compatibile con lo schema e con più tipi di dataset di input
  • [SPARK-41475] [SC-117997][connect] Correggere errore del comando lint-scala e typo
  • [SPARK-38277] [SC-117799][ss] Cancellare il batch di scrittura dopo il commit dell'archivio stati di RocksDB
  • [SPARK-41375] [SC-117801][ss] Evitare la versione più recente di KafkaSourceOffset vuota
  • [SPARK-41412] [SC-118015][connect] Implementare Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Implementare DataFrame.melt e DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Rifattorizzare i test relativi alle colonne in test_connect_column
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] La colonna deve supportare l'operatore !=
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Aggiungere il riempimento dei caratteri sul lato di lettura per coprire i file di dati esterni
  • [SPARK-41349] [SC-117594][connect][12.X] Implementazione di DataFrame.hint
  • [SPARK-41338] [SC-117170][sql] Risolvere i riferimenti esterni e le colonne normali nella stessa fase di analisi
  • [SPARK-41436] [SC-117805][connect][PYTHON] Implementare funzioni di collection: A~C
  • [SPARK-41445] [SC-117802][connect] Implementare DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][sql] to_char deve restituire null quando format è null
  • [SPARK-41444] [SC-117796][connect] Supporto read.json()
  • [SPARK-41398] [SC-117508][sql] Rilassare i vincoli su Storage-Partitioned Join quando le chiavi di partizione dopo il filtraggio a runtime non corrispondono
  • [SPARK-41228] [SC-117169][sql] Rinominare & Migliorare il messaggio di errore per COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][connect][PYTHON] Implementare funzioni di count_distinct e sum_distinct
  • [SPARK-41433] [SC-117596][connect] Rendere configurabile Max Arrow BatchSize
  • [SPARK-41397] [SC-117590][connect][PYTHON] Implementare parte delle funzioni di tipo stringa/binario
  • [SPARK-41382] [SC-117588][connect][PYTHON] Implementare product funzione
  • [SPARK-41403] [SC-117595][connect][PYTHON] Implementare DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() deve essere compatibile
  • [SPARK-41369] [SC-117584][connect] Aggiungere la connessione comune al file JAR ombreggiato dei server
  • [SPARK-41411] [SC-117562][ss] Correzione di bug per il supporto alla filigrana dell'operatore multi-stato
  • [SPARK-41176] [SC-116630][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementare funzioni di aggregazione
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementare funzioni normali
  • [SPARK-41305] [SC-117411][connect] Migliorare la documentazione per il comando Proto
  • [SPARK-41372] [SC-117427][connect][PYTHON] Implement DataFrame TempView
  • [SPARK-41379] [SC-117420][ss][PYTHON] Fornire una sessione Spark clonata nel DataFrame nella funzione utente per il sink foreachBatch in PySpark
  • [SPARK-41373] [SC-117405][sql][ERROR] Rinominare CAST_WITH_FUN_SUGGESTION in CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Refactoring del metodo ColumnVectorUtils#populate per usare PhysicalDataType anziché DataType
  • [SPARK-41355] [SC-117423][sql] Soluzione alternativa al problema di convalida del nome della tabella Hive
  • [SPARK-41390] [SC-117429][sql] Aggiornare lo script usato per generare la funzione register in UDFRegistration
  • [SPARK-41206] [SC-117233][sc-116381][SQL] Rinominare la classe di errore _LEGACY_ERROR_TEMP_1233 in COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementare funzioni matematiche
  • [SPARK-40970] [SC-117308][connect][PYTHON] Supportare Lista[Colonna] per l'argomento Join su
  • [SPARK-41345] [SC-117178][connect] Aggiungi suggerimento a Connect Proto
  • [SPARK-41226] [SC-117194][sql][12.x] Refattorizzare i tipi di Spark introducendo tipi fisici
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Aggiungere il supporto di base per DataFrameWriter
  • [SPARK-41347] [SC-117173][connect] Aggiungi Cast al proto dell'Espressione
  • [SPARK-41323] [SC-117128][sql] Supporto per 'current_schema'
  • [SPARK-41339] [SC-117171][sql] Chiudere e ricreare il batch di scrittura RocksDB piuttosto che cancellare semplicemente.
  • [SPARK-41227] [SC-117165][connect][PYTHON] Implementare il cross join tra dataframe
  • [SPARK-41346] [SC-117176][connect][PYTHON] Implementare funzioni di asc e desc
  • [SPARK-41343] [SC-117166][connect] Spostare l'analisi di FunctionName sul lato server
  • [SPARK-41321] [SC-117163][connect] Campo di destinazione del supporto per UnresolvedStar
  • [SPARK-41237] [SC-117167][sql] Riutilizzare la classe di errore UNSUPPORTED_DATATYPE per _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][sql] Riutilizzare INVALID_SCHEMA.NON_STRING_LITERAL anziché _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Ottimizzare l'uso del costruttore di StructType
  • [SPARK-41335] [SC-117135][connect][PYTHON] Supporto di IsNull e IsNotNull nella colonna
  • [SPARK-41332] [SC-117131][connect][PYTHON] Correzione nullOrdering in SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] Correzione dell'assenza della funzione avg() per GroupBy in DF
  • [SPARK-41327] [SC-117137][core] Correzione SparkStatusTracker.getExecutorInfos tramite l'opzione On/OffHeapStorageMemory info
  • [SPARK-41315] [SC-117129][connect][PYTHON] Implementare DataFrame.replace e DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Aggiungere API logica e stringa alla Colonna
  • [SPARK-41331] [SC-117127][connect][PYTHON] Aggiungere orderBy e drop_duplicates
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal assicurarsi che il blocco venga sbloccato normalmente
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Rifattorizzazione “Column” per compatibilità API
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implement DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][sql] Aggiungere la classe di errore INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] Riutilizzare INVALID_SCHEMA anziché _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][python][SS][12.x] Convertire le istanze di NumPy in tipi primitivi di Python nell'aggiornamento di GroupState
  • [SPARK-41174] [SC-116609][core][SQL] Propagare una classe di errore agli utenti per format non valido di to_binary()
  • [SPARK-41264] [SC-116971][connect][PYTHON] Fare in modo che Literal supporti più tipi di dati
  • [SPARK-41326] [SC-116972] [CONNECT] Correggere l'assenza di input nella deduplicazione
  • [SPARK-41316] [SC-116900][sql] Abilitare la ricorsione di coda laddove possibile
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Supportare le espressioni stringa nel filtro.
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implement DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] Eseguire la migrazione degli errori delle opzioni della mappa nelle classi di errore
  • [SPARK-40940] [SC-115993][12.x] Rimuovere i controlli degli operatori con più stati per le query di streaming.
  • [SPARK-41310] [SC-116885][connect][PYTHON] Implementare la funzione DataFrame.toDF
  • [SPARK-41179] [SC-116631][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] BHJ LeftAnti non aggiorna numOutputRows quando codegen è disabilitato
  • [SPARK-41148] [SC-116878][connect][PYTHON] Implementare DataFrame.dropna e DataFrame.na.drop
  • [SPARK-41217] [SC-116380][sql] Aggiungere la classe di errore FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] Migliorare DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Comportamento omogeneo per SparkSession.range()
  • [SPARK-41306] [SC-116860][connect] Migliorare la documentazione di Connect Expression proto
  • [SPARK-41280] [SC-116733][connect] Implementazione di DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] Uno schema non impostato viene interpretato come Schema
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Rename RemoteSparkSession
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas non deve restituire il dataframe pandas facoltativo
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain devono stampare e restituire None
  • [SPARK-41278] [SC-116732][connect] Eliminare il QualifiedAttribute non usato in Expression.proto
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Rimuovere la conversione delle collezioni ridondanti in base al codice Scala 2.13
  • [SPARK-41261] [SC-116718][python][SS] Correzione del problema relativo a applyInPandasWithState quando le colonne delle chiavi di raggruppamento non vengono posizionate in ordine dal più presto
  • [SPARK-40872] [SC-116717][3.3] Ritorno al blocco shuffle originale quando un blocco shuffle push-unito è di dimensioni pari a zero
  • [SPARK-41114] [SC-116628][connect] Supportare i dati locali per LocalRelation
  • [SPARK-41216] [SC-116678][connect][PYTHON] Implementare DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] Supportare più tipi di dati predefiniti
  • [SPARK-41230] [SC-116674][connect][PYTHON] Rimuovere str dal tipo di espressione aggregate
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Implementazione di raccolta basata su freccia ottimizzata per lo streaming da server a client
  • [SPARK-41222] [SC-116625][connect][PYTHON] Unificare le definizioni di digitazione
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Disabilitare le funzioni non supportate.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Implementare DataFrame.SelectExpr nel client Python
  • [SPARK-41203] [SC-116258] [CONNECT] Supporto di Dataframe.tansform nel client Python.
  • [SPARK-41213] [SC-116375][connect][PYTHON] Implementare DataFrame.__repr__ e DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Implementare DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] Eseguire la migrazione dell'errore di riferimento ambiguo a una classe di errore
  • [SPARK-41122] [SC-116141][connect] Explain API può supportare diverse modalità
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] Migliorare l'inferenza del tipo PySpark nel metodo _merge_type
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Omogenizzare la versione protobuf nel server di connessione Spark per usare la stessa versione principale.
  • [SPARK-35531] [SC-116409][sql] Aggiornare le statistiche della tabella hive senza conversione non necessaria
  • [SPARK-41154] [SC-116289][sql] Memorizzazione nella cache delle relazioni non corretta per le query con specifiche di spostamento temporale
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementare DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Rinominare UNSUPPORTED_EMPTY_LOCATION in INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Aggiungere un'API di estensione per pianificare la normalizzazione per la memorizzazione nella cache
  • [SPARK-41054] [SC-116447][ui][CORE] Supporta RocksDB come KVStore nell'interfaccia utente live
  • [SPARK-38550] [SC-115223]Ripristina "[SQL][core] Usare un archivio basato su disco per salvare altre informazioni di debug per l'interfaccia utente dinamica"
  • [SPARK-41173] [SC-116185][sql] Spostare require() fuori dai costruttori di espressioni di stringa
  • [SPARK-41188] [SC-116242][core][ML] Impostare executorEnv OMP_NUM_THREADS come spark.task.cpus per impostazione predefinita per i processi JVM dell'executor spark
  • [SPARK-41130] [SC-116155][sql] Rinominare OUT_OF_DECIMAL_TYPE_RANGE in NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Ridurre la conversione delle raccolte quando si crea AttributeMap
  • [SPARK-41139] [SC-115983][sql] Migliorare la classe di errore: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Richiedere l'ombreggiatura per il file JAR della classe Java, migliorare la gestione degli errori
  • [SPARK-40999] [SC-116168] Propagazione degli hint nelle sottoquery
  • [SPARK-41017] [SC-116054][sql] Supportare l'eliminazione delle colonne con più filtri non deterministici
  • [SPARK-40834] [SC-114773][sql] Usare SparkListenerSQLExecutionEnd per tenere traccia dello stato SQL finale nell'interfaccia utente
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_number deve restituire null quando il formato è null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: Interfaccia di visualizzazione del catalogo
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Evitare di incorporare Spark Connect nella versione binaria di Apache Spark
  • [SPARK-41048] [SC-116043][sql] Migliorare il partizionamento e l'ordinamento dell'output con la cache AQE
  • [SPARK-41198] [SC-116256][ss] Correzione delle metriche nella query di streaming con origine di streaming CTE e DSv1
  • [SPARK-41199] [SC-116244][ss] Correzione dei problemi di metriche quando l'origine di streaming DSv1 e l'origine di streaming DSv2 vengono co-usate
  • [SPARK-40957] [SC-116261][sc-114706] Aggiungere nella cache della memoria in HDFSMetadataLog
  • [SPARK-40940] Ripristinare "[SC-115993] Rimuovere i controlli degli operatori con più stati per le query di streaming".
  • [SPARK-41090] [SC-116040][sql] Generare un'eccezione per db_name.view_name durante la creazione della visualizzazione temporanea dall'API del set di dati
  • [SPARK-41133] [SC-116085][sql] Integrare UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION in NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] Commit di dump del codice 9
  • [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect build as Driver Plugin with Shaded Dependencies
  • [SPARK-41096] [SC-115812][sql] Supporto alla lettura del tipo parquet FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][sql] Rinominare la classe di errore _LEGACY_ERROR_TEMP_2440 in INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Mancata corrispondenza tra FileSourceScanExec e Orc e ParquetFileFormat per la produzione di output a colonne
  • [SPARK-41155] [SC-115991][sql] Aggiungere un messaggio di errore a SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Rimuovere i verificatori degli operatori multistatali per le query di streaming.
  • [SPARK-41098] [SC-115790][sql] Rinominare GROUP_BY_POS_REFERS_AGG_EXPR in GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] Migrare le verifiche fallite del tipo di formattazione dei numeri nelle classi di errore
  • [SPARK-41059] [SC-115658][sql] Rinominare _LEGACY_ERROR_TEMP_2420 in NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Convertire DATATYPE_MISMATCH.UNSPECIFIED_FRAME in INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][sql] Rinominare _LEGACY_ERROR_TEMP_0055 in UNCLOSED_BRACKETED_COMMENT

Aggiornamenti di manutenzione

Vedere Aggiornamenti della manutenzione di Databricks Runtime 12.1.

Ambiente di sistema

  • Sistema operativo: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Librerie Python installate

Biblioteca Versione Biblioteca Versione Biblioteca Versione
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttoken 2.0.5
attrs 21.4.0 richiamata 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 nero 22.3.0 bleach 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 normalizzatore di charset 2.0.4
clic 8.0.4 criptografia 3.4.8 ciclista 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
decoratore 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0.11 punti di ingresso 0.4 eseguendo 0.8.3
panoramica-delle-facce 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 mccabe 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.8 numpy 1.21.5 imballaggio 21.3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 capro espiatorio 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 cuscino 9.0.1 pip 21.2.4
platformdirs 2.6.0 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
richieste 2.27.1 requests-unixsocket 0.2.0 corda 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
sei 1.16.0 soupsieve 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 tenacia 8.0.1
terminato 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
aggiornamenti automatici (unattended-upgrades) 0.1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 codifiche web 0.5.1 whatthepatch 1.0.3
ruota 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Librerie R installate

Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-11-11.

Biblioteca Versione Biblioteca Versione Biblioteca Versione
freccia 10.0.0 askpass 1.1 assertthat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 blob 1.2.3
boot 1.3-28 infusione 1.0-8 vivacità 1.1.3
Scopa 1.0.1 bslib 0.4.1 cachem 1.0.6
callr 3.7.3 caret 6.0-93 cellranger 1.1.0
cron 2.3-58 classe 7.3-20 cli 3.4.1
clipr 0.8.0 orologio 0.6.1 cluster 2.1.4
codetools 0.2-18 spazio colore 2.0-3 commonmark 1.8.1
compilatore 4.2.2 configurazione 0.3.1 cpp11 0.4.3
crayon 1.5.2 credenziali 1.3.2 curl 4.3.3
data.table 1.14.4 insiemi di dati 4.2.2 DBI 1.1.3
dbplyr 2.2.1 Descrizione 1.4.2 devtools 2.4.5
diffobj 0.3.5 sommario 0.6.30 illuminato verso il basso 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
puntini di sospensione 0.3.2 valutare 0,18 fansi 1.0.3
colori 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 straniero 0.8-82
forgia 0.2.0 fs 1.5.2 futuro 1.29.0
future.apply 1.10.0 gargle 1.2.1 generici 0.1.3
gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globals 0.16.1
colla 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 grafiche 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 casco da cantiere 1.2.0 rifugio 2.5.1
highr 0.9 hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iteratori 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
Etichettatura 0.4.2 più tardi 1.3.0 reticolo 0.20-45
lava 1.7.0 ciclo di vita 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 markdown 1.3
Massa 7.3-58 Matrice 1.5-1 memoise 2.0.1
metodi 4.2.2 mgcv 1.8-41 mime 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallelo 4.2.2
parallelamente 1.32.1 pilastro 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 elogio 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Avanzamento 1.2.2
progressr 0.11.0 promesse 1.2.0.1 prototipo 1.0.0
proxy 0.4-27 P.S. 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 ricette 1.0.3
rivincita 1.0.1 rematch2 2.1.2 remotes 2.4.2
esempio riproducibile 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 sass 0.4.2 Scalabilità 1.2.1
selectr 0.4-2 informazioni sulla sessione 1.2.2 Forma 1.4.6
lucido 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 spaziale 7.3-11 Spline 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 statistiche 4.2.2
stats4 4.2.2 perizoma 1.7.8 stringr 1.4.1
Sopravvivenza 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 formattazione del testo 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 cambio dell'ora 0.1.1 tempoData 4021.106
tinytex 0,42 strumenti 4.2.2 tzdb 0.3.0
controllore di url 1.0.1 usethis 2.1.6 UTF8 1.2.2
utils 4.2.2 identificatore univoco universale (UUID) 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 brum 1.6.0 waldo 0.4.0
whisker 0.4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Librerie Java e Scala installate (versione cluster di Scala 2.12)

ID del gruppo ID artefatto Versione
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flusso 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib nucleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guaiava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profilatore 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configurazione 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections Collezioni-Comuni 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 0.21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metriche-verifiche dello stato di salute 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API di transazione 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato freccia 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow freccia-vettore 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curatore-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet colonna parquet 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet codifica del formato Parquet 1.12.3-databricks-0002
org.apache.parquet strutture formato parquet 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus annotazioni del pubblico 0.13.0
org.apache.zookeeper custode dello zoo 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core maglia-comune 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotazioni 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Spessori 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaccia di test 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark inutilizzato 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1