Databricks Runtime 16.2
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.2, unterstützt von Apache Spark 3.5.2.
Databricks hat diese Version im Februar 2025 veröffentlicht.
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS-Versionen von Databricks Runtime wurden eingestellt und werden möglicherweise nicht mehr aktualisiert.
Verhaltensänderungen
ANALYZE überspringt jetzt Spalten mit nicht unterstützten Typen.
ANALYZE TABLE
führt nicht mehr zu einer Fehlermeldung, wenn sie auf einer Tabelle mit nicht unterstützten Typen ausgeführt wird, z. B. ARRAY
oder MAP
. Nicht unterstützte Spalten werden jetzt automatisch übersprungen. Benutzer, die Logik implementiert haben, die diese Fehler erwartet, sollten ihren Code aktualisieren.
Bei Delta Sharing ist der Tabellenverlauf standardmäßig aktiviert.
Für Freigaben, die mit dem SQL-Befehl ALTER SHARE <share> ADD TABLE <table>
erstellt werden, ist jetzt die Freigabe des Verlaufs (WITH HISTORY
) standardmäßig aktiviert. Siehe ALTER SHARE.
SQL-Anweisungen für Anmeldeinformationen geben einen Fehler zurück, wenn ein Anmeldeinformationstyp nicht übereinstimmend ist
Wenn der in einer SQL-Anweisung für die Anmeldeinformationsverwaltung angegebene Anmeldeinformationstyp mit dieser Version nicht mit dem Typ des Arguments für Anmeldeinformationen übereinstimmt, wird ein Fehler zurückgegeben, und die Anweisung wird nicht ausgeführt. Bei der Anweisung DROP STORAGE CREDENTIAL 'credential-name'
tritt beispielsweise ein Fehler auf, wenn das credential-name
-Element keine Speicheranmeldeinformationen darstellt.
Diese Änderung wird vorgenommen, um Benutzerfehler zu vermeiden. Zuvor wurden diese Befehle erfolgreich ausgeführt, selbst wenn Anmeldeinformationen übergeben wurde, die nicht dem angegebenen Anmeldetyp entsprachen. Beispielsweise würde die folgende Anweisung storage-credential
erfolgreich löschen: DROP SERVICE CREDENTIAL storage-credential
.
Diese Änderung wirkt sich auf folgende Anweisungen aus:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT…ON…CREDENTIAL
- REVOKE…ON…CREDENTIAL
- SHOW GRANTS ON…CREDENTIAL
Neue Features und Verbesserungen
- Erstellen benutzerdefinierter zustandsbehafteter Anwendungen mit
transformWithState
- Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen
- Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt allgemein verfügbar
- Notizbücher werden als Arbeitsbereichsdateien unterstützt
- Verwenden von
timestampdiff
undtimestampadd
in generierten Spaltenausdrücken - Unterstützung für SQL-Pipelinesyntax
- Erstellen von HTTP-Anforderung mithilfe der Funktion
http_request
- Das Update auf
DESCRIBE TABLE
gibt Metadaten als strukturierten JSON zurück - Sortierungen ohne Beachtung nachstehender Leerzeichen
- Konvertieren von Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen
- Der Standardzugriffsmodus (früher Modus für den gemeinsamen Zugriff) unterstützt jetzt die Spark Scala-Methoden
foreach
,foreachBatch
undflatMapGroupsWithState
Erstellen benutzerdefinierter zustandsbehafteter Anwendungen mit transformWithState
Sie können nun transformWithState
und zugehörige APIs verwenden, um benutzerdefinierte zustandsbehaftete Anwendungen als Teil von Structured Streaming-Abfragen zu implementieren. Siehe Erstellen einer benutzerdefinierten zustandsbehafteten Anwendung.
Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen
Sie können jetzt Databricks-Dienstanmeldeinformationen verwenden, um sich beim Cloudobjektspeicher mit auto Loader zu authentifizieren. Lesen Sie Was ist der Auto Loader-Dateibenachrichtigungsmodus?.
Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt allgemein verfügbar.
Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten von Azure Databricks. Mit Databricks Runtime 16.2 sind Dienstanmeldeinformationen allgemein verfügbar und unterstützen jetzt Scala SDKs zusätzlich zum Python SDK, das in der public Preview unterstützt wurde. Weitere Informationen finden Sie unter Verwalten des Zugriffs auf externe Clouddienste mithilfe von Dienstanmeldeinformationen.
Notebooks werden als Arbeitsbereichsdateien unterstützt.
In Databricks Runtime 16.2 und höher werden Notizbücher als Arbeitsbereichsdateien unterstützt. Sie können jetzt programmgesteuert von überall auf Notizbücher zugreifen, wo das Arbeitsbereichsdateisystem verfügbar ist, einschließlich der Möglichkeit, Notizbücher wie jede andere Datei zu schreiben, zu lesen und zu löschen. Weitere Informationen finden Sie unter Notebooks als Arbeitsbereichsdateien.
Verwenden Sie timestampdiff
& timestampadd
in generierten Spaltenausdrücken
In Databricks Runtime 16.2 und höher können Sie die Funktionen timestampdiff und timestampadd in von Delta Lake generierten Spaltenausdrücken verwenden. Siehe Verwenden der von Delta Lake generierten Spalten.
Unterstützung für SQL-Pipeline-Syntax
In Databricks Runtime 16.2 und höher können Sie SQL-Pipelinesverfassen. Eine SQL-Pipeline strukturiert eine Standardabfrage, z. B. SELECT c2 FROM T WHERE c1 = 5
, in eine Schritt-für-Schritt-Sequenz, wie im folgenden Beispiel gezeigt:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Informationen zur unterstützten Syntax für SQL-Pipelines finden Sie unter SQL-Pipelinesyntax.
Hintergrundinformationen zu dieser branchenübergreifenden Erweiterung finden Sie unter SQL Has Problems. Wir können sie beheben: Pipe-Syntax in SQL (von Google Research).
HTTP-Anforderung mithilfe der http_request
-Funktion durchführen
In Databricks Runtime 16.2 und höher können Sie HTTP-Verbindungen erstellen und über sie HTTP-Anforderungen mithilfe der http_request-Funktion erstellen.
Aktualisieren auf DESCRIBE TABLE
Gibt Metadaten als strukturiertes JSON zurück.
In Databricks Runtime 16.2 und höher können Sie den Befehl DESCRIBE TABLE AS JSON
verwenden, um Tabellenmetadaten als JSON-Dokument zurückzugeben. Die JSON-Ausgabe ist strukturierter als der vom Benutzer lesbare Standardbericht und kann zum programmgesteuerten Interpretieren des Schemas einer Tabelle verwendet werden. Weitere Informationen finden Sie unter DESCRIBE TABLE AS JSON.
Sortierungen ohne Beachtung nachstehender Leerzeichen
Zusätzlich zu der in Databricks Runtime 16.1 hinzugefügten Sortierungsunterstützung bietet Databricks Runtime 16.2 Unterstützung für Sortierungen ohne Beachtung nachstehender Leerzeichen. Beispielsweise behandeln diese Sortierungen 'Hello'
und 'Hello '
gleich. Weitere Informationen finden Sie unter RTRIM-Sortierung.
Konvertieren von Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen
Die Anweisungen CONVERT TO DELTA und CREATE TABLE CLONE unterstützen jetzt das Konvertieren einer Iceberg-Tabelle mit Bucketpartitionierung in eine nicht partitionierte Delta-Tabelle.
Der Standardzugriffsmodus (früher Modus für den gemeinsamen Zugriff) unterstützt jetzt die Spark Scala-Methoden foreach
, foreachBatch
und flatMapGroupsWithState
In Databricks Runtime 16.2 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methoden DataStreamWriter.foreachBatch
und KeyValueGroupedDataset.flatMapGroupsWithState
. In Databricks Runtime 16.1 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methode DataStreamWriter.foreach
.
Fehlerbehebungen
Verbesserte inkrementelle Klonverarbeitung
Diese Version enthält einen Fix für einen Randfall, bei dem ein inkrementelles CLONE
möglicherweise Dateien, die bereits aus einer Quelltabelle kopiert wurden, in eine Zieltabelle erneut kopieren kann. Siehe Klonen einer Tabelle in Azure Databricks.
Modernisierung der Bibliothek
- Aktualisierte Python-Bibliotheken:
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
- org.json4s.json4s-ast_2.12 von 3.7.0-M11 bis 4.0.7
- org.json4s.json4s-core_2.12 von 3.7.0-M11 bis 4.0.7
- org.json4s.json4s-jackson_2.12 von 3.7.0-M11 bis 4.0.7
- org.json4s.json4s-scalap_2.12 von 3.7.0-M11 bis 4.0.7
Apache Spark
Databricks Runtime 16.2 umfasst Apache Spark 3.5.2. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 16.1enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-49966] Rückgängigmachen von „[SC-179501][sql] Verwenden von
Invoke
zur Implementierung vonJsonToStructs
(from_json
)“ - [SPARK-50904] [SC-186976][sql] Behebung der Ausführungsprobleme des Sortierungsausdrucks-Walkers
- [SPARK-49666] [SQL] Aktivieren von Kürzungstests für InSet-Ausdruck
- [SPARK-50669] [SC-184566][es-1327450][SQL] Ändern der Signatur des TimestampAdd-Ausdrucks
- [SPARK-50795] [16.x][sc-186719][SQL] Zeitstempel als
long
Typ indescribe
LinkedHashMap speichern - [SPARK-50870] [SC-186950][sql] Hinzufügen der Zeitzone beim Umwandeln in den Zeitstempel in V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][connect] Fehler in ExecuteResponseObserver führt zu unendlichen Anforderungen zum erneuten Anfügen.
- [SPARK-50522] [SC-186500][sql] Unterstützung für unbestimmte Sortierung
- [SPARK-50525] [SC-186058][sql] Definieren der InsertMapSortInRepartitionExpressions-Optimierungsregel
- [SPARK-50679] [SC-184572][sql] Doppelte gemeinsame Ausdrücke in unterschiedlichen With-Klauseln sollten nur einmal projiziert werden.
- [SPARK-50847] [SC-186916] [SQL] Anwendung von ApplyCharTypePadding auf bestimmte In-Ausdrücke verweigern
- [SPARK-50714] [SC-186786][sql][SS] Aktivieren der Schemaentwicklung für TransformWithState, wenn avro-Codierung verwendet wird
- [SPARK-50795] [SC-186390][sql] Anzeigen aller DESCRIBE AS JSON-Datumsangaben im ISO-8601-Format und Typen als
dataType.simpleString
- [SPARK-50561] [SC-185924][sql] DBR 16.x Cherrypick: Verbessern der Koersions- und Grenzüberprüfung für UNIFORM SQL-Funktion
- [SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalog
unterstütztbuiltin
magischen Wert - [SPARK-50831] [SC-186736][sql] Standardmäßig das Kürzen der Sortierung aktivieren
- [SPARK-50263] [SC-186793][connect] Ersetzen Sie
System.currentTimeMillis
durchSystem.nanoTime
- [SPARK-48730] [SC-184926][sql] Implementieren von CreateSQLFunctionCommand für SQL Scalar- und Tabellenfunktionen
- [SPARK-50830] [SC-186718] [SQL] Zurückgeben des Ergebnisses eines Einzeldurchlaufs als Ergebnis der doppelten Ausführungsanalyse
- [SPARK-50707] [SC-186098][sql] Aktivieren der Umwandlung in/von char/varchar
- [SPARK-49490] [SC-182137][sql] Fügen Sie Benchmarks für initCap hinzu
- [SPARK-50529] [SC-184535][sql] Änderung des char/varchar-Verhaltens unter der Konfiguration
spark.sql.preserveCharVarcharTypeInfo
- [SPARK-49632] [SC-184179][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][python][SQL] Behebung eines Fehlers, bei dem beim Übergeben von NULL-Varianten in createDataFrame ein Fehler auftritt und die Variant-Unterstützung in createDataFrame in Spark Connect hinzugefügt wird.
- [SPARK-50828] [SC-186493][python][ML][connect]
pyspark.ml.connect
veraltet - [SPARK-50600] [SC-186057][connect][SQL] Bei Analysefehler auf „analysiert“ gesetzt
- [SPARK-50824] [SC-186472][python] Vermeiden Sie das Importieren optionaler Python-Pakete zur Überprüfung.
- [SPARK-50755] [SC-185521][sql] Hübsche Plananzeige für InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] Die Eingaben für typisierte Aggregationen sollten analysiert werden.
- [SPARK-50791] [SC-185867][sc-186338][SQL] Korrektur von NPE in der Fehlerbehandlung des Zustandsspeichers
- [SPARK-50801] [SC-186365] [SQL] Verbessern
PlanLogger.logPlanResolution
, sodass nur ungelöste und aufgelöste Pläne angezeigt werden - [SPARK-50749] [SC-185925][sql] Beheben des Sortierfehlers in der CommutativeExpression.gatherCommutative-Methode
- [SPARK-50783] [SC-186347] Kanonisierung des Dateinamens und der Struktur der JVM-Profilergebnisse auf DFS
- [SPARK-50790] [SC-186354][python] Implementieren sie parse json in pyspark
- [SPARK-50738] [SC-184856][python] Upgrade schwarz auf 23.12.1
- [SPARK-50764] [SC-185930][python] Verfeinern der Docstring von xpath-verwandten Methoden
- [SPARK-50798] [SC-186277][sql] Verbessern
NormalizePlan
- [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integration in RocksDB und RocksDBFileManager
- [SPARK-50779] [SC-186062][sql] Hinzufügen eines Featureflags für Sortierungen auf Objektebene
- [SPARK-50778] [SC-186183][python] Hinzufügen von metadataColumn zu PySpark DataFrame
- [SPARK-49565] [SC-186056][sql] DBR 16.x Cherrypick: Verbessern automatisch generierter Ausdrucksaliase mit Pipe-SQL-Operatoren
- [SPARK-50541] [16.x][sc-184937] Tabelle als JSON beschreiben
- [SPARK-50772] [SC-185923][sql] DBR 16.x Cherrypick: Tabellenaliase nach SET-, EXTEND-, DROP-Operatoren beibehalten
- [SPARK-50769] [SC-185919][sql] Behebung der ClassCastException in HistogramNumeric
- [SPARK-49025] [SC-174667] Delta-Code-Diff mit DBR synchronisieren
- [SPARK-50752] [SC-185547][python][SQL] Einführen von Konfigurationen für die Optimierung von Python UDF ohne Pfeil
- [SPARK-50705] [SC-185944][sql] Machen
QueryPlan
sperrfrei - [SPARK-50690] [16.x][sc-184640][SQL] Korrektur von Diskrepanzen bei der Verwendung von Anführungszeichen für DESCRIBE TABLE-Ansichtsabfrageausgabespalten
- [SPARK-50746] [SC-184932][sql] Ersetzen von Either durch VariantPathSegment.
- [SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builder
legt die Konfigurationen im Batch fest. - [SPARK-50480] [SC-183359][sql] Erweitern von „CharType“ und „VarcharType“ von „StringType“
- [SPARK-50675] [SC-184539][sql] Unterstützung für Tabellen- und Ansichtsebenenkollationen
- [SPARK-50409] [SC-184516][sql] Korrigiere die Set-Anweisung, um
;
am Ende vonSET;
,SET -v;
undSET key;
zu ignorieren. - [SPARK-50743] [SC-185528][sql] Normalisieren von CTERelationDef- und CTERelationRef-IDs
- [SPARK-50693] [SC-184684][connect] Die Eingaben für TypedScalaUdf sollten analysiert werden.
- [SPARK-50744] [SC-184929][sql] Hinzufügen eines Testfalls für die Rangfolge der Namensauflösung von Ansichten/CTE
- [SPARK-50710] [SC-184767][connect] Hinzufügen von Unterstützung für optionale Clientverbindung zu Sitzungen nach der Veröffentlichung
- [SPARK-50703] [SC-184843][python] Verfeinern sie die Docstring von regexp_replace, regexp_substr und regexp_instr
- [SPARK-50716] [SC-184823][core] Korrektur der Bereinigungslogik für symbolische Verknüpfungen in der
JavaUtils.deleteRecursivelyUsingJavaIO
-Methode - [SPARK-50630] [SC-184443][sql] Korrektur der GROUP BY-Ordinalunterstützung für Pipe-SQL AGGREGATE-Operatoren
- [SPARK-50614] [SC-184729][sql] Hinzufügen von Variant-Zerkleinerungsunterstützung für Parquet
- [SPARK-50661] [SASP-4936] Fügen Sie abwärtskompatibilität für alte Client-FEB hinzu.
- [SPARK-50676] [SC-184641][sql] Entfernen nicht verwendeter
private lazy val mapValueContainsNull
ausElementAt
- [SPARK-50515] [SC-183813][core] Hinzufügen einer schreibgeschützten Schnittstelle zu
SparkConf
- [SPARK-50697] [SC-184702][sql] Aktivieren der Tail-Rekursion, wo immer möglich
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Korrigieren Sie das Statusschema für FlatMapGroupsWithState in spark connect, wenn kein Anfangszustand vorhanden ist.
- [SPARK-50701] [SC-184704][python] Festlegen, dass für die Diagrammerstellung die Mindestversion von Plotly erforderlich ist
- [SPARK-50702] [SC-184727][python] Verfeinern der Dokumentzeichenfolge von regexp_count, regexp_extract und regexp_extract_all
- [SPARK-50499] [SC-184177][python] Verfügbarmachen von Metriken von BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Hinzufügen der RPAD-Pushdown-Unterstützung
- [SPARK-50682] [SC-184579][sql] Innerer Alias sollte kanonisiert werden
- [SPARK-50699] [SC-184695][python] Analysieren und Generieren einer DDL-Zeichenfolge mit einer angegebenen Sitzung
- [SPARK-50573] [SC-184568][ss] Hinzufügen der Statusschema-ID zu Zustandszeilen zur Schemaentwicklung
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Korrektur der Spark Connect Scala foreachBatch-Implementierung zur Unterstützung von Dataset[T].
- [SPARK-50689] [SC-184591][sql] Deterministische Sortierung in LCA-Projektlisten erzwingen
- [SPARK-50696] [SC-184667][python] Optimize Py4J-Aufruf für die DDL-Analysemethode
- [SPARK-49670] [SC-182902][sql] Aktivieren der Kürzungssortierung für alle Passthrough-Ausdrücke
- [SPARK-50673] [SC-184565][ml] Vermeiden des zweimaligen Durchlaufens von Modellkoeffizienten im
Word2VecModel
-Konstruktor - [SPARK-50687] [SC-184588][python] Optimieren der Logik zum Abrufen von Stapelrückverfolgungen für DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Zwischenspeichern des analysierten Schemas für MapInXXX und ApplyInXXX
- [SPARK-50674] [SC-184589][python] Korrektur der Überprüfung auf das Vorhandensein der Methode „terminate“ in der UDTF-Auswertung
- [SPARK-50684] [SC-184582][python] Verbessern der Py4J-Leistung in DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Fügen Sie Unterstützung für neue Versionen von Statusmetadaten für TransformWithStateInPandas hinzu.
- [SPARK-50602] [SC-184439][sql] Korrektur der Transponierung zum Anzeigen einer korrekte Fehlermeldung, wenn ungültige Indexspalten angegeben werden
- [SPARK-50650] [SC-184532][sql] Verbessern der Protokollierung im Einzeldurchlauf-Analysetool
- [SPARK-50665] [SC-184533][sql] Ersetze LocalRelation durch ComparableLocalRelation in NormalizePlan.
- [SPARK-50644] [SC-184486][sql] Lesen der Variantenstruktur in Parquet-Reader
- [SPARK-49636] [SC-184089][sql] Entfernen des ANSI-Konfigurationsvorschlags in INVALID_ARRAY_INDEX und INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Umgestalten der Ausgabeberechnung der Union, um sie im Einzeldurchlauf-Analysetool wiederzuverwenden
- [SPARK-50659] [SC-184512][sql] Verschieben von Union-bezogenen Fehlern zu QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Korrektur ungültiger impliziter Zeichenfolgentypkontextberechnung
- [SPARK-50546] [SC-183807][sql] Hinzufügen der Unterstützung von Unterabfragen zur Koersion des Sortiertyps
- [SPARK-50405] [SC-182889][sql] Korrekte Behandlung der Sortierungstyp-Koersion von komplexen Datentypen
- [SPARK-50637] [SC-184434][sql] Korrigieren der Codeformatvorlage für den Single-Pass Analyzer
- [SPARK-50638] [SC-184435][sql] Umgestalten der Ansichtsauflösung in die separate Datei, um sie im Einzeldurchlauf-Analysetool wiederzuverwenden
- [SPARK-50615] [SC-184298][sql] Pushen der Variante in die Überprüfung
- [SPARK-50619] [SC-184210][sql] Umgestalten von „VariantGet.cast“ zum Packen der Umwandlungsargumente
- [SPARK-50599] [SC-184058][sql] Erstellen Sie die DataEncoder-Eigenschaft, die avro- und unsafeRow-Codierung ermöglicht.
- [SPARK-50076] [SC-183809] Korrektur von LogKeys
- [SPARK-50597] [SC-183972][sql] Batchkonstruktion in Optimizer.scala und SparkOptimizer.scala umgestalten
- [SPARK-50339] [SC-183063][spark-50360][SS] Aktivieren des Änderungsprotokolls zur Speicherung von Abstammungsinformationen
- [SPARK-50526] [SC-183811][ss] Hinzufügen der Konfiguration für das Speichercodierungsformat im Offsetprotokoll und Sperren nicht unterstützter zustandsbehafteter Operatoren für die Nutzung von Avro
- [SPARK-50540] [SC-183810][python][SS] Fixzeichenfolgenschema für StatefulProcessorHandle
- [SPARK-50157] [SC-183789][sql] Verwenden von SQLConf, das von SparkSession zuerst bereitgestellt wird.
- [SPARK-48898] [SC-183793][sql] Legen Sie die Nullierbarkeit im Variant-Schema richtig fest.
- [SPARK-50559] [SC-183814][sql] Speichern der Except-, Intersect- und Union-Ausgaben als verzögerte Werte
- [SPARK-48416] [SC-183643][sql] Unterstützung geschachtelter korrelierter WITH-Ausdrücke
- [SPARK-50428] [SC-183566][ss][PYTHON] Unterstützung von „TransformWithStateInPandas“ in Batchabfragen
- [SPARK-50063] [SC-183350][sql][CONNECT] Hinzufügen von Unterstützung für Variant im Spark Connect Scala-Client
- [SPARK-50544] [SC-183569][python][CONNECT] Implementieren von
StructType.toDDL
- [SPARK-50443] [SC-182590][ss] Beheben von Maven-Buildfehlern, die von Guava-Cache in RocksDBStateStoreProvider eingeführt wurden
- [SPARK-50491] [SC-183434][sql] Beheben eines Fehlers, bei dem leere BEGIN-END-Blöcke einen Fehler auslösen
- [SPARK-50536] [SC-183443][core] Protokolliere heruntergeladene Archivdateigrößen in
SparkContext
undExecutor
- [SPARK-45891] [SC-183439][sql] Variant-Binärdatei aus zerkleinerten Daten neu erstellen.
- [SPARK-49565] [SC-183465][sql] Hinzufügen der SQL-Pipesyntax für den FROM-Operator
- [SPARK-50497] [SC-183338][sql] Fehler bei Abfragen mit der richtigen Meldung, wenn „MultiAlias“ eine Nicht-Generator-Funktion enthält
- [SPARK-50460] [SC-183375][python][CONNECT] Verallgemeinern und vereinfachen des Connect-Ausnahmehandlings
- [SPARK-50537] [SC-183452][connect][PYTHON] Korrektur der Komprimierungsoption, die in
df.write.parquet
überschrieben wird - [SPARK-50329] [SC-183358][sql] Korrektur für „InSet$toString“
- [SPARK-50524] [SC-183364][sql] Absenken der
RowBasedKeyValueBatch.spill
-Warnmeldung auf Debug-Ebene - [SPARK-50528] [SC-183385][Verbinden] Verschieben von
InvalidCommandInput
zum gemeinsamen Modul - [SPARK-50017] [SC-182438][ss] Unterstützung der Avro-Codierung für den TransformWithState-Operator
- [SPARK-50463] [SC-182833][sql] Korrektur von
ConstantColumnVector
mit der Konvertierung vom Spaltenformat zum Zeilenformat - [SPARK-50235] [SC-180786][sql] Aufräumen der ColumnVector-Ressource nach der Verarbeitung aller Zeilen in ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Korrektur des Tests für den Init-Zustand zur Verwendung von „StreamManualClock“
- [SPARK-50478] [SC-183188][sql] StringType-Abgleich korrigieren
- [SPARK-50492] [SC-183177][ss] Korrektur von „java.util.NoSuchElementException“, wenn die Ereigniszeitspalte nach „dropDuplicatesWithinWatermark“ entfernt wird
- [SPARK-49566] [SC-182589][sql] Fügen Sie die SQL-Pipesyntax für den Operator SET hinzu.
- [SPARK-50449] [SC-183178][sql] Korrektur der SQL-Skriptgrammatik, um leere Inhalte für Schleifen, IF und CASE zuzulassen
- [SPARK-50251] [SC-180970][python] Hinzufügen von
getSystemProperty
zu PySpark-SparkContext
- [SPARK-50421] [SC-183091][core] Korrektur der speicherbezogenen Executor-Konfiguration ist fehlerhaft, wenn mehrere Ressourcenprofile aktiv sind
- [SPARK-49461] [SC-179572][ss] Persistente Checkpoint-ID zum Commit von Protokolldateien und zum Zurücklesen
- [SPARK-50343] [SC-183119][spark-50344][SQL] Hinzufügen der SQL-Pipesyntax für die DROP- und AS-Operatoren
- [SPARK-50481] [SC-182880][core] Verbessern von
SortShuffleManager.unregisterShuffle
, um die Prüfsummendateilogik zu überspringen, wenn die Prüfsumme deaktiviert ist - [SPARK-50498] [SC-183090][python] Vermeiden Sie unnötigen py4j-Aufruf in
listFunctions
- [SPARK-50489] [SC-183053][sql][PYTHON] Korrektur der Selbstverknüpfung nach
applyInArrow
- [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres-Fix xor Push-Down
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter und aktualisieren Sie (ODBCherunterladen, JDBCherunterladen ).
Wartungsupdates
Weitere Informationen finden Sie unter Wartungsupdates für Databricks Runtime 16.2.
Systemumgebung
- Betriebssystem: Ubuntu 24.04.1 LTS
- Java: Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | black | 24.4.2 |
blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | click | 8.1.7 |
cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
cryptography | 42.0.5 | cycler | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
decorator | 5.1.1 | Veraltet | 1.2.14 | distlib | 0.3.8 |
docstring-to-markdown | 0.11 | entrypoints | 0.4 | executing | 0.8.3 |
Facettenübersicht | 1.1.1 | filelock | 3.15.4 | fonttools | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-auth | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
inflect | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
packaging | 24.1 | pandas | 1.5.3 | parso | 0.8.3 |
pathspec | 0.10.3 | patsy | 0.5.6 | pexpect | 4.8.0 |
pillow | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
requests | 2.32.2 | rope | 1.12.0 | rsa | 4.9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
seaborn | 0.13.2 | setuptools | 74.0.0 | six | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
Stapeldaten | 0.2.0 | statsmodels | 0.14.2 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | unbeaufsichtigte Aktualisierungen | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | wheel | 0.43.0 | wrapt | 1.14.1 |
yapf | 0.33.0 | zipp | 3.17.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2024-08-04 installiert: https://packagemanager.posit.co/cran/2024-08-04/
.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
arrow | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-8 | Klumpen | 1.2.4 | boot | 1.3-30 |
brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
caret | 6.0-94 | CellRanger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
clock | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
colorspace | 2.1-1 | commonmark | 1.9.1 | compiler | 4.4.0 |
config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.3 | Zugangsdaten | 2.0.1 | curl | 5.2.1 |
data.table | 1.15.4 | Datensätze | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.36 |
downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | evaluate | 0.24.0 |
Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
future | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1.48 | labeling | 0.4.3 |
later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
lifecycle | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
Matrix | 1.6-5 | memoise | 2.0.1 | methods | 4.4.0 |
mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
parallelly | 1.38.0 | pillar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | progress | 1.2.3 |
progressr | 0.14.0 | promises | 1.3.0 | proto | 1.0.0 |
proxy | 0.4-27 | P.S. | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactable | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.1.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinfo | 1.2.2 |
shape | 1.4.6.1 | shiny | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | spatial | 7.3-17 | splines | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.4.0 |
stats4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
survival | 3.6-4 | swagger | 5.17.14.1 | sys | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
Textgestaltung | 0.4.0 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.52 | tools | 4.4.0 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | benutze dies | 3.0.0 |
utf8 | 1.2.4 | utils | 4.4.0 | Universelle eindeutige Kennung (UUID) | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.1 | xfun | 0.46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | zip | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-Ureinwohner |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-Ureinwohner |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Ureinwohner |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Ureinwohner |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | fehleranfällige_Anmerkungen | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | Luftkompressor | 0.27 |
io.delta | delta-sharing-client_2.12 | 1.2.2 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | Metriken-Servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collector | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | Transaktions-API | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | Zoowärter | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 4.0.7 |
org.json4s | json4s-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson_2.12 | 4.0.7 |
org.json4s | json4s-scalap_2.12 | 4.0.7 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | ScalaTest-kompatibel | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
stax | stax-api | 1.0.1 |