Freigeben über


Databricks Runtime 16.2

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.2, unterstützt von Apache Spark 3.5.2.

Databricks hat diese Version im Februar 2025 veröffentlicht.

Tipp

Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS-Versionen von Databricks Runtime wurden eingestellt und werden möglicherweise nicht mehr aktualisiert.

Verhaltensänderungen

ANALYZE überspringt jetzt Spalten mit nicht unterstützten Typen.

ANALYZE TABLE führt nicht mehr zu einer Fehlermeldung, wenn sie auf einer Tabelle mit nicht unterstützten Typen ausgeführt wird, z. B. ARRAY oder MAP. Nicht unterstützte Spalten werden jetzt automatisch übersprungen. Benutzer, die Logik implementiert haben, die diese Fehler erwartet, sollten ihren Code aktualisieren.

Bei Delta Sharing ist der Tabellenverlauf standardmäßig aktiviert.

Für Freigaben, die mit dem SQL-Befehl ALTER SHARE <share> ADD TABLE <table> erstellt werden, ist jetzt die Freigabe des Verlaufs (WITH HISTORY) standardmäßig aktiviert. Siehe ALTER SHARE.

SQL-Anweisungen für Anmeldeinformationen geben einen Fehler zurück, wenn ein Anmeldeinformationstyp nicht übereinstimmend ist

Wenn der in einer SQL-Anweisung für die Anmeldeinformationsverwaltung angegebene Anmeldeinformationstyp mit dieser Version nicht mit dem Typ des Arguments für Anmeldeinformationen übereinstimmt, wird ein Fehler zurückgegeben, und die Anweisung wird nicht ausgeführt. Bei der Anweisung DROP STORAGE CREDENTIAL 'credential-name' tritt beispielsweise ein Fehler auf, wenn das credential-name-Element keine Speicheranmeldeinformationen darstellt.

Diese Änderung wird vorgenommen, um Benutzerfehler zu vermeiden. Zuvor wurden diese Befehle erfolgreich ausgeführt, selbst wenn Anmeldeinformationen übergeben wurde, die nicht dem angegebenen Anmeldetyp entsprachen. Beispielsweise würde die folgende Anweisung storage-credentialerfolgreich löschen: DROP SERVICE CREDENTIAL storage-credential.

Diese Änderung wirkt sich auf folgende Anweisungen aus:

Neue Features und Verbesserungen

Erstellen benutzerdefinierter zustandsbehafteter Anwendungen mit transformWithState

Sie können nun transformWithState und zugehörige APIs verwenden, um benutzerdefinierte zustandsbehaftete Anwendungen als Teil von Structured Streaming-Abfragen zu implementieren. Siehe Erstellen einer benutzerdefinierten zustandsbehafteten Anwendung.

Authentifizieren beim Cloudobjektspeicher mit Dienstanmeldeinformationen

Sie können jetzt Databricks-Dienstanmeldeinformationen verwenden, um sich beim Cloudobjektspeicher mit auto Loader zu authentifizieren. Lesen Sie Was ist der Auto Loader-Dateibenachrichtigungsmodus?.

Unity Catalog-gesteuerter Zugriff auf externe Clouddienste mit Dienstanmeldeinformationen ist jetzt allgemein verfügbar.

Dienstanmeldeinformationen ermöglichen die einfache und sichere Authentifizierung mit den Diensten Ihres Cloudmandanten von Azure Databricks. Mit Databricks Runtime 16.2 sind Dienstanmeldeinformationen allgemein verfügbar und unterstützen jetzt Scala SDKs zusätzlich zum Python SDK, das in der public Preview unterstützt wurde. Weitere Informationen finden Sie unter Verwalten des Zugriffs auf externe Clouddienste mithilfe von Dienstanmeldeinformationen.

Notebooks werden als Arbeitsbereichsdateien unterstützt.

In Databricks Runtime 16.2 und höher werden Notizbücher als Arbeitsbereichsdateien unterstützt. Sie können jetzt programmgesteuert von überall auf Notizbücher zugreifen, wo das Arbeitsbereichsdateisystem verfügbar ist, einschließlich der Möglichkeit, Notizbücher wie jede andere Datei zu schreiben, zu lesen und zu löschen. Weitere Informationen finden Sie unter Notebooks als Arbeitsbereichsdateien.

Verwenden Sie timestampdiff & timestampadd in generierten Spaltenausdrücken

In Databricks Runtime 16.2 und höher können Sie die Funktionen timestampdiff und timestampadd in von Delta Lake generierten Spaltenausdrücken verwenden. Siehe Verwenden der von Delta Lake generierten Spalten.

Unterstützung für SQL-Pipeline-Syntax

In Databricks Runtime 16.2 und höher können Sie SQL-Pipelinesverfassen. Eine SQL-Pipeline strukturiert eine Standardabfrage, z. B. SELECT c2 FROM T WHERE c1 = 5, in eine Schritt-für-Schritt-Sequenz, wie im folgenden Beispiel gezeigt:

FROM T
|> SELECT c2
|> WHERE c1 = 5

Informationen zur unterstützten Syntax für SQL-Pipelines finden Sie unter SQL-Pipelinesyntax.

Hintergrundinformationen zu dieser branchenübergreifenden Erweiterung finden Sie unter SQL Has Problems. Wir können sie beheben: Pipe-Syntax in SQL (von Google Research).

HTTP-Anforderung mithilfe der http_request-Funktion durchführen

In Databricks Runtime 16.2 und höher können Sie HTTP-Verbindungen erstellen und über sie HTTP-Anforderungen mithilfe der http_request-Funktion erstellen.

Aktualisieren auf DESCRIBE TABLE Gibt Metadaten als strukturiertes JSON zurück.

In Databricks Runtime 16.2 und höher können Sie den Befehl DESCRIBE TABLE AS JSON verwenden, um Tabellenmetadaten als JSON-Dokument zurückzugeben. Die JSON-Ausgabe ist strukturierter als der vom Benutzer lesbare Standardbericht und kann zum programmgesteuerten Interpretieren des Schemas einer Tabelle verwendet werden. Weitere Informationen finden Sie unter DESCRIBE TABLE AS JSON.

Sortierungen ohne Beachtung nachstehender Leerzeichen

Zusätzlich zu der in Databricks Runtime 16.1 hinzugefügten Sortierungsunterstützung bietet Databricks Runtime 16.2 Unterstützung für Sortierungen ohne Beachtung nachstehender Leerzeichen. Beispielsweise behandeln diese Sortierungen 'Hello' und 'Hello ' gleich. Weitere Informationen finden Sie unter RTRIM-Sortierung.

Konvertieren von Iceberg-Tabellen mit Bucketpartitionierung in nicht partitionierte Delta-Tabellen

Die Anweisungen CONVERT TO DELTA und CREATE TABLE CLONE unterstützen jetzt das Konvertieren einer Iceberg-Tabelle mit Bucketpartitionierung in eine nicht partitionierte Delta-Tabelle.

Der Standardzugriffsmodus (früher Modus für den gemeinsamen Zugriff) unterstützt jetzt die Spark Scala-Methoden foreach, foreachBatch und flatMapGroupsWithState

In Databricks Runtime 16.2 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methoden DataStreamWriter.foreachBatch und KeyValueGroupedDataset.flatMapGroupsWithState. In Databricks Runtime 16.1 und höher unterstützt die Standardzugriffsmodusberechnung jetzt die Scala-Methode DataStreamWriter.foreach.

Fehlerbehebungen

Verbesserte inkrementelle Klonverarbeitung

Diese Version enthält einen Fix für einen Randfall, bei dem ein inkrementelles CLONE möglicherweise Dateien, die bereits aus einer Quelltabelle kopiert wurden, in eine Zieltabelle erneut kopieren kann. Siehe Klonen einer Tabelle in Azure Databricks.

Modernisierung der Bibliothek

  • Aktualisierte Python-Bibliotheken:
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • org.json4s.json4s-ast_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-core_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-jackson_2.12 von 3.7.0-M11 bis 4.0.7
    • org.json4s.json4s-scalap_2.12 von 3.7.0-M11 bis 4.0.7

Apache Spark

Databricks Runtime 16.2 umfasst Apache Spark 3.5.2. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 16.1enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-49966] Rückgängigmachen von „[SC-179501][sql] Verwenden von Invoke zur Implementierung von JsonToStructs(from_json)“
  • [SPARK-50904] [SC-186976][sql] Behebung der Ausführungsprobleme des Sortierungsausdrucks-Walkers
  • [SPARK-49666] [SQL] Aktivieren von Kürzungstests für InSet-Ausdruck
  • [SPARK-50669] [SC-184566][es-1327450][SQL] Ändern der Signatur des TimestampAdd-Ausdrucks
  • [SPARK-50795] [16.x][sc-186719][SQL] Zeitstempel als long Typ in describe LinkedHashMap speichern
  • [SPARK-50870] [SC-186950][sql] Hinzufügen der Zeitzone beim Umwandeln in den Zeitstempel in V2ScanRelationPushDown
  • [SPARK-50735] [SC-186944][connect] Fehler in ExecuteResponseObserver führt zu unendlichen Anforderungen zum erneuten Anfügen.
  • [SPARK-50522] [SC-186500][sql] Unterstützung für unbestimmte Sortierung
  • [SPARK-50525] [SC-186058][sql] Definieren der InsertMapSortInRepartitionExpressions-Optimierungsregel
  • [SPARK-50679] [SC-184572][sql] Doppelte gemeinsame Ausdrücke in unterschiedlichen With-Klauseln sollten nur einmal projiziert werden.
  • [SPARK-50847] [SC-186916] [SQL] Anwendung von ApplyCharTypePadding auf bestimmte In-Ausdrücke verweigern
  • [SPARK-50714] [SC-186786][sql][SS] Aktivieren der Schemaentwicklung für TransformWithState, wenn avro-Codierung verwendet wird
  • [SPARK-50795] [SC-186390][sql] Anzeigen aller DESCRIBE AS JSON-Datumsangaben im ISO-8601-Format und Typen als dataType.simpleString
  • [SPARK-50561] [SC-185924][sql] DBR 16.x Cherrypick: Verbessern der Koersions- und Grenzüberprüfung für UNIFORM SQL-Funktion
  • [SPARK-50700] [SC-184845][sql] spark.sql.catalog.spark_catalog unterstützt builtin magischen Wert
  • [SPARK-50831] [SC-186736][sql] Standardmäßig das Kürzen der Sortierung aktivieren
  • [SPARK-50263] [SC-186793][connect] Ersetzen Sie System.currentTimeMillis durch System.nanoTime
  • [SPARK-48730] [SC-184926][sql] Implementieren von CreateSQLFunctionCommand für SQL Scalar- und Tabellenfunktionen
  • [SPARK-50830] [SC-186718] [SQL] Zurückgeben des Ergebnisses eines Einzeldurchlaufs als Ergebnis der doppelten Ausführungsanalyse
  • [SPARK-50707] [SC-186098][sql] Aktivieren der Umwandlung in/von char/varchar
  • [SPARK-49490] [SC-182137][sql] Fügen Sie Benchmarks für initCap hinzu
  • [SPARK-50529] [SC-184535][sql] Änderung des char/varchar-Verhaltens unter der Konfiguration spark.sql.preserveCharVarcharTypeInfo
  • [SPARK-49632] [SC-184179][sql] Entfernen Sie den ANSI-Konfigurationsvorschlag in CANNOT_PARSE_TIMESTAMP
  • [SPARK-50815] [SC-186487][python][SQL] Behebung eines Fehlers, bei dem beim Übergeben von NULL-Varianten in createDataFrame ein Fehler auftritt und die Variant-Unterstützung in createDataFrame in Spark Connect hinzugefügt wird.
  • [SPARK-50828] [SC-186493][python][ML][connect] pyspark.ml.connect veraltet
  • [SPARK-50600] [SC-186057][connect][SQL] Bei Analysefehler auf „analysiert“ gesetzt
  • [SPARK-50824] [SC-186472][python] Vermeiden Sie das Importieren optionaler Python-Pakete zur Überprüfung.
  • [SPARK-50755] [SC-185521][sql] Hübsche Plananzeige für InsertIntoHiveTable
  • [SPARK-50789] [SC-186312][connect] Die Eingaben für typisierte Aggregationen sollten analysiert werden.
  • [SPARK-50791] [SC-185867][sc-186338][SQL] Korrektur von NPE in der Fehlerbehandlung des Zustandsspeichers
  • [SPARK-50801] [SC-186365] [SQL] Verbessern PlanLogger.logPlanResolution, sodass nur ungelöste und aufgelöste Pläne angezeigt werden
  • [SPARK-50749] [SC-185925][sql] Beheben des Sortierfehlers in der CommutativeExpression.gatherCommutative-Methode
  • [SPARK-50783] [SC-186347] Kanonisierung des Dateinamens und der Struktur der JVM-Profilergebnisse auf DFS
  • [SPARK-50790] [SC-186354][python] Implementieren sie parse json in pyspark
  • [SPARK-50738] [SC-184856][python] Upgrade schwarz auf 23.12.1
  • [SPARK-50764] [SC-185930][python] Verfeinern der Docstring von xpath-verwandten Methoden
  • [SPARK-50798] [SC-186277][sql] Verbessern NormalizePlan
  • [SPARK-49883] [SC-183787][ss] State Store Checkpoint Structure V2 Integration in RocksDB und RocksDBFileManager
  • [SPARK-50779] [SC-186062][sql] Hinzufügen eines Featureflags für Sortierungen auf Objektebene
  • [SPARK-50778] [SC-186183][python] Hinzufügen von metadataColumn zu PySpark DataFrame
  • [SPARK-49565] [SC-186056][sql] DBR 16.x Cherrypick: Verbessern automatisch generierter Ausdrucksaliase mit Pipe-SQL-Operatoren
  • [SPARK-50541] [16.x][sc-184937] Tabelle als JSON beschreiben
  • [SPARK-50772] [SC-185923][sql] DBR 16.x Cherrypick: Tabellenaliase nach SET-, EXTEND-, DROP-Operatoren beibehalten
  • [SPARK-50769] [SC-185919][sql] Behebung der ClassCastException in HistogramNumeric
  • [SPARK-49025] [SC-174667] Delta-Code-Diff mit DBR synchronisieren
  • [SPARK-50752] [SC-185547][python][SQL] Einführen von Konfigurationen für die Optimierung von Python UDF ohne Pfeil
  • [SPARK-50705] [SC-185944][sql] Machen QueryPlan sperrfrei
  • [SPARK-50690] [16.x][sc-184640][SQL] Korrektur von Diskrepanzen bei der Verwendung von Anführungszeichen für DESCRIBE TABLE-Ansichtsabfrageausgabespalten
  • [SPARK-50746] [SC-184932][sql] Ersetzen von Either durch VariantPathSegment.
  • [SPARK-50715] [SC-185546][python][CONNECT] SparkSession.Builder legt die Konfigurationen im Batch fest.
  • [SPARK-50480] [SC-183359][sql] Erweitern von „CharType“ und „VarcharType“ von „StringType“
  • [SPARK-50675] [SC-184539][sql] Unterstützung für Tabellen- und Ansichtsebenenkollationen
  • [SPARK-50409] [SC-184516][sql] Korrigiere die Set-Anweisung, um ; am Ende von SET;, SET -v; und SET key; zu ignorieren.
  • [SPARK-50743] [SC-185528][sql] Normalisieren von CTERelationDef- und CTERelationRef-IDs
  • [SPARK-50693] [SC-184684][connect] Die Eingaben für TypedScalaUdf sollten analysiert werden.
  • [SPARK-50744] [SC-184929][sql] Hinzufügen eines Testfalls für die Rangfolge der Namensauflösung von Ansichten/CTE
  • [SPARK-50710] [SC-184767][connect] Hinzufügen von Unterstützung für optionale Clientverbindung zu Sitzungen nach der Veröffentlichung
  • [SPARK-50703] [SC-184843][python] Verfeinern sie die Docstring von regexp_replace, regexp_substr und regexp_instr
  • [SPARK-50716] [SC-184823][core] Korrektur der Bereinigungslogik für symbolische Verknüpfungen in der JavaUtils.deleteRecursivelyUsingJavaIO-Methode
  • [SPARK-50630] [SC-184443][sql] Korrektur der GROUP BY-Ordinalunterstützung für Pipe-SQL AGGREGATE-Operatoren
  • [SPARK-50614] [SC-184729][sql] Hinzufügen von Variant-Zerkleinerungsunterstützung für Parquet
  • [SPARK-50661] [SASP-4936] Fügen Sie abwärtskompatibilität für alte Client-FEB hinzu.
  • [SPARK-50676] [SC-184641][sql] Entfernen nicht verwendeter private lazy val mapValueContainsNull aus ElementAt
  • [SPARK-50515] [SC-183813][core] Hinzufügen einer schreibgeschützten Schnittstelle zu SparkConf
  • [SPARK-50697] [SC-184702][sql] Aktivieren der Tail-Rekursion, wo immer möglich
  • [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Korrigieren Sie das Statusschema für FlatMapGroupsWithState in spark connect, wenn kein Anfangszustand vorhanden ist.
  • [SPARK-50701] [SC-184704][python] Festlegen, dass für die Diagrammerstellung die Mindestversion von Plotly erforderlich ist
  • [SPARK-50702] [SC-184727][python] Verfeinern der Dokumentzeichenfolge von regexp_count, regexp_extract und regexp_extract_all
  • [SPARK-50499] [SC-184177][python] Verfügbarmachen von Metriken von BasePythonRunner
  • [SPARK-50692] [SC-184705][16.x] Hinzufügen der RPAD-Pushdown-Unterstützung
  • [SPARK-50682] [SC-184579][sql] Innerer Alias sollte kanonisiert werden
  • [SPARK-50699] [SC-184695][python] Analysieren und Generieren einer DDL-Zeichenfolge mit einer angegebenen Sitzung
  • [SPARK-50573] [SC-184568][ss] Hinzufügen der Statusschema-ID zu Zustandszeilen zur Schemaentwicklung
  • [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Korrektur der Spark Connect Scala foreachBatch-Implementierung zur Unterstützung von Dataset[T].
  • [SPARK-50689] [SC-184591][sql] Deterministische Sortierung in LCA-Projektlisten erzwingen
  • [SPARK-50696] [SC-184667][python] Optimize Py4J-Aufruf für die DDL-Analysemethode
  • [SPARK-49670] [SC-182902][sql] Aktivieren der Kürzungssortierung für alle Passthrough-Ausdrücke
  • [SPARK-50673] [SC-184565][ml] Vermeiden des zweimaligen Durchlaufens von Modellkoeffizienten im Word2VecModel-Konstruktor
  • [SPARK-50687] [SC-184588][python] Optimieren der Logik zum Abrufen von Stapelrückverfolgungen für DataFrameQueryContext
  • [SPARK-50681] [SC-184662][python][CONNECT] Zwischenspeichern des analysierten Schemas für MapInXXX und ApplyInXXX
  • [SPARK-50674] [SC-184589][python] Korrektur der Überprüfung auf das Vorhandensein der Methode „terminate“ in der UDTF-Auswertung
  • [SPARK-50684] [SC-184582][python] Verbessern der Py4J-Leistung in DataFrameQueryContext
  • [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Fügen Sie Unterstützung für neue Versionen von Statusmetadaten für TransformWithStateInPandas hinzu.
  • [SPARK-50602] [SC-184439][sql] Korrektur der Transponierung zum Anzeigen einer korrekte Fehlermeldung, wenn ungültige Indexspalten angegeben werden
  • [SPARK-50650] [SC-184532][sql] Verbessern der Protokollierung im Einzeldurchlauf-Analysetool
  • [SPARK-50665] [SC-184533][sql] Ersetze LocalRelation durch ComparableLocalRelation in NormalizePlan.
  • [SPARK-50644] [SC-184486][sql] Lesen der Variantenstruktur in Parquet-Reader
  • [SPARK-49636] [SC-184089][sql] Entfernen des ANSI-Konfigurationsvorschlags in INVALID_ARRAY_INDEX und INVALID_ARRAY_INDEX_IN_ELEMENT_AT
  • [SPARK-50659] [SC-184514][sql] Umgestalten der Ausgabeberechnung der Union, um sie im Einzeldurchlauf-Analysetool wiederzuverwenden
  • [SPARK-50659] [SC-184512][sql] Verschieben von Union-bezogenen Fehlern zu QueryCompilationErrors
  • [SPARK-50530] [SC-183419][sql] Korrektur ungültiger impliziter Zeichenfolgentypkontextberechnung
  • [SPARK-50546] [SC-183807][sql] Hinzufügen der Unterstützung von Unterabfragen zur Koersion des Sortiertyps
  • [SPARK-50405] [SC-182889][sql] Korrekte Behandlung der Sortierungstyp-Koersion von komplexen Datentypen
  • [SPARK-50637] [SC-184434][sql] Korrigieren der Codeformatvorlage für den Single-Pass Analyzer
  • [SPARK-50638] [SC-184435][sql] Umgestalten der Ansichtsauflösung in die separate Datei, um sie im Einzeldurchlauf-Analysetool wiederzuverwenden
  • [SPARK-50615] [SC-184298][sql] Pushen der Variante in die Überprüfung
  • [SPARK-50619] [SC-184210][sql] Umgestalten von „VariantGet.cast“ zum Packen der Umwandlungsargumente
  • [SPARK-50599] [SC-184058][sql] Erstellen Sie die DataEncoder-Eigenschaft, die avro- und unsafeRow-Codierung ermöglicht.
  • [SPARK-50076] [SC-183809] Korrektur von LogKeys
  • [SPARK-50597] [SC-183972][sql] Batchkonstruktion in Optimizer.scala und SparkOptimizer.scala umgestalten
  • [SPARK-50339] [SC-183063][spark-50360][SS] Aktivieren des Änderungsprotokolls zur Speicherung von Abstammungsinformationen
  • [SPARK-50526] [SC-183811][ss] Hinzufügen der Konfiguration für das Speichercodierungsformat im Offsetprotokoll und Sperren nicht unterstützter zustandsbehafteter Operatoren für die Nutzung von Avro
  • [SPARK-50540] [SC-183810][python][SS] Fixzeichenfolgenschema für StatefulProcessorHandle
  • [SPARK-50157] [SC-183789][sql] Verwenden von SQLConf, das von SparkSession zuerst bereitgestellt wird.
  • [SPARK-48898] [SC-183793][sql] Legen Sie die Nullierbarkeit im Variant-Schema richtig fest.
  • [SPARK-50559] [SC-183814][sql] Speichern der Except-, Intersect- und Union-Ausgaben als verzögerte Werte
  • [SPARK-48416] [SC-183643][sql] Unterstützung geschachtelter korrelierter WITH-Ausdrücke
  • [SPARK-50428] [SC-183566][ss][PYTHON] Unterstützung von „TransformWithStateInPandas“ in Batchabfragen
  • [SPARK-50063] [SC-183350][sql][CONNECT] Hinzufügen von Unterstützung für Variant im Spark Connect Scala-Client
  • [SPARK-50544] [SC-183569][python][CONNECT] Implementieren von StructType.toDDL
  • [SPARK-50443] [SC-182590][ss] Beheben von Maven-Buildfehlern, die von Guava-Cache in RocksDBStateStoreProvider eingeführt wurden
  • [SPARK-50491] [SC-183434][sql] Beheben eines Fehlers, bei dem leere BEGIN-END-Blöcke einen Fehler auslösen
  • [SPARK-50536] [SC-183443][core] Protokolliere heruntergeladene Archivdateigrößen in SparkContext und Executor
  • [SPARK-45891] [SC-183439][sql] Variant-Binärdatei aus zerkleinerten Daten neu erstellen.
  • [SPARK-49565] [SC-183465][sql] Hinzufügen der SQL-Pipesyntax für den FROM-Operator
  • [SPARK-50497] [SC-183338][sql] Fehler bei Abfragen mit der richtigen Meldung, wenn „MultiAlias“ eine Nicht-Generator-Funktion enthält
  • [SPARK-50460] [SC-183375][python][CONNECT] Verallgemeinern und vereinfachen des Connect-Ausnahmehandlings
  • [SPARK-50537] [SC-183452][connect][PYTHON] Korrektur der Komprimierungsoption, die in df.write.parquet überschrieben wird
  • [SPARK-50329] [SC-183358][sql] Korrektur für „InSet$toString“
  • [SPARK-50524] [SC-183364][sql] Absenken der RowBasedKeyValueBatch.spill-Warnmeldung auf Debug-Ebene
  • [SPARK-50528] [SC-183385][Verbinden] Verschieben von InvalidCommandInput zum gemeinsamen Modul
  • [SPARK-50017] [SC-182438][ss] Unterstützung der Avro-Codierung für den TransformWithState-Operator
  • [SPARK-50463] [SC-182833][sql] Korrektur von ConstantColumnVector mit der Konvertierung vom Spaltenformat zum Zeilenformat
  • [SPARK-50235] [SC-180786][sql] Aufräumen der ColumnVector-Ressource nach der Verarbeitung aller Zeilen in ColumnarToRowExec
  • [SPARK-50516] [SC-183279][ss][MINOR] Korrektur des Tests für den Init-Zustand zur Verwendung von „StreamManualClock“
  • [SPARK-50478] [SC-183188][sql] StringType-Abgleich korrigieren
  • [SPARK-50492] [SC-183177][ss] Korrektur von „java.util.NoSuchElementException“, wenn die Ereigniszeitspalte nach „dropDuplicatesWithinWatermark“ entfernt wird
  • [SPARK-49566] [SC-182589][sql] Fügen Sie die SQL-Pipesyntax für den Operator SET hinzu.
  • [SPARK-50449] [SC-183178][sql] Korrektur der SQL-Skriptgrammatik, um leere Inhalte für Schleifen, IF und CASE zuzulassen
  • [SPARK-50251] [SC-180970][python] Hinzufügen von getSystemProperty zu PySpark-SparkContext
  • [SPARK-50421] [SC-183091][core] Korrektur der speicherbezogenen Executor-Konfiguration ist fehlerhaft, wenn mehrere Ressourcenprofile aktiv sind
  • [SPARK-49461] [SC-179572][ss] Persistente Checkpoint-ID zum Commit von Protokolldateien und zum Zurücklesen
  • [SPARK-50343] [SC-183119][spark-50344][SQL] Hinzufügen der SQL-Pipesyntax für die DROP- und AS-Operatoren
  • [SPARK-50481] [SC-182880][core] Verbessern von SortShuffleManager.unregisterShuffle, um die Prüfsummendateilogik zu überspringen, wenn die Prüfsumme deaktiviert ist
  • [SPARK-50498] [SC-183090][python] Vermeiden Sie unnötigen py4j-Aufruf in listFunctions
  • [SPARK-50489] [SC-183053][sql][PYTHON] Korrektur der Selbstverknüpfung nach applyInArrow
  • [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres-Fix xor Push-Down

Databricks ODBC/JDBC-Treiberunterstützung

Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter und aktualisieren Sie (ODBCherunterladen, JDBCherunterladen ).

Wartungsupdates

Weitere Informationen finden Sie unter Wartungsupdates für Databricks Runtime 16.2.

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.1 LTS
  • Java: Zulu17.54+21-CA
  • Scala: 2.12.18
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.3.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
annotated-types 0.7.0 asttokens 2.0.5 astunparse 1.6.3
autocommand 2.2.2 azure-core 1.31.0 azure-storage-blob 12.23.0
azure-storage-file-datalake 12.17.0 backports.tarfile 1.2.0 black 24.4.2
blinker 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools 5.3.3 certifi 2024.6.2 cffi 1.16.0
chardet 4.0.0 charset-normalizer 2.0.4 click 8.1.7
cloudpickle 2.2.1 comm 0.2.1 contourpy 1.2.0
cryptography 42.0.5 cycler 0.11.0 Cython 3.0.11
databricks-sdk 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
decorator 5.1.1 Veraltet 1.2.14 distlib 0.3.8
docstring-to-markdown 0.11 entrypoints 0.4 executing 0.8.3
Facettenübersicht 1.1.1 filelock 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
google-auth 2.35.0 google-cloud-core 2.4.1 google-cloud-storage 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
inflect 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-semantic-conventions 0.48b0
packaging 24.1 pandas 1.5.3 parso 0.8.3
pathspec 0.10.3 patsy 0.5.6 pexpect 4.8.0
pillow 10.3.0 pip 24.2 platformdirs 3.10.0
plotly 5.22.0 pluggy 1.0.0 prompt-toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.65 pycparser 2.21 pydantic 2.8.2
pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing 3.0.9 pyright 1.1.294 python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6
pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
requests 2.32.2 rope 1.12.0 rsa 4.9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1
seaborn 0.13.2 setuptools 74.0.0 six 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
Stapeldaten 0.2.0 statsmodels 0.14.2 tenacity 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.4.1 traitlets 5.14.3 typeguard 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 types-requests 2.31.0.0 types-setuptools 68.0.0.0
types-six 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 unbeaufsichtigte Aktualisierungen 0.1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5
whatthepatch 1.0.2 wheel 0.43.0 wrapt 1.14.1
yapf 0.33.0 zipp 3.17.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2024-08-04 installiert: https://packagemanager.posit.co/cran/2024-08-04/.

Bibliothek Version Bibliothek Version Bibliothek Version
arrow 16.1.0 askpass 1.2.0 assertthat 0.2.1
backports 1.5.0 base 4.4.0 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-8 Klumpen 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 broom 1.0.6
bslib 0.8.0 cachem 1.1.0 callr 3.7.6
caret 6.0-94 CellRanger 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.3 clipr 0.8.0
clock 0.7.1 cluster 2.1.6 codetools 0.2-20
colorspace 2.1-1 commonmark 1.9.1 compiler 4.4.0
config 0.3.2 conflicted 1.2.0 cpp11 0.4.7
crayon 1.5.3 Zugangsdaten 2.0.1 curl 5.2.1
data.table 1.15.4 Datensätze 4.4.0 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
diagram 1.6.5 diffobj 0.3.5 digest 0.6.36
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 ellipsis 0.3.2 evaluate 0.24.0
Fans 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
foreign 0.8-86 forge 0.2.0 fs 1.6.4
future 1.34.0 future.apply 1.11.2 gargle 1.5.2
generics 0.1.3 gert 2.1.0 ggplot2 3.5.1
gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.3 glue 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
graphics 4.4.0 grDevices 4.4.0 grid 4.4.0
gridExtra 2.3 gsubfn 0,7 gt 0.11.0
gtable 0.3.5 hardhat 1.4.0 haven 2.5.4
highr 0.11 hms 1.1.3 htmltools 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1.48 labeling 0.4.3
later 1.3.2 lattice 0.22-5 lava 1.8.0
lifecycle 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 methods 4.4.0
mgcv 1.9-1 mime 0.12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 parallel 4.4.0
parallelly 1.38.0 pillar 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 praise 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 progress 1.2.3
progressr 0.14.0 promises 1.3.0 proto 1.0.0
proxy 0.4-27 P.S. 1.7.7 purrr 1.0.2
R6 2.5.1 ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reactable 0.4.4
reactR 0.6.0 readr 2.1.5 readxl 1.4.3
recipes 1.1.0 rematch 2.0.0 rematch2 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.4 rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
scales 1.3.0 selectr 0.4-2 Sitzungsinfo 1.2.2
shape 1.4.6.1 shiny 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 spatial 7.3-17 splines 4.4.0
sqldf 0.4-11 SQUAREM 2021.1 stats 4.4.0
stats4 4.4.0 stringi 1.8.4 stringr 1.5.1
survival 3.6-4 swagger 5.17.14.1 sys 3.4.2
systemfonts 1.1.0 tcltk 4.4.0 testthat 3.2.1.1
Textgestaltung 0.4.0 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.1 tidyverse 2.0.0 Zeitumstellung 0.3.0
timeDate 4032.109 tinytex 0.52 tools 4.4.0
tzdb 0.4.0 urlchecker 1.0.1 benutze dies 3.0.0
utf8 1.2.4 utils 4.4.0 Universelle eindeutige Kennung (UUID) 1.2-1
V8 4.4.2 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 waldo 0.5.2 whisker 0.4.1
withr 3.0.1 xfun 0.46 xml2 1.3.6
xopen 1.0.1 xtable 1.8-4 yaml 2.3.10
zeallot 0.1.0 zip 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeine 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Ureinwohner
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Ureinwohner
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Ureinwohner
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Ureinwohner
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone fehleranfällige_Anmerkungen 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics Metriken-Servlets 4.2.19
io.netty netty-all 4.1.108.Final
io.netty netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-socks 4.1.108.Final
io.netty netty-common 4.1.108.Final
io.netty netty-handler 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty netty-resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx collector 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Zoowärter 3.9.2
org.apache.zookeeper zookeeper-jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty Jetty-HTTP 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-Server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 4.0.7
org.json4s json4s-core_2.12 4.0.7
org.json4s json4s-jackson-core_2.12 4.0.7
org.json4s json4s-jackson_2.12 4.0.7
org.json4s json4s-scalap_2.12 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
stax stax-api 1.0.1