Databricks Runtime 13.1 (EoS)
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Support-Enddatum finden Sie in der Supporthistorie. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise und Kompatibilität der Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 13.1, unterstützt von Apache Spark 3.4.0.
Diese Version wurde von Databricks im Mai 2023 veröffentlicht.
Neue Features und Verbesserungen
- Clusterunterstützung für JDK 17 (Public Preview)
- Hinzufügen, Ändern oder Löschen von Daten in Streamingtabellen
- Lesen von Kafka mit SQL
- Neue integrierte SQL-Funktionen
- Unity Catalog-Unterstützung für Python-Bibliotheken im Clusterbereich
- Erweiterte Standardaktivierung für optimierte Schreibvorgänge in Unity Catalog
- Erweiterte Unterstützung für zustandsbehaftete Operatoren in Structured Streaming-Workloads
- Delta-Klon für Unity Catalog befindet sich in der Phase „Public Preview”
- Pub/Sub-Unterstützung für strukturiertes Streaming
- Löschen von Duplikaten innerhalb von Wasserzeichen in Structured Streaming
- Erweiterte Unterstützung für Delta-Konvertierungen aus Iceberg-Tabellen mit abgeschnittenen Partitionsspalten
- Streamschemaänderungen mit Spaltenzuordnung in Delta Lake
- START VERSION entfernen
- Neue H3-Ausdrücke in Python verfügbar
Clusterunterstützung für JDK 17 (Public Preview)
Databricks bietet jetzt Clusterunterstützung für Java Development Kit (JDK) 17. Siehe Databricks SDK für Java.
Hinzufügen, Ändern oder Löschen von Daten in Streamingtabellen
Sie können jetzt DML-Anweisungen verwenden, um Streamingtabellen zu ändern, die im Unity-Katalog von DLT-Pipelines veröffentlicht wurden. Weitere Informationen finden Sie unter Hinzufügen, Ändern oder Löschen von Daten in einer Streamingtabelle und unter Hinzufügen, Ändern oder Löschen von Daten in einer Zielstreamingtabelle. Sie können auch DML-Anweisungen verwenden, um in Databricks SQL erstellte Streamingtabellen zu ändern.
Lesen von Kafka mit SQL
Sie können jetzt die SQL-Funktion read_kafka
zum Lesen von Kafka-Daten verwenden. Streaming mit SQL wird nur in DLT oder mit Streamingtabellen in Databricks SQL unterstützt. Siehe read_kafka
Tabellenwertfunktion.
Neue integrierte SQL-Funktionen
Die folgenden analytischen Funktionen wurden hinzugefügt:
- array_prepend(array, elem): Gibt
array
mit vorangestelltemelem
zurück. - try_aes_decrypt(expr, key [, mode [, padding]]): Entschlüsselt eine Binärdatei, die mithilfe der AES-Verschlüsselung erstellt wurde, und gibt
NULL
zurück, wenn ein Fehler vorliegt. - sql_keywords(): Gibt eine Tabelle mit Azure Databricks SQL-Schlüsselwörtern zurück.
Unity Catalog-Unterstützung für Python-Bibliotheken im Clusterbereich
Unity Catalog weist einige Einschränkungen bei der Bibliotheksnutzung auf. In Databricks Runtime 13.1 und höher werden clusterspezifische Python-Bibliotheken unterstützt, einschließlich Python-Wheel-Dateien, die als Arbeitsbereichsdateien hochgeladen werden. Bibliotheken, auf die mit Databricks File System (DBFS)-Dateipfaden verwiesen wird, werden nicht unterstützt, unabhängig davon, ob sie sich im DBFS-Stamm oder an einem externen Speicherort befinden, der in einem DBFS eingebunden ist. Nicht-Python-Bibliotheken werden nicht unterstützt. Weitere Informationen finden Sie unter Clusterbibliotheken.
In Databricks Runtime 13.0 und niedriger werden clusterspezifische Bibliotheken nicht für Cluster unterstützt, die den Standardzugriffsmodus (ehemals Zugriffsmodus „Freigegeben“) in einem Arbeitsbereich mit Unity Catalog-Unterstützung verwenden.
Erweiterte Standardaktivierung für optimierte Schreibvorgänge in Unity Catalog
Die standardmäßige optimierte Schreibunterstützung für Delta-Tabellen, die in Unity Catalog registriert sind, wurde erweitert, um CTAS
-Anweisungen und INSERT
-Vorgänge für partitionierte Tabellen einzuschließen. Dieses Verhalten richtet sich an den Standardwerten in SQL-Warehouses aus. Weitere Informationen finden Sie unter Optimierte Schreibvorgänge für Delta Lake in Azure Databricks.
Erweiterte Unterstützung für zustandsbehaftete Operatoren in Structured Streaming-Workloads
Sie können jetzt mehrere zustandsbehaftete Operatoren miteinander verketten, was bedeutet, dass Sie die Ausgabe eines Vorgangs, z. B. einer Fensteraggregation, an einen anderen zustandsbehafteten Vorgang wie z. B. eine Verknüpfung übertragen können. Siehe Was ist zustandsbehaftetes Streaming?.
Der Delta-Klon für Unity Catalog befindet sich in der öffentlichen Vorschauphase.
Sie können jetzt flache Klone verwenden, um neue verwaltete Unity Catalog-Tabellen aus vorhandenen verwalteten Unity Catalog-Tabellen zu erstellen. Weitere Informationen finden Sie unter Flacher Klon für Unity Catalog-Tabellen.
Pub/Sub-Unterstützung für strukturiertes Streaming
Sie können jetzt einen integrierten Connector verwenden, um Google Pub/Sub mit strukturiertem Streaming zu abonnieren. Weitere Informationen finden Sie unter Abonnieren von Google Pub/Sub.
Löschen von Duplikaten innerhalb von Wasserzeichen in strukturiertem Streaming
Sie können jetzt dropDuplicatesWithinWatermark
in Kombination mit einem angegebenen Wasserzeichen-Schwellenwert verwenden, um Datensätze in strukturiertem Streaming zu deduplizieren. Weitere Informationen finden Sie unter Löschen von Duplikaten innerhalb eines Wasserzeichens.
Erweiterte Unterstützung für Delta-Konvertierungen aus Iceberg-Tabellen mit abgeschnittenen Partitionsspalten
Sie können jetzt CLONE
und CONVERT TO DELTA
mit Iceberg-Tabellen verwenden, die Partitionen für abgeschnittene Spalten der Typen int
, long
und string
definiert haben. Abgeschnittene Spalten vom Typ decimal
werden nicht unterstützt.
Streamschemaänderungen mit Spaltenzuordnung in Delta Lake
Sie können jetzt einen Speicherort für die Schemanachverfolgung bereitstellen, um das Streaming von Delta-Tabellen mit aktivierter Spaltenzuordnung zu ermöglichen. Weitere Informationen finden Sie unter Streaming mit Spaltenzuordnung und Schemaänderungen.
Entfernen von START VERSION
START VERSION
ist jetzt für ALTER SHARE
veraltet.
Neue H3-Ausdrücke in Python verfügbar
Die Ausdrücke h3_coverash3
und h3_coverash3string
sind in Python verfügbar.
Fehlerkorrekturen
Beim Lesen von Parquet-Dateien mit failOnUnknownFields werden Daten bei Typkonflikten nicht mehr automatisch gelöscht.
Wenn eine Parquet-Datei nur mit der failOnUnknownFields
-Option oder mit Autoloader im failOnNewColumns
-Schemaentwicklungsmodus gelesen wird, schlagen Spalten mit unterschiedlichen Datentypen jetzt fehl und empfehlen die Verwendung von rescuedDataColumn
. Beim automatischen Laden (Autoloader) werden Integer-, Short- und Byte-Typen jetzt korrekt gelesen und nicht wiederhergestellt, wenn einer dieser Datentypen bereitgestellt wird. Die Parquet-Datei schlägt einen der beiden anderen Typen vor.
Durchbrechende Änderungen
Upgrade der sqlite-jdbc-Version auf 3.42.0.0 zum Behandeln von CVE-2023-32697
Führen Sie ein Upgrade der sqlite-jdbc-Version von 3.8.11.2 auf 3.42.0.0 durch. Die APIs der Version 3.42.0.0 sind nicht vollständig mit 3.8.11.2 kompatibel. Wenn Sie sqlite-jdbc in Ihrem Code verwenden, überprüfen Sie den sqlite-jdbc-Kompatibilitätsbericht auf Details. Wenn Sie zu 13.1 migrieren und sqlite verwenden, bestätigen Sie Ihre Methoden und den Rückgabetyp in Version 3.42.0.0.
Bibliotheksverbesserungen
- Aktualisierte Python-Bibliotheken:
- facets-overview von 1.0.2 auf 1.0.3
- filelock von 3.10.7 auf 3.12.0
- pyarrow von 7.0.0 auf 8.0.0
- tenacity von 8.0.1 auf 8.1.0
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
- com.github.ben-manes.caffeine.caffeine von 2.3.4 auf 2.9.3
- io.delta.delta-sharing-spark_2.12 von 0.6.8 auf 0.6.4
- net.snowflake.snowflake-jdbc von 3.13.29 auf 3.13.22
- org.checkerframework.checker-qual von 3.5.0 auf 3.19.0
- org.scalactic.scalactic_2.12 von 3.0.8 auf 3.2.15
- org.scalatest.scalatest_2.12 von 3.0.8 auf 3.2.15
- org.xerial.sqlite-jdbc von 3.8.11.2 auf 3.42.0.0
Apache Spark
Databricks Runtime 13.1 enthält Apache Spark 3.4.0. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 13.0 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-42719] [DBRRM-199][sc-131578] Zurücksetzen von [SC-125225] ‚MapOutputTracker#getMap…
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Zurücksetzen von [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Hinzufügen von SparkSession.interruptAll in Spark Connect
- [SPARK-43332] [SC-130051][connect][PYTHON] Ermöglichen, ChannelBuilder für SparkConnectClient zu erweitern
- [SPARK-43323] [SC-129966][sql][PYTHON] Korrektur von DataFrame.toPandas mit aktivierter Arrow-Unterstützung zur ordnungsgemäßen Behandlung von Ausnahmen
- [SPARK-42940] [SC-129896][ss][CONNECT] Verbessern der Sitzungsverwaltung für Streamingabfragen
- [SPARK-43032] [SC-125756] [CONNECT][ss] Hinzufügen des Streamingabfrage-Managers
- [SPARK-16484] [SC-129975][sql] Hinzufügen von Unterstützung für Datasketches HllSketch
- [SPARK-43260] [SC-129281][python] Migration der Spark SQL Pandas-Arrow-Fehlertypen zur Fehlerklasse
- [SPARK-41766] [SC-129964][core] Behandeln von Außerbetriebsetzungsanforderungen, die vor der Executorregistrierung gesendet wurden
- [SPARK-43307] [SC-129971][python] Migration von PandasUDF-Wertfehlern zur Fehlerklasse
- [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() umfasst Stack-Trace
- [SPARK-43311] [SC-129905][ss] Hinzufügen von Speicherverwaltungsverbesserungen für den RocksDB State Store Anbieter
- [SPARK-43237] [SC-129898][core] Umgang mit Null-Ausnahmemeldungen im Ereignisprotokoll
- [SPARK-43320] [SC-129899][sql][HIVE] Rufen Sie hive 2.3.9-API direkt auf
- [SPARK-43270] [SC-129897][python] Implementieren sie
__dir__()
inpyspark.sql.dataframe.DataFrame
, um Spalten einzuschließen. - [SPARK-43183] Zurücksetzen von „[SC-128938][ss] Einführen eines neuen Rückrufs“...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][sql] Ersetzen Sie die Fehlerklasse _LEGACY_ERROR_TEMP_2022 durch einen internen Fehler.
- [SPARK-43198] [SC-129470][connect] Korrektur von „Klasse ammonite... konnte nicht initialisiert werden“ Fehler bei Verwendung des Filters
- [SPARK-43165] [SC-129777][sql] Verschieben von canWrite in DataTypeUtils
- [SPARK-43298] [SC-129729][python][ML] predict_batch_udf mit skalarer Eingabe schlägt bei Batchgröße 1 fehl
- [SPARK-43298] [SC-129700] Revert „[PYTHON][ml] predict_batch_udf mit skalarer Eingabe schlägt bei Batchgröße 1 fehl“
- [SPARK-43052] [SC-129663][core] Behandeln von StackTrace mit NULL-Dateinamen im Ereignisprotokoll
- [SPARK-43183] [SC-128938][ss] Führt einen neuen Rückruf "onQueryIdle" in StreamingQueryListener ein
- [SPARK-43209] [SC-129190][connect][PYTHON] Migration von Ausdrucksfehlern zur Fehlerklasse
- [SPARK-42151] [SC-128754][sql] Abgleichen von UPDATE-Zuweisungen mit Tabellenattributen
- [SPARK-43134] [SC-129468] [CONNECT] [SS] StreamingQuery-Ausnahme-API für JVM-Client
- [SPARK-43298] [SC-129699][python][ML] predict_batch_udf mit skalarer Eingabe schlägt bei einer Batchgröße von eins fehl
- [SPARK-43248] [SC-129660][sql] Unnötige Serialisierung/Deserialisierung des Pfads (Path) beim parallelen Sammeln von Partitionsstatistiken
- [SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Einführen von
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][connect][PYTHON] Implementieren der Eager-Auswertung für repr und repr_html
- [SPARK-42953] [SC-129469][connect][Followup] Korrektur des Maven-Testbuilds für Scala-Client-UDF-Tests
- [SPARK-43144] [SC-129280] DataStreamReader table()-API auf Scala-Client
- [SPARK-43136] [SC-129358][connect] Hinzufügen von groupByKey + mapGroup + coGroup-Funktionen
- [SPARK-43156] [SC-129672][sc-128532][SQL] Beheben
COUNT(*) is null
Fehler in korrelierten skalaren Unterabfragen - [SPARK-43046] [SC-129110] [SS] [Connect] Implementieren der Python-API dropDuplicatesWithinWatermark für Spark Connect
- [SPARK-43199] [SC-129467][sql] Festlegen von InlineCTE als idempotent
- [SPARK-43293] [SC-129657][sql]
__qualified_access_only
sollte in normalen Spalten ignoriert werden. - [SPARK-43276] [SC-129461][connect][PYTHON] Migration von Spark Connect-Fensterfehlern zur Fehlerklasse
- [SPARK-43174] [SC-129109][sql] Korrektur der SparkSQLCLIDriver-Vervollständigung
- [SPARK-43084] [SC-128654] [SS] Hinzufügen von ApplyInPandasWithState-Unterstützung für Spark Connect
- [SPARK-43119] [SC-129040][sql] Unterstützung für das dynamische Abrufen von SQL-Schlüsselwörtern über die JDBC-API und TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] Pfeiloptimierte Python-UDFs in Spark Connect
- [SPARK-43085] [SC-128432][sql] Unterstützung der DEFAULT-Spaltenzuweisung für mehrteilige Tabellennamen
- [SPARK-43226] [LC-671] Definieren von Extraktionsfunktionen für Dateikonstantenmetadaten
- [SPARK-43210] [SC-129189][connect][PYTHON] Einführung von
PySparkAssertionError
- [SPARK-43214] [SC-129199][sql] Veröffentlichen von treiberseitigen Metriken für LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Korrigieren des konsistenten ReplE2ESuite-Fehlers mit JDK 17
- [SPARK-43268] [SC-129249][sql] Verwenden Sie die richtigen Fehlerklassen, wenn Ausnahmen mit einer Nachricht erstellt werden.
- [SPARK-43142] [SC-129299] Korrigieren von DSL-Ausdrücken für Attribute mit Sonderzeichen
- [SPARK-43129] [SC-128896] Scala-Core-API für das Streamen von Spark Connect
- [SPARK-43233] [SC-129250] [SS] Hinzufügen von Protokollierung für Kafka-Batchlesevorgänge für Themenpartition, Offsetbereich und Aufgaben-ID
- [SPARK-43249] [SC-129195][connect] Behebung fehlender Statistiken für SQL Command
- [SPARK-42945] [SC-129188][connect] Unterstützung von PYSPARK_JVM_STACKTRACE_ENABLED in Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Migrieren von UDF-Fehlern in pySpark-Fehlerframework
- [SPARK-43123] [SC-128494][sql] Interne Feldmetadaten sollten nicht in Kataloge verloren gehen
- [SPARK-43217] [SC-129205] Korrekte Rekursion in geschachtelten Karten/Arrays in findNestedField
- [SPARK-43243] [SC-129294][python][CONNECT] Fügen Sie das Parameter "level" zu printSchema für Python hinzu
- [SPARK-43230] [SC-129191][connect] Vereinfachen von
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][sql] Beachten von RequiresDistributionAndOrdering in CTAS/RTAS
- [SPARK-43234] [SC-129192][connect][PYTHON] Migration von
ValueError
von Connect DataFrame zur Fehlerklasse - [SPARK-43212] [SC-129187][ss][PYTHON] Migration von Structured Streaming-Fehlern zur Fehlerklasse
- [SPARK-43239] [SC-129186][ps] Entfernen
null_counts
aus info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput sollte mit der untergeordneten Ausgabe konsistent sein
- [SPARK-43191] [SC-128924][core] Ersetzen der Reflexion durch direktes Aufrufen für Hadoop CallerContext
- [SPARK-43193] [SC-129042][ss] Entfernen der Problemumgehung für HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Unterstützung zum Suchen und Übertragen von clientseitigen REPL-Klassendateien als Artefakte auf den Server
- [SPARK-43098] [SC-77059][sql] Korrektur der Richtigkeit des COUNT-Fehlers bei skalaren Unterabfragen mit GROUP BY-Klausel
- [SPARK-43213] [SC-129062][python] Hinzufügen von
DataFrame.offset
zu Vanilla PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Fix createDataFrame, um das angegebene Schema ddl zu berücksichtigen
- [SPARK-43124] [SC-129011][sql] Lokales Projizieren von CommandResults mit Dataset.show
- [SPARK-42998] [SC-127422][connect][PYTHON] DataFrame.collect mit null-Struktur beheben
- [SPARK-41498] [SC-125343] Zurücksetzen von „Weitergabe von Metadaten über Union“
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Hinzufügen von await_termination()- und exception()-API für Streamingabfrage in Python
- [SPARK-42552] [SC-128824][sql] Korrigieren der zweistufigen Analysestrategie des ANTLR-Parsers
- [SPARK-43207] [SC-128937][connect] Fügen Sie Hilfsfunktionen hinzu, um Werte aus Literalausdrücken zu extrahieren.
- [SPARK-43186] [SC-128841][sql][HIVE] Entfernen der Problemumgehung für FileSinkDesc
- [SPARK-43107] [SC-128533][sql] Zusammenfügen von Buckets in Join auf der Broadcastjoin-Streamseite
- [SPARK-43195] [SC-128922][core] Entfernen Sie den unnötigen serialisierbaren Wrapper in HadoopFSUtils
- [SPARK-43137] [SC-128828][sql] Verbessern Sie ArrayInsert, wenn die Position faltbar und positiv ist.
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join sollte einen NULL-Wert für nicht übereinstimmende Zeile zurückgeben.
- [SPARK-43042] [SC-128602] [SS] [Connect] Hinzufügen von table()-API-Unterstützung für DataStreamReader
- [SPARK-43153] [SC-128753][connect] Spark-Ausführung überspringen, wenn der Dataframe lokal ist
- [SPARK-43064] [SC-128496][sql] Registerkarte „SQL“ in der Spark SQL-CLI sollte nur einmal eine Anweisung anzeigen
- [SPARK-43126] [SC-128447][sql] Markieren von zwei Hive-UDF-Ausdrücken als zustandsbehaftet
- [SPARK-43111] [SC-128750][ps][CONNECT][python] Verschachtelte
if
Anweisungen in einzelneif
-Anweisungen zusammenführen - [SPARK-43113] [SC-128749][sql] Streamseitige Variablen auswerten, wenn Code für eine gebundene Bedingung generiert wird
- [SPARK-42895] [SC-127258][connect] Verbessern von Fehlermeldungen für beendete Spark-Sitzungen
- [SPARK-42884] [SC-126662][connect] Hinzufügen der Ammonite-REPL-Integration
- [SPARK-43168] [SC-128674][sql] Entfernen der 'get PhysicalDataType'-Methode aus der Datentyp-Klasse
- [SPARK-43121] [SC-128455][sql] Verwenden Sie
BytesWritable.copyBytes
anstelle der manuellen Kopie in "HiveInspectors". - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog behält Char/Varchar-Metadaten auf der Leseseite bei
- [SPARK-43050] [SC-128550][sql] Korrektur der Erstellung von Aggregatausdrücken durch Ersetzen von Gruppierungsfunktionen
- [SPARK-43095] [SC-128549][sgl] Unterbrechung der Idempotenz der Strategie „Einmal vermeiden“ für den Batch:
Infer Filters
- [SPARK-43130] [SC-128597][sql] InternalType zu PhysicalDataType verschieben
- [SPARK-43105] [SC-128456][connect] Kürzen von Bytes und Zeichenfolgen in proto-Nachricht
- [SPARK-43099] [SC-128596][sql] Verwenden Sie
getName
anstelle vongetCanonicalName
, um den Namen der Generatorklasse beim Registrieren von Udf bei FunctionRegistry abzurufen. - [SPARK-42994] [SC-128586][ml][CONNECT] PyTorch Distributor unterstützen den lokalen Modus
- [SPARK-42859] Zurücksetzen von „[SC-127935][connect][PS] Grundlegende Unterstützung für Pandas-API in Spark Connect“
- [SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoin
funktioniert nicht bei Verwendung von AQE - [SPARK-43125] [SC-128477][connect] Beheben, dass der Connect Server keine Ausnahme mit NULL-Nachricht behandeln kann
- [SPARK-43147] [SC-128594] Korrektur von flake8 Lint für die lokale Überprüfung
- [SPARK-43031] [SC-128360] [SS] [Connect] Aktivieren von Komponententest und Doctest für Streaming
- [SPARK-43039] [LC-67] Unterstützen benutzerdefinierter Felder in der _metadata-Spalte der Dateiquelle
- [SPARK-43120] [SC-128407][ss] Unterstützung für die Nachverfolgung der Speichernutzung angehefteter Blöcke im RocksDB-Zustandsspeicher hinzufügen
- [SPARK-43110] [SC-128381][sql] Verschieben von asIntegral in PhysicalDataType
- [SPARK-43118] [SC-128398][ss] Entfernen der unnötigen Assertion für UninterruptibleThread in KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Unterstützung doppelter geschachtelter Feldnamen
- [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable ermöglicht das Angeben der Speicherebene.
- [SPARK-42985] [SC-128332][connect][PYTHON] Fix createDataFrame, um die SQL-Konfigurationen zu berücksichtigen
- [SPARK-39696] [SC-127830][core] Korrektur des Data Race beim Zugriff auf TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Verschieben von Integral in PhysicalDataType
- [SPARK-42741] [SC-125547][sql] Keine Aufhebung des Umbruchs von Umwandlungen im binären Vergleich, wenn das Literal NULL ist
- [SPARK-43057] [SC-127948][connect][PYTHON] Migration von Spark Connect-Spaltenfehlern zur Fehlerklasse
- [SPARK-42859] [SC-127935][connect][PS] Grundlegende Unterstützung für Pandas-API auf Spark Connect
- [SPARK-43013] [SC-127773][python] Migrieren Sie
ValueError
aus DataFrame inPySparkValueError
. - [SPARK-43089] [SC-128051][connect] Maskieren der Debugzeichenfolge in der Benutzeroberfläche
- [SPARK-43028] [SC-128070][sql] Fehlerklasse SQL_CONF_NOT_FOUND hinzufügen
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Test für dropDuplicates in JavaDatasetSuite hinzufügen
- [SPARK-43075] [SC-127939][connect] Ändern Sie
gRPC
ingrpcio
, wenn sie nicht installiert ist. - [SPARK-42953] [SC-127809][connect] Typisierter Filter, map, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][sql] Unterstützung der Aufhebung des Umbruchs des date-Typs in den timestamp-Typ
- [SPARK-42931] [SC-127933][s] Einführung von dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][connect] Hinzufügen von Proto-Datentypkonstanten
- [SPARK-43077] [SC-128050][sql] Verbessern der Fehlermeldung von UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] DataStreamReader-APIs
- [SPARK-43049] [SC-127846][sql] Verwenden Sie CLOB anstelle von VARCHAR(255) für StringType für Oracle ODBC
- [SPARK-43018] [SC-127762][sql] Fehlerbehebung für INSERT Befehle mit Zeitstempel-Literalen
- [SPARK-42855] [SC-127722][sql] Verwendung von Laufzeit-Nullüberprüfungen in TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Deduplizieren von Beziehungen mit Metadatenspalten
- [SPARK-42993] [SC-127829][ml][CONNECT] Den PyTorch Distributor mit Spark Connect kompatibel machen
- [SPARK-43058] [SC-128072][sql] Verschieben von „Numeric“ und „Fractional“ in PhysicalDataType
- [SPARK-43056] [SC-127946][ss] RocksDB-Zustandsspeichercommit sollte Hintergrundaufgaben nur im angehaltenen Zustand fortsetzen
- [SPARK-43059] [SC-127947][connect][PYTHON] Migration von TypeError aus DataFrame(Reader|Writer) zur Fehlerklasse
- [SPARK-43071] [SC-128018][sql] Unterstützung von SELECT DEFAULT mit ORDER BY, LIMIT, OFFSET für INSERT die Quellbeziehung
- [SPARK-43061] [SC-127956][core][SQL] Einführung von PartitionEvaluator für die Ausführung des SQL-Operators
- [SPARK-43067] [SC-127938][ss] Korrigieren Sie den Speicherort der Fehlerklassenressourcendatei im Kafka-Connector.
- [SPARK-43019] [SC-127844][sql] Verschieben von „Ordering“ in PhysicalDataType
- [SPARK-43010] [SC-127759][python] Spaltenfehler in Fehlerklasse migrieren
- [SPARK-42840] [SC-127782][sql]
_LEGACY_ERROR_TEMP_2004
Fehler in internen Fehler umwandeln - [SPARK-43041] [SC-127765][sql] Konstruktoren von Ausnahmen zur Kompatibilität in der Connector-API wiederherstellen
- [SPARK-42939] [SC-127761][ss][CONNECT] Core Streaming Python API für Spark Connect
- [SPARK-42844] [SC-127766][sql] Aktualisieren der Fehlerklasse
_LEGACY_ERROR_TEMP_2008
aufINVALID_URL
- [SPARK-42316] [SC-127720][sql] Weisen Sie _LEGACY_ERROR_TEMP_2044 einen Namen zu
- [SPARK-42995] [SC-127723][connect][PYTHON] Migration von Spark Connect-DataFrame-Fehlern zur Fehlerklasse
- [SPARK-42983] [SC-127717][connect][PYTHON] Korrektur von createDataFrame zum ordnungsgemäßen Behandeln von NumPy-Arrays der Dimension 0
- [SPARK-42955] [SC-127476][sql] Überspringe classifyException und umschließe AnalysisException für SparkThrowable
- [SPARK-42949] [SC-127255][sql] Vereinfachen des Codes für NAAJ
- [SPARK-43011] [SC-127577][sql]
array_insert
sollte bei einem Index von 0 fehlschlagen - [SPARK-42974] [SC-127487][core] Wiederherstellen von
Utils.createTempDir
zum Verwenden vonShutdownHookManager
und Bereinigen derJavaUtils.createTempDir
-Methode - [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' bedeutet auch, dass bereits eine Tabelle vorhanden ist.
- [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME kann new-table-Name nicht mit schema-Name qualifizieren
- [SPARK-37980] [SC-127668][sql] Zugreifen auf row_index über _metadata in Tests, falls möglich
- [SPARK-42655] [SC-127591][sql] Fehler durch falschen mehrdeutigen Spaltenverweis
- [SPARK-43009] [SC-127596][sql] Parametrisierung von
sql()
mitAny
-Konstanten - [SPARK-43026] [SC-127590][sql] Anwenden von AQE mit Nicht-Exchange-Tabellencache
- [SPARK-42963] [SC-127576][sql] Erweitern von SparkSessionExtensions zum Einfügen von Regeln in AQE-Abfragestufenoptimierer
- [SPARK-42918] [SC-127357] Verallgemeinern der Verarbeitung von Metadatenattributen in FileSourceStrategy
- [SPARK-42806] [SC-127452][spark-42811][CONNECT] Hinzufügen
Catalog
Unterstützung - [SPARK-42997] [SC-127535][sql] TableOutputResolver muss korrekte Spaltenpfade in Fehlermeldungen für Arrays und Karten verwenden.
- [SPARK-43006] [SC-127486][pyspark] Tippfehler in StorageLevel beheben eq()
- [SPARK-43005] [SC-127485][pyspark] Tippfehler beheben in pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Korrektur eines Tippfehlers in ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Implementieren von Avro-Funktionen
- [SPARK-42979] [SC-127272][sql] Definieren von Literalkonstruktoren als Schlüsselwörter
- [SPARK-42946] [SC-127252][sql] Maskieren vertraulicher Daten, die durch Variablenersetzung geschachtelt sind
- [SPARK-42952] [SC-127260][sql] Vereinfachen des Parameters der Analyseregel PreprocessTableCreation und DataSourceAnalysis
- [SPARK-42683] [LC-75] Automatisches Umbenennen in Konflikt stehender Metadatenspalten
- [SPARK-42853] [SC-126101][followup] Korrektur von Konflikten
- [SPARK-42929] [SC-126748][connect] Ermöglichen der Unterstützung von mapInPandas/mapInArrow für „is_barrier“
- [SPARK-42968] [SC-127271][ss] Hinzufügen der Option zum Überspringen des Commitkoordinators als Teil der StreamingWrite-API für DSv2-Quellen/-Senken
- [SPARK-42954] [SC-127261][python][CONNECT] Fügen Sie
YearMonthIntervalType
zu PySpark und Spark Connect Python Client hinzu - [SPARK-41359] [SC-127256][sql] Verwenden Sie
PhysicalDataType
anstelle von DataType in UnsafeRow - [SPARK-42873] [SC-127262][sql] Definieren von Spark SQL-Typen als Schlüsselwörter
- [SPARK-42808] [SC-126302][core] Vermeiden, dass availableProcessors immer in
MapOutputTrackerMaster#getStatistics
abgerufen wird - [SPARK-42937] [SC-126880][sql]
PlanSubqueries
sollteInSubqueryExec#shouldBroadcast
auf "true" festgelegt werden. - [SPARK-42896] [SC-126729][sql][PYTHON] Ermöglichen der Unterstützung von
mapInPandas
/mapInArrow
für die Ausführung im Barrieremodus - [SPARK-42874] [SC-126442][sql] Aktivieren eines neuen Golden-Dateitestframeworks für die Analyse aller Eingabedateien
- [SPARK-42922] [SC-126850][sql] Wechseln von Random zu SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange bezieht sich auf nicht vorhandene Knoten
- [SPARK-40822] [SC-126274][sql] Stabile abgeleitete Spaltenaliase
- [SPARK-42908] [SC-126856][python] Auslösen eines RuntimeError, wenn SparkContext erforderlich ist, aber nicht initialisiert wird
- [SPARK-42779] [SC-126042][sql] Zulassen, dass V2-Schreibvorgänge die empfohlene Shuffle-Partitionsgröße angeben
- [SPARK-42914] [SC-126727][python] Wiederverwenden
transformUnregisteredFunction
fürDistributedSequenceID
. - [SPARK-42878] [SC-126882][connect] Die Tabellen-API in DataFrameReader kann auch Optionen akzeptieren.
- [SPARK-42927] [SC-126883][Kern] Ändern des Zugriffsumfangs von
o.a.spark.util.Iterators#size
inprivate[util]
- [SPARK-42943] [SC-126879][sql] Verwenden Sie LONGTEXT anstelle von TEXT für StringType für effektive Länge.
- [SPARK-37677] [SC-126855][core] Entzippen kann Dateiberechtigungen beibehalten
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implementieren der CoGrouped Map-API
- [SPARK-41876] [SC-126849][connect][PYTHON] Implementieren von DataFrame.toLocalIterator
- [SPARK-42930] [SC-126761][Core][SQL] Den Zugriffsumfang der
ProtobufSerDe
zugehörigen Implementierungen zuprivate[protobuf]
ändern - [SPARK-42819] [SC-125879][ss] Fügen Sie Unterstützung für das Festlegen von max_write_buffer_number und write_buffer_size für RocksDB hinzu, die beim Streaming verwendet werden.
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Klären Sie den Kommentar parametrisierter SQL-Args
- [SPARK-42748] [SC-126455][connect] Serverseitige Artefaktverwaltung
- [SPARK-42816] [SC-126365][connect] Unterstützung für eine maximale Nachrichtengröße von bis zu 128 MB
- [SPARK-42850] [SC-126109][sql] Entfernen duplizierter Regel combineFilters in Optimizer
- [SPARK-42662] [SC-126355][Connect][PS] Protomeldung für pandas-API im Spark-Standardindex hinzufügen
- [SPARK-42720] [SC-126136][ps][SQL] Verwendet Ausdruck für den Standardindex für verteilte Sequenzen anstelle des Plans.
- [SPARK-42790] [SC-126174][sql] Abstrahiere die ausgeschlossene Methode für bessere Tests der JDBC-Docker-Tests.
- [SPARK-42900] [SC-126473][connect][PYTHON] Fix createDataFrame, um Rückschlüsse und Spaltennamen zu beachten
- [SPARK-42917] [SC-126657][sql] Korrigiere „getUpdateColumnNullabilityQuery“ für DerbyDialect
- [SPARK-42684] [SC-125157][sql] v2-Katalog darf den Spaltenstandardwert nicht standardmäßig zulassen.
- [SPARK-42861] [SC-126635][sql] Verwenden Sie private[sql] anstelle von protected[sql], um das Generieren eines API-Dokuments zu vermeiden.
- [SPARK-42920] [SC-126728][connect][PYTHON] Tests für UDF mit UDT aktivieren
- [SPARK-42791] [SC-126617][sql] Erstellen eines neuen goldenen Dateitestframeworks für die Analyse
- [SPARK-42911] [SC-126652][python] Einführen grundlegenderer Ausnahmen
- [SPARK-42904] [SC-126634][sql] Char/Varchar-Unterstützung für den JDBC-Katalog
- [SPARK-42901] [SC-126459][connect][PYTHON] Verschiebe
StorageLevel
in eine separate Datei, um potenziellefile recursively imports
zu vermeiden - [SPARK-42894] [SC-126451][connect] Unterstützung von
cache
/persist
/unpersist
/storageLevel
für Spark Connect-JVM-Client - [SPARK-42792] [SC-125852][SS] Hinzufügen von Unterstützung für WRITE_FLUSH_BYTES für RocksDB beim Streaming zustandsbehafteter Operatoren
- [SPARK-41233] [SC-126441][connect][PYTHON] Hinzufügen von array_prepend zum Spark Connect Python-Client
- [SPARK-42681] [SC-125149][sql] Aufhebung der Sortiereinschränkung für ALTER TABLE ADD|REPLACE-Spaltendeskriptor
- [SPARK-42889] [SC-126367][connect][PYTHON] Implementieren von „cache“, „persist“, „unpersist“ und „storageLevel“
- [SPARK-42824] [SC-125985][connect][PYTHON] Bereitstellen einer eindeutigen Fehlermeldung für nicht unterstützte JVM-Attribute
- [SPARK-42340] [SC-126131][connect][PYTHON] Implementieren der gruppierten Karten-API
- [SPARK-42892] [SC-126454][sql] SameType und relevante Methoden aus DataType herausnehmen
- [SPARK-42827] [SC-126126][connect] Unterstützung von
functions#array_prepend
für den Scala Connect-Client - [SPARK-42823] [SC-125987][sql]
spark-sql
Shell unterstützt mehrteilige Namespaces für die Initialisierung - [SPARK-42817] [SC-125960][core] Protokolliert den Namen des Shuffle-Diensts einmal in ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Eingegebene Auswahl
- [SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementieren der ML-Funktion
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][sql] Codegen-Unterstützung für HiveSimpleUDF
- [SPARK-41233] [SC-126110][sql][PYTHON] Funktion
array_prepend
hinzufügen - [SPARK-42864] [SC-126268][ml][3.4] Machen
IsotonicRegression.PointsAccumulator
privat - [SPARK-42876] [SC-126281][sql] Der physische Datentyp von DataType sollte privat sein[sql]
- [SPARK-42101] [SC-125437][sql] AQE soll InMemoryTableScanExec unterstützen
- [SPARK-41290] [SC-124030][sql] Unterstützung von GENERATED ALWAYS AS-Ausdrücken für Spalten in CREATE/REPLACE TABLE-Anweisungen
- [SPARK-42870] [SC-126220][connect] Verschieben
toCatalystValue
inconnect-common
- [SPARK-42247] [SC-126107][connect][PYTHON] Behebt UserDefinedFunction, sodass returnType vorhanden ist.
- [SPARK-42875] [SC-126258][connect][PYTHON] Korrektur von toPandas zum ordnungsgemäßen Behandeln von timezone- und map-Typen
- [SPARK-42757] [SC-125626][connect] Implementieren von textFile für DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Verwenden Sie die getParameterCount-Funktion anstelle von "getParameterTypes.length".
- [SPARK-42833] [SC-126043][sql] Umgestalten von
applyExtensions
inSparkSession
- [SPARK-41765] Zurücksetzen von „[SC-123550][sql] Abrufen von v1-Schreibmetriken...“
- [SPARK-42848] [SC-126105][connect][PYTHON] Implementieren von DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] Unterstützung von UserDefinedType in Spark Connect
- [SPARK-42818] [SC-125861][connect][PYTHON] Implementieren von DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][connect] Hinzufügen von client_type zu AddArtifactsRequest-Protobuf-Nachricht
- [SPARK-42772] [SC-125860][sql] Ändern Sie den Standardwert der JDBC-Optionen zum Push-Down auf "true".
- [SPARK-42771] [SC-125855][sql] Umgestalten von HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: Schreiben komplexer Unions
- [SPARK-42765] [SC-125850][connect][PYTHON] Aktivierung des Imports von
pandas_udf
auspyspark.sql.connect.functions
- [SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocation
solltespark.shuffle.reduceLocality.enabled
berücksichtigen - [SPARK-42480] [SC-125173][sql] Verbesserung der Leistung beim Löschen von Partitionen
- [SPARK-42689] [SC-125195][core][SHUFFLE] Ermöglichen, dass ShuffleDriverComponent erklärt, ob Shuffle-Daten zuverlässig gespeichert sind
- [SPARK-42726] [SC-125279][connect][PYTHON] Implementieren von
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][sql] Abrufen von v1-Schreibmetriken in WriteFiles
- [SPARK-41171] [SC-124191][sql] Ableiten und Herabsetzen des Fensterlimits, wenn partitionSpec leer ist
- [SPARK-42686] [SC-125292][Core] Zurückstellen der Formatierung für Debugnachrichten in TaskMemoryManager
- [SPARK-42756] [SC-125443][connect][PYTHON] Hilfsfunktion zum Konvertieren des Proto-Literals in einen Wert im Python-Client
- [SPARK-42793] [SC-125627][connect]
connect
-Modul erfordertbuild_profile_flags
- [SPARK-42701] [SC-125192][sql] Fügen Sie die funktion
try_aes_decrypt()
hinzu. - [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame funktioniert nicht mit nicht nullablem Schema
- [SPARK-42733] [SC-125542][connect][Followup] Schreiben ohne Pfad oder Tabelle
- [SPARK-42777] [SC-125525][sql] Unterstützung der Konvertierung von TimestampNTZ-Katalogstatistiken in Planstatistiken
- [SPARK-42770] [SC-125558][connect] Hinzufügen von
truncatedTo(ChronoUnit.MICROS)
, umSQLImplicitsTestSuite
im täglichen Aufgabendurchlauf zum Testen der allgemeinen Verfügbarkeit in Java 17 erfolgreich durchzuführen - [SPARK-42752] [SC-125550][pyspark][SQL] Machen PySpark-Ausnahmen während der Initialisierung druckbar
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Unterstützung der getActiveSession-Methode der Spark Connect-Sitzung
- [SPARK-42755] [SC-125442][connect] Faktorisieren der Literalwertkonvertierung in
connect-common
- [SPARK-42747] [SC-125399][ml] Falschen internen Status von LoR und AFT korrigieren
- [SPARK-42740] [SC-125439][sql] Korrektur des Fehlers, dass ein Pushdown von Offset oder Paging für einen integrierten Dialekt ungültig ist
- [SPARK-42745] [SC-125332][sql] Verbesserte AliasAwareOutputExpression funktioniert mit DSv2
- [SPARK-42743] [SC-125330][sql] Unterstützung der Analyse von TimestampNTZ-Spalten
- [SPARK-42721] [SC-125371][connect] RPC-Protokollierungsinterceptor
- [SPARK-42691] [SC-125397][connect][PYTHON] Implementieren von Dataset.semanticHash
- [SPARK-42688] [SC-124922][connect] Umbenennen von client_id in session_id in Connect-Proto-Anforderung
- [SPARK-42310] [SC-122792][sql] Weisen Sie _LEGACY_ERROR_TEMP_1289 einen Namen zu.
- [SPARK-42685] [SC-125339][core] Optimierung der Utils.bytesToString-Routinen
- [SPARK-42725] [SC-125296][connect][PYTHON] Ermöglichen der Unterstützung von LiteralExpression für Arrayparameter
- [SPARK-42702] [SC-125293][spark-42623][SQL] Unterstützung parametrisierter Abfrage in Unterabfragen und CTE
- [SPARK-42697] [SC-125189][webui] Korrektur von /api/v1/applications, um die Gesamtuptime anstelle von 0 im Feld „Dauer“ zurückzugeben
- [SPARK-42733] [SC-125278][connect][PYTHON] Korrigiere DataFrameWriter.save, um ohne Pfadparameter zu funktionieren
- [SPARK-42376] [SC-124928][ss] Einführung der Wasserzeichenweitergabe zwischen Operatoren
- [SPARK-42710] [SC-125205][connect][PYTHON] FrameMap proto in MapPartitions umbenennen
- [SPARK-37099] [SC-123542][sql] Einführung des Gruppengrenzwerts von „Window“ für rangbasierte Filter zur Optimierung der Top-K-Berechnung
- [SPARK-42630] [SC-125207][CONNECT][PYTHON] Führen Sie den UnparsedDataType ein und verschieben Sie das Parsen der DDL-Zeichenfolge, bis der SparkConnectClient verfügbar ist.
- [SPARK-42690] [SC-125193][connect] Implementieren von CSV/JSON-Analysefunktionen für scala-Client
- [SPARK-42709] [SC-125172][python] Entfernen Sie die Annahme, dass
__file__
verfügbar sind. - [SPARK-42318] [SC-122648][spark-42319][SQL] Zuweisen eines Namens zu _LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Unterstützung des Parser-Datentyps json "timestamp_ltz" als TimestampType
- [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() sollte das Schema nicht zwischenspeichern
- [SPARK-42643] [SC-125152][connect][PYTHON] Registrieren von benutzerdefinierten Java-Funktionen (Aggregat)
- [SPARK-42656] [SC-125177][connect][Followup] Spark-Connect-Skript beheben
- [SPARK-41516] [SC-123899] [SQL] Ermöglichen des Überschreibens der Abfrage zum Erstellen einer Tabelle für JDBC-Dialekte
- [SPARK-41725] [SC-124396][connect] Schnelle Ausführung von DF.sql()
- [SPARK-42687] [SC-124896][ss] Verbesserte Fehlermeldung für den nicht unterstützten
pivot
-Vorgang in Streaming - [SPARK-42676] [SC-124809][ss] Schreiben von temp-Prüfpunkten für Streamingabfragen in das lokale Dateisystem, auch wenn standard FS anders festgelegt ist
- [SPARK-42303] [SC-122644][sql] Weisen Sie _LEGACY_ERROR_TEMP_1326 einen Namen zu
- [SPARK-42553] [SC-124560][sql] Sicherstellen von mindestens einer Zeiteinheit nach „interval“
- [SPARK-42649] [SC-124576][core] Entfernen Sie den standardmäßigen Apache-Lizenzheader von der Spitze der Quelldateien von Drittanbietern.
- [SPARK-42611] [SC-124395][sql] Einfügen von char-/varchar-Längenüberprüfungen für innere Felder während der Auflösung
- [SPARK-42419] [SC-124019][connect][PYTHON] Migration zum Fehlerframework für die Spark Connect-Spalten-API
- [SPARK-42637] [SC-124522][connect] Hinzufügen von SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Ändern des Alias für veraltete und entfernte NumPy-Typen
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver darf nur hive-Sitzungen mit dem sessionState „started“ schließen
- [SPARK-42593] [SC-124405][ps] Einstellung und Entfernung der APIs, die in Pandas 2.0 entfernt werden
- [SPARK-41870] [SC-124402][connect][PYTHON] Fix createDataFrame, um doppelte Spaltennamen zu behandeln
- [SPARK-42569] [SC-124379][connect] Auslösen von Ausnahmen für nicht unterstützte Sitzungs-API
- [SPARK-42631] [SC-124526][connect] Unterstützen benutzerdefinierter Erweiterungen im Scala-Client
- [SPARK-41868] [SC-124387][connect][PYTHON] Korrektur von createDataFrame zum Unterstützen der Angabe einer Dauer
- [SPARK-42572] [SC-124171][sql][SS] Korrektur des Verhaltens für StateStoreProvider.validateStateRowFormat
Wartungsupdates
Informationen finden Sie unter Wartungsupdates für Databricks Runtime 13.1.
Systemumgebung
- Betriebssystem: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | schwarz | 22.6.0 | Bleichmittel | 4.1.0 |
Blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.4 | Kryptographie | 37.0.1 |
cycler | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0,12 | Einstiegspunkte | 0,4 |
executing | 1.2.0 | facets-overview | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
Packen | 21,3 | Pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Kissen | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
Python-LSP-Server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | requests | 2.28.1 | Seil | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | six | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
Beharrlichkeit | 8.1.0 | terminado | 0.13.1 | Testpfad | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | unattended-upgrades | 0,1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | Rad | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 10.02.2023 installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0 - 8 | brio | 1.1.3 |
broom | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | class | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | Zugangsdaten | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | Datensätze | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
ellipsis | 0.3.2 | Evaluieren | 0,20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.6.1 | Zukunft | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | Generika | 0.1.3 |
gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
Kleber | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | Grafiken | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0,10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
Kennzeichnung | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | Lebenszyklus | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
MASS | 7.3-58.2 | Matrix | 1.5-1 | memoise | 2.0.1 |
Methoden | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallelly | 1.34.0 | Säule | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Fortschritt | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | Rezepte | 1.0.4 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | scales | 1.2.1 |
selectr | 0.4-2 | Sitzungsinformationen | 1.2.2 | shape | 1.4.6 |
glänzend | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | spatial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
Überleben | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | Textgestaltung | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | Zeitumstellung | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | Werkzeuge | 4.2.2 | tzdb | 0.3.0 |
URL-Prüfer | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Mitschüler | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Eingeborene |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | Luftkompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammler | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | Transaktions-API | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ameise | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | Pfeil-Format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | Pfeil-Vektor | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,22 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | Tierpfleger | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | WebSocket-API | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anmerkungen | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | shims | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | Test-Schnittstelle | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | Scalatest-kompatibel | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |