Databricks Runtime 12.2 LTS
Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 12.2 LTS, die von Apache Spark 3.3.2 unterstützt wird.
Diese Version wurde von Databricks im März 2023 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Änderungen des Verhaltens
[Bahnbrechende Änderung] Für die neue Python-Version ist das Aktualisieren von Databricks Connect V1 Python-Clients erforderlich.
Hinweis
Ein nachfolgendes Update verschiebt die Python-Version in Databricks Runtime 12.2 LTS auf 3.9.21. Die Version 3.9.21 führt keine Verhaltensänderungen ein.
Um erforderliche Sicherheitspatches anzuwenden, wird die Python-Version in Databricks Runtime 12.2 LTS von 3.9.5 auf 3.9.19 aktualisiert. Da diese Änderungen möglicherweise Fehler in Clients verursachen, die bestimmte PySpark-Funktionen verwenden, müssen alle Clients, die Databricks Connect V1 für Python mit Databricks Runtime 12.2 LTS verwenden, auf Python 3.9.7 oder höher aktualisiert werden.
Neue Features und Verbesserungen
- Python wurde von 3.9.19 auf 3.9.21 aktualisiert
- Delta Lake-Schemaentwicklung unterstützt das Angeben von Quellspalten in merge-Anweisungen
- Workloads für strukturiertes Streaming werden in Clustern mit dem Modus „gemeinsamer Zugriff“ unterstützt
- Neue Features für Predictive I/O
- Unterstützung für implizites laterales Spaltenaliasing
- Neus forEachBatch-Feature
- Standardisierte Verbindungsoptionen für den Abfrageverbund
- Erweiterte SQL-Funktionsbibliothek für die Arrayverwaltung
- Neue Maskenfunktion zum Anonymisieren von Zeichenfolgen
- Allgemeine Fehlerbedingungen geben jetzt SQLSTATE-Werte zurück
- Aufrufen von Generatorfunktionen in der FROM-Klausel
- Unterstützung für Protokollpuffer ist allgemein verfügbar
- Zieldefinition für Notizbuchvariablen und -funktionen
- Notizbuchschnellkorrektur für automatisch importierte Bibliotheken
- Fehlerbehebungen
Python hat von 3.9.19 auf 3.9.21 aktualisiert
Die Python-Version in Databricks Runtime 12.2 LTS wird von 3.9.19 auf 3.9.21 aktualisiert.
Delta Lake-Schemaentwicklung unterstützt das Angeben von Quellspalten in merge-Anweisungen
Wenn die Schemaentwicklung aktiviert ist, können Sie jetzt in Einfüge- oder Aktualisierungsaktionen für Mergeanweisungen Spalten angeben, die nur in der Quelltabelle vorhanden sind. In Databricks Runtime 12.1 und niedriger können nur INSERT *
- oder UPDATE SET *
-Aktionen für die Schemaentwicklung mit Merge verwendet werden. Weitere Informationen finden Sie unter Automatische Schemaentwicklung für Delta Lake-Merge.
Workloads für strukturiertes Streaming werden in Clustern mit dem Modus „gemeinsamer Zugriff“ unterstützt
Sie können jetzt Strukturiertes Streaming verwenden, um auf Compute mit dem Unity-Katalog im Standardzugriffsmodus zu interagieren. Es gelten einige Einschränkungen. Weitere Informationen finden Sie unter Welche Funktionen von strukturiertem Streaming unterstützt Unity Catalog?.
Neue Features für Predictive I/O
Für die Foreachbatch
-Senke ist jetzt Photon-Unterstützung verfügbar. Workloads, die aus einer Quelle streamen und in Delta-Tabellen mergen oder in mehrere Senken schreiben, können jetzt von der Photonized Foreachbatch
-Senke profitieren.
Unterstützung für implizites laterales Spaltenaliasing
Azure Databricks unterstützt jetzt standardmäßig implizites laterales Spaltenaliasing. Sie können jetzt einen zuvor in derselben SELECT
-Liste angegebenen Ausdruck wiederverwenden. Beispiel: Bei Angabe von SELECT 1 AS a
, a + 1 AS b
kann das a
in a + 1
als das zuvor definierte 1 AS a
aufgelöst werden. Weitere Details zur Auflösungsreihenfolge finden Sie unter Namensauflösung.
Um dieses Feature zu deaktivieren, können Sie spark.sql.lateralColumnAlias.enableImplicitResolution
auf false
festlegen.
Neus forEachBatch-Feature
Photon wird jetzt unterstützt, wenn zum Schreiben in eine Datensenke foreachBatch
verwendet wird.
Standardisierte Verbindungsoptionen für den Abfrageverbund
Sie können jetzt einen einheitlichen Satz von Optionen (Host, Port, Datenbank, Benutzer, Kennwort) verwenden, um eine Verbindung mit Datenquellen herzustellen, die im Abfrageverbund unterstützt werden.
Port
ist optional und verwendet die Standardportnummer für jede Datenquelle, sofern nicht anders angegeben.
Erweiterte SQL-Funktionsbibliothek für die Arrayverwaltung
Sie können jetzt mithilfe von array_compact alle NULL-Elemente aus einem Array entfernen. Verwenden Sie zum Anfügen von Elementen an ein Array array_append.
Neue Maskenfunktion zum Anonymisieren von Zeichenfolgen
Rufen Sie die Maskenfunktion auf, um vertrauliche Zeichenfolgenwerte zu anonymisieren.
Allgemeine Fehlerbedingungen geben jetzt SQLSTATE-Werte zurück.
Die meisten Fehlerbedingungen in Databricks Runtime enthalten jetzt dokumentierte SQLSTATE-Werte, die verwendet werden können, um in standardmäßiger, SQL-konformer Weise auf Fehler zu testen.
Aufrufen von Generatorfunktionen in der FROM-Klausel
Sie können jetzt Tabellenwertgeneratorfunktionen wie explode in der regulären FROM
-Klausel einer Abfrage aufrufen. Dadurch wird der Generatorfunktionsaufruf an andere integrierte und benutzerdefinierte Tabellenfunktionen angepasst.
Unterstützung für Protokollpuffer ist allgemein verfügbar
Sie können die Funktionen from_protobuf
und to_protobuf
verwenden, um Daten zwischen Binär- und Strukturtypen auszutauschen. Weitere Informationen finden Sie unter Lesen und Schreiben von Protokollpuffern.
Zieldefinition für Notizbuchvariablen und -funktionen
In Notizbüchern können Sie schnell zur Definition einer Variablen, einer Funktion oder zum Code hinter einer %run
-Anweisung wechseln, indem Sie mit der rechten Maustaste auf die Variable oder den Funktionsnamen klicken.
Notizbuchschnellkorrektur für automatisch importierte Bibliotheken
Databricks-Notizbücher bieten jetzt ein Schnellkorrekturfeature für das automatische Importieren von Bibliotheken. Wenn Sie vergessen, eine Bibliothek wie Pandas zu importieren, zeigen Sie mit der Maus auf die unterstrichene Syntaxwarnung, und klicken Sie dann auf Schnellkorrektur. Für dieses Feature muss der Databricks-Assistent in Ihrem Arbeitsbereich aktiviert sein.
Fehlerkorrekturen
- Verbesserte Konsistenz für das Delta-Commitverhalten für leere Transaktionen im Zusammenhang mit
update
-,delete
- undmerge
-Befehlen. Auf der IsolationsstufeWriteSerializable
erstellen Befehle, die keine Änderungen zur Folge haben, jetzt einen leeren Commit. Auf der IsolationsstufeSerializable
erstellen solche leeren Transaktionen jetzt keinen Commit.
Verhaltensänderungen
Verhaltensänderungen mit dem neuen Feature für laterale Spaltenaliase
Das neue Feature für laterale Spaltenaliase führt in den folgenden Fällen zu Verhaltensänderungen während der Namensauflösung:
- Laterale Spaltenaliase haben nun Vorrang vor korrelierten Verweisen mit demselben Namen. Für die Abfrage
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
wurde z. B. dasc1
-Element im innerenc1 AS c2
-Element in den korrelierten Verweist.c1
aufgelöst, ändert sich jetzt jedoch in den lateralen Spaltenalias1 AS c1
. Die Abfrage gibt jetztNULL
zurück. - Laterale Spaltenaliase haben jetzt Vorrang vor Funktionsparametern mit demselben Namen. Beispielsweise wurde für die Funktion
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
dasx
-Element im Funktionstext in den Funktionsparameter x aufgelöst, ändert sich jedoch im Funktionstext in den lateralen Spaltenaliasx + 1
. Die AbfrageSELECT * FROM func(1)
gibt jetzt2, 2
zurück. - Um das Feature für laterale Spaltenaliase zu deaktivieren, legen Sie
spark.sql.lateralColumnAlias.enableImplicitResolution
auffalse
fest. Weitere Informationen finden Sie unter Namensauflösung.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- filelock von 3.8.2 auf 3.9.0
- joblib von 1.1.0 auf 1.1.1
- platformdirs von 2.6.0 auf 2.6.2
- whatthepatch von 1.0.3 auf 1.0.4
- Aktualisierte R-Bibliotheken:
- class von 7.3-20 auf 7.3-21
- codetools von 0.2-18 auf 0.2-19
- MASS von 7.3-58 auf 7.3-58.2
- nlme von 3.1-160 auf 3.1-162
- Rserve von 1.8-11 auf 1.8-12
- SparkR von 3.3.1 auf 3.3.2
Verhaltensänderungen
- Benutzer*innen müssen jetzt über die Berechtigungen
SELECT
undMODIFY
für jede Datei verfügen, wenn sie ein Schema mit einem definierten Speicherort erstellen.
Apache Spark
Databricks Runtime 12.2 enthält Apache Spark 3.3.2. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 12.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen an Spark:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Dateset-Vorgänge sollten den analysierten logischen Plan nicht erneut auflösen.
- [SPARK-41848] Rückgängig machen “[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Beheben der überplanten Vorgänge mit TaskResourceProfile”
- [SPARK-42162] [SC-122711][es-556261] Stellen Sie den Ausdruck MultiCommutativeOp als Speicheroptimierung für die Standardisierung großer Bäume von kommutativen Ausdrücken vor
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Korrektur der rekursiven Tiefeneinstellung für Protobuf-Funktionen
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementierung von DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Umbenennen _catalog_to_pandas in _execute_and_fetch im Katalog
- [SPARK-41490] [SC-121774][sql] Weisen Sie _LEGACY_ERROR_TEMP_2441 einen Namen zu.
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementiere Catalog.cacheTable, isCached und entcachen.
- [SPARK-42191] [SC-121990][sql] Unterstützung für udf 'luhn_check'
- [SPARK-42253] [SC-121976][python] Hinzufügen eines Tests zum Erkennen duplizierter Fehlerklasse
- [SPARK-42268] [SC-122251][connect][PYTHON] Benutzerdefinierten Typ in Protos hinzufügen
-
[SPARK-42231] [SC-121841][sql] Wandeln Sie
MISSING_STATIC_PARTITION_COLUMN
ininternalError
- [SPARK-42136] [SC-122554] Refactor BroadcastHashJoinExec output partitioning calculation
-
[SPARK-42158] [SC-121610][sql] Integrieren von
_LEGACY_ERROR_TEMP_1003
inFIELD_NOT_FOUND
- [SPARK-42192] [12.x][sc-121820][PYTHON] Migration des TypeError von pyspark/sql/dataframe.py zu PySparkTypeError
- [SPARK-35240] Rückgängig machen “[SC-118242][ss] Verwenden von CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Weisen Sie _LEGACY_ERROR_TEMP_1176 und 1177 einen Namen zu
-
[SPARK-42232] [SC-122267][sql] Fehlerklasse umbenennen:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][sql] Unterscheidende Aggregate nach der Zusammenführung von Unterabfragen umschreiben
-
[SPARK-42306] [SC-122539][sql] Integrieren
_LEGACY_ERROR_TEMP_1317
inUNRESOLVED_COLUMN.WITH_SUGGESTION
-
[SPARK-42234] [SC-122354][sql] Fehlerklasse umbenennen:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
-
[SPARK-42343] [SC-122437][core] Ignorieren
IOException
inhandleBlockRemovalFailure
, wenn SparkContext beendet wird - [SPARK-41295] [SC-122442][spark-41296][SQL] Benennen Sie die Fehlerklassen um.
- [SPARK-42320] [SC-122478][sql] Weisen Sie _LEGACY_ERROR_TEMP_2188 einen Namen zu.
- [SPARK-42255] [SC-122483][sql] Weisen Sie _LEGACY_ERROR_TEMP_2430 einen Namen zu
- [SPARK-42156] [SC-121851][connect] SparkConnectClient unterstützt jetzt Wiederholungsrichtlinien
- [SPARK-38728] [SC-116723][sql] Testen Sie die Fehlerklasse: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Self contained examples in PySpark
- [SPARK-39347] [SC-122457][ss] Fehlerkorrektur für die Zeitfensterberechnung, wenn die Ereigniszeit < 0
-
[SPARK-42336] [SC-122458][core] Verwenden Sie
getOrElse()
anstelle voncontains()
in ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas-UDF in Spark Connect
- [SPARK-42217] [SC-122263][sql] Unterstützen implizite laterale Spaltenaliase in Abfragen mit Fenster
- [SPARK-35240] [SC-118242][ss] Verwenden von CheckpointFileManager für die Manipulation von Prüfpunktdateien
- [SPARK-42294] [SC-122337][sql] Einbeziehen von Spaltenstandardwerten in die DESCRIBE-Ausgabe für V2-Tabellen
- [SPARK-41979] "Wiederherstellen "[12.x][sc-121190][SQL] Fügen Sie fehlende Punkte für Fehlermeldungen in Fehlerklassen hinzu.""
- [SPARK-42286] [SC-122336][sql] Fallback auf den vorherigen Codegen-Codepfad für den komplexen Ausdruck mit CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Vermeiden Sie die Verwendung integrierter Listen, diktieren Sie statische Eingaben.
- [SPARK-41985] [SC-122172][sql] Weitere Zentralisierung der Regeln für die Spaltenauflösung
- [SPARK-42126] [SC-122330][python][CONNECT] Annehmen des Rückgabetyps in DDL-Zeichenfolgen für Python Scalar UDFs in Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Verwendet die JVM-Initialisierung und separate Konfigurationsgruppen, die im lokalen Remotemodus festgelegt werden sollen.
- [SPARK-41575] [SC-120118][sql] Weisen Sie _LEGACY_ERROR_TEMP_2054 einen Namen zu
- [SPARK-41985] Rückgängig machen “[SC-122172][sql] Mehr Regeln für die Spaltenauflösung zentralisieren”
- [SPARK-42123] [SC-122234][sc-121453][SQL] Spaltenstandardwerte in DESCRIBE und SHOW CREATE TABLE Ausgabe einschließen
- [SPARK-41985] [SC-122172][sql] Weitere zentrale Regeln für die Spaltenauflösung
- [SPARK-42284] [SC-122233][connect] Stellen Sie sicher, dass die Verbindungsserverassembly erstellt wird, bevor Clienttests ausgeführt werden – SBT
-
[SPARK-42239] [SC-121790][sql] Integrieren von
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
-
[SPARK-42278] [SC-122170][sql] DS V2-Pushdown unterstützt JDBC-Dialekte, die
SortOrder
selbst kompilieren - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics sollte sich um Python UDAF kümmern
- [SPARK-41979] Rückgängigmachen von „[12.x][sc-121190][SQL] Fügen Sie fehlende Punkte für Fehlermeldungen in Fehlerklassen hinzu.“
- [SPARK-42224] [12.x][sc-121708][CONNECT] TypeError in das Fehlerframework für Spark Connect-Funktionen migrieren
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migrieren sie die Spark Connect-Fehler in das PySpark-Fehlerframework.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Fügen Sie integrierte Tabellenwertfunktionen wie inline und inline_outer hinzu
- [SPARK-41489] [SC-121713][sql] Weisen Sie _LEGACY_ERROR_TEMP_2415 einen Namen zu
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Führt PySparkValueError und PySparkTypeError ein
- [SPARK-42081] [SC-121723][sql] Verbessern der Planänderungsüberprüfung
- [SPARK-42225] [12.x][sc-121714][CONNECT] Fügen Sie SparkConnectIllegalArgumentException hinzu, um Spark Connect-Fehler präzise zu behandeln.
-
[SPARK-42044] [12.x][sc-121280][SQL] Korrektur der falschen Fehlermeldung für
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][sc-121712][PS] Parameter "Spalten zulassen" beim Erstellen von DataFrame mit Datenreihe.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrieren von Fehlern, die von JVM in PySparkException ausgelöst werden.
- [SPARK-42133] [12.x][sc-121250] Hinzufügen grundlegender Dataset-API-Methoden zu SparkConnect Scala Client
- [SPARK-41979] [12.x][sc-121190][SQL] Fügen Sie fehlende Punkte für Fehlermeldungen in Fehlerklassen hinzu.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF in Spark Connect
- [SPARK-42051] [SC-121994][sql] Codegen-Unterstützung für HiveGenericUDF
- [SPARK-42257] [SC-121948][Core] Entfernen der ungenutzten Variable des externen Sortierers
- [SPARK-41735] [SC-121771][sql] Verwenden Sie MINIMAL anstelle von STANDARD für SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Verfeinern
NULLABLE_ARRAY_OR_MAP_ELEMENT
-
[SPARK-42233] [SC-121775][sql] Fehlermeldung verbessern für
PIVOT_AFTER_GROUP_BY
-
[SPARK-42229] [SC-121856][core] Migration von
SparkCoreErrors
zu Fehlerklassen - [SPARK-42163] [SC-121839][sql] Fix Schema-Pruning für nicht faltbare Array-Indizes oder Map-Schlüssel
- [SPARK-40711] [SC-119990][sql] Hinzufügen von Überlaufgrößenmetriken für Fenster
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Ermöglichen Sie
createDataFrame
die Unterstützung derAtomicType -> StringType
-Umwandlung - [SPARK-42202] [SC-121837][connect][Test] Verbessern der E2E-Testserver-Stopplogik
- [SPARK-41167] [SC-117425][sql] Verbesserung der Mehrfach-Like-Leistung durch Erstellen eines Prädikats für einen ausgewogenen Ausdrucksbaum
- [SPARK-41931] [SC-121618][sql] Bessere Fehlermeldung für unvollständige komplexe Typdefinition
- [SPARK-36124] [SC-121339][sc-110446][SQL] Unterstützt Unterabfragen mit Korrelation über UNION
- [SPARK-42090] [SC-121290][3.3] Introduce sasl retry count in RetryingBlockTransferor
-
[SPARK-42157] [SC-121264][Core]
spark.scheduler.mode=FAIR
sollte FAIR Scheduler bereitstellen - [SPARK-41572] [SC-120772][sql] Weisen Sie _LEGACY_ERROR_TEMP_2149 einen Namen zu.
-
[SPARK-41983] [SC-121224][sql] Umbenennen & Verbessern der Fehlermeldung für
NULL_COMPARISON_RESULT
-
[SPARK-41976] [SC-121024][sql] Fehlermeldung verbessern für
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][sc-120573] SQLSTATE zuweisen (1/2)
- [SPARK-41415] [SC-121117][3.3] SASL Request Retries
- [SPARK-38591] [SC-121018][sql] Fügen Sie flatMapSortedGroups und cogroupSorted hinzu
-
[SPARK-41975] [SC-120767][sql] Fehlermeldung verbessern für
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][sql][PROTOBUF] Fügen Sie fehlende Optionen für Protobuf-Funktionen hinzu.
-
[SPARK-41984] [SC-120769][sql] Umbenennen von & und Verbessern der Fehlermeldung für
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][sql] Behebung des NPE für Fehlerklassen: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Korrigieren des falschen Spaltennamens im doctest von
withField
-
[SPARK-41283] [SC-121175][connect][PYTHON]
array_append
zu Connect hinzufügen - [SPARK-41960] [SC-120773][sql] Weise den Namen _LEGACY_ERROR_TEMP_1056 zu.
- [SPARK-42134] [SC-121116][sql] Fix getPartitionFiltersAndDataFilters() zum Behandeln von Filtern ohne referenzierte Attribute
-
[SPARK-42096] [SC-121012][connect] Einige Codebereinigungen für
connect
Modul -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Fix
count(*)
undcount(col(*))
- [SPARK-42045] [SC-120958][sc-120450][SQL] ANSI SQL-Modus: Round/Bround sollte einen Fehler beim Ganzzahlüberlauf zurückgeben
- [SPARK-42043] [SC-120968][connect] Scala-Client-Ergebnis mit E2E Tests
- [SPARK-41884] [SC-121022][connect] Naives Tupel als geschachtelte Reihe unterstützen
-
[SPARK-42112] [SC-121011][sql][SS] Fügen Sie eine Nullwertprüfung hinzu, bevor die
ContinuousWriteRDD#compute
Funktion geschlossen wirddataWriter
- [SPARK-42077] [SC-120553][connect][PYTHON] Literal sollte TypeError für nicht unterstützte Datentypen auslösen
-
[SPARK-42108] [SC-120898][sql] Den Analyzer dazu bringen,
Count(*)
inCount(1)
zu transformieren -
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Unterstützung parametrisierter SQL durch
sql()
- [SPARK-40599] [SC-120930][sql] MultiTransform-Regeltyp "Relax", um Alternativen als beliebige Arten von Seq zu ermöglichen
-
[SPARK-41574] [SC-120771][sql] Update
_LEGACY_ERROR_TEMP_2009
alsINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][sql] Weisen Sie _LEGACY_ERROR_TEMP_1249 einen Namen zu
-
[SPARK-41974] [SC-120766][sql] Wandeln Sie
INCORRECT_END_OFFSET
inINTERNAL_ERROR
- [SPARK-41530] [SC-120916][sc-118513][CORE] MedianHeap in PercentileMap umbenennen und Perzentil unterstützen
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Korrektur der Zeichenfolgendarstellung für die Spaltenklasse
- [SPARK-42084] [SC-120775][sql] Vermeiden, dass die Einschränkung für qualifizierten Zugriff verloren geht
- [SPARK-41973] [SC-120765][sql] Weisen Sie den Namen _LEGACY_ERROR_TEMP_1311 zu
- [SPARK-42039] [SC-120655][sql] SPJ: Option in KeyGroupedPartitioning#partitionValuesOpt entfernen
-
[SPARK-42079] [SC-120712][connect][PYTHON] Benennen Sie Protonachrichten für
toDF
undwithColumnsRenamed
- [SPARK-42089] [SC-120605][connect][PYTHON] Beheben von Problemen mit variablen Namen in geschachtelten Lambda-Funktionen
- [SPARK-41982] [SC-120604][sql] Partitionen von Typzeichenfolgen sollten nicht als numerische Typen behandelt werden.
- [SPARK-40599] [SC-120620][sql] Fügen Sie MultiTransform-Methoden zu TreeNode hinzu, um Alternativen zu generieren.
-
[SPARK-42085] [SC-120556][connect][PYTHON]
from_arrow_schema
die Unterstützung geschachtelter Typen sicherstellen - [SPARK-42057] [SC-120507][sql][PROTOBUF] Beheben Sie, wie die Ausnahme in der Fehlerberichterstattung behandelt wird.
-
[SPARK-41586] [12.x][alle Tests][SC-120544][python] Führen Sie
pyspark.errors
und Fehlerklassen für PySpark ein. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literal
sollte 1-dim ndarray unterstützen -
[SPARK-42021] [SC-120584][connect][PYTHON] Machen Sie
createDataFrame
kompatibel mitarray.array
- [SPARK-41896] [SC-120506][sql] Filterung nach Zeilenindex gibt leere Ergebnisse zurück.
- [SPARK-41162] [SC-119742][sql] Behebung von Anti- und Semi-Join für Selbst-Join mit Aggregationen
- [SPARK-41961] [SC-120501][sql] Unterstützung von Tabellenwert-Funktionen unter Einbeziehung von LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Gruppiert geschachtelte Ausführungen unter der Stammausführung.
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal sollte Numpy-Datentypen unterstützen
- [SPARK-42028] [SC-120344][connect][PYTHON] Kürzung von Nanosekunden-Zeitstempeln
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementieren von DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Verwendung von
FieldReference.column
anstelle vonapply
bei der Filterumwandlung von V1 zu V2. - [SPARK-39217] [SC-120446][sql] Unterstützt DPP für die Beschneidungsseite union
-
[SPARK-42076] [SC-120551][connect][PYTHON] Faktorisierung der Datenkonvertierung
arrow -> rows
nachconversion.py
-
[SPARK-42074] [SC-120540][sql] Aktivieren
KryoSerializer
inTPCDSQueryBenchmark
zum Erzwingen der SQL-Klassenregistrierung - [SPARK-42012] [SC-120517][connect][PYTHON] Implementierung von DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Beheben Sie
DataFrame.unionByName
, fügen Sie allow_missing_columns hinzu -
[SPARK-38651] [SC-120514] [SQL] Add
spark.sql.legacy.allowEmptySchemaWrite
-
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsert
sollte ExpressionProxy als untergeordnetes Element akzeptieren - [SPARK-41232] [SC-120073][sql][PYTHON] Hinzufügen array_append Funktion
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader sollte eine Liste der Pfade unterstützen
-
[SPARK-42071] [SC-120533][core] Registrieren
scala.math.Ordering$Reverse
bei KyroSerializer - [SPARK-41986] [SC-120429][sql] Einführen von Shuffle auf SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Aktivieren von Tests im Zusammenhang mit der geschachtelten Spalte
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReader
sollte das StructType-Schema unterstützen. -
[SPARK-42031] [SC-120389][core][SQL] Bereinigen sie
remove
Methoden, die keine Außerkraftsetzung benötigen -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Fügen Sie Unterstützung für
createDataFrame(rows/lists/tuples/dicts)
für geschachtelte Typen hinzu - [SPARK-41437] [SC-117601][SQL][ALLE TESTS] Optimieren Sie die Eingabeabfrage nicht zweimal für v1-Rückschreibfallback.
-
[SPARK-41840] [SC-119719][connect][PYTHON] Fügen Sie den fehlenden Alias
groupby
- [SPARK-41846] [SC-119717][connect][PYTHON] Aktivieren von Doctests für Fensterfunktionen
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materialisiert den AQE-Plan vor dem Zugriff auf outputOrdering
- [SPARK-41805] [SC-119992][sql] Wiederverwenden von Ausdrücken in WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range soll Float-Werte als Argumente akzeptieren.
-
[SPARK-42029] [SC-120336][connect] Fügen Sie Guava Shading-Regeln zu
connect-common
hinzu, um Startfehler zu vermeiden - [SPARK-41989] [SC-120334][python] Vermeiden Sie das Unterbrechen der Protokollierungskonfiguration von pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Reduzierung doppelten Codes in ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Fehlerbehebung bei GROUP BY ALL-Fehlerberichterstattung
- [SPARK-41047] [SC-120291][sql] Dokumentation für 'round' verbessern
- [SPARK-41822] [SC-120122][connect] gRPC-Verbindung für Scala/JVM-Client einrichten
-
[SPARK-41879] [SC-120264][connect][PYTHON] Stellen Sie sicher, dass
DataFrame.collect
geschachtelte Typen unterstützen -
[SPARK-41887] [SC-120268][connect][PYTHON] Lassen Sie
DataFrame.hint
Listen-typisierten Parameter akzeptieren - [SPARK-41964] [SC-120210][connect][PYTHON] Fügen Sie die Liste der nicht unterstützten E/A-Funktionen hinzu.
- [SPARK-41595] [SC-120097][sql] Unterstützung für die Generatorfunktion explodieren/explodieren_outer in der FROM-Klausel
-
[SPARK-41957] [SC-120121][connect][PYTHON] Aktivieren sie den Doctest für
DataFrame.hint
-
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersect
Doctest-Ausgabe weist unterschiedliche Reihenfolge auf - [SPARK-41442] [SC-117795][SQL][ALLE TESTS] Der SQL-Metrik-Wert soll nur aktualisiert werden, wenn er mit einer gültigen Metrik zusammengeführt wird.
- [SPARK-41944] [SC-120046][connect] Übergeben Sie Konfigurationen, wenn der lokale Remote-Modus aktiviert ist.
-
[SPARK-41708] [SC-119838][sql] Ziehe v1write-Informationen zu
WriteFiles
-
[SPARK-41780] [SC-120000][sql] Sollte INVALID_PARAMETER_VALUE.PATTERN auslösen, wenn die Parameter
regexp
ungültig sind - [SPARK-41889] [SC-119975][sql] Ursachenermittlung für invalidPatternError anfügen & Fehlerklassen INVALID_PARAMETER_VALUE umgestalten
- [SPARK-41860] [SC-120028][sql] Make AvroScanBuilder and JsonScanBuilder case classes
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: Client-Verbindung verlor Spaltendaten bei Verwendung von pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Agnostische Encoder
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementieren von RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Update
_LEGACY_ERROR_TEMP_1230
alsINTERNAL_ERROR
-
[SPARK-41928] [SC-119972][connect][PYTHON] Fügen Sie die nicht unterstützte Liste für
functions
- [SPARK-41933] [SC-119980][connect] Bereitstellen des lokalen Modus, der den Server automatisch startet
- [SPARK-41899] [SC-119971][connect][PYTHON] CreateDataFrame sollte das vom Benutzer angegebene DDL-Schema berücksichtigen.
-
[SPARK-41936] [SC-119978][connect][PYTHON]
withMetadata
zur Wiederverwendung deswithColumns
Protos machen - [SPARK-41898] [SC-119931][connect][PYTHON] Gleichheit der Typprüfung der Parameter für Window.rowsBetween und Window.rangeBetween mit pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Fügen Sie die nicht unterstützte Liste für
catalog
Funktionen hinzu. -
[SPARK-41924] [SC-119946][connect][PYTHON] StructType soll Metadaten unterstützen und Implementierung umsetzen
DataFrame.withMetadata
-
[SPARK-41934] [SC-119967][connect][PYTHON] Fügen Sie die liste nicht unterstützter Funktionen für
session
-
[SPARK-41875] [SC-119969][connect][PYTHON] Fügen Sie Testfälle für
Dataset.to()
- [SPARK-41824] [SC-119970][connect][PYTHON] Ignorieren Sie den Doctest für die Erklärung von connect.
-
[SPARK-41880] [SC-119959][connect][PYTHON] Funktion
from_json
soll nicht literales Schema akzeptieren -
[SPARK-41927] [SC-119952][connect][PYTHON] Fügen Sie die nicht unterstützte Liste für
GroupedData
-
[SPARK-41929] [SC-119949][connect][PYTHON] Funktion hinzufügen
array_compact
-
[SPARK-41827] [SC-119841][connect][PYTHON]
GroupBy
ermöglichen, eine Spaltenliste zu akzeptieren -
[SPARK-41925] [SC-119905][sql] Standardmäßig
spark.sql.orc.enableNestedColumnVectorizedReader
aktivieren -
[SPARK-41831] [SC-119853][connect][PYTHON]
DataFrame.select
so anpassen, dass es eine Spaltenliste akzeptiert -
[SPARK-41455] [SC-119858][connect][PYTHON] Erstellen
DataFrame.collect
Verwerfen der Zeitzoneninformationen -
[SPARK-41923] [SC-119861][connect][PYTHON] Hinzufügen von
DataFrame.writeTo
zur nicht unterstützten Liste - [SPARK-41912] [SC-119837][sql] Unterabfrage sollte CTE nicht überprüfen
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Stellen Sie sicher, dass
createDataFrame
leeren Dataframe unterstützen - [SPARK-41905] [SC-119848][connect] Supportname als Zeichenfolgen in Segmenten
- [SPARK-41869] [SC-119845][connect] Einzelne Zeichenfolge in dropDuplicates ablehnen
-
[SPARK-41830] [SC-119840][connect][PYTHON]
DataFrame.sample
soll die gleichen Parameter wie PySpark akzeptieren. - [SPARK-41849] [SC-119835][connect] Implementierung von DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Lassen Sie die build()-Funktion von v2 ScanBuilders einen typisierten Scan zurückgeben
-
[SPARK-41825] [SC-119710][connect][PYTHON] Aktivieren von Doctests im Zusammenhang mit
DataFrame.show
-
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Sicherstellen, dass
createDataFrame
None/NaN ordnungsgemäß behandelt -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Sorge dafür, dass
DataFrame.collect
None/NaN/Array/Binary richtig verarbeitet. - [SPARK-39318] [SC-119713][sql] Entfernen der tpch-plan-stability WithStats goldene Dateien
- [SPARK-41791] [SC-119745] Add new file source metadata column types
- [SPARK-41790] [SC-119729][sql] TRANSFORM-Reader und -Writer-Format korrekt einstellen
-
[SPARK-41829] [SC-119725][connect][PYTHON] Fügen Sie den fehlenden Sortierparameter in
Sort
undsortWithinPartitions
- [SPARK-41576] [SC-119718][sql] Weisen Sie _LEGACY_ERROR_TEMP_2051 einen Namen zu.
- [SPARK-41821] [SC-119716][connect][PYTHON] Dokumentationstest für DataFrame.describe beheben.
- [SPARK-41871] [SC-119714][connect] DataFrame-Hinweisparameter kann str, float oder int sein.
- [SPARK-41720] [SC-119076][sql] "UnresolvedFunc" in "UnresolvedFunctionName" umbenennen
- [SPARK-41573] [SC-119567][sql] Weisen Sie _LEGACY_ERROR_TEMP_2136 einen Namen zu.
- [SPARK-41862] [SC-119492][sql] Behebung eines Fehlers bezüglich der Korrektheit im Zusammenhang mit STANDARDWERTen im Orc-Leser
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Wiederverwenden von
INVALID_TYPED_LITERAL
anstelle von_LEGACY_ERROR_TEMP_0022
Wartungsupdates
Weitere Informationen finden Sie unter Wartungsupdates für Databricks Runtime 12.2.
Systemumgebung
- Betriebssystem: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.21
- R: 4.2.2
- Delta Lake: 2.2.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
Klicken | 8.0.4 | cryptography | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | executing | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
Notebook | 6.4.8 | numpy | 1.21.5 | Packen | 21,3 |
Pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
requests | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
sechs | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 11.11.2022 installiert. Die Momentaufnahme ist nicht mehr verfügbar.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | Blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0 - 8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | Anmeldeinformationen | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | Evaluieren | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | Grafiken | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | Lebenszyklus | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58.2 | Matrix | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Fortschritt | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |