Databricks Runtime 16.1
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 16.1, unterstützt von Apache Spark 3.5.0.
Databricks hat diese Version im Dezember 2024 veröffentlicht.
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie in Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Verhaltensänderungen
Breaking Change: Die Behandlung von regulären Photon-Ausdrücken ist jetzt mit Apache Spark konsistent.
In Databricks Runtime 15.4 und höher wird die Behandlung regulärer Ausdrücke in Photon aktualisiert, um dem Verhalten der regulären Ausdrucksbehandlung von Apache Spark zu entsprechen. Vorher akzeptierten von Photon ausgeführte reguläre Ausdrucksfunktionen wie zum Beispiel split()
und regexp_extract()
einige reguläre Ausdrücke, die vom Spark-Parser abgelehnt wurden. Um die Konsistenz mit Apache Spark aufrechtzuerhalten, schlagen die Photon-Abfragen jetzt bei regulären Ausdrücken fehl, die Spark als ungültig betrachtet.
Aufgrund dieser Änderung werden möglicherweise Fehler angezeigt, wenn Ihr Spark-Code ungültige reguläre Ausdrücke enthält. Beispielsweise schlägt der Ausdruck split(str_col, '{')
, der eine nicht übereinstimmende geschweifte Klammer enthält und zuvor von Photon akzeptiert wurde, fehl. Um diesen Ausdruck zu korrigieren, können Sie die geschweifte Klammer mit einem Escapezeichen versehen: split(str_col, '\\{')
.
Das Verhalten von Photon und Spark unterschied sich auch bei der Verwendung von regulären Ausdrücken mit Nicht-ASCII-Zeichen. Dies wird auch aktualisiert, sodass Photon mit dem Apache Spark-Verhalten übereinstimmt.
Der Datentyp VARIANT
kann nicht mehr mit Vorgängen verwendet werden, für die Vergleiche erforderlich sind.
In Databricks Runtime 16.1 und höher können Sie die folgenden Klauseln oder Operatoren nicht in Abfragen verwenden, die einen VARIANT
Datentyp enthalten:
DISTINCT
INTERSECT
EXCEPT
UNION
DISTRIBUTE BY
Darüber hinaus können Sie diese DataFrame-Funktionen nicht verwenden:
df.dropDuplicates()
df.repartition()
Diese Vorgänge führen Vergleiche aus, und Vergleiche, die den DATENTYP VARIANT verwenden, erzeugen nicht definierte Ergebnisse und werden in Databricks nicht unterstützt. Wenn Sie den VARIANT-Typ in Ihren Azure Databricks-Workloads oder -Tabellen verwenden, empfiehlt Databricks die folgenden Änderungen:
- Aktualisieren Sie Abfragen oder Ausdrücke, um
VARIANT
-Werte explizit in Nicht-VARIANT
-Datentypen umzuwandeln. - Wenn Sie Felder haben, die mit einem der oben genannten Vorgänge verwendet werden müssen, extrahieren Sie diese Felder aus dem
VARIANT
Datentyp, und speichern Sie sie mit nicht-VARIANT
Datentypen.
Weitere Informationen finden Sie unter Abfragevariantendaten.
Neue Features und Verbesserungen
- Unterstützung für Sortierungen in Apache Spark befindet sich in der öffentlichen Vorschau
- Unterstützung für Sortierungen in Delta Lake befindet sich in Public Preview
-
LITE
-Modus für Vakuum befindet sich in Public Preview - Unterstützung für die Parametrisierung der
USE CATALOG with IDENTIFIER
Klausel - COMMENT ONCOLUMN Unterstützung für Tabellen und Ansichten
- Neue SQL-Funktionen
- Benannter Parameteraufruf für weitere Funktionen
- Der
SYNC METADATA
-Parameter für den befehl REPAIR TABLE wird mit dem Hive-Metastore- unterstützt. - Erweiterte Datenintegrität für komprimierte Apache-Pfeilbatches
- Unterstützung für Scala-Methoden im Computemodus mit freigegebenem Zugriff von Unity Catalog hinzugefügt
- Integrierter Teradata JDBC-Treiber
- StreamingQueryListener-Unterstützung für Scala
- Integrierter Oracle JDBC-Treiber
- Detailliertere Fehler für Delta-Tabellen, auf die über Pfade zugegriffen wird,
Unterstützung für Kollationen in Apache Spark ist als öffentliche Vorschau verfügbar.
Sie können STRING
-Spalten und -Ausdrücken jetzt sprachspezifische Sortierungen ohne Berücksichtigung von Groß-/Kleinschreibung und Zugriff zuweisen. Diese Sortierungen werden in Zeichenfolgenvergleichen, Sortiervorgängen, Gruppierungsvorgängen und vielen Zeichenfolgenfunktionen verwendet. Siehe Sortierung.
Unterstützung für Sortierungen in Delta Lake befindet sich in Public Preview
Sie können jetzt Beim Erstellen oder Ändern einer Delta-Tabelle Sortierungen für Spalten definieren. Weitere Informationen finden Sie unter Sortierungsunterstützung für Delta Lake.
LITE
-Modus für Vakuum befindet sich in Public Preview
Sie können jetzt VACUUM table_name LITE
verwenden, um einen leichteren Vakuumvorgang auszuführen, der Metadaten im Delta-Transaktionsprotokoll nutzt. Siehe Vollmodus gegenüber Lite-Modus und VACUUM.
Unterstützung für die Parametrierung der USE CATALOG with IDENTIFIER
-Klausel
In Databricks Runtime 16.1 und höher wird die IDENTIFIER-Klausel für die USE CATALOG-Anweisung unterstützt. Mit dieser Unterstützung können Sie den aktuellen Katalog basierend auf einer Zeichenfolgenvariable oder Parametermarkierung parametrisieren.
COMMENT ONCOLUMN Unterstützung für Tabellen und Ansichten
In Databricks Runtime 16.1 und höher unterstützt die COMMENT ON-Anweisung das Ändern von Kommentaren für Ansichts- und Tabellenspalten.
Neue SQL-Funktionen
In Databricks Runtime 16.1 und höher sind die folgenden neuen integrierten SQL-Funktionen verfügbar:
- dayname(expr) gibt das englische Akronym mit drei Buchstaben für den Wochentag für das angegebene Datum zurück.
- uniform(expr1, expr2 [,seed]) gibt einen Zufallswert mit unabhängigen und identisch verteilten Werten innerhalb des angegebenen Zahlenbereichs zurück.
- randstr(length) gibt eine zufällige Zeichenfolge aus
length
alphanumerischen Zeichen zurück.
Benannter Parameteraufruf für weitere Funktionen
In Databricks Runtime 16.1 und höher unterstützen die folgenden Funktionen den benannten Parameteraufruf:
Der SYNC METADATA
-Parameter für den Befehl REPAIR TABLE wird mit dem Hive-Metaspeicher unterstützt.
In Databricks Runtime 16.1 und höher können Sie den SYNC METADATA
-Parameter mit dem Befehl REPAIR TABLE
verwenden, um die Metadaten einer verwalteten Hive-Metastore-Tabelle zu aktualisieren. Siehe REPAIR TABLE.
Erweiterte Datenintegrität für komprimierte Apache Arrow-Batches
In Databricks Runtime 16.1 und höher umfasst jetzt jeder komprimierte LZ4
-Arrow-Batch die LZ4
-Inhalts- und Blockprüfsummen, um den Schutz gegen Datenbeschädigung weiter zu erhöhen. Siehe Beschreibung des LZ4-Frameformats.
Unterstützung für Scala-Methoden im Computemodus mit freigegebenem Zugriff von Unity Catalog hinzugefügt
In Databricks Runtime 16.1 und höher wird Unterstützung für Scala-Methoden im Computemodus mit freigegebenem Zugriff von Unity Catalog hinzugefügt: Dataset.flatMapGroups()
, Dataset.mapGroups()
, und DataStreamWriter.foreach()
.
Integrierter Teradata JDBC-Treiber
In Databricks Runtime 16.1 und höher ist der Teradata JDBC-Treiber in Azure Databricks integriert. Wenn Sie ein vom Kunden hochgeladenes JDBC-Treiber-JAR über DriverManager
verwenden, müssen Sie Skripts neu schreiben, um das benutzerdefinierte JAR explizit zu verwenden. Andernfalls wird der integrierte Treiber verwendet. Dieser Treiber unterstützt nur lakehouse Federation. Für andere Anwendungsfälle müssen Sie Ihren eigenen Treiber bereitstellen.
StreamingQueryListener-Unterstützung für Scala
Sie können jetzt StreamingQueryListener
in Scala für die Berechnung verwenden, die mit dem Modus für gemeinsam genutzten Zugriff konfiguriert ist.
Eingebauter Oracle JDBC-Treiber
In Databricks Runtime 16.1 und höher ist der Oracle JDBC-Treiber in Azure Databricks integriert. Wenn Sie einen vom Kunden hochgeladenen JDBC-Treiber-JAR über DriverManager
verwenden, müssen Sie Skripts neu schreiben, um das benutzerdefinierte JAR explizit zu verwenden. Andernfalls wird der integrierte Treiber verwendet. Dieser Treiber unterstützt nur lakehouse Federation. Für andere Anwendungsfälle müssen Sie Ihren eigenen Treiber bereitstellen.
Detailliertere Fehler für Delta-Tabellen, auf die mit Pfaden zugegriffen wird
Eine neue Fehlermeldung für Delta-Tabellen, auf die mithilfe von Pfaden zugegriffen wird, ist jetzt verfügbar. Alle Ausnahmen werden jetzt an den Benutzer weitergeleitet. Die Ausnahme DELTA_MISSING_DELTA_TABLE
ist jetzt reserviert, wenn zugrunde liegende Dateien nicht als Delta-Tabelle gelesen werden können.
Andere Änderungen
Umbenannte Fehlercodes für die cloudFiles
strukturierte Streamingquelle
Diese Version enthält eine Änderung zum Umbenennen der folgenden Fehlercodes:
_LEGACY_ERROR_TEMP_DBR_0143
wird inCF_INCORRECT_STREAM_USAGE
umbenannt._LEGACY_ERROR_TEMP_DBR_0260
wird inCF_INCORRECT_BATCH_USAGE
umbenannt.
Fehlerbehebungen
Geschachtelte Typen akzeptieren jetzt ordnungsgemäß NULL-Einschränkungen.
Diese Version behebt einen Fehler, der sich auf einige von Delta generierte Spalten geschachtelter Typen auswirkt, z. B. STRUCT
. Diese Spalten lehnen Ausdrücke manchmal fälschlicherweise basierend auf den Einschränkungen NULL
oder NOT NULL
der geschachtelter Felder ab. Dies wurde behoben.
Modernisierung der Bibliothek
- Aktualisierte Python-Bibliotheken:
- ipyflow-core von 0.0.198 bis 0.0.201
- Pyccolo von 0.0.52 bis 0.0.65
- Aktualisierte R-Bibliotheken:
- Aktualisierte Java-Bibliotheken:
- io.delta.delta-sharing-client_2.12 von 1.2.1 bis 1.2.2
- org.lz4.lz4-java von 1.8.0 bis 1.8.0-databricks-1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider von 1.6.2-linux-x86_64 bis 2.4.1-linux-x86_64
Apache Spark
Databricks Runtime 16.1 enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 16.0enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-50482] [SC-182879][CORE] Veraltete no-op
spark.shuffle.spill
-Konfiguration - [SPARK-50032] [SC-182706][SQL][16.x] Verwendung eines vollqualifizierten Sortiernamens zulassen
- [SPARK-50467] [SC-182823][PYTHON] Hinzufügen von
__all__
für integrierte Funktionen - [SPARK-48898] [SC-182828][SQL] Behebung des "Variant Shredding"-Fehlers
- [SPARK-50441] [SC-182668][SQL] Korrigieren parametrisierter Bezeichner, die beim Verweisen auf CTEs nicht funktionieren
- [SPARK-50446] [SC-182639][PYTHON] Gleichzeitige Ebene in Arrow-optimierter Python-UDF
- [SPARK-50430] [SC-182536][CORE] Verwenden Sie die Standard-Properties.clone anstatt eines manuellen Klons.
- [SPARK-50471] [SC-182790][PYTHON] Unterstützung für Arrow-basierten Python-Datenquellenwriter
- [SPARK-50466] [SC-182791][PYTHON] Verfeinern der Docstring für Zeichenfolgenfunktionen - Teil 1
- [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] Integration neuer Zeitgeber-API und initialer Zustands-API mit Timer
- [SPARK-50437] [SC-182586][SS] Reduzieren des Mehraufwands der Erstellung von Deserialisierern in TransformWithStateExec
- [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Hinzufügen von Unterstützung für Verkettung ...
- [SPARK-49294] [SC-182730][UI] width-Attribut für Kontrollkästchen „shuffle-write-time“ hinzufügen.
- [SPARK-50426] [SC-182540][PYTHON] Vermeiden Statischer Python-Datenquellensuche bei Verwendung von integrierten oder Java-Datenquellen
- [SPARK-48356] [SC-182603][SQL] Unterstützung für FOR-Anweisung
- [SPARK-50333] [SC-182136][SQL] Codegen-Unterstützung für
CsvToStructs
(durch Aufrufen und RuntimeReplaceable) - [SPARK-50285] [SC-182575] Metriken für Commits an StagedTable-Instanzen
- [SPARK-50081] [SC-182344][SQL] Codegen-Unterstützung für
XPath*
(durch Aufrufen und RuntimeReplaceable) - [SPARK-50440] [SC-182592] [SQL] Umgestalten von AttributeSeq.resolveCandidates
- [SPARK-50067] [SC-179648][SQL] Codegen-Unterstützung für SchemaOfCsv(durch Invoke & RuntimeReplaceable)
- [SPARK-49873] [SC-178577][SQL] Beheben eines Fehlers nach dem Zusammenführen bei Fehlertests
- [SPARK-50118] [SC-181259][CONNET] Isolierten Zustandscache zurücksetzen, wenn Aufgaben ausgeführt werden
- [SPARK-49873] [SC-178577][SQL] Weisen Sie die richtige Fehlerklasse für _LEGACY_ERROR_TEMP_1325 zu
- [SPARK-50381] [SC-182197][CORE] Unterstützung von
spark.master.rest.maxThreads
- [SPARK-46725] [SC-182448][SQL] DAYNAME-Funktion hinzufügen
- [SPARK-50270] [SC-181179][SS][PYTHON] Hinzugefügte benutzerdefinierte Zustandsmetriken für TransformWithStateInPandas
- [SPARK-50118] Rückgängig machen von „[SC-181259][CONNECT] Isolierten Zustandscache zurücksetzen, wenn Aufgaben ausgeführt werden“
- [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] DataFrame-APIs für tabellenwertige Funktionen hinzufügen
- [SPARK-49470] [SC-175736][UI] Aktualisieren von DataTables Stylesheets und Javascripts von 1.13.5 auf 1.13.11
- [SPARK-50235] Rückgängig machen von „[SC-180786][SQL] ColumnVector-Ressource bereinigen, nachdem alle Zeilen in ColumnarToRowExec verarbeitet wurden“
- [SPARK-50324] [SC-182278][PYTHON][CONNECT]
createDataFrame
Config
RPC höchstens einmal auslösen lassen - [SPARK-50387] [SC-182441][SS] Bedingung für Timerablauf und relevanten Test aktualisieren
- [SPARK-50287] [SC-182400][SQL] Zusammenführen von Tabellen- und Beziehungsoptionen beim Erstellen von WriteBuilder in FileTable
- [SPARK-50066] [SC-181484][SQL] Codegen-Unterstützung für
SchemaOfXml
(durch Aufrufen und RuntimeReplaceable) - [SPARK-50092] [SC-181568][SQL] Korrigiere das Verhalten des PostgreSQL-Anschlusses für mehrdimensionale Arrays
- [SPARK-50318] [SC-181641][SQL] Hinzufügen von „IntervalUtils.makeYearMonthInterval“, um Code zwischen interpretiert und Codegen zu deduplizieren.
- [SPARK-50312] [SC-181646][SQL] Fehler bei der Parameterübergabe in SparkThriftServer createServer, wenn Kerberos „wahr“ ist
- [SPARK-50246] [SC-181468][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2167
zu:INVALID_JSON_RECORD_TYPE
- [SPARK-50214] [SC-180692][SQL] Von json/xml sollten keine Kollationen im angegebenen Schema geändert werden.
- [SPARK-50250] [SC-181466][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2075
zu:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
- [SPARK-50248] [SC-181467][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2058
zu:INVALID_PARTITION_VALUE
- [SPARK-50118] [SC-181259][CONNET] Isolierten Zustandscache zurücksetzen, wenn Aufgaben ausgeführt werden
- [SPARK-50235] [SC-180786][SQL] Bereinigung der ColumnVector-Ressource nach der Verarbeitung aller Zeilen in ColumnarToRowExec
- [SPARK-50156] [SC-180781][SQL] Integrieren
_LEGACY_ERROR_TEMP_2113
inUNRECOGNIZED_STATISTIC
- [SPARK-50069] [SC-180163][SQL] Integrieren von
_LEGACY_ERROR_TEMP_0028
inUNSUPPORTED_FROM_TO_EXPRESSION
- [SPARK-50154] [SC-180663][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_0043
zu:INVALID_RESET_COMMAND_FORMAT
- [SPARK-49967] [SC-179534][SQL] Codegen-Unterstützung für
StructsToJson
(to_json
) - [SPARK-50055] [SC-180978][SQL] Alternative für TryMakeInterval hinzufügen
- [SPARK-50397] [SC-182367][CORE] Entfernen veralteter
--ip
und-i
Argumente ausMaster/Worker
- [SPARK-50238] [SC-181434][PYTHON] Hinzufügen von Variant Support in PySpark UDFs/UDTFs/UDAFs und Python UC UDFs
- [SPARK-50079] [SC-179830][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2013
zu:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
- [SPARK-50182] [SC-180346][BEISPIEL] Hinzufügen
submit-sql.sh
REST-API-Beispiel - [SPARK-49966] [SC-179501][SQL] Verwenden sie
Invoke
zum Implementieren vonJsonToStructs
(from_json
) - [SPARK-50302] [SC-182518][SS] Stellen Sie sicher, dass sekundäre Indexgrößen den primären Indexgrößen für TransformWithState-Zustandsvariablen mit TTL entsprechen
- [SPARK-50301] [SC-182241][SS][16.x] Sicherstellen, dass TransformWithState-Metriken ihre intuitiven Bedeutungen widerspiegeln
- [SPARK-50175] [SC-182140][SQL] Berechnung der Sortierreihenfolge ändern
- [SPARK-50148] [SC-180292][SQL]
StaticInvoke
kompatibel machen mit der Methode, die eine Ausnahme deklarieren kann - [SPARK-50280] [SC-181214][PYTHON] Umgestalten der Ergebnissortierung und Leeren der Lagerplatzfüllung in
compute_hist
- [SPARK-50190] [SC-182458][PYTHON] Entfernen der direkten Abhängigkeit von Numpy aus Histogramm
- [SPARK-50382] [SC-182368][CONNECT] Fügen Sie allgemeine Informationen zur Anwendungsentwicklung mit/Erweiterung von Spark Connect hinzu.
- [SPARK-50296] [SC-181464][PYTHON][CONNECT] Vermeiden Sie die Verwendung einer Klasseneigenschaft im Threadpool für den Python Connect-Client
- [SPARK-49566] [SC-182239][SQL] Hinzufügen der SQL-Pipesyntax für den EXTEND-Operator
- [SPARK-50036] [SC-179533][CORE][PYTHON] Einschließen von SPARK_LOG_SCHEMA im Kontext der REPL-Shell
- [SPARK-49859] [SC-178259][CONNECT] Ersetze multiprocessing.ThreadPool durch ThreadPoolExecutor
- [SPARK-50141] [SC-182378][PYTHON]
lpad
undrpad
zur Annahme von Spaltentypargumenten bringen. - [SPARK-50379] [SC-182142][SQL] Fix für DayTimeIntevalType-Behandlung in WindowExecBase
- [SPARK-49954] [SC-179110][SQL] Codegen-Unterstützung für SchemaOfJson (durch Invoke & RuntimeReplaceable)
- [SPARK-50398] [SC-182341][CORE] Verwenden von ExitCode
0
für--help
-Verbrauch in Spark-Skripts - [SPARK-50377] [SC-182238][SQL] Auswertung faltbarer RuntimeReplaceable zulassen
- [SPARK-50241] [SC-181444][SQL] Ersetzen von NullIntolerant-Mixin durch Expression.nullIntolerant-Methode
- [SPARK-50084] [SC-179672][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_3168
zu:MISSING_TIMEOUT_CONFIGURATION
- [SPARK-50078] [SC-179649][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_0038
zu:DUPLICATED_CTE_NAMES
- [SPARK-50057] [SC-179573][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_1049
zu:INVALID_ATTRIBUTE_NAME_SYNTAX
- [SPARK-50070] [SC-179579][SQL] Integrieren von
_LEGACY_ERROR_TEMP_0039
inUNSUPPORTED_SQL_STATEMENT
- [SPARK-50378] [SC-182235][SS] Benutzerdefinierte Metrik für die Nachverfolgung der aufgewendeten Zeit für den Anfangszustand von Prozessen in transformWithState hinzufügen
- [SPARK-50029] [SC-179531][SQL]
StaticInvoke
mit der Methode kompatibel machen, dieAny
zurückgibt - [SPARK-49990] [SC-179497][SQL] Verbessern der Leistung von
randStr
- [SPARK-50048] [SC-179528][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2114
zu:UNRECOGNIZED_STATISTIC
- [SPARK-50053] [SC-179532][SQL] Wandeln Sie
_LEGACY_ERROR_TEMP_2104
inINTERNAL_ERROR
- [SPARK-49665] [SC-180054][SQL] Unterstützung von Sortierungskürzung für Zeichenfolgenfunktionen
- [SPARK-48549] [SC-176472][SQL][PYTHON] Verbessern der SQL-Funktion
sentences
- [SPARK-50022] [SC-179503][CORE][UI] Fix
MasterPage
zum Ausblenden von App-UI-Links, wenn die Benutzeroberfläche deaktiviert ist - [SPARK-50087] [SC-182152] Robuste Behandlung boolescher Ausdrücke in CASE WHEN für MsSqlServer und zukünftige Connectors
- [SPARK-49991] [SC-179481][SQL] Der HadoopMapReduceCommitProtocol soll 'mapreduce.output.basename' berücksichtigen, um Dateinamen zu erzeugen.
- [SPARK-50038] [SC-179521][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_0008
zu:MERGE_WITHOUT_WHEN
- [SPARK-50236] [SC-181671][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_1156
zu:COLUMN_NOT_DEFINED_IN_TABLE
- [SPARK-50021] [SC-179500][CORE][UI] Korrigieren
ApplicationPage
, um App-UI-Links auszublenden, wenn die Benutzeroberfläche deaktiviert ist. - [SPARK-49911] [SC-179111][SQL] Semantik der Unterstützung binärer Gleichheit korrigieren
- [SPARK-50025] [SC-179496][SQL] Integrieren von
_LEGACY_ERROR_TEMP_1253
inEXPECT_VIEW_NOT_TABLE
- [SPARK-49829] [SC-179480][SS] Behebung des Fehlers bei der Optimierung beim Hinzufügen von Eingaben zum Statusspeicher in Stream-Stream-Join
- [SPARK-50004] [SC-179499][SQL] Integrieren
_LEGACY_ERROR_TEMP_3327
inFIELD_NOT_FOUND
- [SPARK-50380] [SC-182210][SQL] ReorderAssociativeOperator muss die Anfrage in ConstantFolding beachten.
- [SPARK-50340] [SC-181859][SQL] Umbruch für UDT in INSERT-Eingabeabfrage aufheben
- [SPARK-50237] [SC-181660][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2138-9
zu:CIRCULAR_CLASS_REFERENCE
- [SPARK-50258] [SC-181993][SQL] Problem mit geänderter Ausgabespaltenreihenfolge nach der AQE-Optimierung beheben
- [SPARK-49773] [SC-178369][SQL] Nicht abgefangene Java-Ausnahme von
make_timestamp()
mit falscher Zeitzone - [SPARK-49977] [SC-179265][SQL] Verwenden Sie stapelbasierte iterative Berechnung, um zu vermeiden, dass viele Scala List-Objekte für tiefe Ausdrucksstrukturen erstellt werden.
- [SPARK-50153] [SC-181591][SQL] Fügen Sie
name
zuRuleExecutor
hinzu, um das Drucken vonQueryExecutionMetrics
s Protokollen übersichtlicher zu machen. - [SPARK-50320] [SC-181668][CORE] Machen Sie
--remote
eine offizielle Option, indem Sieexperimental
Warnung entfernen - [SPARK-49909] [SC-179492]Rückgängig machen von „[SQL] Anzeigename einiger Ausdrücke korrigieren“
- [SPARK-50330] [SC-180720][SC-181764][SQL] Hinzufügen von Hinweisen zu Sortier- und Fensterknoten
- [SPARK-50364] [SC-182003][SQL] Implementieren der Serialisierung für den LocalDateTime-Typ in Row.jsonValue
- [SPARK-50016] [SC-182139][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_2067
zu:UNSUPPORTED_PARTITION_TRANSFORM
- [SPARK-49899] [SC-181175][PYTHON][SS] Unterstützung für deleteIfExists in TransformWithStateInPandas
- [SPARK-49757] [SC-177824][SQL] Unterstützung des IDENTIFIER-Ausdrucks in SETCATALOG-Anweisung
- [SPARK-50315] [SC-181886][SQL] Unterstützung von benutzerdefinierten Metriken für V1Fallback-Schreibvorgänge
- [SPARK-42838] [SC-181509][SQL] Weisen Sie der Fehlerklasse einen Namen zu_LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][SQL] ResolveSQLOnFile umgestalten
- [SPARK-48344] [SC-181967][SQL] Vorbereiten von SQL-Skripting zum Hinzufügen von Execution Framework
- [SPARK-49345] [SC-174786][CONNECT] Stellen Sie sicher, dass Sie die aktuelle spark-Sitzung verwenden.
- [SPARK-49925] [SC-178882][SQL] Fügen Sie Tests für die Reihenfolge mit sortierten Zeichenfolgen hinzu.
- [SPARK-50167] [SC-181199][PYTHON][CONNECT] Verbessern der PySpark-Darstellung von Fehlermeldungen und Importen
- [SPARK-49368] [SC-174999][CONNECT] Vermeiden Sie den direkten Zugriff auf Protobuf Lite-Klassen
- [SPARK-50056] [SC-181378][SQL] Codegen-Unterstützung für ParseUrl (mit Hilfe von Invoke & RuntimeReplaceable)
- [SPARK-49601] [SC-180770][SS][PYTHON] Unterstützen der Verarbeitung des Anfangszustands für TransformWithStateInPandas
- [SPARK-49908] [SC-178768][SQL] Eine passende Fehlerbedingung für _LEGACY_ERROR_TEMP_0044 zuweisen
- [SPARK-50144] [SC-180307][SS] Beheben der Einschränkung der Metrikberechnung mit DSv1-Streamingquellen
- [SPARK-49874] [SC-178303][SQL] Entfernen der Sortierungsbezeichner „trim“ und „ltrim“
- [SPARK-49513] [SC-180339][SS] Fügen Sie Unterstützung für Timer in transformWithStateInPandas API hinzu.
- [SPARK-49119] [SC-175607][SQL] Beheben der Inkonsistenz der Syntax
show columns
zwischen v1 und v2 - [SPARK-49206] [SC-173704][CORE][UI] Hinzufügen der
Environment Variables
-Tabelle zu Master-EnvironmentPage
- [SPARK-49934] [SC-179581][SQL] Implizite Umwandlung für den Zugriff auf eine sortierte Struktur mit Literal hinzufügen
- [SPARK-50049] [SC-181659][SQL] Benutzerdefinierte Treibermetriken beim Schreiben in v2-Tabelle unterstützen
- [SPARK-50171] [SC-180295][PYTHON] Numpy für KDE-Plot optional machen
- [SPARK-49962] [SC-179320][SQL] Simplify AbstractStringTypes Klassenhierarchie
- [SPARK-50226] [SC-181483][SQL] Korrigieren von MakeDTInterval und MakeYMInterval zum Abfangen von Java-Ausnahmen
- [SPARK-48775] [SC-170801][SQL][STS] Ersetzen von SQLContext durch SparkSession in STS
- [SPARK-49015] [SC-175688][CORE] Connect Server muss
spark.log.structuredLogging.enabled
respektieren - [SPARK-50327] [SC-181667][SQL][16.x] Funktionsauflösung für Wiederverwendung im Einzeldurchlauf-Analysetool ausklammern
- [SPARK-49995] [SC-180762][SQL] Hinzufügen der Unterstützung von benannten Argumenten zu weiteren TVFs
- [SPARK-49268] [SC-174903][CORE] IO-Ausnahmen im SHS-Verlaufsanbieter protokollieren
- [SPARK-48123] [SC-164989][Core] Bereitstellen eines konstanten Tabellenschemas zum Abfragen strukturierter Protokolle
- [SPARK-49217] [SC-174904][CORE] Separate Puffergrößenkonfiguration in UnsafeShuffleWriter unterstützen
- [SPARK-50325] [SC-181664][SQL][16.x] Aliasauflösung für Wiederverwendung im Einzeldurchlauf-Analysetool ausklammern
- [SPARK-50322] [SC-181665][SQL] Parametrisierten Bezeichner in einer Unterabfrage korrigieren
- [SPARK-48400] [SC-175283][CORE]
PrometheusServlet
zuDeveloperApi
höherstufen - [SPARK-50118] Rückgängig machen von „[SC-181259][CONNECT] Isolierten Zustandscache zurücksetzen, wenn Aufgaben ausgeführt werden“
- [SPARK-50306] [SC-181564][PYTHON][CONNECT] Unterstützen von Python 3.13 in Spark Connect
- [SPARK-50152] [SC-181264][SS] handleInitialState mit Zustandsdatenquellenleser unterstützen
- [SPARK-50260] [SC-181271][CONNECT] Umgestalten und Optimieren von Spark C...
- [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
- [SPARK-49312] [SC-174672][PYTHON] Fehlermeldung verbessern für
assertSchemaEqual
- [SPARK-49439] [SC-175236][SQL] Anzeigename des Ausdrucks
FromProtobuf
undToProtobuf
korrigieren - [SPARK-50092] [ES-1258521] Beheben des Verhaltens von PostgreSQL-Verbindern für multidimensionale Arrays
- [SPARK-49913] [SC-181565][SQL] Überprüfung auf eindeutige Bezeichnungsnamen in geschachtelten beschrifteten Bereichen hinzufügen
- [SPARK-49563] [SC-181465][SQL] Fügen Sie die SQL-Pipesyntax für den operator WINDOW hinzu.
- [SPARK-49661] [SC-179021][SQL] Hashing und Vergleich für Sortierungskürzung implementieren
- [SPARK-38912] [SC-181543][PYTHON] Entfernen Sie den Kommentar im Zusammenhang mit classmethod und property.
- [SPARK-49770] [16.x][SC-179802][SC-179270][SS][RocksDB Hardening] Verbessern Sie die Verwaltung der RocksDB SST-Dateizuordnung, und beheben Sie das Problem beim Erneutladen derselben Version mit vorhandenen Momentaufnahmen.
- [SPARK-49002] Rückgängig machen von „[SC-172846][SQL] Ungültige Speicherorte in WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY konsistent behandeln“
- [SPARK-49668] [SC-178268][SQL] Sortierschlüsselunterstützung für Sortierungskürzung implementieren
- [SPARK-50262] [SC-181193][SQL] Spezifikation von komplexen Typen beim Ändern der Sortierung verbieten
- [SPARK-48898] [SC-181435][SQL] Hinzufügen von Variant Shredding-Funktionen
- [SPARK-48273] [SC-181381]Rückgängig machen von „[SQL] Behebung des verspäteten Umschreibens von PlanWithUnresolvedIdentifier
- [SPARK-50222] [SC-180706][CORE] Unterstützung von
spark.submit.appName
- [SPARK-50208] [SC-180662][CORE] Unterstützung von
spark.master.useDriverIdAsAppName.enabled
- [SPARK-50224] [SC-180689][SQL] Die Ersetzungen von IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 müssen NullIntolerant sein
- [SPARK-50247] [SC-180962][CORE] Definieren von
BLOCK_MANAGER_REREGISTRATION_FAILED
alsExecutorExitCode
- [SPARK-50282] [SC-181221][ML] Vereinfachen
TargetEncoderModel.transform
- [SPARK-50112] [SC-180763][SQL] Ermöglicht dem TransformWithState-Operator die Verwendung der Avro-Codierung
- [SPARK-50267] [SC-181180][ML] Verbessern
TargetEncoder.fit
mit DataFrame-APIs - [SPARK-37178] [SC-180939][ML] Zielcodierung zu „ml.feature“ hinzufügen
- [SPARK-50118] [SC-181259][CONNET] Isolierten Zustandscache zurücksetzen, wenn Aufgaben ausgeführt werden
- [SPARK-50085] [BEHAVE-176][SC-179809][PYTHON]
lit(ndarray)
mit „np.int8“ muss den numpy-Datatyp respektieren - [SPARK-50256] [SC-181048][SQL] Fügen Sie eine einfache Überprüfung hinzu, um zu überprüfen, ob ein logischer Plan nach jeder Optimiererregel nicht aufgelöst wird.
- [SPARK-50196] [SC-180932][CONNECT] Beheben des Python-Fehlerkontexts, um einen richtigen Kontext zu verwenden
- [SPARK-50274] [SC-181181][CORE] Schutz vor „use-after-close“ in DirectByteBufferOutputStream
- [SPARK-49999] [SC-180063][PYTHON][CONNECT] Optionalen Parameter „column“ in box- kde- und hist-Plots unterstützen
- [SPARK-50273] [SC-181178][SS] Verbesserung der Protokollierung für RocksDB-Lock-Erwerbs-/Freigabefälle
- [SPARK-50033] [SC-180720][SC-180659][SQL] Einem logischen Aggregate()-Knoten einen Hinweis hinzufügen.
- [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Zusätzliches Release von acquireLock in RocksDB aufgrund der Abschlussüberwachung korrigieren
- [SPARK-50253] [SC-180969][SS] Stream-Stream Join sollte die Prüfpunkt-ID nicht abrufen, wenn sie nicht unterstützt wird.
- [SPARK-50255] [SC-180964][PYTHON] Vermeiden Sie unnötige Umwandlungen in
compute_hist
- [SPARK-50228] [SC-180780][SQL] Verschieben der
RewriteCollationJoin
regel inFinishAnalysis
- [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] „Genauigkeit“ so anpassen, dass es Teil von kwargs für box-Plots ist
- [SPARK-49637] [SC-180160][SQL] Fehlermeldung für INVALID_FRACTION_OF_SECOND geändert
- [SPARK-49530] [SC-180658][PYTHON] Aktive Sitzung aus Dataframes abrufen
- [SPARK-50195] [SC-180654][CORE] Fix
StandaloneRestServer
, umspark.app.name
ordnungsgemäß anSparkSubmit
zu verteilen - [SPARK-50229] [SC-180773] Reduzieren der Speicherauslastung für Treiber für breite Schemas durch Verringern der Lebensdauer von AttributeReference-Objekten, die während der logischen Planung erstellt wurden
- [SPARK-50231] [SC-180815][PYTHON] Funktion
instr
soll Spaltesubstring
akzeptieren - [SPARK-49854] [SC-179812][16.x][SQL] Artifact Manager während Sitzungsklon klonen
- [SPARK-50219] [SC-180694][SQL] Umgestalten
ApplyCharTypePadding
, sodass Hilfsmethoden im Single-Pass-Resolver verwendet werden können - [SPARK-50077] [SC-179827][SQL] Führen Sie ein neues Musterobjekt für LogicalRelation ein, um das standardmäßige vollständige Paramsmuster zu vermeiden.
- [SPARK-50128] [Backport][16x][SC-180677][SS] Fügen Sie zustandsbehaftete Prozessorhandle-APIs mit impliziten Encodern in Scala hinzu
- [SPARK-50061] [SC-179961][SQL] Aktivieren der Analysetabelle für sortierte Spalten
- [SPARK-49993] [SC-180084][SQL] Verbessern von Fehlermeldungen für Summe und Mittelwert
- [SPARK-49638] [SC-179665][SQL] Entfernen Sie den ANSI-Konfigurationsvorschlag in INVALID_URL
- [SPARK-50204] [SC-180660][SQL] Auflösung des Lesepfads
HiveTableRelation
ausklammern - [SPARK-50193] [SC-180651][SS] Ausnahmebehandlung beim Validieren von Zeitmodi korrigieren
- [SPARK-50179] [SC-180342][CORE] Machen Sie die
spark.app.name
-Eigenschaft im REST-API optional. - [SPARK-50068] [SC-180300][SQL] Umgestalten
TypeCoercion
undAnsiTypeCoercion
, um einzelne Knotentransformationen zu trennen - [SPARK-49411] [SC-179483][SS] Statusspeicherprüfpunkt-ID zwischen Treiber und zustandsbehafteten Operatoren kommunizieren
- [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET sollte die Datenreihenfolge beibehalten.
- [SPARK-49506] [SC-180165][SQL] Optimize ArrayBinarySearch für faltbares Array
- [SPARK-50097] [SC-179908][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_1248
zu:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
- [SPARK-50071] [SC-180159][SQL][PYTHON] Fügen Sie try_make_timestamp(_ltz und _ntz) und zugehörige Tests hinzu.
- [SPARK-50054] [SC-180228][PYTHON][CONNECT] Histogramm-Plots unterstützen
- [SPARK-50015] [SC-179964][SQL] Weisen Sie eine entsprechende Fehlerbedingung für
_LEGACY_ERROR_TEMP_1125
zu:MISSING_DATABASE_FOR_V1_SESSION_CATALOG
- [SPARK-50155] [SC-180240][3.5] Verschieben von Skala- und Java-Dateien in ihre Standardordner
- [SPARK-49980] [SC-180353][CORE][SQL] Potenzielle Dateidatenstromlecks durch Unterbrechung abgebrochener Vorgänge beheben
- [SPARK-49010] [SC-172304][SQL][XML] Komponententests für Unterscheidung nach Groß-/Kleinschreibung für XML-Schemarückschluss hinzufügen
- [SPARK-49562] [SC-180211][SQL] SQL-Pipesyntax für Aggregation hinzufügen
- [SPARK-49663] [SC-180239][SQL] RtRIM-Vorschläge in Sortierungsausdrücken aktivieren
- [SPARK-48965] [SC-175926][SQL] Verwenden Sie das richtige Schema in
Dataset#toJSON
- [SPARK-48493] [SC-175893][PYTHON] Verbesserung des Python-Datenquellenlesers durch direkte Unterstützung von Arrow Batch für eine höhere Leistung.
- [SPARK-49734] [SC-180226][PYTHON] Füge
seed
-Argument für Funktionshuffle
hinzu - [SPARK-50174] [16.x][SC-180253][SQL] Auflösung von UnresolvedCatalogRelation ausklammern
- [SPARK-49989] [SC-179512][PYTHON][CONNECT] KDE/Dichte-Plots unterstützen
- [SPARK-49805] [SC-180218][SQL][ML] Private[xxx]-Funktionen aus
function.scala
entfernen - [SPARK-49808] [SC-179490][SQL] Beheben eines Deadlocks bei der Ausführung von Unterabfragen aufgrund von faulen Vals
- [SPARK-49929] [SC-180144][PYTHON][CONNECT] box-Plots unterstützen
- [SPARK-50008] [SC-179290][PS][CONNECT] Vermeiden Sie unnötige Vorgänge in
attach_distributed_sequence_column
- [SPARK-49767] [SC-180161][PS][CONNECT] Umgestalten des internen Funktionsaufrufs
- [SPARK-49683] [SC-178341][SQL] Sortierungskürzung blockieren
- [SPARK-49939] [SC-178941][SQL] Codegen-Unterstützung für json_object_keys (durch die Verwendung von Invoke & RuntimeReplaceable)
- [SPARK-50031] [SC-179582][SQL] Fügen Sie den
TryParseUrl
Ausdruck hinzu. - [SPARK-49766] [SC-178933][SQL] Codegen-Unterstützung für
json_array_length
(vonInvoke
&RuntimeReplaceable
) - [SPARK-50046] [SC-180026][SS] Verwenden Sie die stabile Reihenfolge des EventTimeWatermark-Knotens, um wasserzeichen zu berechnen.
- [SPARK-49540] [SC-180145][PS] Vereinheitlichung der Verwendung von
distributed_sequence_id
- [SPARK-50060] [SC-179965][SQL] Deaktivierte Konvertierung zwischen verschiedenen sortierten Typen in TypeCoercion und AnsiTypeCoercion
- [SPARK-49004] [SC-173244][CONNECT] Verwenden einer separaten Registrierung für interne Funktionen der Spalten-API
- [SPARK-49811] [SC-177888][SQL] StringTypeAnyCollation umbenennen
- [SPARK-49202] [SC-180059][PS]
ArrayBinarySearch
auf ein Histogramm anwenden - [SPARK-49203] [SC-175734][SQL] Ausdruck für
java.util.Arrays.binarySearch
hinzufügen - [SPARK-50034] [SC-179816][CORE] Falschmeldung von schwerwiegenden Fehler als nicht abgefangene Ausnahmen in
SparkUncaughtExceptionHandler
korrigieren - [SPARK-50093] [SC-179836][SQL] Sortierungen, die ICU verwenden, sollten die Version der verwendeten ICU-Bibliothek angeben.
- [SPARK-49985] [SC-179644][SQL] Entfernen der Unterstützung für Intervalltypen in Variant
- [SPARK-49103] [SC-173066][CORE] Unterstützung von
spark.master.rest.filters
- [SPARK-50090] [SC-179819] ResolveBinaryArithmetic umgestalten, um Transformation von Einzelknoten zu trennen
- [SPARK-49902] [SC-179650][SQL] Zugrunde liegende Runtimefehler in
RegExpReplace
erfassen - [SPARK-49126] [SC-173342][CORE] Die Konfigurationsdefinition von
spark.history.ui.maxApplications
nachHistory.scala
verschoben - [SPARK-50094] [SC-179820][PYTHON][CONNECT] Bessere Fehlermeldung bei Verwendung des Speicherprofilrs für Editoren ohne Zeilennummern
- [SPARK-50062] [SC-179835][SQL] Sortierungen nach
InSet
unterstützen - [SPARK-50035] [Backport][16x][SC-179530][SS] Unterstützung für den expliziten Funktionsteil "HandleExpiredTimer" im zustandsbehafteten Prozessor hinzufügen.
- [SPARK-49982] [SC-179814][SQL] Korrigieren der negativen Zwischenspeicherung in InMemoryRelation
- [SPARK-49082] [SC-173350][SQL] Ausweitung der Typerweiterungen in
AvroDeserializer
- [SPARK-50088] [SC-179680][SQL]
UnresolvedStarBase.expand
umgestalten - [SPARK-49802] [SC-179482][SS] Fügen Sie Unterstützung für das Lesen von Änderungsfeeds für Karten- und Listentypen hinzu, die in zustandsbehafteten Prozessoren verwendet werden.
- [SPARK-49846] [SC-179506][SS] Hinzufügen der Metriken numUpdatedStateRows und numRemovedStateRows für die Verwendung mit dem transformWithState-Operator.
- [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] lit soll numpy ndarray mit str- und bool-Typ akzeptieren
- [SPARK-49821] [SC-179527][SS][PYTHON] Implementieren von MapState- und TTL-Unterstützung für TransformWithStateInPandas
- [SPARK-49558] [SC-179485][SQL] Fügen Sie SQL-Pipesyntax für LIMIT/OFFSET und ORDER/SORT/CLUSTER/DISTRIBUTE BY
- [SPARK-48144] [SC-165725][LC-4080][SQL] Korrigieren Sie
canPlanAsBroadcastHashJoin
, um Shuffle-Verknüpfungshinweise zu beachten - [SPARK-50051] [SC-179571][PYTHON][CONNECT]
lit
soll mit leerem numpy ndarray funktionieren - [SPARK-50018] [SC-179488][SQL] AbstractStringType serialisierbar machen
- [SPARK-50016] [SC-179491][SQL] Fehlermeldung bei expliziten Sortierungskonflikten verbessern
- [SPARK-50010] [SC-179487][SQL] Fehlermeldung bei expliziten Sortierungskonflikten erweitern
- [SPARK-48749] [SC-170116][SQL] Vereinfachen von UnaryPositive und Beseitigen der Katalysatorregeln mit RuntimeReplaceable
- [SPARK-49857] [SC-178576][SQL] Füge storageLevel zur Dataset localCheckpoint API hinzu
- [SPARK-50058] [SC-179538][SQL] Plannormalisierungsfunktionen zur späteren Verwendung in Tests mit Einzeldurchlauf-Analysetools ausklammern
- [SPARK-50052] [SC-179535][PYTHON][16.X] Dafür sorgen, dass NumpyArrayConverter leere 'str' ndarrays unterstützt
- [SPARK-47261] [SC-173665][SQL] Vergeben Sie bessere Namen für die Fehler _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 und _LEGACY_ERROR_TEMP_1174
- [SPARK-49147] [SC-173471][CORE]
KryoRegistrator
mit DeveloperApi-Schnittstelle markieren - [SPARK-48949] [SC-173070][SQL] SPJ: Laufzeitpartitionsfilterung
- [SPARK-50044] [SC-179523][PYTHON] Docstring mehrerer mathematischer Funktionen einschränken
- [SPARK-48757] [SC-170113][CORE]
IndexShuffleBlockResolver
mit expliziten Konstruktoren versehen - [SPARK-50037] [SQL] AttributeSeq.resolve(...) umgestalten
- [SPARK-48782] [SC-177056][SQL] Hinzufügen von Unterstützung für die Ausführung von Prozeduren in Katalogen
- [SPARK-49057] [SC-173081][SQL] Die AQE-Schleife beim Übermitteln von Abfragephasen nicht blockieren
- [SPARK-48824] [SC-176772][BEHAVE-167][SQL] SQL-Syntax für Identitätsspalte hinzufügen
- [SPARK-48773] [SC-170773] Dokumentieren Sie die Konfiguration „spark.default.parallelism“ mit dem Config-Builder-Framework
- [SPARK-48735] [SC-169810][SQL] Leistungsverbesserung für BIN-Funktion
- [SPARK-48900] [SC-172433]
reason
-Feld für alle internen Anrufe zum Abbruch von Aufträgen/Phasen hinzufügen - [SPARK-48488] [SC-167605][CORE] Methoden
log[info|warning|error]
inSparkSubmit
korrigieren - [SPARK-48708] [SC-169809][CORE] Entfernen Sie drei unnötige Typenregistrierungen aus
KryoSerializer
- [SPARK-49958] [SC-179312][PYTHON] Python-API für Zeichenfolgenüberprüfungsfunktionen
- [SPARK-49979] [SC-179264][SQL] Blockierendes AQE-Problem beim doppelten Sammeln in einem fehlgeschlagenen Plan beheben
- [SPARK-48729] [SC-169795][SQL] Hinzufügen einer UserDefinedFunction-Schnittstelle zur Darstellung einer SQL-Funktion
- [SPARK-49997] [SC-179279][SQL] Integrieren von
_LEGACY_ERROR_TEMP_2165
inMALFORMED_RECORD_IN_PARSING
- [SPARK-49259] [SC-179271][SS] Größenbasierte Partitionerstellung während Kafka-Lesevorgängen
- [SPARK-48129] [SC-165006][PYTHON] Bereitstellen eines konstanten Tabellenschemas in PySpark zum Abfragen strukturierter Protokolle
- [SPARK-49951] [SC-179259][SQL] Ordnungsgemäße Fehlerbedingung für LEGACY_ERROR_TEMP(1099|3085) zuweisen
- [SPARK-49971] [SC-179278][SQL] Eine geeignete Fehlerbedingung für _LEGACY_ERROR_TEMP_1097 zuweisen
- [SPARK-49998] [SC-179277][SQL] Integrieren von
_LEGACY_ERROR_TEMP_1252
inEXPECT_TABLE_NOT_VIEW
- [SPARK-49876] [SC-179262][CONNECT] Entfernen von globalen Sperren von Spark Connect Service
- [SPARK-49957] [SC-179202][SQL] Scala-API für Zeichenfolgenüberprüfungsfunktionen
- [SPARK-48480] [SC-173055][SS][CONNECT] StreamingQueryListener sollte nicht von spark.interrupt() betroffen sein.
- [SPARK-49643] [SC-179239][SQL] Zusammenführen _LEGACY_ERROR_TEMP_2042 in ARITHMETIC_OVERFLOW
- [SPARK-49959] [SC-179109][SQL] ColumnarArray.copy() zum Lesen von Nullwerten aus dem richtigen Offset korrigieren
- [SPARK-49956] Rückgängig machen von „[SC-179070] Sortierungen mit collect_set-Ausdruck deaktiviert“
- [SPARK-49987] [SC-179180][SQL] Beheben Sie die Fehleraufforderung, wenn
seedExpression
inrandstr
nicht faltbar ist. - [SPARK-49948] [SC-179158][PS][CONNECT] Parameter „precision“ zu Pandas in Spark-box-Plot hinzufügen
- [SPARK-49970] [SC-179167][SQL] Weisen Sie einen ordnungsgemäßen Fehlerzustand für _LEGACY_ERROR_TEMP_2069 zu.
- [SPARK-49916] [SC-179108][SQL] Auslösen einer geeigneten Ausnahme für den Typkonflikt zwischen ColumnType und Datentyp in einigen Zeilen
- [SPARK-49956] [SC-179070] Sortierungen mit collect_set-Ausdruck deaktiviert
- [SPARK-49974] [16.x][SC-179071][SQL] resolveRelations(...) aus Analyzer.scala verschieben
- [SPARK-47259] [SC-176437][SQL] Namen an Fehlerbedingungen für Intervallfehler zuweisen
- [SPARK-47430] [SC-173679][SQL] Gruppe nach Zuordnungstyp überarbeiten, um Bindungsreferenzausnahme zu korrigieren
- [SPARK-49067] [SC-172616][SQL] UTF-8-Literal in interne Methoden der UrlCodec-Klasse verschieben
- [SPARK-49955] [SC-178989][SQL] Nullwert bedeutet beim Analysieren der JSON-Zeichenfolge RDD nicht beschädigte Datei.
- [SPARK-49393] [SC-175212][SQL] Standardmäßig fehlschlagen in veralteten Katalog-Plug-In-APIs
- [SPARK-49952] [SC-178985][SQL] Eine geeignete Fehlerbedingung für _LEGACY_ERROR_TEMP_1142 zuweisen
- [SPARK-49405] [SC-175224][SQL] Einschränken von Zeichenmengen in JsonOptions
- [SPARK-49892] [SC-178975][SQL] Die richtige Fehlerklasse für _LEGACY_ERROR_TEMP_1136 zuweisen
- [SPARK-49904] [SC-178973][SQL] Ordnungsgemäße Fehlerbedingung für _LEGACY_ERROR_TEMP_2140 zuweisen
- [SPARK-47257] [SC-174244][SQL] Weisen Sie den Fehlerklassen _LEGACY_ERROR_TEMP_105[3-4] und _LEGACY_ERROR_TEMP_1331 Namen zu.
- [SPARK-49915] [SC-178869][SQL] Nullen und Einsen im ReorderAssociativeOperator behandeln
- [SPARK-49891] [SC-178970][SQL] Ordnungsgemäße Fehlerbedingung für _LEGACY_ERROR_TEMP_2271 zuweisen
- [SPARK-49918] [SC-178748][CORE] Schreibgeschützten Zugriff auf Konfiguration in
SparkContext
verwenden, wenn angemessen. - [SPARK-49666] [SC-177891][SQL] Featureflag für Sortierungskürzungsfeature hinzufügen
- [SPARK-48885] [SC-171050][SQL] Einige Unterklassen von RuntimeReplaceable sollen Ersatz für verzögerten Wert überschreiben
- [SPARK-49932] [SC-178931][CORE] Verwenden Sie
tryWithResource
ReleaseJsonUtils#toJsonString
Ressourcen, um Speicherverluste zu vermeiden - [SPARK-49949] [SC-178978][PS] Vermeiden Sie unnötige Analysevorgänge in
attach_sequence_column
- [SPARK-49924] [SC-178935][SQL]
containsNull
nachArrayCompact
Ersetzung beibehalten - [SPARK-49121] [SC-174787][SQL] Unterstützen
from_protobuf
undto_protobuf
für SQL-Funktionen - [SPARK-47496] [SC-160529][SQL] Java SPI-Unterstützung für die Registrierung dynamischer JDBC-Dialekte
- [SPARK-49359] [SC-174895][SQL] Zulassen, dass StagedTableCatalog-Implementierungen auf nicht atomisches Schreiben zurückgreifen
- [SPARK-49895] [SC-178543][SQL][ES-1270338] Verbesserung der Fehlermeldung beim Auftreten eines abschließenden Kommas in der SELECT-Klausel
- [SPARK-47945] [SC-163457][SQL] MsSQLServer: Dokumentation der Zuordnung von Spark SQL-Datentypen aus Microsoft SQL Server und Tests hinzufügen
- [SPARK-46037] [SC-175495][SQL] Korrektheitsfix für gemischten Hashjoin-Build ohne Codegen beendet
- [SPARK-47813] [SC-162615][SQL] getArrayDimension durch updateExtraColumnMeta ersetzen
- [SPARK-49542] [SC-178765][SQL] Auswertungsfehler bei Partitionstransformation
- [SPARK-47172] [SC-169537][CORE] Fügen Sie Unterstützung für AES-GCM für RPC-Verschlüsselung hinzu.
- [SPARK-47666] [SC-161476][SQL] NPE beim Lesen von Mysql-Bitarrays als LongType korrigieren
- [SPARK-48947] [SC-174239][SQL] Kleingeschriebenen Zeichensatznamen verwenden, um fehlenden Cache in Charset.forName zu verringern
- [SPARK-49909] [SC-178552][SQL] Beheben Sie den hübschen Namen einiger Ausdrücke.
- [SPARK-47647] [SC-161377][SQL] MySQL-Datenquelle kann nit(n>1) als BinaryType wie Postgres lesen
- [SPARK-46622] [SC-153004][CORE]
toString
-Methode füro.a.s.network.shuffledb.StoreVersion
außer Kraft setzen - [SPARK-48961] [SC-171910][PYTHON] Machen Sie die Parameterbenennung von PySparkException konsistent mit JVM
- [SPARK-49889] [SC-178474][PYTHON] Argument
trim
für Funktionentrim/ltrim/rtrim
hinzufügen - [SPARK-47537] [SC-160747][SQL] Fehlerhafte Datentypzuordnung im MySQL Connector/J beheben
- [SPARK-47628] [SC-161257][SQL] Problem „Umwandlung in booleschen Wert nicht möglich“ bei Postgres-Bitarray beheben
- [SPARK-49843] [SC-178084][ES-1268164][SQL] Problem beim Ändern von Kommentaren zu char-/varchar-Spalten beheben
- [SPARK-49549] [SC-178764][SQL] Weisen Sie den Fehlerbedingungen _LEGACY_ERROR_TEMP_3055 einen Namen zu, 3146
- [SPARK-49791] [SC-177730][SQL] DelegatingCatalogExtension erweiterbar machen
- [SPARK-49559] [SC-178551][SQL] SQL-Pipesyntax für set-Vorgänge hinzufügen
- [SPARK-49906] [SC-178536][SQL] CONFLICTING_DIRECTORY_STRUCTURES-Fehler für PartitioningUtils einführen und verwenden
- [SPARK-49877] [SC-178392][SQL] Signatur der Funktion "classifyException" ändern: Argument "isRuntime" hinzufügen
- [SPARK-47501] [SC-160532][SQL] Fügen Sie convertDateToDate ähnlich dem vorhandenen convertTimestampToTimestamp für JdbcDialect hinzu.
- [SPARK-49044] [SC-175746][SQL] ValidateExternalType muss bei Fehlern das untergeordnete Element zurückgeben
- [SPARK-47462] [SC-160460][SQL] Zuordnungen anderer unsignierter numerischer Typen an TINYINT im MySQL-Dialekt ausrichten
- [SPARK-47435] [SC-160129][SQL] Beheben des Überlaufproblems von MySQL UNSIGNED TINYINT verursacht durch SPARK-45561
- [SPARK-49398] [SC-176377][SQL] Verbessern des Fehlers für Parameter in der Abfrage von CACHE TABLE und CREATE VIEW
- [SPARK-47263] [SC-177012][SQL] Legacy-Bedingungen _LEGACY_ERROR_TEMP_13[44-46] Namen zuweisen
- [SPARK-49605] [SC-176605][SQL] Prompt korrigieren, wenn
ascendingOrder
inSortArray
DataTypeMismatch
ist - [SPARK-49806] [SC-178304][SQL][CONNECT] Redundantes
blank space
nachshow
inScala
- undConnect
- Clients entfernen - [SPARK-47258] [SC-175032][SQL] Zuweisen von Namen zu Fehlerklassen _LEGACY_ERROR_TEMP_127[0-5]
- [SPARK-49564] [SC-178461][SQL] Fügen Sie die SQL-Pipesyntax für den Operator JOIN hinzu.
- [SPARK-49836] [SC-178339][SQL][SS] Möglicherweise defekte Abfrage korrigieren, wenn Fenster an „window/session_window fn“ übergeben wird
- [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] Behandeln der SQL-Zeitstempelzuordnung für Postgres und MySQL
- [SPARK-49776] [SC-177818][PYTHON][CONNECT] Kreisdiagramme unterstützen
- [SPARK-49824] [SC-178251][SS][CONNECT] Verbessern der Protokollierung in SparkConnectStreamingQueryCache
- [SPARK-49894] [SC-178460][PYTHON][CONNECT] Verfeinern der Zeichenfolgendarstellung von Spaltenfeldvorgängen
- [SPARK-49764] [SC-177491][PYTHON][CONNECT] Flächendiagramme unterstützen
- [SPARK-49694] [SC-177376][PYTHON][CONNECT] Punktdiagramme unterstützen
- [SPARK-49744] [SC-178363][SS][PYTHON] Implementieren der TTL-Unterstützung für ListState in TransformWithStateInPandas
- [SPARK-49879] [SC-178334][CORE] Verschieben
TransportCipherUtil
in eine separate Datei, um Java-Kompilierungswarnungen zu beseitigen - [SPARK-49866] [SC-178353][SQL] Verbessern der Fehlermeldung zur Beschreibung der Tabelle mit Partitionsspalten
- [SPARK-49867] [SC-178302][ES-1260570][SQL] Fehlermeldung verbessern, wenn der Index beim Aufrufen von GetColumnByOrdinal außerhalb der Grenzen liegt
- [SPARK-49607] [SC-177373][PYTHON] Ansatz für Stichprobenentnahme bei stichprobenbasierten Plots aktualisieren
- [SPARK-49626] [SC-177276][PYTHON][CONNECT] Horizontale und vertikale Balkendiagramme unterstützen
- [SPARK-49531] [SC-177770][PYTHON][CONNECT] Liniendiagramm mit plotly-Back-End unterstützen
- [SPARK-49444] [SC-177692][ES-1203248][SQL] Geänderte UnivocityParser-Methode zum Auslösen von Laufzeitausnahmen durch ArrayIndexOutOfBounds mit benutzerdefinierteren Nachrichten
- [SPARK-49870] [SC-178262][PYTHON] Hinzufügen der Python 3.13-Unterstützung in Spark Classic
- [SPARK-49560] [SC-178121][SQL] Fügen Sie die SQL-Pipesyntax für den Operator TABLESAMPLE hinzu.
- [SPARK-49864] [SC-178305][SQL] Verbesserung der Fehlermeldung für BINARY_ARITHMETIC_OVERFLOW
- [SPARK-48780] [SC-170274][SQL] Fehler in NamedParametersSupport generisch machen, um Funktionen und Prozeduren zu behandeln
- [SPARK-49358] [SC-178158][SQL] Modusausdruck für Zuordnungstypen mit sortierten Zeichenfolgen
- [SPARK-47341] [SC-178157][SQL] Korrigieren der fehlerhaften Dokumentation von RuntimeConfig#get
- [SPARK-48357] [SC-178153][SQL] Unterstützung für LOOP-Anweisung
- [SPARK-49845] [SC-178059][CORE]
appArgs
undenvironmentVariables
in der REST-API optional machen - [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable sollte angeben, ob sie zum Schreiben verwendet werden soll.
- [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Unterstützung für clientseitige Listener für Scala hinzugefügt
- [SPARK-48700] [SC-177978][SQL] Modusausdruck für komplexe Typen (alle Sortierungen)
- [SPARK-48196] [SC-177899][SQL] Pläne für verzögerte QueryExecution-Werte in „LazyTry“ umwandeln
- [SPARK-49749] [16.x][SC-177877][CORE] Protokollebene zum Debuggen in BlockManagerInfo ändern
- [SPARK-49561] [SC-177897][SQL] Fügen Sie die SQL-Pipesyntax für die Operatoren PIVOT und UNPIVOT hinzu.
- [SPARK-49823] [SC-177885][SS] Leeren während des Herunterfahrens in rocksdb-Schließpfad vermeiden
- [SPARK-49820] [SC-177855] [PYTHON] Ändern
raise IOError
inraise OSError
- [SPARK-49653] [SC-177266][SQL] Einfacher Join für korrelierte Skalarunterabfragen
- [SPARK-49552] [SC-177477][PYTHON] Hinzufügen der DataFrame-API-Unterstützung für neue "randstr" und "uniform" SQL-Funktionen
- [SPARK-48303] [16.x][SC-166251][CORE] LogKeys neu organisieren
- [SPARK-49656] [16x][Backport][SS] Unterstützung für Statusvariablen mit Sammlungstypen für Wertzustände und Optionen für das Lesen von Änderungsfeeds hinzufügen.
- [SPARK-48112] [SC-165129][CONNECT] Verfügbarmachen der Sitzung in SparkConnectPlanner für Plug-Ins
- [SPARK-48126] [16.x][SC-165309][Core] „spark.log.structuredLogging.enabled“ effektiv machen
- [SPARK-49505] [SC-176873][SQL] Erstellen neuer SQL-Funktionen "randstr" und "uniform", um zufällige Zeichenfolgen oder Zahlen innerhalb von Bereichen zu generieren
- [SPARK-49463] [SC-177474] ListState für TransformWithStateInPandas unterstützen
- [SPARK-48131] [SC-165007][Core] MDC-Schlüssel
mdc.taskName
undtask_name
vereinheitlichen - [SPARK-49557] [SC-177227][SQL] Hinzufügen der SQL-Pipesyntax für den operator WHERE
- [SPARK-49323] [16.x][SC-174689][CONNECT] Verschieben von MockObserver aus dem Testordner von Spark Connect Server in den Hauptordner des Servers
- [SPARK-49745] [SC-177501][SS] Änderung zum Lesen registrierter Timer über den Leser für Statusdatenquellen hinzufügen
- [SPARK-49772] [16.x][SC-177478][SC-177214][SS] ColumnFamilyOptions entfernen und Konfigurationen direkt zu dbOptions in RocksDB hinzufügen
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter und aktualisieren Sie (ODBCherunterladen, JDBCherunterladen ).
Weitere Informationen finden Sie unter Wartungsupdates für Databricks Runtime 16.1.
Systemumgebung
- Betriebssystem: Ubuntu 24.04.1 LTS
- Java: Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | schwarz | 24.4.2 |
Blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
chardet | 4.0.0 | Charset-Normalizer | 2.0.4 | click | 8.1.7 |
cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
Kryptographie | 42.0.5 | Fahrradfahrer | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
Dekorateur | 5.1.1 | Veraltet | 1.2.14 | distlib | 0.3.8 |
docstring-to-markdown | 0.11 | Einstiegspunkte | 0.4 | executing | 0.8.3 |
Facettenübersicht | 1.1.1 | filelock | 3.15.4 | fonttools | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-auth | 2.35.0 | google-cloud-core | 2.4.1 | Google-Cloud-Speicher | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
inflect | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
Verpackung | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
pathspec | 0.10.3 | patsy | 0.5.6 | pexpect | 4.8.0 |
Kissen | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | Pyasn1 | 0.4.8 | Pyasn1-Module | 0.2.8 |
pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | Python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
requests | 2.32.2 | Seil | 1.12.0 | rsa | 4.9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
Seegeboren | 0.13.2 | setuptools | 74.0.0 | six | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
Stapeldaten | 0.2.0 | statsmodels | 0.14.2 | Zähigkeit | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
Tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | unbeaufsichtigte Aktualisierungen | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | Rad | 0.43.0 | wrapt | 1.14.1 |
yapf | 0.33.0 | zipp | 3.17.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2024-08-04 installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-8 | Klumpen | 1.2.4 | boot | 1.3-30 |
brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
caret | 6.0-94 | CellRanger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
clock | 0.7.1 | cluster | 2.1.6 | Codetools | 0.2-20 |
colorspace | 2.1-1 | commonmark | 1.9.1 | compiler | 4.4.0 |
config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
Buntstift | 1.5.3 | Zugangsdaten | 2.0.1 | curl | 5.2.1 |
data.table | 1.15.4 | Datensätze | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.36 |
downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | auswerten | 0.24.0 |
Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
Zukunft | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
Generika | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.3 | Leim | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
Graphik | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1.48 | Kennzeichnung | 0.4.3 |
later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
Lebenszyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
Matrix | 1.6-5 | memoise | 2.0.1 | Methodik | 4.4.0 |
mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
parallelly | 1.38.0 | Säule | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | Fortschritt | 1.2.3 |
progressr | 0.14.0 | promises | 1.3.0 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktivierbar | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
Rezepte | 1.1.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinfo | 1.2.2 |
shape | 1.4.6.1 | glänzend | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | spatial | 7.3-17 | splines | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.4.0 |
stats4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
Überleben | 3.6-4 | swagger | 5.17.14.1 | sys | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
Textgestaltung | 0.4.0 | Tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.52 | Werkzeuge | 4.4.0 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | benutze dies | 3.0.0 |
utf8 | 1.2.4 | utils | 4.4.0 | uuid | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.1 | xfun | 0.46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | zip | 2.3.1 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | Stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Klassenkamerad | 1.3.4 |
com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | Koffein | 2.9.3 |
com.github.fommil | Jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-Ureinwohner |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | fehleranfällige_Anmerkungen | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | Luftkompressor | 0.27 |
io.delta | delta-sharing-client_2.12 | 1.2.2 |
io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | Metriken-Servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammler | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | Transaktions-API | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ameise | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | Pfeilformat | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | Pfeilvektor | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | Zoowärter | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anmerkungen | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | Testschnittstelle | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | ScalaTest-kompatibel | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
Oro | Oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
stax | stax-api | 1.0.1 |