Databricks Runtime 12.2 LTS
Följande viktig information innehåller information om Databricks Runtime 12.2 LTS, som drivs av Apache Spark 3.3.2.
Databricks släppte den här versionen i mars 2023.
Kommentar
LTS innebär att den här versionen stöds på lång sikt. Se Livscykeln för Databricks Runtime LTS-versionen.
Dricks
Information om hur du ser viktig information för Databricks Runtime-versioner som har nått supportens slut (EoS) finns i Viktig information om Databricks Runtime-slut. EoS Databricks Runtime-versionerna har dragits tillbaka och kanske inte uppdateras.
Förändringar i beteende
[Icke-bakåtkompatibel ändring] Ny Python-version kräver uppdatering av Databricks Connect V1 Python-klienter
Kommentar
En efterföljande uppdatering flyttar Python-versionen i Databricks Runtime 12.2 LTS till 3.9.21. 3.9.21-versionen introducerar inga beteendeändringar.
För att tillämpa nödvändiga säkerhetskorrigeringar uppgraderas Python-versionen i Databricks Runtime 12.2 LTS från 3.9.5 till 3.9.19. Eftersom dessa ändringar kan orsaka fel i klienter som använder specifika PySpark-funktioner måste alla klienter som använder Databricks Connect V1 för Python med Databricks Runtime 12.2 LTS uppdateras till Python 3.9.7 eller senare.
Nya funktioner och förbättringar
- Python har uppgraderats från 3.9.19 till 3.9.21
- Delta Lake-schemautveckling har stöd för att ange källkolumner i kopplingsinstruktioner
- Strukturerade strömningsarbetsbelastningar stöds i kluster med läget för delad åtkomst
- Nya funktioner för förutsägande I/O
- stöd för implicit lateral kolumnalias
- Ny forEachBatch-funktion
- Standardiserade anslutningsalternativ för frågefederation
- Utökat SQL-funktionsbibliotek för matrishantering
- Ny maskfunktion för att anonymisera strängar
- Vanliga felvillkor returnerar nu SQLSTATEs
- Anropa generatorfunktioner i FROM-satsen
- Stöd för protokollbuffertar är allmänt tillgängligt
- Gå till definition för notebook-variabler och funktioner
- Snabbkorrigering för notebook-filer för automatisk import av bibliotek
- Felkorrigeringar
Python har uppgraderats från 3.9.19 till 3.9.21
Python-versionen i Databricks Runtime 12.2 LTS uppdateras från 3.9.19 till 3.9.21.
Delta Lake-schemautveckling har stöd för att ange källkolumner i sammanslagningsinstruktioner
Nu kan du ange kolumner som bara finns i källtabellen i infoga eller uppdatera åtgärder för kopplingsinstruktioner när schemautveckling är aktiverat. I Databricks Runtime 12.1 och nedan kan endast INSERT *
eller UPDATE SET *
åtgärder användas för schemautveckling med sammanslagning. Se Automatisk schemautveckling för Delta Lake-sammanslagning.
Strukturerade strömningsarbetsbelastningar stöds i kluster med läget för delad åtkomst
Nu kan du använda Structured Streaming för att interagera med Unity Catalog vid beräkning med standardåtkomstläge. Vissa begränsningar gäller. Se Vilka funktioner för strukturerad direktuppspelning stöder Unity Catalog?.
Nya funktioner för förutsägande I/O
Photon-stöd för Foreachbatch
mottagaren är nu tillgängligt. Arbetsbelastningar som strömmas från en källa och sammanfogas till deltatabeller eller skrivs till flera mottagare kan nu dra nytta av photonized Foreachbatch
-sink.
Stöd för implicit lateral kolumnaliasing
Azure Databricks stöder nu implicit lateral kolumnalias som standard. Du kan nu återanvända ett uttryck som angavs tidigare i samma SELECT
lista. Till exempel, givet SELECT 1 AS a
, a + 1 AS b
a
kan in a + 1
matchas som den tidigare definierade 1 AS a
. Kontrollera Namnmatchning för mer information i matchningsordning.
Om du vill inaktivera den här funktionen kan du ange spark.sql.lateralColumnAlias.enableImplicitResolution
till false
.
Ny forEachBatch-funktion
Foton stöds nu när du använder foreachBatch
för att skriva till en datamottagare.
Standardiserade anslutningsalternativ för frågefederation
Nu kan du använda en enhetlig uppsättning alternativ (värd, port, databas, användare, lösenord)för att ansluta till datakällor som stöds i Frågefederation.
Port
är valfritt och använder standardportnumret för varje datakälla, om det inte anges.
Utökat SQL-funktionsbibliotek för matrishantering
Nu kan du ta bort alla NULL-element från en matris med hjälp av array_compact. Om du vill lägga till element i en matris använder du array_append.
Ny maskfunktion för att anonymisera strängar
Anropa funktionen mask för att anonymisera känsliga strängvärden.
Vanliga felvillkor returnerar nu SQLSTATEs
De flesta feltillstånd som Databricks Runtime nu innehåller dokumenterade SQLSTATE- värden som kan användas för att testa fel på ett sql-standardkompatibelt sätt.
Anropa generatorfunktioner i FROM-satsen
Nu kan du anropa tabellvärdesgeneratorfunktioner, till exempel explode, i den vanliga FROM
-klausulen i en fråga. Detta justerar generatorfunktionens anrop med andra inbyggda och användardefinierade tabellfunktioner.
Stöd för protokollbuffertar är allmänt tillgängligt
Du kan använda from_protobuf
funktionerna och to_protobuf
för att utbyta data mellan binära och struct-typer. Se Läsa och skriva protokollbuffertar.
Gå till definition för notebook-variabler och funktioner
I notebook-filer kan du snabbt gå till definitionen av en variabel, funktion eller koden bakom en %run
instruktion genom att högerklicka på variabeln eller funktionsnamnet.
Snabbkorrigering för notebook-filer för automatisk import av bibliotek
Databricks Notebooks erbjuder nu en snabbkorrigeringsfunktion för automatisk import av bibliotek. Om du glömmer att importera ett bibliotek som Pandas hovrar du över den understrukna syntaxvarningen och klickar sedan på Snabbkorrigering. Den här funktionen kräver att Databricks Assistant är aktiverat på din arbetsyta.
Felkorrigeringar
- Förbättrad konsekvens för Delta-incheckningsbeteende för tomma transaktioner relaterade till
update
kommandona ,delete
ochmerge
. PåWriteSerializable
isoleringsnivå skapar kommandon som inte resulterar i några ändringar nu en tom incheckning. På isoleringsnivåSerializable
skapar sådana tomma transaktioner nu ingen incheckning.
Funktionalitetsförändringar
Beteendeändringar med den nya laterala kolumnaliasfunktionen
Den nya laterala kolumnaliasfunktionen introducerar beteendeändringar för följande fall under namnmatchning:
- Alias för lateral kolumn har nu företräde framför korrelerade referenser med samma namn. För den här frågan
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
löstes till exempelc1
i den inrec1 AS c2
till den korrelerade referensent.c1
, men ändras nu till lateral kolumnalias1 AS c1
. Frågan returnerarNULL
nu . - Alias för lateral kolumn har nu företräde framför funktionsparametrar med samma namn. För funktionen
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
löstes till exempelx
i funktionstexten till funktionsparametern x, men ändras till lateralt kolumnaliasx + 1
i funktionstexten. FråganSELECT * FROM func(1)
returnerar2, 2
nu . - Om du vill inaktivera aliasfunktionen för laterala kolumner anger du
spark.sql.lateralColumnAlias.enableImplicitResolution
tillfalse
. Mer information finns i Namnmatchning.
Biblioteksuppgraderingar
- Uppgraderade Python-bibliotek:
- filelock från 3.8.2 till 3.9.0
- joblib från 1.1.0 till 1.1.1
- platformdirs från 2.6.0 till 2.6.2
- whatthepatch från 1.0.3 till 1.0.4
- Uppgraderade R-bibliotek:
- klass från 7.3-20 till 7.3-21
- codetools från 0.2-18 till 0.2-19
- MASS från 7,3-58 till 7,3-58,2
- nlme från 3.1-160 till 3.1-162
- Rserve från 1.8-11 till 1.8-12
- SparkR från 3.3.1 till 3.3.2
Beteendeändringar
- Användarna måste nu ha
SELECT
ochMODIFY
behörigheter för alla filer när de skapar ett schema med en definierad plats.
Apache Spark
Databricks Runtime 12.2 innehåller Apache Spark 3.3.2. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 12.1 (EoS) samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Dateset-åtgärder bör inte lösa den analyserade logiska planen igen
- [SPARK-41848] Återställ "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Åtgärda uppgiften överplanerad med TaskResourceProfile"
- [SPARK-42162] [SC-122711][es-556261] Introducera MultiCommutativeOp-uttryck som en minnesoptimering för kanonisering av stora träd med kommutativa uttryck
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Åtgärda rekursiv djupinställning för Protobuf-funktioner
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementera DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Byt namn på _catalog_to_pandas till _execute_and_fetch i Catalog
- [SPARK-41490] [SC-121774][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementera Catalog.cacheTable, isCached och uncache
- [SPARK-42191] [SC-121990][sql] Stöd för UDF 'luhn_check'
- [SPARK-42253] [SC-121976][python] Lägg till test för att identifiera duplicerad felklass
- [SPARK-42268] [SC-122251][connect][PYTHON] Lägg till UserDefinedType i protos
-
[SPARK-42231] [SC-121841][sql] Omvandla
MISSING_STATIC_PARTITION_COLUMN
tillinternalError
- [SPARK-42136] [SC-122554] Refaktorutdatapartitioneringsberäkning för BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrera
_LEGACY_ERROR_TEMP_1003
iFIELD_NOT_FOUND
- [SPARK-42192] [12.x][sc-121820][PYTHON] Migrera TypeError från pyspark/sql/dataframe.py till PySparkTypeError
- [SPARK-35240] Revert "[SC-118242][ss] Use CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1176 (och 1177)
-
[SPARK-42232] [SC-122267][sql] Byt namn på felklass:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][sql] Skriv om distinkta aggregeringar efter sammanslagning av underfrågor
-
[SPARK-42306] [SC-122539][sql] Integrera
_LEGACY_ERROR_TEMP_1317
iUNRESOLVED_COLUMN.WITH_SUGGESTION
-
[SPARK-42234] [SC-122354][sql] Byt namn på felklass:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
-
[SPARK-42343] [SC-122437][core] Ignorera
IOException
ihandleBlockRemovalFailure
om SparkContext stoppas - [SPARK-41295] [SC-122442][spark-41296][SQL] Byt namn på felklasserna
- [SPARK-42320] [SC-122478][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][connect] SparkConnectClient stöder nu retryPolicies
- [SPARK-38728] [SC-116723][sql] Testa felklassen: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Fristående exempel i PySpark
- [SPARK-39347] [SC-122457][ss] Felkorrigering för tidsfönsterberäkning när händelsetiden < 0
-
[SPARK-42336] [SC-122458][core] Använd
getOrElse()
i stället förcontains()
i ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF i Spark Connect
- [SPARK-42217] [SC-122263][sql] Stöder implicit lateralt kolumnalias i frågor med Window
- [SPARK-35240] [SC-118242][ss] Använd CheckpointFileManager för kontrollpunktsfilmanipulering
- [SPARK-42294] [SC-122337][sql] Inkludera kolumnstandardvärden i DESCRIBE-utdata för V2-tabeller
- [SPARK-41979] Återställ "Återställ "[12.x][sc-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser.""
- [SPARK-42286] [SC-122336][sql] Återställning till tidigare kodväg för kodgenerering för komplexa uttryck med CAST
- [SPARK-42275] [SC-122249][connect][PYTHON] Undvik att använda inbyggd lista, dikta vid statisk typning
- [SPARK-41985] [SC-122172][sql] Centralisera fler regler för kolumnmatchning
- [SPARK-42126] [SC-122330][python][CONNECT] Acceptera returtyp i DDL-strängar för Python Scalar UDFs i Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Återanvänder JVM-initiering och separata konfigurationsgrupper som ska anges i fjärrlokalt läge
- [SPARK-41575] [SC-120118][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Återställ "[SC-122172][sql] Centralisera fler kolumnmatchningsregler"
- [SPARK-42123] [SC-122234][sc-121453][SQL] Inkludera kolumnstandardvärden i DESCRIBE och SHOW CREATE TABLE utdata
- [SPARK-41985] [SC-122172][sql] Centralisera fler regler för kolumnmatchning
- [SPARK-42284] [SC-122233][connect] Kontrollera att anslutningsserversammansättningen har skapats innan du kör klienttester – SBT
-
[SPARK-42239] [SC-121790][sql] Integrera
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
-
[SPARK-42278] [SC-122170][sql] DS V2-pushdown stöder stöd för JDBC-dialekter som kompileras
SortOrder
själva - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics bör ta hand om Python UDAF
- [SPARK-41979] Återställ "[12.x][sc-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser."
- [SPARK-42224] [12.x][sc-121708][CONNECT] Migrera TypeError till felramverket för Spark Connect-funktioner
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migrera Spark Connect-felen till PySpark-felramverket.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Lägg till inbyggda tabellvärdesfunktioner för inbäddad och inbäddad_yttre
- [SPARK-41489] [SC-121713][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Introducera PySparkValueError och PySparkTypeError
- [SPARK-42081] [SC-121723][sql] Förbättra valideringen av planändring
- [SPARK-42225] [12.x][sc-121714][CONNECT] Lägg till SparkConnectIllegalArgumentException för att hantera Spark Connect-fel exakt.
-
[SPARK-42044] [12.x][sc-121280][SQL] Åtgärda felaktiga felmeddelanden för
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][sc-121712][PS] Tillåt kolumnparametern när du skapar DataFrame med serier.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrera fel som utlöses av JVM till PySparkException.
- [SPARK-42133] [12.x][sc-121250] Lägg till grundläggande Dataset API-metoder i SparkConnect Scala-klienten
- [SPARK-41979] [12.x][sc-121190][SQL] Lägg till saknade punkter i felmeddelanden inom felklasser.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF i Spark Connect
- [SPARK-42051] [SC-121994][sql] Codegen Support for HiveGenericUDF
- [SPARK-42257] [SC-121948][core] Ta bort oanvänd variabel extern sortering
- [SPARK-41735] [SC-121771][sql] Använd MINIMAL i stället för STANDARD för SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Förfina
NULLABLE_ARRAY_OR_MAP_ELEMENT
-
[SPARK-42233] [SC-121775][sql] Förbättra felmeddelandet för
PIVOT_AFTER_GROUP_BY
-
[SPARK-42229] [SC-121856][core] Migrera
SparkCoreErrors
till felklasser - [SPARK-42163] [SC-121839][sql] Korrigera schemarensning för icke-vikbar matrisindex eller kartnyckel
- [SPARK-40711] [SC-119990][sql] Lägg till mått för spillstorlek för fönster
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Gör
createDataFrame
stödAtomicType -> StringType
tvång - [SPARK-42202] [SC-121837][connect][Test] Förbättra stopplogik för E2E-testservern
- [SPARK-41167] [SC-117425][sql] Förbättra multiliknande prestanda genom att skapa ett balanserat uttrycksträdspredikat
- [SPARK-41931] [SC-121618][sql] Bättre felmeddelande för ofullständig komplex typdefinition
- [SPARK-36124] [SC-121339][sc-110446][SQL] Stöd för underfrågor med korrelation via UNION
- [SPARK-42090] [SC-121290][3.3] Introducera antal sasl-återförsök i RetryingBlockTransferor
-
[SPARK-42157] [SC-121264][core]
spark.scheduler.mode=FAIR
bör tillhandahålla FAIR-schemaläggare - [SPARK-41572] [SC-120772][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][sql] Byt namn på & förbättra felmeddelandet för
NULL_COMPARISON_RESULT
-
[SPARK-41976] [SC-121024][sql] Förbättra felmeddelandet för
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][sc-120573] Tilldela SQLSTATE(1/2)
- [SPARK-41415] [SC-121117][3.3] SASL-begärandeförsök
- [SPARK-38591] [SC-121018][sql] Lägg till flatMapSortedGroups och cogroupSorted
-
[SPARK-41975] [SC-120767][sql] Förbättra felmeddelandet för
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][sql][PROTOBUF] Lägg till alternativ som saknas för Protobuf-funktioner
-
[SPARK-41984] [SC-120769][sql] Byt namn på & förbättra felmeddelandet för
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][sql] Åtgärda NPE för felklasser: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Åtgärda felaktigt kolumnnamn i
withField
's doctest -
[SPARK-41283] [SC-121175][connect][PYTHON] Lägg till
array_append
till Connect - [SPARK-41960] [SC-120773][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][sql] Fix getPartitionFiltersAndDataFilters() för att hantera filter utan refererade attribut
-
[SPARK-42096] [SC-121012][connect] Viss kodrensning för
connect
modul -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Fix
count(*)
andcount(col(*))
- [SPARK-42045] [SC-120958][sc-120450][SQL] ANSI SQL-läge: Round/Bround bör returnera ett fel vid heltalsöverflöd
- [SPARK-42043] [SC-120968][anslutning] Scala-klientresultat med E2E-tester
- [SPARK-41884] [SC-121022][connect] Support naiv tupl som en inbäddad rad
-
[SPARK-42112] [SC-121011][sql][SS] Lägg till null-kontroll innan
ContinuousWriteRDD#compute
funktion stängsdataWriter
- [SPARK-42077] [SC-120553][connect][PYTHON] Literal bör utlösa TypeError för DataType som inte stöds
-
[SPARK-42108] [SC-120898][sql] Gör Analyzer transformera
Count(*)
tillCount(1)
-
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Stöd för parameteriserad SQL med
sql()
- [SPARK-40599] [SC-120930][sql] Justera multiTransform-regeltypen så att alternativ kan vara av vilken typ som helst av Seq
-
[SPARK-41574] [SC-120771][sql] Uppdatera
_LEGACY_ERROR_TEMP_2009
somINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][sql] Omvandla
INCORRECT_END_OFFSET
tillINTERNAL_ERROR
- [SPARK-41530] [SC-120916][sc-118513][CORE] Byt namn på MedianHeap till PercentileMap och stöd percentil
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Fixa strängrepresentation för Column-klass
- [SPARK-42084] [SC-120775][sql] Undvik att läcka begränsningen endast för kvalificerad åtkomst
- [SPARK-41973] [SC-120765][sql] Tilldela namn till _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][sql] SPJ: Ta bort alternativ i KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][connect][PYTHON] Byt namn på proto-meddelanden för
toDF
ochwithColumnsRenamed
- [SPARK-42089] [SC-120605][connect][PYTHON] Åtgärda problem med variabelnamn i kapslade lambda-funktioner
- [SPARK-41982] [SC-120604][sql] Partitioner av typen sträng bör inte behandlas som numeriska typer
- [SPARK-40599] [SC-120620][sql] Lägg till multiTransform-metoder i TreeNode för att generera alternativ
-
[SPARK-42085] [SC-120556][connect][PYTHON] Gör så att
from_arrow_schema
har stöd för kapslade typer - [SPARK-42057] [SC-120507][sql][PROTOBUF] Åtgärda hur undantaget hanteras i felrapportering.
-
[SPARK-41586] [12.x][alla tester][SC-120544][python] Introducera
pyspark.errors
- och felklasser för PySpark. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literal
bör ha stöd för 1-dim ndarray -
[SPARK-42021] [SC-120584][connect][PYTHON] Ge
createDataFrame
stödarray.array
- [SPARK-41896] [SC-120506][sql] Filtrering efter radindex returnerar tomma resultat
- [SPARK-41162] [SC-119742][sql] Fix anti- och semi-join för självkoppling med aggregeringar
- [SPARK-41961] [SC-120501][sql] Stöd för tabellvärdesfunktioner med LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Gruppera kapslade körningar under rotkörningen
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal bör stödja Numpy-datatyper
- [SPARK-42028] [SC-120344][connect][PYTHON] Trunkera tidsstämplar till nanosekunder
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementera DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Använd
FieldReference.column
i stället förapply
i V1 till V2 filterkonvertering - [SPARK-39217] [SC-120446][sql] Gör att DPP stöder beskärningssidan med Union
-
[SPARK-42076] [SC-120551][connect][PYTHON] Konvertering av faktordata
arrow -> rows
ut tillconversion.py
-
[SPARK-42074] [SC-120540][sql] Aktivera
KryoSerializer
iTPCDSQueryBenchmark
för att framtvinga SQL-klassregistrering - [SPARK-42012] [SC-120517][connect][PYTHON] Implementera DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Åtgärda
DataFrame.unionByName
, lägg till allow_missing_columns -
[SPARK-38651] [SC-120514] [SQL] Addera
spark.sql.legacy.allowEmptySchemaWrite
-
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsert
bör acceptera ExpressionProxy som barn - [SPARK-41232] [SC-120073][sql][PYTHON] Lägga till funktionen array_append
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader bör stödja en lista över sökvägar
-
[SPARK-42071] [SC-120533][core] Registrera
scala.math.Ordering$Reverse
till KyroSerializer - [SPARK-41986] [SC-120429][sql] Introducera shuffle på SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Aktivera tester relaterade till den kapslade kolumnen
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReader
bör ha stöd för StructType-schema -
[SPARK-42031] [SC-120389][core][SQL] Rensa
remove
metoder som inte behöver åsidosättas -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Gör
createDataFrame(rows/lists/tuples/dicts)
stöd för kapslade typer - [SPARK-41437] [SC-117601][sql][ALLA TESTER] Optimera inte indatafrågan två gånger för tillbakaskrivning av v1
-
[SPARK-41840] [SC-119719][connect][PYTHON] Lägg till det saknade aliaset
groupby
- [SPARK-41846] [SC-119717][connect][PYTHON] Aktivera dokumenttest för fönsterfunktioner
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materialiserar AQE-planen innan du kommer åt outputOrdering
- [SPARK-41805] [SC-119992][sql] Återanvända uttryck i WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range för att ta flyttal som argument
-
[SPARK-42029] [SC-120336][connect] Lägg till Guava Shading-regler i
connect-common
för att undvika startfel - [SPARK-41989] [SC-120334][python] Undvik att bryta loggningskonfigurationen från pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Minska duplicerad kod i ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Åtgärda grupp efter all felrapportering
- [SPARK-41047] [SC-120291][sql] Förbättra dokumentation för avrundning
- [SPARK-41822] [SC-120122][connect] Konfigurera gRPC-anslutning för Scala/JVM-klienten
-
[SPARK-41879] [SC-120264][connect][PYTHON] Gör
DataFrame.collect
stöd för kapslade typer -
[SPARK-41887] [SC-120268][connect][PYTHON] Gör
DataFrame.hint
acceptera en lista med angiven parameter - [SPARK-41964] [SC-120210][connect][PYTHON] Lägg till listan över I/O-funktioner som inte stöds
- [SPARK-41595] [SC-120097][sql] Stöd för generatorfunktionen explode/explode_outer i FROM-klausulen
-
[SPARK-41957] [SC-120121][connect][PYTHON] Aktivera doctest för
DataFrame.hint
-
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersect
doctest-utdata har olika ordning - [SPARK-41442] [SC-117795][sql][ALLA TESTER] Uppdatera endast SQLMetric-värdet om sammanslagning med giltig metrik
- [SPARK-41944] [SC-120046][connect] Skicka konfigurationer när lokalt fjärrläge är på
-
[SPARK-41708] [SC-119838][sql] Hämta v1write-information till
WriteFiles
-
[SPARK-41780] [SC-120000][sql] Bör kasta INVALID_PARAMETER_VALUE.PATTERN när parametern
regexp
är ogiltig - [SPARK-41889] [SC-119975][sql] Koppla rotorsak till invalidPatternError & omstrukturera fel-klasser INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][sql] Gör AvroScanBuilder och JsonScanBuilder fallklasser
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: connect-klienten förlorade kolumndata med pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Agnostiska kodare
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementera RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Uppdatera
_LEGACY_ERROR_TEMP_1230
somINTERNAL_ERROR
-
[SPARK-41928] [SC-119972][connect][PYTHON] Lägg till listan som inte stöds för
functions
- [SPARK-41933] [SC-119980][connect] Ange lokalt läge som startar servern automatiskt
- [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame" bör respektera användarens DDL-schema
-
[SPARK-41936] [SC-119978][connect][PYTHON] Gör
withMetadata
återanvändawithColumns
proto - [SPARK-41898] [SC-119931][connect][PYTHON] Window.rowsBetween, Window.rangeBetween parametertypkontroll jämställdhet med pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Lägg till listan som inte stöds för
catalog
funktioner -
[SPARK-41924] [SC-119946][connect][PYTHON] Gör StructType till stöd för metadata och implementera
DataFrame.withMetadata
-
[SPARK-41934] [SC-119967][connect][PYTHON] Lägg till funktionslistan som inte stöds för
session
-
[SPARK-41875] [SC-119969][connect][PYTHON] Lägg till testfall för
Dataset.to()
- [SPARK-41824] [SC-119970][connect][PYTHON] Ingore dokumentet för att förklara anslutningen
-
[SPARK-41880] [SC-119959][connect][PYTHON] Gör så att funktionen
from_json
accepterar icke-literal schema -
[SPARK-41927] [SC-119952][connect][PYTHON] Lägg till listan som inte stöds för
GroupedData
-
[SPARK-41929] [SC-119949][connect][PYTHON] Lägg till funktion
array_compact
-
[SPARK-41827] [SC-119841][connect][PYTHON] Gör att
GroupBy
kan acceptera en kolumnlista -
[SPARK-41925] [SC-119905][sql] Aktivera
spark.sql.orc.enableNestedColumnVectorizedReader
som standard -
[SPARK-41831] [SC-119853][connect][PYTHON] Gör
DataFrame.select
acceptera kolumnlistan -
[SPARK-41455] [SC-119858][connect][PYTHON] Gör
DataFrame.collect
ta bort tidszonsinformationen -
[SPARK-41923] [SC-119861][connect][PYTHON] Lägg till
DataFrame.writeTo
i listan som inte stöds - [SPARK-41912] [SC-119837][sql] Subquery bör inte verifiera CTE
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Gör
createDataFrame
stöd för tom dataram - [SPARK-41905] [SC-119848][connect] Stöd för namn som strängar i delmängder
- [SPARK-41869] [SC-119845][connect] Avvisa enskild sträng i dropDuplicates
-
[SPARK-41830] [SC-119840][connect][PYTHON] Gör
DataFrame.sample
acceptera samma parametrar som PySpark - [SPARK-41849] [SC-119835][connect] Implementera DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Gör att v2 ScanBuilders' build() returnerar en typad genomsökning
-
[SPARK-41825] [SC-119710][connect][PYTHON] Aktivera dokumenttest relaterade till
DataFrame.show
-
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Gör
createDataFrame
hantera None/NaN korrekt -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Se till att
DataFrame.collect
hanterar None/NaN/Array/Binary korrekt - [SPARK-39318] [SC-119713][sql] Ta bort tpch-plan-stabilitet WithStats gyllene filer
- [SPARK-41791] [SC-119745] Lägg till nya kolumntyper för filkällans metadata
- [SPARK-41790] [SC-119729][sql] Ange TRANSFORM-läsarens och skrivarens format korrekt
-
[SPARK-41829] [SC-119725][connect][PYTHON] Lägg till den saknade ordningsparametern i
Sort
ochsortWithinPartitions
- [SPARK-41576] [SC-119718][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][connect][PYTHON] Åtgärda dokumenttest för DataFrame.describe
- [SPARK-41871] [SC-119714][connect] DataFrame hint parameter kan vara str, float eller int
- [SPARK-41720] [SC-119076][sql] Byt namn på UnresolvedFunc till UnresolvedFunctionName
- [SPARK-41573] [SC-119567][sql] Tilldela namn till _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][sql] Åtgärda korrekthetsfel relaterade till standardvärden i Orc-läsare
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Återanvänd
INVALID_TYPED_LITERAL
i stället för_LEGACY_ERROR_TEMP_0022
Underhållsuppdateringar
Se Underhållsuppdateringar för Databricks Runtime 12.2.
Systemmiljö
- Operativsystem: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.21
- R: 4.2.2
- Delta lake: 2.2.0
Installerade Python-bibliotek
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindningar | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | svart | 22.3.0 | blekmedel | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klicka | 8.0.4 | kryptografi | 3.4.8 | cyklist | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | felsökning | 1.5.1 |
dekoratör | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | Verkställande | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook-fil | 6.4.8 | numpy | 1.21.5 | emballage | 21,3 |
Pandas | 1.4.2 | pandocfilter | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Kudde | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
begäranden | 2.27.1 | requests-unixsocket | 0.2.0 | rep | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
sex | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5,10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | orubblighet | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tromb | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
obevakade uppgraderingar | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
hjul | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Installerade R-bibliotek
R-bibliotek installeras från Microsoft CRAN-ögonblicksbilden 2022-11-11. Ögonblicksbilden är inte längre tillgänglig.
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
arrow | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
backportar | 1.4.1 | bas | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
start | 1.3-28 | brygga | 1.0-8 | Brio | 1.1.3 |
kvast | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
anropare | 3.7.3 | textmarkör | 6.0-93 | cellranger | 1.1.0 |
Chron | 2.3-58 | klass | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | klocka | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | färgområde | 2.0-3 | commonmark | 1.8.1 |
kompilator | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
krita | 1.5.2 | Autentiseringsuppgifter | 1.3.2 | hårlock | 4.3.3 |
datatabell | 1.14.4 | datauppsättningar | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | smälta | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellips | 0.3.2 | evaluate (utvärdera) | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | främmande | 0.8-82 |
smida | 0.2.0 | Fs | 1.5.2 | framtid | 1.29.0 |
future.apply | 1.10.0 | gurgla | 1.2.1 | Generika | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
lim | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafik | 4.2.2 | grDevices | 4.2.2 |
gitter | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | hamn | 2.5.1 |
highr | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratorer | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | stickning | 1,40 |
Märkning | 0.4.2 | senare | 1.3.0 | Galler | 0.20-45 |
lava | 1.7.0 | livscykel | 1.0.3 | lyssna | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
MASSA | 7.3-58.2 | Matris | 1.5-1 | pmise | 2.0.1 |
metoder | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallellt | 1.32.1 | pelare | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | berömma | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Förlopp | 1.2.2 |
progressr | 0.11.0 | Löften | 1.2.0.1 | Proto | 1.0.0 |
proxyserver | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recept | 1.0.3 |
Returmatch | 1.0.1 | rematch2 | 2.1.2 | Fjärrkontroller | 2.4.2 |
reprex | 2.0.2 | omforma2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversioner | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | våg | 1.2.1 |
väljare | 0.4-2 | sessioninfo | 1.2.2 | form | 1.4.6 |
skinande | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | rumslig | 7.3-11 | Splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
överlevnad | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | avmarkera | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | verktyg | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
verktyg | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
morrhår | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | Zip | 2.2.2 |
Installerade Java- och Scala-bibliotek (Scala 2.12-klusterversion)
Grupp-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | ström | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-skuggad | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasskamrat | 1.3.4 |
com.fasterxml.jackson.core | jackson-anteckningar | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | kärna | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tingeling | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilerare | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffert | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | samlare | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | ättikslag | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | pilformat | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | pilvektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recept | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | murgröna | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parkettkolumn | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-kodning | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | åhörarkommentarer | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-fortsättning | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | brygga plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-server | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | vilolägesverifierare | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anteckningar | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | oanvänd | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |