Databricks Runtime 12.1 (EoS)
Kommentar
Stödet för den här Databricks Runtime-versionen har upphört. Information om slutdatumet för support finns i Historik över supportens slut. Alla Databricks Runtime-versioner som stöds finns i Databricks Runtime-versionsanteckningar och kompatibilitet.
Följande viktig information innehåller information om Databricks Runtime 12.1 som drivs av Apache Spark 3.3.1.
Databricks släppte den här versionen i januari 2023.
Nya funktioner och förbättringar
- Delta Lake table funktioner som stöds för protokollhantering
- Förutsägande I/O för uppdateringar finns i offentlig förhandsversion
- Catalog Explorer är nu tillgängligt för alla personer
- Stöd för flera tillståndskänsliga operatorer i en enda strömningsfråga
- Stöd för protokollbuffertar finns i offentlig förhandsversion
- Stöd för Confluent Schema Registry-autentisering
- Stöd för delning av table-historik med Delta Sharing shares
- Stöd för strömning med Delta Sharing shares
- Table version med tidsstämpel stöds nu för Delta Sharing tables i catalogs
- stöd för NÄR DET INTE MATCHAS AV KÄLLA för MERGE INTO
- optimerad statistiksamling för CONVERT TO DELTA
- Unity Catalog stöd för att avdroppa tables
Delta Lake table funktioner som stöds för protokollhantering
Azure Databricks har introducerat stöd för Delta Lake table-funktioner, som introducerar detaljerade flaggor som anger vilka funktioner som stöds av en viss table. Se Hur hanterar Azure Databricks funktionskompatibilitet med Delta Lake?.
Förutsägande I/O för uppdateringar finns i offentlig förhandsversion
Förutsägande I/O påskyndar nu DELETE
-, MERGE
- och UPDATE
-operationer för Delta tables med aktiverade borttagningsvektorer på Photon-aktiverade beräkningar. Se Vad är förutsägande I/O?.
Catalog Explorer är nu tillgängligt för alla personer
Catalog Explorer är nu tillgängligt för alla Azure Databricks-personer när du använder Databricks Runtime 7.3 LTS och senare.
Stöd för flera tillståndskänsliga operatorer i en enda strömningsfråga
Användare kan nu länka tillståndskänsliga operatorer med tilläggsläge i strömningsfrågan. Alla operatorer stöds inte fullt ut. Tidsintervall för strömström join och flatMapGroupsWithState
tillåter inte att andra tillståndskänsliga operatorer kopplas samman.
Stöd för protokollbuffertar finns i offentlig förhandsversion
Du kan använda from_protobuf
funktionerna och to_protobuf
för att utbyta data mellan binära och struct-typer. Se Läsa och skriva protokollbuffertar.
Stöd för Confluent Schema Registry-autentisering
Azure Databricks-integrering med Confluent Schema Registry stöder nu externa schema registeradresser med autentisering. Den här funktionen är tillgänglig för from_avro
funktionerna , to_avro
, from_protobuf
och to_protobuf
. Se Protobuf eller Avro.
Stöd för att dela table-historik med Delta Sharing shares
Nu kan du dela en table med fullständig historik med Delta Sharing, så att recipients kan utföra frågor om tidigare versioner och göra förfrågningar mot table med hjälp av Spark Structured Streaming.
WITH HISTORY
rekommenderas i stället för CHANGE DATA FEED
, även om det senare fortsätter att stödjas. Se ALTER SHARE och Lägg till tables till en andel.
Stöd för strömning med Delta Sharing shares
Spark Structured Streaming fungerar nu med formatet deltasharing
på en Delta Sharing-källa table som delats med WITH HISTORY
.
Table version som använder tidsstämpel nu stöds för Delta Sharing tables i catalogs
Du kan nu använda SQL-syntaxen TIMESTAMP AS OF
i SELECT
-instruktioner för att ange versionen av en Delta Sharing-table som är monterad i en catalog.
Tables måste delas med hjälp av WITH HISTORY
.
Stöd för "WHEN NOT MATCHED BY SOURCE" för MERGE INTO
Du kan nu lägga till WHEN NOT MATCHED BY SOURCE
-satser i MERGE INTO
till update eller ta bort rader från den valda table som saknar matchningar i käll-table baserat på kopplingsvillkoret. Den nya satsen är tillgänglig i SQL, Python, Scala och Java. Se MERGE INTO.
Optimerad statistikinsamling för CONVERT TO DELTA
Statistikinsamlingen för åtgärden CONVERT TO DELTA
är nu mycket snabbare. Detta minskar antalet arbetsbelastningar som kan användas NO STATISTICS
för effektivitet.
Unity Catalog stöd för att avdroppa tables
Den här funktionen släpptes ursprungligen i offentlig förhandsversion. Det är GA från och med 25 oktober 2023.
Du kan nu återställa en borttagen hanterad eller extern table i en befintlig schema inom sju dagar efter borttagningen. Se UNDROP TABLE och SHOW TABLES DROPPED.
Biblioteksuppgraderingar
- Uppgraderade Python-bibliotek:
- filelock från 3.8.0 till 3.8.2
- platformdirs från 2.5.4 till 2.6.0
- setuptools från 58.0.4 till 61.2.0
- Uppgraderade R-bibliotek:
- Uppgraderade Java-bibliotek:
- io.delta.delta-sharing-spark_2.12 från 0.5.2 till 0.6.2
- org.apache.hive.hive-storage-api från 2.7.2 till 2.8.1
- org.apache.parquet.parquet-column från 1.12.3-databricks-0001 till 1.12.3-databricks-0002
- org.apache.parquet.parquet-common från 1.12.3-databricks-0001 till 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding från 1.12.3-databricks-0001 till 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures från 1.12.3-databricks-0001 till 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop från 1.12.3-databricks-0001 till 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson från 1.12.3-databricks-0001 till 1.12.3-databricks-0002
- org.tukaani.xz från 1.8 till 1.9
Apache Spark
Databricks Runtime 12.1 innehåller Apache Spark 3.3.1. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 12.0 (EoS) samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- [SPARK-41405] [SC-119769][12.1.0] Återställ "[SC-119411][SQL] Centralisera logiken för column upplösning" och "[SC-117170][SPARK-41338][SQL] Lös yttre referenser och normal columns i samma analysbatch"
- [SPARK-41405] [SC-119411][SQL] Centralisera logiken för column upplösning
- [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand bör set överskrivningsflaggan korrekt
- [SPARK-41659] [SC-119526][ANSLUT][12.X] Aktivera dokumenttest i pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][SQL] Åtgärda ORC-läsares perf-regression på grund av standardvärdefunktionen
- [SPARK-41807] [SC-119399][CORE] Remove icke-existerande felklass: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][SC-119273][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][CONNECT] Härled namn från en list ordlistor i SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][SPARK-41705][ANSLUT][12.X] Flytta Dokumentation och skript för Spark Connect till utvecklings- och Python-dokumentation
- [SPARK-41534] [SC-119456][ANSLUT][SQL][12.x] Konfigurera den första klientmodulen för Spark Connect
- [SPARK-41365] [SC-118498][Användargränssnitt][3.3] Sidan Faser i användargränssnittet kan inte läsas in för proxy i en specifik yarnmiljö
-
[SPARK-41481] [SC-118150][CORE][SQL] Återanvänd i
INVALID_TYPED_LITERAL
stället för_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305][SQL] Gå tillbaka till tillståndskänslig uttryckshantering
-
[SPARK-41726] [SC-119248][SQL] Remove
OptimizedCreateHiveTableAsSelectCommand
-
[SPARK-41271] [SC-118648][SC-118348][SQL] Stöd för parameteriserade SQL-frågor av
sql()
-
[SPARK-41066] [SC-119344][ANSLUT][PYTHON] Implementera
DataFrame.sampleBy
ochDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402][SC-119012][SQL][ALLA TESTER] Hämta v1-skrivning till WriteFiles
-
[SPARK-41565] [SC-118868][SQL] Lägg till felklassen
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][SQL] FUNKTIONEN DECODE returnerar fel resultat när den skickas till NULL
- [SPARK-41554] [SC-119274] korrigerar ändring av decimalskala när skalan minskade med m...
-
[SPARK-41065] [SC-119324][ANSLUT][PYTHON] Implementera
DataFrame.freqItems
ochDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Återaktivera dokumenttester och lägga till saknad column alias till count()
-
[SPARK-41069] [SC-119310][ANSLUT][PYTHON] Implementera
DataFrame.approxQuantile
ochDataFrame.stat.approxQuantile
-
[SPARK-41809] [SC-119367][CONNECT][PYTHON] Gör funktionen
from_json
stöder DataType Schema -
[SPARK-41804] [SC-119382][SQL] Välj rätt elementstorlek i
InterpretedUnsafeProjection
för matrisen med UDT - [SPARK-41786] [SC-119308][ANSLUT][PYTHON] Deduplicera hjälpfunktioner
-
[SPARK-41745] [SC-119378][SPARK-41789][12.X] Gör
createDataFrame
stöder list för rader - [SPARK-41344] [SC-119217][SQL] Gör felet tydligare när table inte hittas i SupportsCatalogOptions catalog
-
[SPARK-41803] [SC-119380][ANSLUT][PYTHON] Lägg till funktion som saknas
log(arg1, arg2)
- [SPARK-41808] [SC-119356][ANSLUT][PYTHON] Skapa stödalternativ för JSON-funktioner
-
[SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] Använd
__getitem__
för att stötta filter och select - [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Låt column op stöder None
- [SPARK-41440] [SC-119279][ANSLUT][PYTHON] Undvik cacheoperatorn för allmänt exempel.
-
[SPARK-41785] [SC-119290][ANSLUT][PYTHON] Implementera
GroupedData.mean
- [SPARK-41629] [SC-119276][ANSLUT] Stöd för protokolltillägg i relation och uttryck
-
[SPARK-41417] [SC-118000][CORE][SQL] Byt
_LEGACY_ERROR_TEMP_0019
namn tillINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][ANSLUT][12.X] Korrekt felhantering för Spark Connect Server/Klient
- [SPARK-41292] [SC-119357][CONNECT][12.X] Support Window i pyspark.sql.window namnområde
- [SPARK-41493] [SC-119339][ANSLUT][PYTHON] Skapa stödalternativ för csv-funktioner
- [SPARK-39591] [SC-118675][SS] Asynkron förloppsspårning
-
[SPARK-41767] [SC-119337][ANSLUT][PYTHON][12.X] Implementera
Column.{withField, dropFields}
-
[SPARK-41068] [SC-119268][ANSLUT][PYTHON] Implementera
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][CONNECT][12.X] Aktivera dokumenttest i pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][ANSLUT] Blanda ClientId i SparkSession-cache
-
[SPARK-41354] [SC-119194][ANSLUT] Lägg till
RepartitionByExpression
i proto -
[SPARK-41784] [SC-119289][CONNECT][PYTHON] Lägg till saknade
__rmod__
i Column - [SPARK-41778] [SC-119262][SQL] Lägga till ett alias "reduce" i ArrayAggregate
-
[SPARK-41067] [SC-119171][ANSLUT][PYTHON] Implementera
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][ANSLUT][PYTHON] Gör det interna sträng op-namnet konsekvent med FunctionRegistry
- [SPARK-41734] [SC-119160][CONNECT] Lägg till ett överordnat meddelande för Catalog
- [SPARK-41742] [SC-119263] Stöd för df.groupBy().agg({"*":"count"})
-
[SPARK-41761] [SC-119213][ANSLUT][PYTHON] Åtgärda aritmetiska ops:
__neg__
,__pow__
,__rpow__
-
[SPARK-41062] [SC-118182][SQL] Byt
UNSUPPORTED_CORRELATED_REFERENCE
namn tillCORRELATED_REFERENCE
-
[SPARK-41751] [SC-119211][ANSLUT][PYTHON] Reparera
Column.{isNull, isNotNull, eqNullSafe}
-
[SPARK-41728] [SC-119164][ANSLUT][PYTHON][12.X] Implementera
unwrap_udt
funktion -
[SPARK-41333] [SC-119195][SPARK-41737] Implementera
GroupedData.{min, max, avg, sum}
-
[SPARK-41751] [SC-119206][ANSLUT][PYTHON] Reparera
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][SQL] Stöder implicit lateral column aliasmatchning på mängd
- [SPARK-41529] [SC-119207][ANSLUT][12.X] Implementera SparkSession.stop
-
[SPARK-41729] [SC-119205][CORE][SQL][12.X] Byt
_LEGACY_ERROR_TEMP_0011
namn tillUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078][ANSLUT][12.X] Deduplicera utskrift och repr_html på LogicalPlan
-
[SPARK-41740] [SC-119169][ANSLUT][PYTHON] Implementera
Column.name
- [SPARK-41733] [SC-119163][SQL][SS] Tillämpa trädmönsterbaserad beskärning för regeln ResolveWindowTime
- [SPARK-41732] [SC-119157][SQL][SS] Tillämpa trädmönsterbaserad beskärning för regeln SessionWindowing
- [SPARK-41498] [SC-119018] Sprida metadata via Union
- [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementera column-accessorn
-
[SPARK-41736] [SC-119161][ANSLUT][PYTHON]
pyspark_types_to_proto_types
bör ha stöd förArrayType
-
[SPARK-41473] [SC-119092][ANSLUT][PYTHON] Implementera
format_number
funktion - [SPARK-41707] [SC-119141][CONNECT][12.X] Implementera Catalog API i Spark Connect
-
[SPARK-41710] [SC-119062][ANSLUT][PYTHON] Implementera
Column.between
- [SPARK-41235] [SC-119088][SQL][PYTHON]Funktion med hög ordning: array_compact implementering
-
[SPARK-41518] [SC-118453][SQL] Tilldela ett namn till felklassen
_LEGACY_ERROR_TEMP_2422
-
[SPARK-41723] [SC-119091][ANSLUT][PYTHON] Implementera
sequence
funktion - [SPARK-41703] [SC-119060][ANSLUT][PYTHON] Kombinera NullType och typed_null i Literal
- [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementera tre saknade tidsfunktioner window
- [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementera Partition Transformationsfunktioner
- [SPARK-41413] [SC-118968][SQL] Undvik att shuffla i Storage-Partitioned Join när partition nycklar inte matchar, men join uttryck är kompatibla
-
[SPARK-41700] [SC-119046][CONNECT][PYTHON] Remove
FunctionBuilder
-
[SPARK-41706] [SC-119094][ANSLUT][PYTHON]
pyspark_types_to_proto_types
bör ha stöd förMapType
- [SPARK-41702] [SC-119049][CONNECT][PYTHON] Lägg till ogiltiga column ops
- [SPARK-41660] [SC-118866][SQL] Sprid endast metadata columns om de används
- [SPARK-41637] [SC-119003][SQL] ORDER BY ALL
- [SPARK-41513] [SC-118945][SQL] Implementera en ackumulator för att samla in mått för antal rader per mappare
- [SPARK-41647] [SC-119064][ANSLUT][12.X] Deduplicera dokumentsträngar i pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][CONNECT][PYTHON] Gör column op-stöd
decimal
-
[SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Implementera
rollup
,cube
ochpivot
- [SPARK-41635] [SC-118944][SQL] GROUP BY ALL
- [SPARK-41645] [SC-119057][ANSLUT][12.X] Deduplicera dokumentsträngar i pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][ANSLUT][PYTHON] Flytta uttryck till expressions.py
- [SPARK-41687] [SC-118949][ANSLUT] Deduplicera dokumentsträngar i pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][CONNECT] Deduplicera docstringarna i pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][ANSLUT] Factor GroupedData ut till group.py
-
[SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][ANSLUT][PYTHON][12.X] Implementera
Window
funktioner -
[SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Gör stöd för operationer Column
datetime
- [SPARK-41672] [SC-118929][ANSLUT][PYTHON] Aktivera inaktuella funktioner
-
[SPARK-41673] [SC-118932][ANSLUT][PYTHON] Implementera
Column.astype
-
[SPARK-41364] [SC-118865][ANSLUT][PYTHON] Implementera
broadcast
funktion - [SPARK-41648] [SC-118914][ANSLUT][12.X] Deduplicera dokumentsträngar i pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][ANSLUT][12.X] Deduplicera dokumentsträngar i pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][CONNECT][12.X] Deduplicera dokumentationssträngar i pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][ANSLUT][PYTHON][12.X] Implementera resten av Lambda-funktionerna
- [SPARK-41441] [SC-118557][SQL] Stöd Generate utan nödvändiga barnutdata för att hantera yttre referenser
- [SPARK-41669] [SC-118923][SQL] Tidig beskärning i canCollapseExpressions
- [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Remove ScalaReflectionLock från SchemaConverters
-
[SPARK-41464] [SC-118861][ANSLUT][PYTHON] Implementera
DataFrame.to
-
[SPARK-41434] [SC-118857][ANSLUT][PYTHON] Inledande
LambdaFunction
implementering - [SPARK-41539] [SC-118802][SQL] Mappa om statistik och begränsningar mot utdata i logisk plan för LogicalRDD
- [SPARK-41396] [SC-118786][SQL][PROTOBUF] OneOf-fältstöd och rekursionskontroller
- [SPARK-41528] [SC-118769][ANSLUT][12.X] Slå samman namnrymden för Spark Connect och PySpark API
- [SPARK-41568] [SC-118715][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][ANSLUT][PYTHON] Implementera
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][SC-118642][ANSLUT][PROTOBUF] Lägg till Spark Connect och protobuf i setup.py med att ange beroenden
- [SPARK-27561] [SC-101081][12.x][SQL] Stöder implicit lateral column aliasmatchning i Project
-
[SPARK-41535] [SC-118645][SQL] Set null korrekt för kalenderintervallfält i
InterpretedUnsafeProjection
ochInterpretedMutableProjection
- [SPARK-40687] [SC-118439][SQL] Stöd för datamaskering av den inbyggda funktionen "mask"
- [SPARK-41520] [SC-118440][SQL] Dela AND_OR TreePattern för att separera AND och OR TreePatterns
- [SPARK-41349] [SC-118668][ANSLUT][PYTHON] Implementera DataFrame.hint
-
[SPARK-41546] [SC-118541][ANSLUT][PYTHON]
pyspark_types_to_proto_types
bör ha stöd för StructType. -
[SPARK-41334] [SC-118549][ANSLUT][PYTHON] Flytta
SortOrder
proto från relationer till uttryck - [SPARK-41387] [SC-118450][SS] Assert current end offset from Kafka data source for Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][CORE][SQL] Byt namn på
_LEGACY_ERROR_TEMP_1180
tillUNEXPECTED_INPUT_TYPE
och remove_LEGACY_ERROR_TEMP_1179
-
[SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementera Column. {when, otherwise} och Funktion
when
medUnresolvedFunction
- [SPARK-41541] [SC-118460][SQL] Åtgärda anrop till fel underordnad metod i SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][ANSLUT][PYTHON] Implementera
DataFrame.subtract
- [SPARK-41248] [SC-118436][SC-118303][SQL] Lägg till "spark.sql.json.enablePartialResults" för att aktivera/inaktivera partiella JSON-resultat
- [SPARK-41437] Revert "[SC-117601][SQL] optimize inte indataklangen två gånger för tillbakaskrivning av v1"
- [SPARK-41472] [SC-118352][ANSLUT][PYTHON] Implementera resten av sträng-/binärfunktioner
-
[SPARK-41526] [SC-118355][ANSLUT][PYTHON] Implementera
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Förbättra spekulationen genom scenaktivitetsmåtten.
- [SPARK-41524] [SC-118399][SS] Differentiera SQLConf och extraAlternativ i StateStoreConf för dess användning i RocksDBConf
- [SPARK-41465] [SC-118381][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][SQL] Stöd för LongToUnsafeRowMap ignorerarDuplicatedKey
-
[SPARK-41409] [SC-118302][CORE][SQL] Byt
_LEGACY_ERROR_TEMP_1043
namn tillWRONG_NUM_ARGS.WITHOUT_SUGGESTION
-
[SPARK-41438] [SC-118344][ANSLUT][PYTHON] Implementera
DataFrame.colRegex
- [SPARK-41437] [SC-117601][SQL] optimize inte indatafrågan två gånger för tillbakaskrivning av v1
-
[SPARK-41314] [SC-117172][SQL] Tilldela ett namn till felklassen
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][ANSLUT][PYTHON] Refaktor LiteralExpression för att stödja DataType
- [SPARK-41448] [SC-118046] Skapa konsekventa MR-jobb-ID:er i FileBatchWriter och FileFormatWriter
- [SPARK-41456] [SC-117970][SQL] Förbättra prestanda för try_cast
-
[SPARK-41495] [SC-118125][ANSLUT][PYTHON] Implementera
collection
funktioner: P~Z - [SPARK-41478] [SC-118167][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][SQL] Refaktorfelmeddelande för
NUM_COLUMNS_MISMATCH
att göra det mer allmänt -
[SPARK-41404] [SC-118016][SQL]
ColumnVectorUtils#toBatch
Omstrukturera för att göraColumnarBatchSuite#testRandomRows
testet mer primitivt dataType - [SPARK-41468] [SC-118044][SQL] Åtgärda PlanExpression-hantering i EquivalentExpressions
- [SPARK-40775] [SC-118045][SQL] Åtgärda duplicerade beskrivningsposter för V2-filgenomsökningar
- [SPARK-41492] [SC-118042][ANSLUT][PYTHON] Implementera MISC-funktioner
- [SPARK-41459] [SC-118005][SQL] utdata för åtgärdsloggen för snabbservern är tomma
-
[SPARK-41395] [SC-117899][SQL]
InterpretedMutableProjection
bör användasetDecimal
till att set noll values för decimaler i en osäker rad - [SPARK-41376] [SC-117840][CORE][3.3] Korrigera Netty preferDirectBufs-kontrolllogik vid körningsstart
-
[SPARK-41484] [SC-118159][SC-118036][ANSLUT][PYTHON][12.x] Implementera
collection
funktioner: E~M -
[SPARK-41389] [SC-117426][CORE][SQL] Återanvänd i
WRONG_NUM_ARGS
stället för_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920][SQL] Datum- och tidsstämpeltypen kan upp castas till TimestampNTZ
-
[SPARK-41435] [SC-117810][SQL] Ändra för att anropa
invalidFunctionArgumentsError
närcurdate()
expressions
inte är tom - [SPARK-41187] [SC-118030][CORE] LiveExecutor MemoryLeak i AppStatusListener när ExecutorLost inträffar
- [SPARK-41360] [SC-118083][CORE] Undvik Omregistrering av BlockManager om utföraren har förlorats
- [SPARK-41378] [SC-117686][SQL] Stöd Column Stats in DS v2
- [SPARK-41402] [SC-117910][SQL][ANSLUT][12.X] Åsidosätt prettyName för StringDecode
- [SPARK-41414] [SC-118041][ANSLUT][PYTHON][12.x] Implementera datum-/tidsstämpelfunktioner
- [SPARK-41329] [SC-117975][ANSLUT] Lösa cirkulära importer i Spark Connect
- [SPARK-41477] [SC-118025][ANSLUT][PYTHON] Korrekt härleda datatypen för literal heltals heltal
-
[SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] Gör
createDataFrame
stöd för schema och fler typer av indatauppsättningar - [SPARK-41475] [SC-117997][ANSLUT] Åtgärda lint-scala-kommandofel och skrivfel
- [SPARK-38277] [SC-117799][SS] Rensa skrivbatch efter RocksDB-tillståndsarkivets incheckning
- [SPARK-41375] [SC-117801][SS] Undvik tom senaste KafkaSourceOffset
-
[SPARK-41412] [SC-118015][ANSLUT] Implementera
Column.cast
-
[SPARK-41439] [SC-117893][ANSLUT][PYTHON] Implementera
DataFrame.melt
ochDataFrame.unpivot
- [SPARK-41399] [SC-118007][SC-117474][CONNECT] Omstrukturera column relaterade test för test_connect_column
- [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] Column bör stödja != operator
- [SPARK-40697] [SC-117806][SC-112787][SQL] Lägga till teckenutfyllnad på lässidan för att täcka externa datafiler
- [SPARK-41349] [SC-117594][ANSLUT][12.X] Implementera DataFrame.hint
- [SPARK-41338] [SC-117170][SQL] Lös yttre referenser och vanliga columns i samma analytiska batch.
-
[SPARK-41436] [SC-117805][ANSLUT][PYTHON] Implementera
collection
funktioner: A~C - [SPARK-41445] [SC-117802][ANSLUT] Implementera DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][SQL]
to_char
ska returnera null när formatet är null - [SPARK-41444] [SC-117796][ANSLUT] Support read.json()
- [SPARK-41398] [SC-117508][SQL] Lätta på begränsningarna för Storage-Partitioned Join när partition nycklar efter körningsfiltreringen inte matchar
-
[SPARK-41228] [SC-117169][SQL] Byt namn på och förbättra felmeddelandet för
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. -
[SPARK-41381] [SC-117593][ANSLUT][PYTHON] Implementera
count_distinct
ochsum_distinct
funktioner - [SPARK-41433] [SC-117596][ANSLUT] Gör Max Arrow BatchSize konfigurerbar
- [SPARK-41397] [SC-117590][ANSLUT][PYTHON] Implementera en del av sträng-/binärfunktioner
-
[SPARK-41382] [SC-117588][ANSLUT][PYTHON] Implementera
product
funktion -
[SPARK-41403] [SC-117595][ANSLUT][PYTHON] Implementera
DataFrame.describe
- [SPARK-41366] [SC-117580][ANSLUT] DF.groupby.agg() ska vara kompatibelt
- [SPARK-41369] [SC-117584][ANSLUT] Lägg till anslutning som är gemensam för servrarnas skuggade jar-fil
- [SPARK-41411] [SC-117562][SS] Multi-Stateful Operator watermark stöd för felkorrigering
- [SPARK-41176] [SC-116630][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][ANSLUT][PYTHON][12.X] Implementera aggregeringsfunktioner
- [SPARK-41363] [SC-117470][ANSLUT][PYTHON][12.X] Implementera normala funktioner
- [SPARK-41305] [SC-117411][ANSLUT] Förbättra dokumentationen för Command proto
- [SPARK-41372] [SC-117427][ANSLUT][PYTHON] Implementera DataFrame TempView
- [SPARK-41379] [SC-117420][SS][PYTHON] Ange klonad spark-session i DataFrame i användarfunktionen för foreachBatch-mottagare i PySpark
- [SPARK-41373] [SC-117405][SQL][FEL] Byt namn på CAST_WITH_FUN_SUGGESTION till CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][SQL] Refaktormetod
ColumnVectorUtils#populate
som ska användasPhysicalDataType
i stället förDataType
- [SPARK-41355] [SC-117423][SQL] Problem med table problem med verifiering av namn
-
[SPARK-41390] [SC-117429][SQL] Update skriptet som används för att generate
register
funktion iUDFRegistration
-
[SPARK-41206] [SC-117233][SC-116381][SQL] Byt namn på felklassen
_LEGACY_ERROR_TEMP_1233
tillCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][ANSLUT][PYTHON][12.X] Implementera matematiska funktioner
- [SPARK-40970] [SC-117308][CONNECT][PYTHON] Support List[Column] för Joinpå argument
- [SPARK-41345] [SC-117178][ANSLUT] Lägg till tips för att ansluta Proto
- [SPARK-41226] [SC-117194][SQL][12.x] Omstrukturera Spark-typer genom att introducera fysiska typer
- [SPARK-41317] [SC-116902][ANSLUT][PYTHON][12.X] Lägga till grundläggande stöd för DataFrameWriter
- [SPARK-41347] [SC-117173][ANSLUT] Lägg till Cast to Expression proto
- [SPARK-41323] [SC-117128][SQL] Support current_schema
- [SPARK-41339] [SC-117171][SQL] Stäng och återskapa RocksDB-skrivbatch i stället för att bara rensa
- [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementera DataFrame mellan join
-
[SPARK-41346] [SC-117176][ANSLUT][PYTHON] Implementera
asc
ochdesc
funktioner - [SPARK-41343] [SC-117166][ANSLUT] Flytta FunctionName-parsning till serversidan
- [SPARK-41321] [SC-117163][ANSLUT] Stödmålfält för UnresolvedStar
-
[SPARK-41237] [SC-117167][SQL] Återanvänd felklassen
UNSUPPORTED_DATATYPE
för_LEGACY_ERROR_TEMP_0030
-
[SPARK-41309] [SC-116916][SQL] Återanvänd i
INVALID_SCHEMA.NON_STRING_LITERAL
stället för_LEGACY_ERROR_TEMP_1093
-
[SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Optimize konstruktoranvändning av
StructType
- [SPARK-41335] [SC-117135][CONNECT][PYTHON] Stöder IsNull och IsNotNull i Column
-
[SPARK-41332] [SC-117131][ANSLUT][PYTHON] Åtgärda
nullOrdering
iSortOrder
- [SPARK-41325] [SC-117132][ANSLUT][12.X] Åtgärda saknade avg() för GroupBy på DF
-
[SPARK-41327] [SC-117137][CORE] Åtgärda
SparkStatusTracker.getExecutorInfos
genom att växla på/avHeapStorageMemory-information -
[SPARK-41315] [SC-117129][ANSLUT][PYTHON] Implementera
DataFrame.replace
ochDataFrame.na.replace
- [SPARK-41328] [SC-117125][CONNECT][PYTHON] Lägg till logiskt api och sträng-API i Column
-
[SPARK-41331] [SC-117127][ANSLUT][PYTHON] Lägg till
orderBy
ochdrop_duplicates
-
[SPARK-40987] [SC-117124][CORE]
BlockManager#removeBlockInternal
ska se till att låset är upplåst på ett smidigt sätt - [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Omstrukturera "Column" för API-kompatibilitet
- [SPARK-41312] [SC-116881][ANSLUT][PYTHON][12.X] Implementera DataFrame.withColumnRenamed
-
[SPARK-41221] [SC-116607][SQL] Lägg till felklassen
INVALID_FORMAT
- [SPARK-41272] [SC-116742][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][SQL] Återanvänd i
INVALID_SCHEMA
stället för_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Omvandla NumPy-objekt till Python grundläggande typer i GroupState update
-
[SPARK-41174] [SC-116609][CORE][SQL] Sprida en felklass till användare för ogiltigt
format
to_binary()
- [SPARK-41264] [SC-116971][ANSLUT][PYTHON] Gör literalstöd för fler datatyper
- [SPARK-41326] [SC-116972] [ANSLUT] Korrigering av deduplicering saknar indata
- [SPARK-41316] [SC-116900][SQL] Aktivera tail-rekursion där det är möjligt
- [SPARK-41297] [SC-116931] [ANSLUT] [PYTHON] Stöd för stränguttryck i filter.
- [SPARK-41256] [SC-116932][SC-116883][ANSLUT] Implementera DataFrame.withColumn(er)
- [SPARK-41182] [SC-116632][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][SQL] Migrera kartalternativsfelen till felklasser
- [SPARK-40940] [SC-115993][12.x] Remove Multi-stateful operator checkers för streaming-analyser.
- [SPARK-41310] [SC-116885][ANSLUT][PYTHON] Implementera DataFrame.toDF
- [SPARK-41179] [SC-116631][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti update inte numOutputRows när codegen är inaktiverad
-
[SPARK-41148] [SC-116878][ANSLUT][PYTHON] Implementera
DataFrame.dropna
ochDataFrame.na.drop
-
[SPARK-41217] [SC-116380][SQL] Lägg till felklassen
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][ANSLUT][PYTHON] Förbättra DataFrame.count()
- [SPARK-41301] [SC-116786] [ANSLUT] Homogenisera beteende för SparkSession.range()
- [SPARK-41306] [SC-116860][ANSLUT] Förbättra connect expression proto-dokumentationen
- [SPARK-41280] [SC-116733][ANSLUT] Implementera DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Ta bort schema tolkas som Schema
- [SPARK-41255] [SC-116730][SC-116695] [ANSLUT] Byt namn på RemoteSparkSession
- [SPARK-41250] [SC-116788][SC-116633][ANSLUT][PYTHON] DataFrame. toPandas bör inte returnera valfri pandas-dataram
-
[SPARK-41291] [SC-116738][ANSLUT][PYTHON]
DataFrame.explain
ska skriva ut och returnera Ingen - [SPARK-41278] [SC-116732][ANSLUT] Rensa oanvända QualifiedAttribute i Expression.proto
- [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Remove redundant samlingskonvertering baserat på Scala 2.13-kodbas
- [SPARK-41261] [SC-116718][PYTHON][SS] Åtgärda problem för applyInPandasWithState när columns av grupperingsnycklarna inte har placerats i ordning från den tidigaste
- [SPARK-40872] [SC-116717][3.3] Återställning till ursprungligt shuffle-block när ett push-sammanfogat shuffle-segment är nollstorlek
- [SPARK-41114] [SC-116628][ANSLUT] Stöd för lokala data för LocalRelation
-
[SPARK-41216] [SC-116678][ANSLUT][PYTHON] Implementera
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][ANSLUT][PYTHON] Stöd för fler inbyggda datatyper
-
[SPARK-41230] [SC-116674][CONNECT][PYTHON] Remove
str
från aggregerad uttryckstyp - [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][ANSLUT] Optimerad pilbaserad insamlingsimplementering för att strömma från server till klient
- [SPARK-41222] [SC-116625][ANSLUT][PYTHON] Förena typdefinitionerna
- [SPARK-41225] [SC-116623] [ANSLUT] [PYTHON] Inaktivera funktioner som inte stöds.
-
[SPARK-41201] [SC-116526][ANSLUT][PYTHON] Implementera
DataFrame.SelectExpr
i Python-klienten - [SPARK-41203] [SC-116258] [ANSLUT] Stöd för Dataframe.tansform i Python-klienten.
-
[SPARK-41213] [SC-116375][ANSLUT][PYTHON] Implementera
DataFrame.__repr__
ochDataFrame.dtypes
-
[SPARK-41169] [SC-116378][ANSLUT][PYTHON] Implementera
DataFrame.drop
- [SPARK-41172] [SC-116245][SQL] Migrera det tvetydiga referensfelet till en felklass
- [SPARK-41122] [SC-116141][CONNECT] Explain API kan stödja olika lägen
- [SPARK-41209] [SC-116584][SC-116376][PYTHON] Förbättra PySpark-typinferens i _merge_type metod
- [SPARK-41196] [SC-116555][SC-116179] [ANSLUT] Homogenisera protobuf-versionen på Spark Connect-servern för att använda samma huvudversion.
- [SPARK-35531] [SC-116409][SQL] Update hive table statistik utan onödig konvertering
- [SPARK-41154] [SC-116289][SQL] Felaktig relationscachelagring för frågor med tidsresespecifikation
-
[SPARK-41212] [SC-116554][SC-116389][ANSLUT][PYTHON] Implementera
DataFrame.isEmpty
-
[SPARK-41135] [SC-116400][SQL] Byt
UNSUPPORTED_EMPTY_LOCATION
namn tillINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][SQL] Lägga till ett tilläggs-API för att planera normalisering för cachelagring
- [SPARK-41054] [SC-116447][Användargränssnitt][CORE] Stöd för RocksDB som KVStore i live-användargränssnittet
- [SPARK-38550] [SC-115223]Återställ "[SQL][CORE] Använd ett diskbaserat arkiv för att spara mer felsökningsinformation för live-användargränssnittet"
-
[SPARK-41173] [SC-116185][SQL] Flytta
require()
ut från konstruktorerna för stränguttryck - [SPARK-41188] [SC-116242][CORE][ML] Set executorEnv OMP_NUM_THREADS vara spark.task.cpus som standard för Spark Executor JVM-processer
-
[SPARK-41130] [SC-116155][SQL] Byt
OUT_OF_DECIMAL_TYPE_RANGE
namn tillNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238][SQL] Tilldela ett namn till felklassen _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][SQL] Minska samlingskonverteringen när du skapar AttributeMap
-
[SPARK-41139] [SC-115983][SQL] Förbättra felklassen:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][PROTOBUF] Kräv skuggning för Java-klass-jar, förbättra felhanteringen
- [SPARK-40999] [SC-116168] Tipsspridning till underfrågor
- [SPARK-41017] [SC-116054][SQL] Stöd column beskärning med flera nondeterministiska filter
- [SPARK-40834] [SC-114773][SQL] Använda SparkListenerSQLExecutionEnd för att spåra slutlig SQL-status i användargränssnittet
-
[SPARK-41118] [SC-116027][SQL]
to_number
/try_to_number
ska returnerasnull
när formatet ärnull
- [SPARK-39799] [SC-115984][SQL] DataSourceV2: Visa catalog gränssnitt
- [SPARK-40665] [SC-116210][SC-112300][ANSLUT] Undvik att bädda in Spark Connect i apache Spark-binärversionen
- [SPARK-41048] [SC-116043][SQL] Förbättra utdatapartitionering och -ordning med AQE-cache
- [SPARK-41198] [SC-116256][SS] Åtgärda metrikvärden i strömmande frågeställning having CTE- och DSv1-strömningskälla
- [SPARK-41199] [SC-116244][SS] Åtgärda problem med mått när DSv1-strömmande källa och DSv2-strömningskälla används tillsammans
- [SPARK-40957] [SC-116261][SC-114706] Lägg till i minnescachen i HDFSMetadataLog
- [SPARK-40940] Revert "[SC-115993] Remove Multi-stateful operator checkers för strömmande frågeställningar."
-
[SPARK-41090] [SC-116040][SQL] Generera undantag för
db_name.view_name
när du skapar temporär vy av Dataset API -
[SPARK-41133] [SC-116085][SQL] Integrera
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
iNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][SC-111442][ANSLUT] Koddumpning 9 incheckningar
- [SPARK-40448] [SC-114447][SC-111314][ANSLUT] Spark Connect-bygge som drivrutins-plugin-program med skuggade beroenden
- [SPARK-41096] [SC-115812][SQL] Stöd för läsning FIXED_LEN_BYTE_ARRAY typ
-
[SPARK-41140] [SC-115879][SQL] Byt namn på felklassen
_LEGACY_ERROR_TEMP_2440
tillINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][SQL] Matchningsfel mellan FileSourceScanExec och Orc och ParquetFileFormat vid skapande av columnar-utdata
- [SPARK-41155] [SC-115991][SQL] Lägg till felmeddelande i SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Remove Multi-stateful operator checkers för strömmande frågor.
-
[SPARK-41098] [SC-115790][SQL] Byt
GROUP_BY_POS_REFERS_AGG_EXPR
namn tillGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][SQL] Migrera typkontrollfel för talformatering till felklasser
-
[SPARK-41059] [SC-115658][SQL] Byt
_LEGACY_ERROR_TEMP_2420
namn tillNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][SQL] Konvertera DATATYPE_MISMATCH. UNSPECIFIED_FRAME till INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][SQL] Byt
_LEGACY_ERROR_TEMP_0055
namn tillUNCLOSED_BRACKETED_COMMENT
Underhållsuppdateringar
Se Underhållsuppdateringar för Databricks Runtime 12.1.
Systemmiljö
- Operativsystem: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta lake: 2.2.0
Installerade Python-bibliotek
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindningar | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | svart | 22.3.0 | blekmedel | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klicka | 8.0.4 | kryptografi | 3.4.8 | cyklist | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | felsökning | 1.5.1 |
dekoratör | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | Verkställande | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook-fil | 6.4.8 | numpy | 1.21.5 | emballage | 21,3 |
Pandas | 1.4.2 | pandocfilter | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Kudde | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
begäranden | 2.27.1 | requests-unixsocket | 0.2.0 | rep | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
sex | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5,10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | orubblighet | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tromb | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
obevakade uppgraderingar | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
hjul | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Installerade R-bibliotek
R-bibliotek installeras från Microsoft CRAN-ögonblicksbilden 2022-11-11.
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
arrow | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
backportar | 1.4.1 | bas | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
start | 1.3-28 | brygga | 1.0-8 | Brio | 1.1.3 |
kvast | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
anropare | 3.7.3 | textmarkör | 6.0-93 | cellranger | 1.1.0 |
Chron | 2.3-58 | klass | 7.3-20 | cli | 3.4.1 |
clipr | 0.8.0 | klocka | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-18 | färgområde | 2.0-3 | commonmark | 1.8.1 |
kompilator | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
krita | 1.5.2 | credentials | 1.3.2 | hårlock | 4.3.3 |
data.table | 1.14.4 | datauppsättningar | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | smälta | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellips | 0.3.2 | evaluate (utvärdera) | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | främmande | 0.8-82 |
smida | 0.2.0 | Fs | 1.5.2 | framtid | 1.29.0 |
future.apply | 1.10.0 | gurgla | 1.2.1 | Generika | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
lim | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafik | 4.2.2 | grDevices | 4.2.2 |
gitter | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | hamn | 2.5.1 |
highr | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratorer | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | stickning | 1,40 |
Märkning | 0.4.2 | senare | 1.3.0 | Galler | 0.20-45 |
lava | 1.7.0 | livscykel | 1.0.3 | lyssna | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
MASSA | 7.3-58 | Matris | 1.5-1 | pmise | 2.0.1 |
metoder | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallellt | 1.32.1 | pelare | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | berömma | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Förlopp | 1.2.2 |
progressr | 0.11.0 | Löften | 1.2.0.1 | Proto | 1.0.0 |
proxyserver | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recept | 1.0.3 |
Returmatch | 1.0.1 | rematch2 | 2.1.2 | Fjärrkontroller | 2.4.2 |
reprex | 2.0.2 | omforma2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversioner | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | våg | 1.2.1 |
väljare | 0.4-2 | sessioninfo | 1.2.2 | form | 1.4.6 |
skinande | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | rumslig | 7.3-11 | Splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
överlevnad | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | avmarkera | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | verktyg | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
verktyg | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
morrhår | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | Zip | 2.2.2 |
Installerade Java- och Scala-bibliotek (Scala 2.12-klusterversion)
Grupp-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | ström | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-skuggad | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasskamrat | 1.3.4 |
com.fasterxml.jackson.core | jackson-anteckningar | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | kärna | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tingeling | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilerare | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffert | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | samlare | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | ättikslag | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | pilformat | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | pilvektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recept | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | murgröna | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-kodning | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | åhörarkommentarer | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-fortsättning | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | brygga plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-server | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | vilolägesverifierare | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anteckningar | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | oanvänd | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |