Databricks Runtime 13.1 (EoS)
Kommentar
Stödet för den här Databricks Runtime-versionen har upphört. Information om slutdatumet för support finns i Historik över supportens slut. Alla Databricks Runtime-versioner som stöds finns i Databricks Runtime-versionsanteckningar och kompatibilitet.
Följande viktig information innehåller information om Databricks Runtime 13.1 som drivs av Apache Spark 3.4.0.
Databricks släppte den här versionen i maj 2023.
Nya funktioner och förbättringar
- Klusterstöd för JDK 17 (offentlig förhandsversion)
- Lägga till, ändra eller ta bort data i strömmande tabeller
- Läsa Kafka med SQL
- Nya inbyggda SQL-funktioner
- Unity Catalog-stöd för Python-bibliotek med klusteromfattning
- Utökad standardaktivering för optimerade skrivningar i Unity Catalog
- Avancerat stöd för tillståndskänsliga operatorer i strukturerade strömningsarbetsbelastningar
- Delta-klonen för Unity Catalog finns i offentlig förhandsversion
- Pub-/understöd för strukturerad direktuppspelning
- Släpp dubbletter i vattenstämplar i strukturerad direktuppspelning
- Utökat stöd för Delta-konverteringar från Isbergstabeller med trunkerade partitionskolumner
- Ändringar i streamschema med kolumnmappning i Delta Lake
- Ta bort START VERSION
- Nya H3-uttryck som är tillgängliga med Python
Klusterstöd för JDK 17 (offentlig förhandsversion)
Databricks tillhandahåller nu klusterstöd för Java Development Kit (JDK) 17. Se Databricks SDK för Java.
Lägga till, ändra eller ta bort data i strömmande tabeller
Nu kan du använda DML-instruktioner för att ändra strömmande tabeller som publicerats till Unity Catalog av Delta Live Tables-pipelines. Se Lägga till, ändra eller ta bort data i en strömmande tabell och Lägg till, ändra eller ta bort data i en målströmmande tabell. Du kan också använda DML-instruktioner för att ändra strömmande tabeller som skapats i Databricks SQL.
Läsa Kafka med SQL
Du kan nu använda read_kafka
SQL-funktionen för att läsa Kafka-data. Direktuppspelning med SQL stöds endast i Delta Live Tables eller med strömmande tabeller i Databricks SQL. Se read_kafka tabellvärdesfunktion.
Nya inbyggda SQL-funktioner
Följande funktioner har lagts till:
-
array_prepend(matris, elem) Returnerar
array
föreberedd avelem
. -
try_aes_decrypt(expr, key [, mode [, padding]]) Dekrypterar en binär som skapas med hjälp av AES-kryptering och returnerar
NULL
om det finns ett fel. - sql_keywords() Returnerar en tabell med Azure Databricks SQL-nyckelord.
Stöd för Unity Catalog för Python-bibliotek med klusteromfattning
Unity Catalog har vissa begränsningar för biblioteksanvändningen. På Databricks Runtime 13.1 och senare stöds python-bibliotek med klusteromfattning, inklusive Python-hjulfiler som laddas upp som arbetsytefiler. Bibliotek som refereras med DBFS-filsökvägar stöds inte, oavsett om de finns i DBFS-roten eller på en extern plats som är monterad på DBFS. Andra bibliotek än Python-bibliotek stöds inte. Se Klusterbibliotek.
På Databricks Runtime 13.0 och nedan stöds inte bibliotek med klusteromfattning på kluster som använder läget för delad åtkomst i en Unity Catalog-aktiverad arbetsyta.
Utökad standardaktivering för optimerade skrivningar i Unity Catalog
Optimerat skrivläge för Delta-tabeller som registrerats i Unity Catalog har utökats till att omfatta CTAS
-instruktioner och INSERT
-operationer för partitionerade tabeller. Det här beteendet överensstämmer med standardvärdena för SQL-lager. Se Optimerade skrivningar för Delta Lake på Azure Databricks.
Avancerat stöd för tillståndskänsliga operatorer i strukturerade strömningsarbetsbelastningar
Nu kan du länka flera tillståndskänsliga operatorer tillsammans, vilket innebär att du kan mata utdata från en åtgärd, till exempel en fönsterad aggregering till en annan tillståndskänslig åtgärd, till exempel en koppling. Se Vad är tillståndskänslig strömning?.
Deltaklon för Unity Catalog finns i offentlig förhandsversion
Nu kan du använda en enkel klon för att skapa nya hanterade tabeller i Unity Catalog från befintliga hanterade tabeller i Unity Catalog. Se Shallow-klon för Unity Catalog-tabeller.
Pub-/understöd för strukturerad direktuppspelning
Nu kan du använda en inbyggd anslutningsapp för att prenumerera på Google Pub/Sub med strukturerad direktuppspelning. Se Prenumerera på Google Pub/Sub.
Släpp dubbletter i vattenstämplar i strukturerad direktuppspelning
Nu kan du använda dropDuplicatesWithinWatermark
i kombination med ett angivet tröskelvärde för vattenstämpel för att deduplicera poster i Strukturerad direktuppspelning. Se Ta bort dubletter inom vattenstämpelområdet.
Utökat stöd för Delta-konverteringar från Iceberg-tabeller med trunkerade partitionskolumner
Nu kan du använda CLONE
och CONVERT TO DELTA
med Isbergstabeller som har partitioner definierade på trunkerade kolumner av typer int
, long
och string
. Trunkerade kolumner av typen decimal
stöds inte.
Strömma schemaändringar med kolumnmappning i Delta Lake
Nu kan du ange en plats för schemaspårning för att aktivera strömning från Delta-tabeller med kolumnmappning aktiverat. Se Direktuppspelning med kolumnmappning och schemaändringar.
Ta bort STARTVERSION
START VERSION
är nu inaktuell för ALTER SHARE
.
Nya H3-uttryck som är tillgängliga med Python
Uttrycken h3_coverash3
och h3_coverash3string
är tillgängliga med Python.
Felkorrigeringar
Parquet failOnUnknownFields släpper inte längre tyst data om typmatchningsfel
Om en Parquet-fil lästes med bara alternativet failOnUnknownFields
eller med Auto Loader i failOnNewColumns
schemautvecklingsläge, misslyckas nu kolumner med olika datatyper och det rekommenderas att använda rescuedDataColumn
. Automatisk inläsning läser nu korrekt och räddar inte längre heltals-, kort- eller byte-typer om någon av dessa datatyper tillhandahålls. Parquet-filen föreslår en av de andra två typerna.
Icke-bakåtkompatibla ändringar
Uppgradera sqlite-jdbc-versionen till 3.42.0.0 för att hantera CVE-2023-32697
Uppgradera sqlite-jdbc-versionen från 3.8.11.2 till 3.42.0.0. API:erna för version 3.42.0.0 är inte helt kompatibla med 3.8.11.2. Om du använder sqlite-jdbc i koden kontrollerar du kompatibilitetsrapporten sqlite-jdbc för mer information. Om du migrerar till 13.1 och använder sqlite bekräftar du dina metoder och returnerar typ i version 3.42.0.0.
Biblioteksuppgraderingar
- Uppgraderade Python-bibliotek:
- facets-overview från 1.0.2 till 1.0.3
- filelock från 3.10.7 till 3.12.0
- pyarrow från 7.0.0 till 8.0.0
- mellan 8.0.1 och 8.1.0
- Uppgraderade R-bibliotek:
- Uppgraderade Java-bibliotek:
- com.github.ben-manes.koffein.koffein från 2.3.4 till 2.9.3
- io.delta.delta-sharing-spark_2.12 från 0.6.8 till 0.6.4
- net.snowflake.snowflake-jdbc från 3.13.29 till 3.13.22
- org.checkerframework.checker-qual från 3.5.0 till 3.19.0
- org.scalactic.scalactic_2.12 från 3.0.8 till 3.2.15
- org.scalatest.scalatest_2.12 från 3.0.8 till 3.2.15
- org.xerial.sqlite-jdbc från 3.8.11.2 till 3.42.0.0
Apache Spark
Databricks Runtime 13.1 innehåller Apache Spark 3.4.0. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 13.0 (EoS) samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- [SPARK-42719] [DBRRM-199][SC-131578] Återställ "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][SC-130056][CORE] Återställ [SC-127830]/
- [SPARK-43331] [SC-130064][ANSLUT] Lägg till Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][ANSLUT][PYTHON] Gör det möjligt att utöka ChannelBuilder för SparkConnectClient
- [SPARK-43323] [SC-129966][SQL][PYTHON] Åtgärda DataFrame.toPandas med Pil aktiverad för att hantera undantag korrekt
- [SPARK-42940] [SC-129896][SS][ANSLUT] Förbättra sessionshantering för strömmande frågor
- [SPARK-43032] [SC-125756] [ANSLUT][SS] Lägg till strömningsfrågahanteraren
- [SPARK-16484] [SC-129975][SQL] Lägga till stöd för Datasketches HllSketch
- [SPARK-43260] [SC-129281][PYTHON] Migrera Spark SQL Pandas-piltypens fel till felklassen.
- [SPARK-41766] [SC-129964][CORE] Hantera avaktiveringsbegäran som skickas före körningsregistrering
- [SPARK-43307] [SC-129971][PYTHON] Migrera PandasUDF-värdefel till felklass
- [SPARK-43206] [SC-129903] [SS] [ANSLUT] StreamingQuery exception() inkluderar stackspårning
- [SPARK-43311] [SC-129905][SS] Lägga till förbättringar av minneshantering för RocksDB-tillståndslagerprovidern
- [SPARK-43237] [SC-129898][CORE] Hantera null-undantagsmeddelande i händelseloggen
- [SPARK-43320] [SC-129899][SQL][HIVE] Anropa Hive 2.3.9 API direkt
-
[SPARK-43270] [SC-129897][PYTHON] Implementera
__dir__()
ipyspark.sql.dataframe.DataFrame
för att inkludera kolumner - [SPARK-43183] Återställ "[SC-128938][SS] Introducera ett nytt återanrop "...
- [SPARK-43143] [SC-129902] [SS] [ANSLUT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][SQL] Ersätt felklassen _LEGACY_ERROR_TEMP_2022 med ett internt fel
- [SPARK-43198] [SC-129470][ANSLUT] Åtgärda "Det gick inte att initiera klassamonit..." fel vid användning av filter
- [SPARK-43165] [SC-129777][SQL] Flytta canWrite till DataTypeUtils
- [SPARK-43298] [SC-129729][PYTHON][ML] predict_batch_udf med skalär indata misslyckas med batchstorleken en
- [SPARK-43298] [SC-129700]Återställ "[PYTHON][ML] predict_batch_udf med skalär indata misslyckas med batchstorleken en"
- [SPARK-43052] [SC-129663][CORE] Hantera stacktrace med null-filnamn i händelseloggen
- [SPARK-43183] [SC-128938][SS] Introducera ett nytt återanrop "onQueryIdle" till StreamingQueryListener
- [SPARK-43209] [SC-129190][ANSLUT][PYTHON] Migrera uttrycksfel till felklass
- [SPARK-42151] [SC-128754][SQL] Justera UPDATE tilldelningar med tabellattribut
- [SPARK-43134] [SC-129468] [ANSLUT] [SS] JVM-klienten StreamingQuery exception() API
- [SPARK-43298] [SC-129699][PYTHON][ML] predict_batch_udf med skalär indata misslyckas med batchstorleken en
- [SPARK-43248] [SC-129660][SQL] Onödigt serialisera/deserialisera sökvägen vid parallell insamling av partitionsstatistik
-
[SPARK-43274] [SC-129464][SPARK-43275][PYTHON][ANSLUT] Introducera
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][ANSLUT][PYTHON] Implementera ivrig utvärdering för repr och repr_html
- [SPARK-42953] [SC-129469][Anslut][Uppföljning] Åtgärda maven-testversion för Scala-klientens UDF-tester
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][ANSLUT] Lägga till groupByKey + mapGroup + coGroup-funktioner
-
[SPARK-43156] [SC-129672][SC-128532][SQL] Åtgärda
COUNT(*) is null
bugg i korrelerad skalbar underfråga - [SPARK-43046] [SC-129110] [SS] [Anslut] Implementerade Python API-dropDuplicatesWithinWatermark för Spark Connect
- [SPARK-43199] [SC-129467][SQL] Gör InlineCTE idempotent
-
[SPARK-43293] [SC-129657][SQL]
__qualified_access_only
bör ignoreras i normala kolumner - [SPARK-43276] [SC-129461][CONNECT][PYTHON] Migrera Spark Connect-fönsterfel till felklass
- [SPARK-43174] [SC-129109][SQL] Åtgärda SparkSQLCLIDriver-kompletterare
- [SPARK-43084] [SC-128654] [SS] Lägg till applyInPandasWithState-stöd för Spark Connect
- [SPARK-43119] [SC-129040][SQL] Stöder Hämta SQL-nyckelord dynamiskt via JDBC API och TVF
- [SPARK-43082] [SC-129112][ANSLUT][PYTHON] Piloptimerade Python-UDF:er i Spark Connect
- [SPARK-43085] [SC-128432][SQL] Stöd för kolumnstandardtilldelning för tabellnamn i flera delar
- [SPARK-43226] [LC-671] Definiera extraktorer för filkonstanta metadata
-
[SPARK-43210] [SC-129189][ANSLUT][PYTHON] Introducera
PySparkAssertionError
- [SPARK-43214] [SC-129199][SQL] Publicera mått på drivrutinssidan för LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Åtgärda att ReplE2ESuite konsekvent misslyckas med JDK 17
- [SPARK-43268] [SC-129249][SQL] Använd rätt felklasser när undantag skapas med ett meddelande
- [SPARK-43142] [SC-129299] Åtgärda DSL-uttryck för attribut med specialtecken
- [SPARK-43129] [SC-128896] Scala Core API för direktuppspelning av Spark Connect
- [SPARK-43233] [SC-129250] [SS] Lägg till loggning för Kafka Batch Reading för ämnespartition, förskjutningsintervall och aktivitets-ID
- [SPARK-43249] [SC-129195][ANSLUT] Åtgärda saknade statistik för SQL-kommandot
- [SPARK-42945] [SC-129188][ANSLUT] Stöd PYSPARK_JVM_STACKTRACE_ENABLED i Spark Connect
- [SPARK-43178] [SC-129197][ANSLUT][PYTHON] Migrera UDF-fel till PySpark-felramverket
- [SPARK-43123] [SC-128494][SQL] Interna fältmetadata bör inte läckas till kataloger
- [SPARK-43217] [SC-129205] Upprepas korrekt i kapslade kartor/matriser i findNestedField
- [SPARK-43243] [SC-129294][PYTHON][ANSLUT] Lägg till nivåparam i printSchema för Python
-
[SPARK-43230] [SC-129191][ANSLUT] Förenkla
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][SQL] Respekt kräverDistributionAndOrdering i CTAS/RTAS
-
[SPARK-43234] [SC-129192][ANSLUT][PYTHON] Migrera
ValueError
från Conect DataFrame till felklass - [SPARK-43212] [SC-129187][SS][PYTHON] Migrera strukturerade direktuppspelningsfel till felklass
-
[SPARK-43239] [SC-129186][PS] Ta bort
null_counts
från info() - [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput ska vara konsekvent med underordnade utdata
- [SPARK-43191] [SC-128924][CORE] Ersätt reflektion med direktanrop för Hadoop CallerContext
- [SPARK-43193] [SC-129042][SS] Ta bort lösning för HADOOP-12074
- [SPARK-42657] [SC-128621][ANSLUT] Stöd för att hitta och överföra REPL-klassfiler på klientsidan till servern som artefakter
- [SPARK-43098] [SC-77059][SQL] Åtgärda felet COUNT för korrekthet när skalär underfråga har gruppera efter-sats
-
[SPARK-43213] [SC-129062][PYTHON] Lägg till
DataFrame.offset
i vanilj PySpark - [SPARK-42982] [SC-128400][CONNECT][PYTHON] Åtgärda createDataFrame för att respektera det angivna schemat ddl
- [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults lokalt
- [SPARK-42998] [SC-127422][ANSLUT][PYTHON] Åtgärda DataFrame.collect med null-struct
- [SPARK-41498] [SC-125343]Återställ " Sprid metadata via Union"
- [SPARK-42960] [SC-129010] [ANSLUT] [SS] Lägg till API:et await_termination() och exception() för direktuppspelningsfråga i Python
- [SPARK-42552] [SC-128824][SQL] Korrigera parsningsstrategin i två steg för antlr-parser
- [SPARK-43207] [SC-128937][ANSLUT] Lägga till hjälpfunktioner för att extrahera värde från literaluttryck
- [SPARK-43186] [SC-128841][SQL][HIVE] Ta bort lösning för FileSinkDesc
- [SPARK-43107] [SC-128533][SQL] Sammanslagningshinkar i koppling som tillämpas på sändningsanslutningsströmsidan
- [SPARK-43195] [SC-128922][CORE] Ta bort onödigt serialiseringsomslag i HadoopFSUtils
- [SPARK-43137] [SC-128828][SQL] Förbättra ArrayInsert om positionen är vikbar och positiv.
- [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join ska returnera ett null-värde för omatchad rad
- [SPARK-43042] [SC-128602] [SS] [Connect] Lägg till table() API-stöd för DataStreamReader
- [SPARK-43153] [SC-128753][ANSLUT] Hoppa över Spark-körning när dataramen är lokal
- [SPARK-43064] [SC-128496][SQL] Spark SQL CLI SQL-fliken ska bara visa en instruktion en gång
- [SPARK-43126] [SC-128447][SQL] Markera två Hive UDF-uttryck som tillståndskänsliga
-
[SPARK-43111] [SC-128750][PS][ANSLUT][PYTHON] Sammanfoga kapslade
if
instruktioner i enklaif
instruktioner - [SPARK-43113] [SC-128749][SQL] Utvärdera variabler på dataströmsidan när du genererar kod för ett bundet villkor
- [SPARK-42895] [SC-127258][ANSLUT] Förbättra felmeddelanden för stoppade Spark-sessioner
- [SPARK-42884] [SC-126662][ANSLUT] Lägg till Ammonite REPL-integrering
- [SPARK-43168] [SC-128674][SQL] Ta bort metoden get PhysicalDataType från klassen Datatype
-
[SPARK-43121] [SC-128455][SQL] Använd
BytesWritable.copyBytes
i stället för manuell kopiering i HiveInspectors - [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog håller Char/Varchar-meta på lässidan
- [SPARK-43050] [SC-128550][SQL] Åtgärda sammansättningsuttryck för konstruktion genom att ersätta grupperingsfunktioner
-
[SPARK-43095] [SC-128549][SQL] Undvik när strategins idempotens har brutits för batch:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] Flytta InternalType till PhysicalDataType
- [SPARK-43105] [SC-128456][ANSLUT] Förkorta byte och strängar i proto-meddelande
-
[SPARK-43099] [SC-128596][SQL] Använd
getName
i stället förgetCanonicalName
för att hämta builder-klassnamn när du registrerar udf till FunctionRegistry - [SPARK-42994] [SC-128586][ML][ANSLUT] PyTorch-distributören stöder lokalt läge
- [SPARK-42859] Återställ "[SC-127935][CONNECT][PS] Grundläggande stöd för Pandas API på Spark Connect"
-
[SPARK-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
fungerar inte när du använder AQE - [SPARK-43125] [SC-128477][ANSLUT] Åtgärda att Connect Server inte kan hantera undantag med null-meddelande
- [SPARK-43147] [SC-128594] fix flake8 lint för lokal kontroll
- [SPARK-43031] [SC-128360] [SS] [Anslut] Aktivera enhetstest och dokumenttest för direktuppspelning
- [SPARK-43039] [LC-67] Har stöd för anpassade fält i kolumnen _metadata filkälla.
- [SPARK-43120] [SC-128407][SS] Lägg till stöd för spårning av fästa block minnesanvändning för RocksDB-tillståndsarkiv
- [SPARK-43110] [SC-128381][SQL] Flytta asIntegral till PhysicalDataType
- [SPARK-43118] [SC-128398][SS] Ta bort onödig kontroll för UninterruptibleThread i KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][ANSLUT][PYTHON] Stöd för duplicerade kapslade fältnamn
- [SPARK-42437] [SC-128339][PYTHON][CONNECT] PySpark catalog.cacheTable tillåter att lagringsnivån anges
- [SPARK-42985] [SC-128332][ANSLUT][PYTHON] Åtgärda createDataFrame för att respektera SQL-konfigurationerna
- [SPARK-39696] [SC-127830][CORE] Åtgärda datarace i åtkomsten till TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][SQL] Flytta integral till PhysicalDataType
- [SPARK-42741] [SC-125547][SQL] Ta inte bort gjutningar i binär jämförelse när literal är null
- [SPARK-43057] [SC-127948][CONNECT][PYTHON] Migrera Spark Connect-kolumnfel till felklass
- [SPARK-42859] [SC-127935][ANSLUT][PS] Grundläggande stöd för Pandas API på Spark Connect
-
[SPARK-43013] [SC-127773][PYTHON] Migrera
ValueError
från DataFrame tillPySparkValueError
. - [SPARK-43089] [SC-128051][ANSLUT] Redigera felsökningssträng i användargränssnittet
- [SPARK-43028] [SC-128070][SQL] Lägg till felklass SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][Anslut] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] Lägga till test för dropDuplicates i JavaDatasetSuite
-
[SPARK-43075] [SC-127939][ANSLUT] Ändra
gRPC
tillgrpcio
när den inte är installerad. - [SPARK-42953] [SC-127809][Anslut] Skrivet filter, map, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][SQL] Stöd för att packa upp datumtyp till tidsstämpeltyp
- [SPARK-42931] [SC-127933][SS] Introducera dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][ANSLUT] Lägga till konstanter för proto-datatyper
- [SPARK-43077] [SC-128050][SQL] Förbättra felmeddelandet för UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][SS][Anslut] API:er för DataStreamReader
- [SPARK-43049] [SC-127846][SQL] Använd CLOB i stället för VARCHAR(255) för StringType för Oracle JDBC
- [SPARK-43018] [SC-127762][SQL] Åtgärda fel för INSERT kommandon med tidsstämpelliteraler
- [SPARK-42855] [SC-127722][SQL] Använda runtime null-kontroller i TableOutputResolver
- [SPARK-43030] [SC-127847][SQL] Deduplicera relationer med metadatakolumner
- [SPARK-42993] [SC-127829][ML][ANSLUT] Gör PyTorch-distributören kompatibel med Spark Connect
- [SPARK-43058] [SC-128072][SQL] Flytta numeriska och bråktal till PhysicalDataType
- [SPARK-43056] [SC-127946][SS] Incheckningen av RocksDB-tillståndsarkivet bör endast fortsätta bakgrundsarbetet om det har pausats
- [SPARK-43059] [SC-127947][ANSLUT][PYTHON] Migrera TypeError från DataFrame(Reader|Skrivare) i felklass
- [SPARK-43071] [SC-128018][SQL] Support SELECT DEFAULT med ORDER BY, LIMIT, OFFSET för INSERT källrelation
- [SPARK-43061] [SC-127956][CORE][SQL] Introducera PartitionEvaluator för SQL-operatorkörning
- [SPARK-43067] [SC-127938][SS] Korrigera platsen för felklassresursfilen i Kafka-anslutningsappen
- [SPARK-43019] [SC-127844][SQL] Flytta beställning till PhysicalDataType
- [SPARK-43010] [SC-127759][PYTHON] Migrera kolumnfel till felklass
-
[SPARK-42840] [SC-127782][SQL] Ändra
_LEGACY_ERROR_TEMP_2004
fel till internt fel - [SPARK-43041] [SC-127765][SQL] Återställ konstruktorer av undantag för kompatibilitet i anslutnings-API
- [SPARK-42939] [SC-127761][SS][ANSLUT] Core Streaming Python API för Spark Connect
-
[SPARK-42844] [SC-127766][SQL] Uppdatera felklassen
_LEGACY_ERROR_TEMP_2008
tillINVALID_URL
- [SPARK-42316] [SC-127720][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][ANSLUT][PYTHON] Migrera Spark Connect DataFrame-fel till felklass
- [SPARK-42983] [SC-127717][ANSLUT][PYTHON] Åtgärda createDataFrame för att hantera 0-dim numpy-matrisen korrekt
- [SPARK-42955] [SC-127476][SQL] Hoppa över classifyException och omsluta AnalysisException för SparkThrowable
- [SPARK-42949] [SC-127255][SQL] Förenkla koden för NAAJ
-
[SPARK-43011] [SC-127577][SQL]
array_insert
bör misslyckas med 0 index -
[SPARK-42974] [SC-127487][CORE] Återställ
Utils.createTempDir
för att använda metodenShutdownHookManager
och rensaJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][SQL] PosgresDialect '42P07' betyder också att tabellen redan finns
- [SPARK-42978] [SC-127351][SQL] Derby&PG: RENAME kan inte kvalificera ett nytt tabellnamn med ett schemanamn
- [SPARK-37980] [SC-127668][SQL] Få åtkomst till row_index via _metadata om möjligt i tester
- [SPARK-42655] [SC-127591][SQL] Felaktigt tvetydigt kolumnreferensfel
-
[SPARK-43009] [SC-127596][SQL] Parameteriserad
sql()
medAny
konstanter - [SPARK-43026] [SC-127590][SQL] Tillämpa AQE med icke-exchange-tabellcache
- [SPARK-42963] [SC-127576][SQL] Utöka SparkSessionExtensions för att mata in regler i AQE-frågestegsoptimeraren
- [SPARK-42918] [SC-127357] Generalisera hanteringen av metadataattribut i FileSourceStrategy
-
[SPARK-42806] [SC-127452][SPARK-42811][ANSLUT] Lägg till
Catalog
stöd - [SPARK-42997] [SC-127535][SQL] TableOutputResolver måste använda rätt kolumnsökvägar i felmeddelanden för matriser och kartor
- [SPARK-43006] [SC-127486][PYSPARK] Åtgärda stavfel i StorageLevel eq()
- [SPARK-43005] [SC-127485][PYSPARK] Åtgärda stavfel i pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][CORE] Åtgärda stavfel i ResourceRequest.equals()
- [SPARK-42907] [SC-126984][ANSLUT][PYTHON] Implementera Avro-funktioner
- [SPARK-42979] [SC-127272][SQL] Definiera literalkonstruktorer som nyckelord
- [SPARK-42946] [SC-127252][SQL] Redigera känsliga data som kapslas av variabelersättning
- [SPARK-42952] [SC-127260][SQL] Förenkla parametern för analysregeln PreprocessTableCreation och DataSourceAnalysis
- [SPARK-42683] [LC-75] Byt automatiskt namn på motstridiga metadatakolumner
- [SPARK-42853] [SC-126101][Uppföljning] Åtgärda konflikter
- [SPARK-42929] [SC-126748][CONNECT] gör mapInPandas/mapInArrow till stöd för "is_barrier"
- [SPARK-42968] [SC-127271][SS] Lägg till alternativ för att hoppa över incheckningskoordinatorn som en del av StreamingWrite API för DSv2-källor/mottagare
-
[SPARK-42954] [SC-127261][PYTHON][ANSLUT] Lägg till
YearMonthIntervalType
i PySpark- och Spark Connect Python-klienten -
[SPARK-41359] [SC-127256][SQL] Använd
PhysicalDataType
i stället för DataType i UnsafeRow - [SPARK-42873] [SC-127262][SQL] Definiera Spark SQL-typer som nyckelord
-
[SPARK-42808] [SC-126302][CORE] Undvik att få tillgängligaProcessorer varje gång i
MapOutputTrackerMaster#getStatistics
-
[SPARK-42937] [SC-126880][SQL]
PlanSubqueries
bör angeInSubqueryExec#shouldBroadcast
till true -
[SPARK-42896] [SC-126729][SQL][PYTHON] Gör
mapInPandas
/mapInArrow
körning av stödbarriärläge - [SPARK-42874] [SC-126442][SQL] Aktivera nytt golden file-testramverk för analys för alla indatafiler
- [SPARK-42922] [SC-126850][SQL] Flytta från random till SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange refererar till noder som inte finns
- [SPARK-40822] [SC-126274][SQL] Stabila härledda kolumnalias
- [SPARK-42908] [SC-126856][PYTHON] Höj RuntimeError när SparkContext krävs men inte initieras
- [SPARK-42779] [SC-126042][SQL] Tillåt V2-skrivningar att ange rådgivande omfördelningspartitionsstorlek
-
[SPARK-42914] [SC-126727][PYTHON] Återanvänd för
transformUnregisteredFunction
DistributedSequenceID
. - [SPARK-42878] [SC-126882][CONNECT] Tabell-API:et i DataFrameReader kan också acceptera alternativ
-
[SPARK-42927] [SC-126883][CORE] Ändra åtkomstomfånget
o.a.spark.util.Iterators#size
för tillprivate[util]
- [SPARK-42943] [SC-126879][SQL] Använd LONGTEXT i stället för TEXT för StringType för effektiv längd
- [SPARK-37677] [SC-126855][CORE] Packa upp kan behålla filbehörigheter
- [SPARK-42891] [13.x][SC-126458][ANSLUT][PYTHON] Implementera API för grupperad karta
- [SPARK-41876] [SC-126849][ANSLUT][PYTHON] Implementera DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][CORE][SQL] Ändra åtkomstomfånget
ProtobufSerDe
för relaterade implementeringar tillprivate[protobuf]
- [SPARK-42819] [SC-125879][SS] Lägg till stöd för att ange max_write_buffer_number och write_buffer_size för RocksDB som används i strömning
- [SPARK-42924] [SC-126737][SQL][ANSLUT][PYTHON] Förtydliga kommentaren för parametriserade SQL-args
- [SPARK-42748] [SC-126455][ANSLUT] Artefakthantering på serversidan
- [SPARK-42816] [SC-126365][ANSLUT] Stöd för maximal meddelandestorlek upp till 128 MB
- [SPARK-42850] [SC-126109][SQL] Ta bort duplicerade regeln CombineFilters i Optimizer
- [SPARK-42662] [SC-126355][ANSLUT][PS] Lägga till proto-meddelande för Pandas API i Spark-standardindex
- [SPARK-42720] [SC-126136][PS][SQL] Använder uttryck för standardindex för distribuerad sekvens i stället för plan
- [SPARK-42790] [SC-126174][SQL] Abstrahera den exkluderade metoden för bättre test för JDBC Docker-tester.
- [SPARK-42900] [SC-126473][CONNECT][PYTHON] Åtgärda createDataFrame för att respektera slutsatsdragning och kolumnnamn
- [SPARK-42917] [SC-126657][SQL] Rätt getUpdateColumnNullabilityQuery för DerbyDialect
- [SPARK-42684] [SC-125157][SQL] v2-katalogen bör inte tillåta kolumnstandardvärde som standard
- [SPARK-42861] [SC-126635][SQL] Använd private[sql] i stället för skyddat[sql] för att undvika att generera API-dokument
- [SPARK-42920] [SC-126728][ANSLUT][PYTHON] Aktivera tester för UDF med UDT
- [SPARK-42791] [SC-126617][SQL] Skapa ett nytt golden file-testramverk för analys
- [SPARK-42911] [SC-126652][PYTHON] Introducera mer grundläggande undantag
- [SPARK-42904] [SC-126634][SQL] Char/Varchar-stöd för JDBC-katalog
-
[SPARK-42901] [SC-126459][ANSLUT][PYTHON] Flytta
StorageLevel
till en separat fil för att undvika potentiellafile recursively imports
-
[SPARK-42894] [SC-126451][ANSLUT] Stöd
cache
/persist
/unpersist
/storageLevel
för Spark Connect jvm-klient - [SPARK-42792] [SC-125852][SS] Lägg till stöd för WRITE_FLUSH_BYTES för RocksDB som används i tillståndskänsliga strömningsoperatorer
- [SPARK-41233] [SC-126441][ANSLUT][PYTHON] Lägga till array_prepend i Spark Connect Python-klienten
- [SPARK-42681] [SC-125149][SQL] Minska ordningsbegränsningar för ALTER TABLE ADD|REPLACE-kolumnbeskrivning
- [SPARK-42889] [SC-126367][ANSLUT][PYTHON] Implementera cache, persist, unpersist och storageLevel
- [SPARK-42824] [SC-125985][ANSLUT][PYTHON] Ange ett tydligt felmeddelande för JVM-attribut som inte stöds
- [SPARK-42340] [SC-126131][ANSLUT][PYTHON] Implementera grupperat kart-API
- [SPARK-42892] [SC-126454][SQL] Flytta sameType och relevanta metoder från DataType
-
[SPARK-42827] [SC-126126][ANSLUT] Stöd
functions#array_prepend
för Scala Connect-klienten -
[SPARK-42823] [SC-125987][SQL]
spark-sql
shell har stöd för flerdelsnamnområden för initiering - [SPARK-42817] [SC-125960][CORE] Logga shuffle-tjänstnamnet en gång i ApplicationMaster
- [SPARK-42786] [SC-126438][Anslut] Skriven val
-
[SPARK-42800] [SC-125868][ANSLUT][PYTHON][ML] Implementera ml-funktion
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][SQL] Codegen-stöd för HiveSimpleUDF
-
[SPARK-41233] [SC-126110][SQL][PYTHON] Lägg till
array_prepend
funktion -
[SPARK-42864] [SC-126268][ML][3.4] Gör
IsotonicRegression.PointsAccumulator
privat - [SPARK-42876] [SC-126281][SQL] DataTypes physicalDataType ska vara privat[sql]
- [SPARK-42101] [SC-125437][SQL] Skapa AQE-stöd för InMemoryTableScanExec
- [SPARK-41290] [SC-124030][SQL] Stöd för GENERATED ALWAYS AS-uttryck för kolumner i skapa/ersätt tabell-satser
-
[SPARK-42870] [SC-126220][ANSLUT] Flytta
toCatalystValue
tillconnect-common
- [SPARK-42247] [SC-126107][ANSLUT][PYTHON] Åtgärda att UserDefinedFunction har returnType
- [SPARK-42875] [SC-126258][CONNECT][PYTHON] Korrigera toPandas för att hantera tidszons- och karttyper korrekt
- [SPARK-42757] [SC-125626][ANSLUT] Implementera textFil för DataFrameReader
- [SPARK-42803] [SC-126081][CORE][SQL][ML] Använd funktionen getParameterCount i stället för getParameterTypes.length
-
[SPARK-42833] [SC-126043][SQL]
applyExtensions
Omstrukturera iSparkSession
- [SPARK-41765] Återställ "[SC-123550][SQL] Hämta v1-skrivmått...
- [SPARK-42848] [SC-126105][ANSLUT][PYTHON] Implementera DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][ANSLUT][PYTHON] Stöd för UserDefinedType i Spark Connect
- [SPARK-42818] [SC-125861][ANSLUT][PYTHON] Implementera DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][ANSLUT] Lägg till client_type i Meddelandet AddArtifactsRequest protobuf
- [SPARK-42772] [SC-125860][SQL] Ändra standardvärdet för JDBC-alternativ om push-ned till true
- [SPARK-42771] [SC-125855][SQL] Omstrukturera HiveGenericUDF
- [SPARK-25050] [SC-123839][SQL] Avro: skriva komplexa fackföreningar
-
[SPARK-42765] [SC-125850][ANSLUT][PYTHON] Aktivera import
pandas_udf
frånpyspark.sql.connect.functions
-
[SPARK-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
bör respekteraspark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][SQL] Förbättra prestanda för släpppartitioner
- [SPARK-42689] [SC-125195][CORE][SHUFFLE] Tillåt att ShuffleDriverComponent deklarerar om shuffle-data lagras på ett tillförlitligt sätt
-
[SPARK-42726] [SC-125279][ANSLUT][PYTHON] Implementera
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][SQL] Hämta v1-skrivmått till WriteFiles
- [SPARK-41171] [SC-124191][SQL] Härled och tryck ned fönstergränsen genom fönstret om partitionSpec är tom
- [SPARK-42686] [SC-125292][CORE] Skjuta upp formatering för felsökningsmeddelanden i TaskMemoryManager
- [SPARK-42756] [SC-125443][ANSLUT][PYTHON] Hjälpfunktion för att konvertera protolitral till värde i Python-klienten
-
[SPARK-42793] [SC-125627][ANSLUT]
connect
modulen kräverbuild_profile_flags
-
[SPARK-42701] [SC-125192][SQL]
try_aes_decrypt()
Lägg till funktionen - [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame fungerar inte med ett schema som inte kan upphävas
- [SPARK-42733] [SC-125542][CONNECT][Uppföljning] Skriv utan sökväg eller tabell
- [SPARK-42777] [SC-125525][SQL] Stöd för konvertering av TidsstämpelNTZ-katalogstatistik för att planera statistik
-
[SPARK-42770] [SC-125558][ANSLUT] Lägg
truncatedTo(ChronoUnit.MICROS)
till för att göraSQLImplicitsTestSuite
i Java 17 dagliga test GA-uppgiftspass - [SPARK-42752] [SC-125550][PYSPARK][SQL] Gör PySpark-undantag utskrivbara under initieringen
- [SPARK-42732] [SC-125544][PYSPARK][ANSLUT] Stöd för metoden getActiveSession för Spark Connect-session
-
[SPARK-42755] [SC-125442][ANSLUT] Konvertering av faktorliteralt värde till
connect-common
- [SPARK-42747] [SC-125399][ML] Åtgärda felaktig intern status för LoR och AFT
- [SPARK-42740] [SC-125439][SQL] Åtgärda felet att pushdown-förskjutning eller paginering är ogiltig för vissa inbyggda dialekter
- [SPARK-42745] [SC-125332][SQL] Förbättrad AliasAwareOutputExpression fungerar med DSv2
- [SPARK-42743] [SC-125330][SQL] Stöd för analys av TimestampNTZ-kolumner
- [SPARK-42721] [SC-125371][ANSLUT] RPC-loggningsavlyssnare
- [SPARK-42691] [SC-125397][ANSLUT][PYTHON] Implementera Dataset.semanticHash
- [SPARK-42688] [SC-124922][ANSLUT] Byt namn på Connect proto Request client_id till session_id
- [SPARK-42310] [SC-122792][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][CORE] Optimera Utils.bytesToString-rutiner
- [SPARK-42725] [SC-125296][ANSLUT][PYTHON] Gör LiteralExpression till stöd för matrisparamer
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] Stöd för parametriserad fråga i underfrågor och CTE
- [SPARK-42697] [SC-125189][WEBUI] Åtgärda /api/v1/applications för att returnera total drifttid i stället för 0 för varaktighetsfältet
- [SPARK-42733] [SC-125278][ANSLUT][PYTHON] Åtgärda att DataFrameWriter.save fungerar utan sökvägsparameter
- [SPARK-42376] [SC-124928][SS] Introducera spridning av vattenstämplar mellan operatörer
- [SPARK-42710] [SC-125205][ANSLUT][PYTHON] Byt namn på FrameMap proto till MapPartitions
- [SPARK-37099] [SC-123542][SQL] Introducera gruppgränsen för Window för rangbaserat filter för att optimera top-k-beräkningen
- [SPARK-42630] [SC-125207][ANSLUT][PYTHON] Introducera UnparsedDataType och fördröj parsning av DDL-sträng tills SparkConnectClient är tillgängligt
- [SPARK-42690] [SC-125193][ANSLUT] Implementera CSV/JSON-parsningsfunktioner för Scala-klienten
-
[SPARK-42709] [SC-125172][PYTHON] Ta bort antagandet att
__file__
är tillgänglig - [SPARK-42318] [SC-122648][SPARK-42319][SQL] Tilldela namn till LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][SQL] Stöd för parserdatatypen json "timestamp_ltz" som TimestampType
- [SPARK-42722] [SC-125175][CONNECT][PYTHON] Python Connect def schema() bör inte cachelagra schemat
- [SPARK-42643] [SC-125152][ANSLUT][PYTHON] Registrera användardefinierade Java-funktioner (aggregerade)
- [SPARK-42656] [SC-125177][ANSLUT][Uppföljning] Åtgärda spark-connect-skriptet
- [SPARK-41516] [SC-123899] [SQL] Tillåt att jdbc-dialekter åsidosätter frågan som används för att skapa en tabell
- [SPARK-41725] [SC-124396][ANSLUT] Ivrig körning av DF.sql()
-
[SPARK-42687] [SC-124896][SS] Bättre felmeddelande för åtgärden som inte stöds
pivot
i direktuppspelning - [SPARK-42676] [SC-124809][SS] Skriva temporära kontrollpunkter för strömmande frågor till det lokala filsystemet även om standard-FS har angetts annorlunda
- [SPARK-42303] [SC-122644][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] Kontrollera minst en tidsenhet efter "intervall"
- [SPARK-42649] [SC-124576][CORE] Ta bort Apache License-standardrubriken högst upp i källfiler från tredje part
- [SPARK-42611] [SC-124395][SQL] Infoga tecken-/varchar-längdkontroller för inre fält under upplösning
- [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrera till felramverk för Spark Connect Column API.
- [SPARK-42637] [SC-124522][ANSLUT] Lägg till SparkSession.stop()
- [SPARK-42647] [SC-124647][PYTHON] Ändra alias för inaktuella och borttagna typer av numpy
- [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver ska endast stänga startad hive-sessionState
- [SPARK-42593] [SC-124405][PS] Inaktuell & ta bort DE API:er som ska tas bort i Pandas 2.0.
- [SPARK-41870] [SC-124402][CONNECT][PYTHON] Åtgärda createDataFrame för att hantera duplicerade kolumnnamn
- [SPARK-42569] [SC-124379][ANSLUT] Utlösa undantag för sessions-API som inte stöds
- [SPARK-42631] [SC-124526][ANSLUT] Stöd för anpassade tillägg i Scala-klienten
- [SPARK-41868] [SC-124387][ANSLUT][PYTHON] Åtgärda createDataFrame för att stödja varaktigheter
- [SPARK-42572] [SC-124171][SQL][SS] Åtgärda beteendet för StateStoreProvider.validateStateRowFormat
Underhållsuppdateringar
Se Underhållsuppdateringar för Databricks Runtime 13.1.
Systemmiljö
- Operativsystem: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Deltasjön: 2.4.0
Installerade Python-bibliotek
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindningar | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | svart | 22.6.0 | blekmedel | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | klicka | 8.0.4 | kryptografi | 37.0.1 |
cyklist | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
felsökning | 1.5.1 | dekoratör | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0,12 | entrypoints | 0,4 |
Verkställande | 1.2.0 | facets-overview | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | nyckelring | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook-fil | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
emballage | 21,3 | Pandas | 1.4.4 | pandocfilter | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | Patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Kudde | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantisk | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | begäranden | 2.28.1 | rep | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | sex | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5,11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
orubblighet | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tromb | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | obevakade uppgraderingar | 0,1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | hjul | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Installerade R-bibliotek
R-bibliotek installeras från Microsoft CRAN-ögonblicksbilden 2023-02-10.
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
arrow | 10.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backportar | 1.4.1 | bas | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
start | 1.3-28 | brygga | 1.0-8 | Brio | 1.1.3 |
kvast | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
anropare | 3.7.3 | textmarkör | 6.0-93 | cellranger | 1.1.0 |
Chron | 2.3-59 | klass | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | klocka | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | färgområde | 2.1-0 | commonmark | 1.8.1 |
kompilator | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
krita | 1.5.2 | Autentiseringsuppgifter | 1.3.2 | hårlock | 5.0.0 |
data.table | 1.14.6 | datauppsättningar | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | smälta | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
ellips | 0.3.2 | evaluate (utvärdera) | 0.20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | främmande | 0.8-82 |
smida | 0.2.0 | Fs | 1.6.1 | framtid | 1.31.0 |
future.apply | 1.10.0 | gurgla | 1.3.0 | Generika | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
lim | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafik | 4.2.2 | grDevices | 4.2.2 |
gitter | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | hamn | 2.5.1 |
highr | 0.10 | Hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Iteratorer | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | stickning | 1.42 |
Märkning | 0.4.2 | senare | 1.3.0 | Galler | 0.20-45 |
lava | 1.7.1 | livscykel | 1.0.3 | lyssna | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1.5 |
MASSA | 7.3-58.2 | Matris | 1.5-1 | pmise | 2.0.1 |
metoder | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallellt | 1.34.0 | pelare | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | berömma | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Förlopp | 1.2.2 |
progressr | 0.13.0 | Löften | 1.2.0.1 | Proto | 1.0.0 |
proxyserver | 0.4-27 | PS | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recept | 1.0.4 |
Returmatch | 1.0.1 | rematch2 | 2.1.2 | Fjärrkontroller | 2.4.2 |
reprex | 2.0.2 | omforma2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversioner | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.5 | våg | 1.2.1 |
väljare | 0.4-2 | sessioninfo | 1.2.2 | form | 1.4.6 |
skinande | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | rumslig | 7.3-15 | Splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
överlevnad | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | avmarkera | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | verktyg | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
verktyg | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
morrhår | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | Zip | 2.2.2 |
Installerade Java- och Scala-bibliotek (Scala 2.12-klusterversion)
Grupp-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | ström | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-skuggad | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasskamrat | 1.3.4 |
com.fasterxml.jackson.core | jackson-anteckningar | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Tingeling | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profilerare | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffert | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | samlare | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | ättikslag | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | pilformat | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | pilvektor | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recept | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | murgröna | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | åhörarkommentarer | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-fortsättning | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | brygga-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | brygga plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | brygga-server | 9.4.50.v20221201 |
org.eclipse.jetty | brygga-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | brygga-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | vilolägesverifierare | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anteckningar | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Shims | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibel | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |