Sdílet prostřednictvím


Databricks Runtime 13.1 (EoS)

Poznámka:

Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 13.1, který využívá Apache Spark 3.4.0.

Databricks vydala tuto verzi v květnu 2023.

Nové funkce a vylepšení

Podpora clusteru pro JDK 17 (Public Preview)

Databricks teď poskytuje podporu clusteru pro Sadu Java Development Kit (JDK) 17. Viz Databricks SDK pro Javu.

Přidání, změna nebo odstranění dat ve streamování tables

Teď můžete použít příkazy DML k úpravě streamovaných tables publikovaných v Unity Catalog pipelinech Delta Live Tables. Viz Přidat, změnit nebo odstranit data ve streamovaném table a Přidat, změnit nebo odstranit data v cílovém streamovaném table. Příkazy DML můžete také použít k úpravě streamování tables vytvořených v Databricks SQL.

Čtení Kafka s SQL

Teď můžete funkci SQL použít read_kafka ke čtení dat Kafka. Streamování s SQL je podporováno pouze v Delta Live Tables nebo u streamování tables v Databricks SQL. Viz read_kafka tablefunkce s hodnotou.

Nové integrované funkce SQL

Byly přidány následující funkce:

Podpora Unity Catalog pro knihovny Pythonu s klastrovým rozsahem

Unity Catalog má určitá omezení používání knihovny. Ve službě Databricks Runtime 13.1 a novějších se podporují knihovny Pythonu s oborem clusteru, včetně souborů kol Pythonu, které se nahrávají jako soubory pracovního prostoru. Knihovny odkazované pomocí cest k souborům DBFS se nepodporují bez ohledu na to, jestli jsou v kořenovém adresáři DBFS nebo v externím umístění připojeném k DBFS. Podporují se jenom knihovny Pythonu. Viz Knihovny clusterů.

V prostředí Databricks Runtime 13.0 a dřívějších nejsou knihovny na úrovni clusteru podporovány u clusterů, které používají režim sdíleného přístupu v pracovním prostoru s podporou Unity Catalog.

Rozšířené výchozí povolení optimalizovaných zápisů v Unity Catalog

Výchozí optimalizovaná podpora zápisu pro Delta tables zaregistrovaná v Unity Catalog se rozšířila tak, aby zahrnovala příkazy CTAS a operace INSERT pro dělené tables. Toto chování odpovídá výchozím nastavením ve skladech SQL. Viz Optimalizované zápisy pro Delta Lake v Azure Databricks.

Pokročilá podpora stavových operátorů v úlohách strukturovaného streamování

Nyní můžete zřetězovat více stavových operátorů, což znamená, že můžete předat výstup operace, jako je například agregace s oknem, do jiné stavové operace, například join. Podívejte se, co je stavové streamování?

Delta clone pro Unity Catalog je ve verzi Public Preview

Teď můžete pomocí mělkých klonů vytvořit nové spravované Unity tablesCatalog ze spravovaného Unity Catalogtables. Viz mělký klon pro Unity Catalogtables.

Podpora pub/sub pro strukturované streamování

Teď můžete použít integrovaný konektor k přihlášení k odběru Google Pub/Sub se strukturovaným streamováním. Viz Přihlášení k odběru Google Pub/Sub.

Odstranění duplicit do vodoznaků ve strukturovaném streamování

Nyní můžete použít dropDuplicatesWithinWatermark v kombinaci se zadanou prahovou hodnotou watermark k odstranění duplicitních dat záznamů ve strukturovaném streamování. Viz Odstranění duplicit v rámci watermark.

Rozšířená podpora převodů Delta z tables Icebergu s zkrácenými partitioncolumns

Nyní můžete použít CLONE a CONVERT TO DELTA s Iceberg tables, které mají oddíly definované na zkrácených columns typu int, longa string. Zkrácené columns typu decimal nejsou podporovány.

Změny proudu schema s mapováním column v Delta Lake

Nyní můžete zadat sledovací umístění schema, které umožní streamování z Delta tables s aktivovaným mapováním column. Viz Streamování s mapováním column a změnami schema.

Remove START VERZE

START VERSION je nyní zastaralá pro ALTER SHARE.

Nové výrazy H3 dostupné v Pythonu

Výrazy h3_coverash3 a h3_coverash3string výrazy jsou k dispozici v Pythonu.

Opravy chyb

Parquet failOnUnknownFields už bezobslužně nezahazují data při neshodě typů.

Pokud byl soubor Parquet přečten pouze s možností failOnUnknownFields nebo s automatickým zavaděčem v režimu vývoje failOnNewColumnsschema, columns, které mají různé datové typy, nyní dochází k selhání a doporučuje se použití rescuedDataColumn. Auto Loader teď správně čte a už neschová celočíselné, krátké nebo bajtové typy, pokud je k dispozici některý z těchto datových typů. Soubor Parquet navrhuje jeden z dalších dvou typů.

Změny způsobující chyby

Upgrade verze sqlite-jdbc na verzi 3.42.0.0 na adresu CVE-2023-32697

Upgradujte verzi sqlite-jdbc z verze 3.8.11.2 na 3.42.0.0. Rozhraní API verze 3.42.0.0 nejsou plně kompatibilní s verzí 3.8.11.2. Pokud v kódu používáte sqlite-jdbc, podrobnosti najdete v sestavě kompatibility sqlite-jdbc. Pokud migrujete na verzi 13.1 a použijete sqlite, potvrďte své metody a návratový typ ve verzi 3.42.0.0.

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • facets-overview from 1.0.2 to 1.0.3
    • filelock od 3.10.7 do 3.12.0
    • pyarrow od 7.0.0 do 8.0.0
    • 8.0.1 až 8.1.0
  • Upgradované knihovny jazyka R:
  • Upgradované knihovny Java:
    • com.github.ben-manes.kofein.kofein od 2.3.4 do 2.9.3
    • io.delta.delta-sharing-spark_2.12 od 0.6.8 do 0.6.4
    • net.snowflake.snowflake-jdbc od 3.13.29 do 3.13.22
    • org.checkerframework.checker-qual od 3.5.0 do 3.19.0
    • org.scalactic.scalactic_2.12 od 3.0.8 do 3.2.15
    • org.scalatest.scalatest_2.12 od 3.0.8 do 3.2.15
    • org.xerial.sqlite-jdbc od 3.8.11.2 do 3.42.0.0

Apache Spark

Databricks Runtime 13.1 zahrnuje Apache Spark 3.4.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 13.0 (EoS), a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-42719] [DBRRM-199][SC-131578] Vrátit "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166][SC-130056][JÁDRO] Vrátit [SC-127830]/
  • [SPARK-43331] [SC-130064][CONNECT] Přidání Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][CONNECT][PYTHON] Rozšíření ChannelBuilderu pro SparkConnectClient
  • [SPARK-43323] [SC-129966][SQL][PYTHON] Oprava prvku DataFrame.toPandas s povolenou šipkou pro správné zpracování výjimek
  • [SPARK-42940] [SC-129896][SS][CONNECT] Vylepšení správy relací pro dotazy streamování
  • [SPARK-43032] [SC-125756] [CONNECT][SS] Přidání správce dotazů streamování
  • [SPARK-16484] [SC-129975][SQL] Přidání podpory pro Datasketches HllSketch
  • [SPARK-43260] [SC-129281][PYTHON] Migrujte chyby typu šipky Knihovny pandas Spark SQL do třídy chyb.
  • [SPARK-41766] [SC-129964][JÁDRO] Zpracování požadavku vyřazení z provozu odeslaného před registrací exekutoru
  • [SPARK-43307] [SC-129971][PYTHON] Migrace chyb hodnot PandasUDF do třídy chyb
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() include stack trace
  • [SPARK-43311] [SC-129905][SS] Přidání vylepšení správy paměti zprostředkovatele stavu RocksDB
  • [SPARK-43237] [SC-129898][JÁDRO] Zpracování zprávy o výjimce null v protokolu událostí
  • [SPARK-43320] [SC-129899][SQL][HIVE] Přímé volání rozhraní API Hive 2.3.9
  • [SPARK-43270] [SC-129897][PYTHON] Implementujte __dir__() v pyspark.sql.dataframe.DataFrame tak, aby zahrnoval columns
  • [SPARK-43183] Vrátit zpět "[SC-128938][SS] Zavést nový zpětné volání "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][SQL] Nahraďte třídu chyb _LEGACY_ERROR_TEMP_2022 vnitřní chybou.
  • [SPARK-43198] [SC-129470][CONNECT] Oprava "Nelze inicializovat třídu ammonite..." chyba při použití filtru
  • [SPARK-43165] [SC-129777][SQL] Přesunout canWrite do DataTypeUtils
  • [SPARK-43298] [SC-129729][PYTHON][ML] predict_batch_udf s skalárním vstupem selže s velikostí dávky jedné
  • [SPARK-43298] [SC-129700]Vrácení predict_batch_udf [PYTHON][ML] s skalárním vstupem selže s velikostí dávky 1"
  • [SPARK-43052] [SC-129663][JÁDRO] Zpracování trasování zásobníku s názvem souboru null v protokolu událostí
  • [SPARK-43183] [SC-128938][SS] Zavedení nového zpětného volání onQueryIdle pro StreamingQueryListener
  • [SPARK-43209] [SC-129190][CONNECT][PYTHON] Migrace chyb výrazu do třídy chyb
  • [SPARK-42151] [SC-128754][SQL] Zarovnání přiřazení UPDATE s atributy table
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] Rozhraní API pro klienty JVM StreamingQuery
  • [SPARK-43298] [SC-129699][PYTHON][ML] predict_batch_udf s skalárním vstupem selže s velikostí dávky jedné
  • [SPARK-43248] [SC-129660][SQL] Nepotřebná serializace/deserializace cesty při paralelním shromažďování partition statistiky
  • [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT] Představit PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][CONNECT][PYTHON] Implementace dychtivého vyhodnocení pro opětovné obnovení a repr_html
  • [SPARK-42953] [SC-129469][Připojit][Zpracovat] Oprava testovacího sestavení Mavenu pro testy UDF klienta Scala
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358][CONNECT] Přidání funkcí groupByKey + mapGroup + coGroup
  • [SPARK-43156] [SC-129672][SC-128532][SQL] Oprava COUNT(*) is null chyby v korelovaném skalárním poddotazu
  • [SPARK-43046] [SC-129110] [SS] [Připojit] Implementované rozhraní PYTHON API dropDuplicatesWithinWatermark pro Spark Connect
  • [SPARK-43199] [SC-129467][SQL] Nastavení idempotentního inlineCTE
  • [SPARK-43293] [SC-129657][SQL] __qualified_access_only by se mělo ignorovat v běžném columns
  • [SPARK-43276] [SC-129461][CONNECT][PYTHON] Migrace chyb Spark Connect Window do třídy chyb
  • [SPARK-43174] [SC-129109][SQL] Oprava completeru SparkSQLCLIDriver
  • [SPARK-43084] [SC-128654] [SS] Přidání podpory applyInPandasWithState pro připojení Sparku
  • [SPARK-43119] [SC-129040][SQL] Podpora Get klíčových slov SQL dynamicky přes rozhraní JDBC API a TVF
  • [SPARK-43082] [SC-129112][CONNECT][PYTHON] Definované uživatelem Pythonu optimalizované šipkami v nástroji Spark Connect
  • [SPARK-43085] [SC-128432][SQL] Podpora column VÝCHOZÍ přiřazení pro názvy table s více částmi
  • [SPARK-43226] [LC-671] Definování extraktorů pro metadata konstanty souboru
  • [SPARK-43210] [SC-129189][CONNECT][PYTHON] Představit PySparkAssertionError
  • [SPARK-43214] [SC-129199][SQL] Metriky na straně ovladače pro LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Oprava konzistentního selhání ReplE2ESuite s JDK 17
  • [SPARK-43268] [SC-129249][SQL] Použití správných tříd chyb při vytváření výjimek se zprávou
  • [SPARK-43142] [SC-129299] Oprava výrazů DSL u atributů se speciálními znaky
  • [SPARK-43129] [SC-128896] Základní rozhraní API Scala pro streamování Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Přidání protokolování pro batchové čtení Kafka pro téma partition, rozsah offset a ID úlohy
  • [SPARK-43249] [SC-129195][CONNECT] Oprava chybějících statistik pro příkaz SQL
  • [SPARK-42945] [SC-129188][CONNECT] Podpora PYSPARK_JVM_STACKTRACE_ENABLED ve Spark Connectu
  • [SPARK-43178] [SC-129197][CONNECT][PYTHON] Migrace chyb UDF do architektury chyb PySpark
  • [SPARK-43123] [SC-128494][SQL] Do catalogs by neměla dojít k úniku interních metadat polí
  • [SPARK-43217] [SC-129205] Správně zařadíte do vnořených map a polí v findNestedField.
  • [SPARK-43243] [SC-129294][PYTHON][CONNECT] Přidání parametru úrovně pro tiskSchema pro Python
  • [SPARK-43230] [SC-129191][CONNECT] Zjednodušit DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][SQL] Respekt vyžadujeDistributionAndOrdering v CTAS/RTAS
  • [SPARK-43234] [SC-129192][CONNECT][PYTHON] Migrace ValueError z datového rámce Conect do třídy chyb
  • [SPARK-43212] [SC-129187][SS][PYTHON] Migrace chyb strukturovaného streamování do třídy chyb
  • [SPARK-43239] [SC-129186][PS] Removenull_counts z informací()
  • [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput by měl být konzistentní s podřízeným výstupem.
  • [SPARK-43191] [SC-128924][JÁDRO] Nahrazení reflexe w/ přímé volání pro Hadoop CallerContext
  • [SPARK-43193] [SC-129042][SS] Remove alternativní řešení pro HADOOP-12074
  • [SPARK-42657] [SC-128621][CONNECT] Podpora vyhledání a přenosu souborů tříd REPL na straně klienta na server jako artefakty
  • [SPARK-43098] [SC-77059][SQL] Oprava chyby POČET správnosti, pokud skalární poddotaz obsahuje klauzuli group by
  • [SPARK-43213] [SC-129062][PYTHON] Přidat DataFrame.offset do vanilla PySpark
  • [SPARK-42982] [SC-128400][CONNECT][PYTHON] Oprava createDataFrame, aby respektovala danou schema ddl
  • [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults místně
  • [SPARK-42998] [SC-127422][CONNECT][PYTHON] Oprava objektu DataFrame.collect se strukturou null
  • [SPARK-41498] [SC-125343]Vrátit zpět "Šíření metadat prostřednictvím sjednocení"
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Přidání rozhraní API await_termination() a exception() pro dotaz streamování v Pythonu
  • [SPARK-42552] [SC-128824][SQL] Oprava strategie dvoufázové analýzy analyzátoru antlr
  • [SPARK-43207] [SC-128937][CONNECT] Přidání pomocných funkcí pro extrakci hodnoty z literálového výrazu
  • [SPARK-43186] [SC-128841][SQL][HIVE] Remove alternativní řešení pro FileSinkDesc
  • [SPARK-43107] [SC-128533][SQL] Kontejnery v join použité na straně streamu všesměrového vysílání join
  • [SPARK-43195] [SC-128922][CORE] Remove zbytečné serializovatelné obálky v HadoopFSUtils
  • [SPARK-43137] [SC-128828][SQL] Vylepšete ArrayInsert, pokud je pozice skládací a pozitivní.
  • [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join by měla vrátit nulovou hodnotu pro řádek bez porovnání
  • [SPARK-43042] [SC-128602] [SS] [Connect] Podpora rozhraní API pro přidání table() pro DataStreamReader
  • [SPARK-43153] [SC-128753][CONNECT] Přeskočit spouštění Sparku, když je datový rámec místní
  • [SPARK-43064] [SC-128496][SQL] Karta SQL CLI sparku SQL by se měla zobrazit jenom jednou.
  • [SPARK-43126] [SC-128447][SQL] Označení dvou výrazů UDF Hive jako stavových
  • [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] Sloučení vnořených if příkazů do jednoduchých if příkazů
  • [SPARK-43113] [SC-128749][SQL] Vyhodnocení proměnných na straně datového proudu při generování kódu pro vázanou podmínku
  • [SPARK-42895] [SC-127258][CONNECT] Vylepšení chybových zpráv pro zastavené relace Sparku
  • [SPARK-42884] [SC-126662][CONNECT] Přidání integrace Ammonite REPL
  • [SPARK-43168] [SC-128674][SQL] metoda Removeget PhysicalDataType z třídy Datatype
  • [SPARK-43121] [SC-128455][SQL] Používejte místo ručního kopírování v 'HiveInspectors.BytesWritable.copyBytes
  • [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog udržuje na straně čtení meta Char/Varchar
  • [SPARK-43050] [SC-128550][SQL] Oprava agregačních výrazů konstruktoru nahrazením funkcí seskupení
  • [SPARK-43095] [SC-128549][SQL] Vyhýbejte se idempotenci strategie pro dávku: Infer Filters
  • [SPARK-43130] [SC-128597][SQL] Přesun InternalType do physicalDataType
  • [SPARK-43105] [SC-128456][CONNECT] Zkrácené bajty a řetězce v proto zprávě
  • [SPARK-43099] [SC-128596][SQL] Použití getName místo getCanonicalName k get názvu třídy tvůrce při registraci udf do FunctionRegistry
  • [SPARK-42994] [SC-128586][ML][CONNECT] PyTorch Distributor podporuje místní režim
  • [SPARK-42859] Vrátit zpět "[SC-127935][CONNECT][PS] Základní podpora rozhraní PANDAS API ve Spark Connectu
  • [SPARK-43021] [SC-128472][SQL] CoalesceBucketsInJoin nefunguje při použití AQE
  • [SPARK-43125] [SC-128477][CONNECT] Oprava, že Connect Server nemůže zpracovat výjimku s nulovou zprávou
  • [SPARK-43147] [SC-128594] oprava llake8 lint pro místní kontrolu
  • [SPARK-43031] [SC-128360] [SS] [Připojit] Povolení testování jednotek a testování dokumentů pro streamování
  • [SPARK-43039] [LC-67] Podpora vlastních polí ve zdrojovém _metadata columnsouboru .
  • [SPARK-43120] [SC-128407][SS] Přidání podpory pro sledování připnutých bloků využití paměti pro úložiště stavů RocksDB
  • [SPARK-43110] [SC-128381][SQL] Přesun asIntegral na PhysicalDataType
  • [SPARK-43118] [SC-128398][SS] Remove nepotřebný asert pro UninterruptibleThread v KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][CONNECT][PYTHON] Podpora duplicitních vnořených názvů polí
  • [SPARK-42437] [SC-128339][PYTHON][CONNECT] PySpark catalog.cacheTable umožní zadat úroveň úložiště.
  • [SPARK-42985] [SC-128332][CONNECT][PYTHON] Oprava elementu createDataFrame pro dodržování konfigurací SQL
  • [SPARK-39696] [SC-127830][JÁDRO] Oprava rasy dat v přístupu k TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][SQL] Přesunutí integrálu na physicalDataType
  • [SPARK-42741] [SC-125547][SQL] Nevybalit přetypování v binárním porovnání, pokud je literál null
  • [SPARK-43057] [SC-127948][CONNECT][PYTHON] Migrace chyb Spark Connect Column do třídy chyb
  • [SPARK-42859] [SC-127935][CONNECT][PS] Základní podpora rozhraní PANDAS API ve Službě Spark Connect
  • [SPARK-43013] [SC-127773][PYTHON] Migrace ValueError z datového rámce do PySparkValueError.
  • [SPARK-43089] [SC-128051][CONNECT] Redact debug string in UI
  • [SPARK-43028] [SC-128070][SQL] Přidání SQL_CONF_NOT_FOUND třídy chyb
  • [SPARK-42999] [SC-127842][Připojit] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][SQL] Přidání testu pro dropDuplicates v JavaDatasetSuite
  • [SPARK-43075] [SC-127939][CONNECT] Změňte gRPC na grpcio , když není nainstalovaný.
  • [SPARK-42953] [SC-127809][Připojit] Typový filtr, mapa, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][SQL] Podpora rozbalení typu data na typ časového razítka
  • [SPARK-42931] [SC-127933][SS] Zavedení dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943][CONNECT] Přidání konstant datových typů proto
  • [SPARK-43077] [SC-128050][SQL] Vylepšení chybové zprávy UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][SS][Připojit] Rozhraní API třídy DataStreamReader
  • [SPARK-43049] [SC-127846][SQL] Místo VARCHAR(255) použijte cloB pro StringType pro Oracle JDBC.
  • [SPARK-43018] [SC-127762][SQL] Oprava chyby pro příkazy INSERT s literály časového razítka
  • [SPARK-42855] [SC-127722][SQL] Použití kontrol hodnoty runtime null v TableOutputResolver
  • [SPARK-43030] [SC-127847][SQL] Odstranění duplicitních dat pomocí columns metadat
  • [SPARK-42993] [SC-127829][ML][CONNECT] Zajištění kompatibility distributora PyTorch s aplikací Spark Connect
  • [SPARK-43058] [SC-128072][SQL] Přesunutí číselného a zlomkového typu do fyzického datového typu
  • [SPARK-43056] [SC-127946][SS] Potvrzení úložiště stavů RocksDB by mělo pokračovat v práci na pozadí pouze v případě, že je pozastaveno.
  • [SPARK-43059] [SC-127947][CONNECT][PYTHON] Migrace TypeError z datového rámce (Čtenář|Zapisovač) do třídy chyb
  • [SPARK-43071] [SC-128018][SQL] Podpora SELECT DEFAULT s ORDER BY, LIMIT, OFFSET pro zdrojový vztah INSERT
  • [SPARK-43061] [SC-127956][JÁDRO][SQL] Zavedení funkce PartitionEvaluator pro spouštění operátoru SQL
  • [SPARK-43067] [SC-127938][SS] Oprava umístění souboru prostředků třídy chyb v konektoru Kafka
  • [SPARK-43019] [SC-127844][SQL] Přesunutí pořadí na physicalDataType
  • [SPARK-43010] [SC-127759][PYTHON] Migrace chyb Column do třídy chyb
  • [SPARK-42840] [SC-127782][SQL] Změna _LEGACY_ERROR_TEMP_2004 chyby na vnitřní chybu
  • [SPARK-43041] [SC-127765][SQL] Restore konstruktory výjimek kvůli kompatibilitě v rozhraní API konektoru
  • [SPARK-42939] [SC-127761][SS][CONNECT] Základní streamování rozhraní Python API pro Spark Connect
  • [SPARK-42844] [SC-127766][SQL] Update třída chyby _LEGACY_ERROR_TEMP_2008INVALID_URL
  • [SPARK-42316] [SC-127720][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][CONNECT][PYTHON] Migrace chyb datového rámce Spark Connect do třídy chyb
  • [SPARK-42983] [SC-127717][CONNECT][PYTHON] Oprava prvku createDataFrame pro správné zpracování pole numpy s 0 dim
  • [SPARK-42955] [SC-127476][SQL] Přeskočit klasifikaciException a zabalit AnalysisException pro SparkThrowable
  • [SPARK-42949] [SC-127255][SQL] Zjednodušení kódu pro NAAJ
  • [SPARK-43011] [SC-127577][SQL] array_insert by mělo selhat s indexem 0
  • [SPARK-42974] [SC-127487][CORE] RestoreUtils.createTempDir použít ShutdownHookManager a vyčistit metodu JavaUtils.createTempDir.
  • [SPARK-42964] [SC-127585][SQL] PosgresDialect '42P07' znamená, že table již existuje.
  • [SPARK-42978] [SC-127351][SQL] Derby&PG: Nelze přejmenovat qualify nový názevtable-Name s schema-Name
  • [SPARK-37980] [SC-127668][SQL] Přístup k row_index prostřednictvím _metadata, pokud je to možné v testech
  • [SPARK-42655] [SC-127591][SQL] Nesprávná nejednoznačná column referenční chyba
  • [SPARK-43009] [SC-127596][SQL] Parametrizované sql() s Any konstantami
  • [SPARK-43026] [SC-127590][SQL] Použití AQE s table mezipamětí bez exchange
  • [SPARK-42963] [SC-127576][SQL] Rozšíření SparkSessionExtensionExtension Pro vložení pravidel do optimalizátoru fáze dotazu AQE
  • [SPARK-42918] [SC-127357] Generalizace zpracování atributů metadat v FileSourceStrategy
  • [SPARK-42806] [SC-127452][SPARK-42811][CONNECT] Přidání Catalog podpory
  • [SPARK-42997] [SC-127535][SQL] TableOutputResolver musí používat správné cesty column v chybových zprávách pro pole a mapy.
  • [SPARK-43006] [SC-127486][PYSPARK] Oprava překlepu ve službě StorageLevel eq()
  • [SPARK-43005] [SC-127485][PYSPARK] Oprava překlepu v pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][JÁDRO] Oprava překlepu v ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][CONNECT][PYTHON] Implementace funkcí Avro
  • [SPARK-42979] [SC-127272][SQL] Definování konstruktorů literálů jako klíčových slov
  • [SPARK-42946] [SC-127252][SQL] Redact sensitive data, která jsou vnořena nahrazováním proměnných
  • [SPARK-42952] [SC-127260][SQL] Zjednodušení parametru pravidla analyzátoru PreprocessTableCreation a DataSourceAnalysis
  • [SPARK-42683] [LC-75] Automaticky přejmenovat konfliktní metadata columns
  • [SPARK-42853] [SC-126101][Sledovat] Oprava konfliktů
  • [SPARK-42929] [SC-126748][CONNECT] make mapInPandas / mapInArrow podpora "is_barrier"
  • [SPARK-42968] [SC-127271][SS] Přidání možnosti pro přeskočení koordinátoru potvrzení v rámci rozhraní API StreamingWrite pro zdroje a jímky DSv2
  • [SPARK-42954] [SC-127261][PYTHON][CONNECT] Přidání YearMonthIntervalType do klienta PySpark a Spark Connect Pythonu
  • [SPARK-41359] [SC-127256][SQL] Místo PhysicalDataType datového typu v nezabezpečeném objektu
  • [SPARK-42873] [SC-127262][SQL] Definování typů Spark SQL jako klíčových slov
  • [SPARK-42808] [SC-126302][JÁDRO] Vyhněte se získání dostupnýchprocesorů při každém spuštění MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][SQL] PlanSubqueries by měl setInSubqueryExec#shouldBroadcast na true
  • [SPARK-42896] [SC-126729][SQL][PYTHON] Provedení mapInPandas / mapInArrow režimu bariéry podpory
  • [SPARK-42874] [SC-126442][SQL] Povolení nové architektury pro testování zlatých souborů pro analýzu pro všechny vstupní soubory
  • [SPARK-42922] [SC-126850][SQL] Přechod z náhodného na SecureRandom
  • [SPARK-42753] [SC-126369] Opakované použitíexchange odkazuje na neexistující uzly.
  • [SPARK-40822] [SC-126274][SQL] Stabilní odvozené column aliasy
  • [SPARK-42908] [SC-126856][PYTHON] Vyvolání chyby runtime v případě, že se vyžaduje SparkContext, ale není inicializován
  • [SPARK-42779] [SC-126042][SQL] Povolit zápisům v2 indikovat velikost partition poradcem prohazovat
  • [SPARK-42914] [SC-126727][PYTHON] Opakované použití transformUnregisteredFunction pro DistributedSequenceID.
  • [SPARK-42878] [SC-126882][CONNECT] Rozhraní API table v DataFrameReader může také přijímat možnosti.
  • [SPARK-42927] [SC-126883][JÁDRO] Změna rozsahu o.a.spark.util.Iterators#size přístupu na private[util]
  • [SPARK-42943] [SC-126879][SQL] Pro efektivní délku použijte longTEXT místo TEXTU pro StringType.
  • [SPARK-37677] [SC-126855][JÁDRO] Rozbalení může zachovat oprávnění k souborům
  • [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] Implementace rozhraní API pro mapování CoGrouped
  • [SPARK-41876] [SC-126849][CONNECT][PYTHON] Implementace objektu DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][JÁDRO][SQL] Změna rozsahu ProtobufSerDe přístupu souvisejících implementací na private[protobuf]
  • [SPARK-42819] [SC-125879][SS] Přidání podpory pro nastavení max_write_buffer_number a write_buffer_size pro RocksDB používané při streamování
  • [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] Objasnění komentáře parametrizovaných arg SQL
  • [SPARK-42748] [SC-126455][CONNECT] Správa artefaktů na straně serveru
  • [SPARK-42816] [SC-126365][CONNECT] Podpora maximální velikosti zprávy až 128 MB
  • [SPARK-42850] [SC-126109][SQL] Remove duplikované pravidlo CombineFilters v Optimalizátoru
  • [SPARK-42662] [SC-126355][CONNECT][PS] Přidání zprávy proto pro rozhraní PANDAS API ve výchozím indexu Sparku
  • [SPARK-42720] [SC-126136][PS][SQL] Používá výraz pro výchozí index distribuované sekvence místo plánu.
  • [SPARK-42790] [SC-126174][SQL] Abstrahujte vyloučenou metodu pro lepší test pro testy dockeru JDBC.
  • [SPARK-42900] [SC-126473][CONNECT][PYTHON] Oprava elementu createDataFrame pro dodržování odvození a názvů column
  • [SPARK-42917] [SC-126657][SQL] Oprava getUpdateColumnNullabilityQuery pro DerbyDialect
  • [SPARK-42684] [SC-125157][SQL] v2 catalog by neměla ve výchozím nastavení povolit výchozí hodnotu column
  • [SPARK-42861] [SC-126635][SQL] Používejte místo chráněného[sql] privátní[sql] a vyhněte se generování dokumentace k rozhraní API.
  • [SPARK-42920] [SC-126728][CONNECT][PYTHON] Povolení testů pro UDF s UDT
  • [SPARK-42791] [SC-126617][SQL] Vytvoření nové architektury pro testování zlatých souborů pro analýzu
  • [SPARK-42911] [SC-126652][PYTHON] Zavedení dalších základních výjimek
  • [SPARK-42904] [SC-126634][SQL] Podpora char/varchar pro Catalog JDBC
  • [SPARK-42901] [SC-126459][CONNECT][PYTHON] Přesunutí StorageLevel do samostatného souboru, abyste se vyhnuli potenciálnímu file recursively imports
  • [SPARK-42894] [SC-126451][CONNECT] Podpora cache/persist/unpersist/storageLevelklienta jvm pro připojení Sparku
  • [SPARK-42792] [SC-125852][SS] Přidání podpory pro WRITE_FLUSH_BYTES pro RocksDB používané ve stavových operátorech streamování
  • [SPARK-41233] [SC-126441][CONNECT][PYTHON] Přidání array_prepend do klienta Spark Connect Pythonu
  • [SPARK-42681] [SC-125149][SQL] Uvolnění constraint pro ALTER TABLE ADD|NAHRADIT popisovač column
  • [SPARK-42889] [SC-126367][CONNECT][PYTHON] Implementace mezipaměti, zachování, nepersistování a úrovně úložiště
  • [SPARK-42824] [SC-125985][CONNECT][PYTHON] Zadejte jasnou chybovou zprávu pro nepodporované atributy JVM.
  • [SPARK-42340] [SC-126131][CONNECT][PYTHON] Implementace seskupené mapového rozhraní API
  • [SPARK-42892] [SC-126454][SQL] Přesunutí sameType a relevantních metod z dataType
  • [SPARK-42827] [SC-126126][CONNECT] Podpora functions#array_prepend klienta Scala Connect
  • [SPARK-42823] [SC-125987][SQL] spark-sql Shell podporuje vícedílné obory názvů pro inicializaci.
  • [SPARK-42817] [SC-125960][JÁDRO] Protokolování názvu služby náhodného prohazování jednou v ApplicationMasteru
  • [SPARK-42786] [SC-126438][Connect] Typed Select
  • [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] Implementace funkce ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][SQL] Podpora Codegenu pro HiveSimpleUDF
  • [SPARK-41233] [SC-126110][SQL][PYTHON] Přidání array_prepend funkce
  • [SPARK-42864] [SC-126268][ML][3.4] Nastavit IsotonicRegression.PointsAccumulator jako soukromé
  • [SPARK-42876] [SC-126281][SQL] Hodnota physicalDataType datového typu by měla být privátní[sql]
  • [SPARK-42101] [SC-125437][SQL] Podpora AQE InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][SQL] Podpora vygenerovaných výrazů ALWAYS AS pro columns v příkazech create/replace table
  • [SPARK-42870] [SC-126220][CONNECT] Přesunout toCatalystValue na connect-common
  • [SPARK-42247] [SC-126107][CONNECT][PYTHON] Oprava funkce UserDefinedFunction, aby měla returnType
  • [SPARK-42875] [SC-126258][CONNECT][PYTHON] Oprava toPandas pro správné zpracování timezone a typů mapování
  • [SPARK-42757] [SC-125626][CONNECT] Implementace textového souboru pro DataFrameReader
  • [SPARK-42803] [SC-126081][JÁDRO][SQL][ML] Místo getParameterTypes.length použijte funkci getParameterCount.
  • [SPARK-42833] [SC-126043][SQL] Refaktoring applyExtensions v SparkSession
  • [SPARK-41765] Vrátit zpět [SC-1235550][SQL] Vyžádat metriky zápisu v1...
  • [SPARK-42848] [SC-126105][CONNECT][PYTHON] Implementace Tabulky DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][CONNECT][PYTHON] Podpora UserDefinedType v nástroji Spark Connect
  • [SPARK-42818] [SC-125861][CONNECT][PYTHON] Implementace třídy DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867][CONNECT] Přidání client_type do zprávy AddArtifactsRequest protobuf
  • [SPARK-42772] [SC-125860][SQL] Změna výchozí hodnoty možností JDBC o posunu dolů na true
  • [SPARK-42771] [SC-125855][SQL] Refaktoring HiveGenericUDF
  • [SPARK-25050] [SC-123839][SQL] Avro: Psaní složitých sjednocení
  • [SPARK-42765] [SC-125850][CONNECT][PYTHON] Povolení importu pandas_udf z pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][JÁDRO] MapOutputTracker#getMapLocation by měla respektovat spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][SQL] Zlepšení výkonu oddílů vyřazení
  • [SPARK-42689] [SC-125195][JÁDRO][SHUFFLE] Povolení funkce ShuffleDriverComponent deklarovat, jestli jsou data náhodného prohazování spolehlivě uložená
  • [SPARK-42726] [SC-125279][CONNECT][PYTHON] Implementovat DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][SQL] Stažení metrik zápisu do WriteFiles v1
  • [SPARK-41171] [SC-124191][SQL] Odvozovat a propagovat windowlimit skrze window, pokud je partitionSpec prázdný
  • [SPARK-42686] [SC-125292][JÁDRO] Odložit formátování pro ladicí zprávy v TaskMemoryManager
  • [SPARK-42756] [SC-125443][CONNECT][PYTHON] Pomocná funkce pro převod proto literálu na hodnotu v klientovi Pythonu
  • [SPARK-42793] [SC-125627][CONNECT] connect modul vyžaduje build_profile_flags
  • [SPARK-42701] [SC-125192][SQL] try_aes_decrypt() Přidání funkce
  • [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame nefunguje s nenulovou možností schema
  • [SPARK-42733] [SC-125542][CONNECT][Followup] Zapsat bez určení cesty nebo table
  • [SPARK-42777] [SC-125525][SQL] Podpora převodu statistik časového razítka catalog na plánování statistik
  • [SPARK-42770] [SC-125558][CONNECT] Přidání truncatedTo(ChronoUnit.MICROS) , které provedete SQLImplicitsTestSuite v javě 17 každodenních testovacích úloh GA
  • [SPARK-42752] [SC-125550][PYSPARK][SQL] Nastavení výjimek PySpark pro tisk během inicializace
  • [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Podpora metody getActiveSession relace spark connect
  • [SPARK-42755] [SC-125442][CONNECT] Převod hodnoty literálu faktoru na connect-common
  • [SPARK-42747] [SC-125399][ML] Oprava nesprávného interního stavu LoR a AFT
  • [SPARK-42740] [SC-125439][SQL] Oprava chyby, která offset pushdownu nebo stránkování je pro některé předdefinované dialekty neplatná
  • [SPARK-42745] [SC-125332][SQL] Vylepšené AliasAwareOutputExpression funguje s DSv2
  • [SPARK-42743] [SC-125330][SQL] Podpora analýzy TimestampNTZ columns
  • [SPARK-42721] [SC-125371][CONNECT] Zachytávání protokolování RPC
  • [SPARK-42691] [SC-125397][CONNECT][PYTHON] Implementace Dataset.smanticHash
  • [SPARK-42688] [SC-124922][CONNECT] Přejmenování client_id žádosti o připojení na session_id
  • [SPARK-42310] [SC-122792][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][CORE] Optimize Utils.bytesToString routines
  • [SPARK-42725] [SC-125296][CONNECT][PYTHON] Make LiteralExpression podporuje parametry pole
  • [SPARK-42702] [SC-125293][SPARK-42623][SQL] Podpora parametrizovaného dotazu v poddotazech a CTE
  • [SPARK-42697] [SC-125189][WEBI] Oprava /api/v1/applications pro vrácení celkové doby provozu místo 0 pro pole doby trvání
  • [SPARK-42733] [SC-125278][CONNECT][PYTHON] Oprava funkce DataFrameWriter.save pro práci bez parametru cesty
  • [SPARK-42376] [SC-124928][SS] Zavedení watermark propagace mezi operátory
  • [SPARK-42710] [SC-125205][CONNECT][PYTHON] Přejmenujte proto FrameMap na MapPartitions
  • [SPARK-37099] [SC-123542][SQL] Zavedení skupinového limitWindow pro filtr založený na pořadí pro optimize výpočty top-k
  • [SPARK-42630] [SC-125207][CONNECT][PYTHON] Zavedení unparsedDataType a zpoždění parsování řetězce DDL, dokud není k dispozici SparkConnectClient
  • [SPARK-42690] [SC-125193][CONNECT] Implementace funkcí analýzy CSV/JSON pro klienta Scala
  • [SPARK-42709] [SC-125172][PYTHON] Remove předpokladu, že je k dispozici __file__
  • [SPARK-42318] [SC-122648][SPARK-42319][SQL] Přiřadit název LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][SQL] Podpora formátu JSON datového typu analyzátoru "timestamp_ltz" jako TimestampType
  • [SPARK-42722] [SC-125175][CONNECT][PYTHON] Python Connect def schema() by neměl ukládat schema
  • [SPARK-42643] [SC-125152][CONNECT][PYTHON] Registrace uživatelem definovaných funkcí Javy (agregace)
  • [SPARK-42656] [SC-125177][CONNECT][Zpracovat] Oprava skriptu spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Povolit dialektům jdbc přepsat dotaz použitý k vytvoření table
  • [SPARK-41725] [SC-124396][CONNECT] Dychtivá realizace DF.sql()
  • [SPARK-42687] [SC-124896][SS] Lepší chybová zpráva pro nepodporovanou pivot operaci ve streamování
  • [SPARK-42676] [SC-124809][SS] Zápis dočasných kontrolních bodů pro dotazy streamování do místního systému souborů, i když je výchozí fs set jinak
  • [SPARK-42303] [SC-122644][SQL] Přiřazení názvu k _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][SQL] Ujistěte se, že po "intervalu" alespoň jednu časovou jednotku.
  • [SPARK-42649] [SC-124576][CORE] Remove standardní hlavička licence Apache ze začátku zdrojových souborů třetích stran
  • [SPARK-42611] [SC-124395][SQL] Insert kontroly délky znaků/varchar pro vnitřní pole během řešení
  • [SPARK-42419] [SC-124019][CONNECT][PYTHON] Migrujte do architektury chyb pro rozhraní SPARK Connect Column API.
  • [SPARK-42637] [SC-124522][CONNECT] Přidání SparkSession.stop()
  • [SPARK-42647] [SC-124647][PYTHON] Změna aliasu pro zastaralé a odebrané typy
  • [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver zavře pouze spuštěnou relaci HiveState
  • [SPARK-42593] [SC-124405][PS] Vyřazení & remove rozhraní API, která budou odebrána v knihovně pandas 2.0.
  • [SPARK-41870] [SC-124402][CONNECT][PYTHON] Oprava createDataFrame pro zpracování duplicitních názvů column
  • [SPARK-42569] [SC-124379][CONNECT] Vyvolání výjimek pro nepodporované rozhraní API relace
  • [SPARK-42631] [SC-124526][CONNECT] Podpora vlastních rozšíření v klientovi Scala
  • [SPARK-41868] [SC-124387][CONNECT][PYTHON] Oprava prvku createDataFrame pro podporu doby trvání
  • [SPARK-42572] [SC-124171][SQL][SS] Oprava chování StateStoreProvider.validateStateRowFormat

Aktualizace údržby

Viz aktualizace údržby Databricks Runtime 13.1.

Prostředí systému

  • Operační systém: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 attrs 21.4.0 backcall 0.2.0
krásnásoup4 4.11.1 černý 22.6.0 bělit 4.1.0
blinkr 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 kliknutí 8.0.4 kryptografie 37.0.1
cyklista 0.11.0 Cython 0.29.32 dbus-python 1.2.18
ladění 1.5.1 dekoratér 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown 0.12 vstupní body 0,4
vykonávající 1.2.0 přehled omezujících vlastností 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgety 1.0.0 keyring 23.5.0 verizonsolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
Mccabe 0.7.0 špatně zamyšlení 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
poznámkový blok 6.4.12 numpy 1.21.5 oauthlib 3.2.0
balení 21.3 pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 bábovka 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Polštář 9.2.0
jádro 22.2.2 platformdirs 2.5.2 plotly 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 čistý-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 žádosti 2.28.1 lano 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 Šest 1.16.0 polévky 2.3.1
ssh-import-id 5,11 stack-data 0.6.2 statsmodels 0.13.2
houževnatost 8.1.0 terminado 0.13.1 testpath 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádo 6.1 vlastnosti 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 bezobslužné upgrady 0,1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 kolo 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Nainstalované knihovny jazyka R

Knihovny R se instalují ze snímku Microsoft CRAN na 2023-02-10.

Knihovna Verze Knihovna Verze Knihovna Verze
šipka 10.0.1 askpass 1,1 assertthat 0.2.1
backporty 1.4.1 base 4.2.2 base64enc 0.1-3
bitové 4.0.5 bit64 4.0.5 blob 1.2.3
startování 1.3-28 vařit 1.0-8 verva 1.1.3
koště 1.0.3 bslib 0.4.2 cachem 1.0.6
volající 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-59 class 7.3-21 Rozhraní příkazového řádku 3.6.0
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-19 barevný prostor 2.1-0 commonmark 1.8.1
– kompilátor 4.2.2 config 0.3.1 cpp11 0.4.3
pastelka 1.5.2 credentials 1.3.2 kudrna 5.0.0
data.table 1.14.6 Power BI 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 trávit 0.6.31 downlit 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
tři tečky 0.3.2 evaluate 0,20 fanynky 1.0.4
farver 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
forcats 1.0.0 foreach 1.5.2 zahraniční 0.8-82
kovat 0.2.0 Fs 1.6.1 budoucnost 1.31.0
future.apply 1.10.0 kloktadlo 1.3.0 Generik 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globálních objektů 0.16.2
lepidlo 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 Grafika 4.2.2 grDevices 4.2.2
mřížka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 bezpečnostní přilba 1.2.0 útočiště 2.5.1
highr 0.10 Hms 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Id 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iterátory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 pletení 1.42
značení 0.4.2 později 1.3.0 mříž 0.20-45
láva 1.7.1 lifecycle 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 sleva 1.5
MŠE 7.3-58.2 Matice 1.5-1 memoise 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallel 4.2.2
paralelně 1.34.0 pilíř 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 chválit 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Průběh 1.2.2
progressr 0.13.0 sliby 1.2.0.1 proto 1.0.0
plná moc 0.4-27 PS 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 Analýza rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 recepty 1.0.4
odvetný zápas 1.0.1 rematch2 2.1.2 vzdálená zařízení 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 drzá napodobenina 0.4.5 váhy 1.2.1
selektor 0.4-2 sessioninfo 1.2.2 tvar 1.4.6
lesklý 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 prostorový 7.3-15 spline křivky 4.2.2
sqldf 0.4-11 ČTVEREC 2021.1 statistické údaje 4.2.2
Statistiky 4 4.2.2 stringi 1.7.12 stringr 1.5.0
přežití 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 textshaping 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 časový interval 0.2.0 timeDate 4022.108
tinytex 0.44 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.3
utils 4.2.2 Uuid 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 vroom 1.6.1 Waldo 0.4.0
vous 0.4.1 withr 2.5.0 xfun 0.37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws automatické škálování aws-java-sdk 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws podpora aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics datový proud 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.kofein kofein 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java Nativní verze 1.1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java Nativní verze 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64 Nativní verze 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64 Nativní verze 1.1
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metriky – jádro 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metriky – kontroly stavu 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metriky – servlety 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty- common 4.1.87.Final
io.netty obslužná rutina netty 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine marináda 1.3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow arrow-format 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow arrow-vector 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-client 2.13.0
org.apache.kurátor kurátor-framework 2.13.0
org.apache.kurátor kurátor-recepty 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy břečťan 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus cílové skupiny a poznámky 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty pokračování jetty 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-api 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket – společné 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core žerzejové společné 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate-validator 6.1.7.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Podložky 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest kompatibilní s scalatestem 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel kočky-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1