Sdílet prostřednictvím


Databricks Runtime 12.2 LTS

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 12.2 LTS, který využívá Apache Spark 3.3.2.

Databricks vydala tuto verzi v březnu 2023.

Poznámka:

LTS znamená, že tato verze je dlouhodobě podporována. Viz životní cyklus verze LTS modulu Databricks Runtime.

Tip

Poznámky k verzi pro verze Databricks Runtime, které dosáhly konce podpory (EoS), najdete v poznámkách k verzi Databricks Runtime pro ukončení podpory. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.

Změny chování

[Zásadní změna] Nová verze Pythonu vyžaduje aktualizaci klientů Databricks Connect V1 Python.

Poznámka:

Následující aktualizace přesune verzi Pythonu v Databricks Runtime 12.2 LTS na verzi 3.9.21. Verze 3.9.21 nezavádí žádné změny chování.

Pokud chcete použít požadované opravy zabezpečení, upgraduje se verze Pythonu v Databricks Runtime 12.2 LTS z verze 3.9.5 na verzi 3.9.19. Vzhledem k tomu, že tyto změny můžou způsobit chyby v klientech, kteří používají konkrétní funkce PySpark, musí být všechny klienty používající Databricks Connect V1 pro Python s Modulem Databricks Runtime 12.2 LTS aktualizovány na Python 3.9.7 nebo novější.

Nové funkce a vylepšení

Python upgradovaný z verze 3.9.19 na verzi 3.9.21

Verze Pythonu v Databricks Runtime 12.2 LTS se aktualizuje z verze 3.9.19 na 3.9.21.

Vývoj schématu Delta Lake podporuje zadávání zdrojových sloupců v příkazech sloučení.

Nyní můžete zadat sloupce, které jsou přítomné pouze ve zdrojové tabulce, a to v akcích vložení nebo aktualizace pro příkazy sloučení, pokud je povolen vývoj schématu. V Databricks Runtime 12.1 a níže je možné použít pouze INSERT * nebo UPDATE SET * akce pro vývoj schématu při sloučení. Viz Automatický vývoj schématu pro slučování Delta Lake.

Úlohy strukturovaného streamování se podporují v clusterech s režimem sdíleného přístupu.

Strukturované streamování teď můžete použít k interakci s katalogem Unity na výpočetních prostředcích se standardním režimem přístupu. Platí některá omezení. Podívejte se na Jaké funkce strukturovaného streamování podporuje katalog Unity?.

Nové funkce prediktivních vstupně-výstupních operací

Podpora Photon pro jímku Foreachbatch je nyní k dispozici. Úlohy, které streamují ze zdroje a sloučí do tabulek Delta nebo zapisují do několika jímek, teď můžou těžit z fotonizované Foreachbatch jímky.

Podpora implicitního laterálního aliasingu sloupců

Azure Databricks teď ve výchozím nastavení podporuje implicitní laterální aliasy sloupců. Teď můžete použít výraz zadaný dříve ve stejném seznamu SELECT. Například , SELECT 1 AS aa + 1 AS ba in a + 1 lze přeložit jako dříve definované .1 AS a Další podrobnosti v pořadí překladu najdete v překladu . Pokud chcete tuto funkci vypnout, můžete nastavit spark.sql.lateralColumnAlias.enableImplicitResolution na false.

Nová funkce forEachBatch

Photon se teď podporuje při zápisu foreachBatch do datové jímky.

Standardizované možnosti připojení pro federaci dotazů

Teď můžete použít jednotnou sadu možností (hostitel, port, databáze, uživatel, heslo) pro připojení ke zdrojům dat podporovaným ve federaci dotazů. Port je volitelné a používá výchozí číslo portu pro každý zdroj dat, pokud není zadáno.

Rozšířená knihovna funkcí SQL pro správu polí

Nyní můžete odebrat všechny prvky NULL z pole pomocí array_compact. Pokud chcete k poli připojit prvky, použijte array_append.

Nová funkce masky pro anonymizaci řetězců

Vyvolání funkce masky k anonymizaci citlivých řetězcových hodnot.

Běžné chybové stavy teď vrací funkce SQLSTATEs.

Většina chybových podmínek, které Databricks Runtime nyní obsahuje, má zdokumentované hodnoty SQLSTATE, jež lze použít k testování chyb způsobem, který je v souladu se standardem SQL.

Vyvolání funkcí generátoru v klauzuli FROM

Nyní můžete použít generátorové funkce vracející tabulkové hodnoty, jako je explode, v běžném použití v klauzuli FROM dotazu. Tím se zarovná vyvolání funkce generátoru s jinými integrovanými a uživatelem definovanými funkcemi tabulky.

Podpora vyrovnávacích pamětí protokolu je obecně dostupná

Pomocí funkcí from_protobuf a to_protobuf funkcí můžete vyměňovat data mezi binárními a strukturami. Viz Vyrovnávací paměti protokolu pro čtení a zápis.

Přechod k definici proměnných a funkcí poznámkového bloku

V poznámkovýchbloch %run

Rychlá oprava poznámkového bloku pro knihovny automatického importu

Poznámkové bloky Databricks teď nabízejí funkci Rychlá oprava pro knihovny automatického importu. Pokud zapomenete importovat knihovnu, jako je pandas, najeďte myší na upozornění na podtrženou syntaxi a potom klikněte na Rychlá oprava, tyto funkce vyžadují, aby byl v pracovním prostoru povolený Pomocník pro Databricks.

Opravy chyb

  • Vylepšená konzistence chování rozdílového potvrzení pro prázdné transakce související s update, deletea merge příkazy. Na WriteSerializable úrovni izolace teď příkazy, které nemají žádné změny, teď vytvoří prázdné potvrzení. Serializable Na úrovni izolace teď takové prázdné transakce nevytvoří potvrzení.

Změny chování

Změny chování s novou funkcí aliasu laterálního sloupce

Nová funkce aliasu bočního sloupce zavádí změny chování v následujících případech během řešení názvů.

  • Alias laterálního sloupce teď má přednost před korelovanými odkazy se stejným názvem. Například pro tento dotaz SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1), c1 ve vnitřní c1 AS c2 byl vyřešen na korelovaný odkaz t.c1, ale nyní se změní na lateral column alias 1 AS c1. Dotaz nyní vrátí NULL.
  • Alias laterálního sloupce teď má přednost před parametry funkce se stejným názvem. Například pro funkci CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, xse x v těle funkce přeložil na parametr funkce x, ale ve funkci došlo ke změnám týkajícím se aliasu laterálního sloupce x + 1 v těle funkce. Dotaz SELECT * FROM func(1) nyní vrátí 2, 2.
  • Pokud chcete funkci aliasu laterálního sloupce vypnout, nastavte spark.sql.lateralColumnAlias.enableImplicitResolution na false. Další informace najdete v tématu Překlad názvů.

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • filelock od 3.8.2 do 3.9.0
    • joblib od 1.1.0 do 1.1.1
    • platformdirs from 2.6.0 to 2.6.2
    • whatthepatch from 1.0.3 to 1.0.4
  • Upgradované knihovny jazyka R:
    • třída od 7.3-20 do 7.3-21
    • codetools od 0.2-18 do 0.2-19
    • HMOTNOST od 7.3-58 do 7.3-58.2
    • nlme od 3.1-160 do 3.1-162
    • Rserve od 1.8-11 do 1.8-12
    • SparkR od 3.3.1 do 3.3.2

Změny chování

  • Uživatelé teď musí mít při vytváření schématu s definovaným umístěním oprávnění k SELECT a MODIFY k libovolnému souboru.

Apache Spark

Databricks Runtime 12.2 zahrnuje Apache Spark 3.3.2. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 12.1 (EoS), a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-42416] [SC-123205][sc-122851][SQL] Operace datové sady by neměly znovu vyřešit analyzovaný logický plán.
  • [SPARK-41848] Revert "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Oprava nadplánování úkolu pomocí TaskResourceProfile"
  • [SPARK-42162] [SC-122711][es-556261] Zavedení výrazu MultiCommutativeOp jako optimalizace paměti pro kanonizaci velkých stromů komutativních výrazů
  • [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Oprava rekurzivního nastavení hloubky pro funkce Protobuf
  • [SPARK-42002] [SC-122476][connect][PYTHON] Implementace třídy DataFrameWriterV2
  • [SPARK-41716] [SC-122545][connect] Přejmenujte _catalog_to_pandas na _execute_and_fetch v Katalogu
  • [SPARK-41490] [SC-121774][sql] Přiřaďte jméno _LEGACY_ERROR_TEMP_2441
  • [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Zrealizovat Catalog.cacheTable, isCached a zrušení cache
  • [SPARK-42191] [SC-121990][sql] Podpora udf 'luhn_check'
  • [SPARK-42253] [SC-121976][python] Přidání testu pro detekci duplicitní třídy chyb
  • [SPARK-42268] [SC-122251][connect][PYTHON] Přidat UserDefinedType v Protos
  • [SPARK-42231] [SC-121841][sql] Převod MISSING_STATIC_PARTITION_COLUMN na internalError
  • [SPARK-42136] [SC-122554] Refaktoring výpočtu dělení výstupu BroadcastHashJoinExec
  • [SPARK-42158] [SC-121610][sql] Integrace _LEGACY_ERROR_TEMP_1003 do FIELD_NOT_FOUND
  • [SPARK-42192] [12.x][sc-121820][PYTHON] Migrace chyby type z pyspark/sql/dataframe.py do PySparkTypeError
  • [SPARK-35240] Vrátit “[SC-118242][ss] Použít CheckpointFileManager ...
  • [SPARK-41488] [SC-121858][sql] Přiřadit název _LEGACY_ERROR_TEMP_1176 (a 1177)
  • [SPARK-42232] [SC-122267][sql] Přejmenovat třídu chyb: UNSUPPORTED_FEATURE.JDBC_TRANSACTION
  • [SPARK-42346] [SC-122480][sql] Přepsat jedinečné agregace po sloučení poddotazů
  • [SPARK-42306] [SC-122539][sql] Integrace _LEGACY_ERROR_TEMP_1317 do UNRESOLVED_COLUMN.WITH_SUGGESTION
  • [SPARK-42234] [SC-122354][sql] Přejmenování třídy chyby: UNSUPPORTED_FEATURE.REPEATED_PIVOT
  • [SPARK-42343] [SC-122437][core] Ignorujte IOException v handleBlockRemovalFailure, pokud je SparkContext zastavený.
  • [SPARK-41295] [SC-122442][spark-41296][SQL] Přejmenování tříd chyb
  • [SPARK-42320] [SC-122478][sql] Přiřadit název _LEGACY_ERROR_TEMP_2188
  • [SPARK-42255] [SC-122483][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2430
  • [SPARK-42156] [SC-121851][connect] SparkConnectClient nyní podporuje RetryPolicies
  • [SPARK-38728] [SC-116723][sql] Otestujte třídu chyb: FAILED_RENAME_PATH
  • [SPARK-40005] [12.X] Samostatné příklady v PySparku
  • [SPARK-39347] [SC-122457][ss] Oprava chyby výpočtu časového okna, když je čas události < 0
  • [SPARK-42336] [SC-122458][core] Místo contains() v ResourceAllocatoru použijte getOrElse().
  • [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF in Spark Connect
  • [SPARK-42217] [SC-122263][sql] Podpora implicitního laterálního aliasu sloupců v dotazech s Oknem
  • [SPARK-35240] [SC-118242][ss] Použijte CheckpointFileManager pro manipulaci s kontrolními soubory kontrolního bodu
  • [SPARK-42294] [SC-122337][sql] Zahrnout výchozí hodnoty sloupců ve výstupu DESCRIBE pro tabulky V2
  • [SPARK-41979] Vrátit změnu „Vrátit zpět „[12.x][sc-121190][SQL] Přidat chybějící tečky pro chybové zprávy ve třídách chyb.““
  • [SPARK-42286] [SC-122336][sql] Záložní cesta k předchozímu kódu codegen pro komplexní výraz s CAST
  • [SPARK-42275] [SC-122249][connect][PYTHON] Vyhněte se použití vestavěného seznamu, slovníku ve statickém typování
  • [SPARK-41985] [SC-122172][sql] Centralizace dalších pravidel pro rozlišení sloupců
  • [SPARK-42126] [SC-122330][python][CONNECT] Přijímání návratového typu v řetězcích DDL pro skalární UDF funkce v Pythonu ve Spark Connect.
  • [SPARK-42197] [SC-122328][sc-121514][CONNECT] Znovu použije inicializaci JVM a samostatné skupiny konfigurace, které se nastaví ve vzdáleném místním režimu.
  • [SPARK-41575] [SC-120118][sql] Přiřadit název _LEGACY_ERROR_TEMP_2054
  • [SPARK-41985] Zrušit “[SC-122172][sql] Centralizovat další pravidla překladu sloupců”
  • [SPARK-42123] [SC-122234][sc-121453][SQL] Zahrnout výchozí hodnoty sloupců ve výstupu DESCRIBE a SHOW CREATE TABLE
  • [SPARK-41985] [SC-122172][sql] Centralizace dalších pravidel řešení sloupců
  • [SPARK-42284] [SC-122233][connect] Před spuštěním testů klienta se ujistěte, že server pro připojení je sestaven.
  • [SPARK-42239] [SC-121790][sql] Integrace MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42278] [SC-122170][sql] Pushdown DS V2 podporuje podporu dialektů JDBC kompilovaných SortOrder samy
  • [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics by se měly postarat o Python UDAF
  • [SPARK-41979] Vrátit zpět "[12.x][sc-121190][SQL] Přidat chybějící tečky pro chybové zprávy ve třídách chyb."
  • [SPARK-42224] [12.x][sc-121708][CONNECT] Migrace typeError do chybové architektury pro funkce Spark Connect
  • [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migrujte chyby Spark Connect do architektury chyb PySpark.
  • [SPARK-42119] [SC-121913][sc-121342][SQL] Přidat integrované tabulkou hodnotové funkce inline a inline_outer
  • [SPARK-41489] [SC-121713][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2415
  • [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Představuje chybu PySparkValueError a PySparkTypeError
  • [SPARK-42081] [SC-121723][sql] Vylepšení ověřování změn plánu
  • [SPARK-42225] [12.x][sc-121714][CONNECT] Přidejte SparkConnectIllegalArgumentException ke zpracování chyby Spark Connect přesněji.
  • [SPARK-42044] [12.x][sc-121280][SQL] Oprava nesprávné chybové zprávy pro MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42194] [12.x][sc-121712][PS] Povolit parametr sloupců při vytváření datového rámce se řadou.
  • [SPARK-42078] [12.x][sc-120761][PYTHON] Migrovat chyby vyvolané JVM do PySparkException.
  • [SPARK-42133] [12.x][sc-121250] Přidání základních metod rozhraní API datové sady do klienta SparkConnect Scala
  • [SPARK-41979] [12.x][sc-121190][SQL] Přidejte chybějící tečky pro chybové zprávy ve třídách chyb.
  • [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF in Spark Connect
  • [SPARK-42051] [SC-121994][sql] Podpora codegenu pro HiveGenericUDF
  • [SPARK-42257] [SC-121948][core] Odebrání nepoužívané proměnné externího řazení
  • [SPARK-41735] [SC-121771][sql] Pro SparkListenerSQLExecutionEnd použijte MINIMÁLNÍ místo STANDARD.
  • [SPARK-42236] [SC-121882][sql] Upřesnit NULLABLE_ARRAY_OR_MAP_ELEMENT
  • [SPARK-42233] [SC-121775][sql] Zlepšení chybové zprávy pro PIVOT_AFTER_GROUP_BY
  • [SPARK-42229] [SC-121856][core] Migrace SparkCoreErrors do tříd chyb
  • [SPARK-42163] [SC-121839][sql] Oprava vyřazování schématu pro neskládaný index pole nebo mapový klíč
  • [SPARK-40711] [SC-119990][sql] Přidání metrik velikosti přelití pro okno
  • [SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Umožnit createDataFrameAtomicType -> StringType převod
  • [SPARK-42202] [SC-121837][connect][Test] Vylepšení logiky zastavení testovacího serveru E2E
  • [SPARK-41167] [SC-117425][sql] Zlepšení výkonu operátoru LIKE s více podmínkami vytvořením vyváženého predikátu výrazového stromu
  • [SPARK-41931] [SC-121618][sql] Lepší chybová zpráva pro neúplnou definici komplexního typu
  • [SPARK-36124] [SC-121339][sc-110446][SQL] Podpora poddotazů s korelací prostřednictvím UNION
  • [SPARK-42090] [SC-121290][3.3] Zavedení počtu opakování sasl v RetryingBlockTransferoru
  • [SPARK-42157] [SC-121264][core] spark.scheduler.mode=FAIR by měl poskytovat plánovač FAIR
  • [SPARK-41572] [SC-120772][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2149
  • [SPARK-41983] [SC-121224][sql] Přejmenování & zlepšení chybové zprávy pro NULL_COMPARISON_RESULT
  • [SPARK-41976] [SC-121024][sql] Zlepšení chybové zprávy pro INDEX_NOT_FOUND
  • [SPARK-41994] [SC-121210][sc-120573] Přiřazování stavu SQLSTATE (1/2)
  • [SPARK-41415] [SC-121117][3.3] Opakování požadavků SASL
  • [SPARK-38591] [SC-121018][sql] Přidání flatMapSortedGroups a cogroupSorted
  • [SPARK-41975] [SC-120767][sql] Zlepšení chybové zprávy pro INDEX_ALREADY_EXISTS
  • [SPARK-42056] [SC-121158][sql][PROTOBUF] Přidání chybějících možností pro funkce Protobuf
  • [SPARK-41984] [SC-120769][sql] Přejmenování & zlepšení chybové zprávy pro RESET_PERMISSION_TO_ORIGINAL
  • [SPARK-41948] [SC-121196][sql] Oprava NPE pro třídy chyb: CANNOT_PARSE_JSON_FIELD
  • [SPARK-41772] [SC-121176][connect][PYTHON] Oprava nesprávného názvu sloupce v souboru doctest withField
  • [SPARK-41283] [SC-121175][connect][PYTHON] Přidání array_append k připojení
  • [SPARK-41960] [SC-120773][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_1056
  • [SPARK-42134] [SC-121116][sql] Oprava getPartitionFiltersAndDataFilters() pro zpracování filtrů bez odkazovaných atributů
  • [SPARK-42096] [SC-121012][connect] Vyčištění kódu pro modul connect
  • [SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Oprava count(*) a count(col(*))
  • [SPARK-42045] [SC-120958][sc-120450][SQL] V režimu ANSI SQL by měly funkce Round/Bround vrátit chybu při přetečení celého čísla.
  • [SPARK-42043] [SC-120968][connect] Výsledek klienta Scala s testy E2E
  • [SPARK-41884] [SC-121022][connect] Podpora naivní n-tice jako vnořená struktura
  • [SPARK-42112] [SC-121011][sql][SS] Přidání kontroly null před ukončením funkce ContinuousWriteRDD#computedataWriter
  • [SPARK-42077] [SC-120553][connect][PYTHON] Literál by měl vyvolat chybu TypeError pro nepodporovaný datový typ
  • [SPARK-42108] [SC-120898][sql] Transformace Analyzátoru Count(*) na Count(1)
  • [SPARK-41666] [SC-120928][sc-119009][PYTHON] Poskytování podpory pro parametrizované SQL sql()
  • [SPARK-40599] [SC-120930][sql] Uvolnit typ pravidla multiTransform, aby alternativy mohly být jakýmkoli druhem Seq.
  • [SPARK-41574] [SC-120771][sql] Aktualizace _LEGACY_ERROR_TEMP_2009 jako INTERNAL_ERROR.
  • [SPARK-41579] [SC-120770][sql] Přiřadit název _LEGACY_ERROR_TEMP_1249
  • [SPARK-41974] [SC-120766][sql] Převod INCORRECT_END_OFFSET na INTERNAL_ERROR
  • [SPARK-41530] [SC-120916][sc-118513][CORE] Přejmenování MedianHeap na PercentileMap a podpora percentilu
  • [SPARK-41757] [SC-120608][spark-41901][CONNECT] Oprava reprezentace řetězců pro třídu sloupců
  • [SPARK-42084] [SC-120775][sql] Vyhněte se úniku omezení jen pro kvalifikovaný přístup
  • [SPARK-41973] [SC-120765][sql] Přiřaďte název _LEGACY_ERROR_TEMP_1311
  • [SPARK-42039] [SC-120655][sql] SPJ: Odstranit možnost v KeyGroupedPartitioning#partitionValuesOpt
  • [SPARK-42079] [SC-120712][connect][PYTHON] Přejmenování zpráv proto pro toDF a withColumnsRenamed
  • [SPARK-42089] [SC-120605][connect][PYTHON] Oprava problémů s názvy proměnných ve vnořených funkcích lambda
  • [SPARK-41982] [SC-120604][sql] Oddíly typu řetězce by neměly být považovány za číselné typy.
  • [SPARK-40599] [SC-120620][sql] Přidání metod multiTransform do TreeNode pro generování alternativ
  • [SPARK-42085] [SC-120556][connect][PYTHON] Umožnit from_arrow_schema podporovat vnořené typy
  • [SPARK-42057] [SC-120507][sql][PROTOBUF] Oprava způsobu zpracování výjimky ve generování zpráv o chybách.
  • [SPARK-41586] [12.x][všechny testy][SC-120544][python] Představuje pyspark.errors a třídy chyb pro PySpark.
  • [SPARK-41903] [SC-120543][connect][PYTHON Literal] by měl podporovat 1-dim ndarray
  • [SPARK-42021] [SC-120584][connect][PYTHON] Vytvořit podporu createDataFrame pro array.array
  • [SPARK-41896] [SC-120506][sql] Filtrování podle indexu řádků vrátí prázdné výsledky.
  • [SPARK-41162] [SC-119742][sql] Oprava anti- a semijoinu pro samo spojení s agregacemi
  • [SPARK-41961] [SC-120501][sql] Podpora tabulkových funkcí s LATERAL
  • [SPARK-41752] [SC-120550][sql][UI] Seskupit vnořené spouštění pod kořenovým spuštěním
  • [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literál by měl podporovat datové typy Numpy
  • [SPARK-42028] [SC-120344][connect][PYTHON] Zkrácení časových razítek nanosekund
  • [SPARK-42011] [SC-120534][connect][PYTHON] Implementace DataFrameReader.csv
  • [SPARK-41990] [SC-120532][sql] Použijte FieldReference.column místo apply v převodu filtru V1 na V2.
  • [SPARK-39217] [SC-120446][sql] Umožňuje DPP podporovat prořezávání na straně sjednocení
  • [SPARK-42076] [SC-120551][connect][PYTHON] Factor data conversion arrow -> rows out to conversion.py
  • [SPARK-42074] [SC-120540][sql] Povolení KryoSerializer v TPCDSQueryBenchmark k vynucení registrace třídy SQL
  • [SPARK-42012] [SC-120517][connect][PYTHON] Implement DataFrameReader.orc
  • [SPARK-41832] [SC-120513][connect][PYTHON] Oprava DataFrame.unionByName, přidání možnosti allow_missing_columns
  • [SPARK-38651] [SC-120514] [SQL] Přidat spark.sql.legacy.allowEmptySchemaWrite
  • [SPARK-41991] [SC-120406][sql] CheckOverflowInTableInsert by měl přijmout ExpressionProxy jako potomek
  • [SPARK-41232] [SC-120073][sql][PYTHON] Přidání funkce array_append
  • [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader by měl podporovat seznam cest.
  • [SPARK-42071] [SC-120533][core] Registrace scala.math.Ordering$Reverse do KryoSerializeru
  • [SPARK-41986] [SC-120429][sql] Zavedení náhodného prohazování u singlePartition
  • [SPARK-42016] [SC-120428][connect][PYTHON] Povolit testy související s vnořeným sloupcem
  • [SPARK-42042] [SC-120427][connect][PYTHON] DataFrameReader by měl podporovat schéma StructType.
  • [SPARK-42031] [SC-120389][core][SQL] Vyčištění remove metod, které není třeba přepsat
  • [SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Umožnit, aby createDataFrame(rows/lists/tuples/dicts) podporoval vnořené typy
  • [SPARK-41437] [SC-117601][SQL][VŠECHNY TESTY] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1
  • [SPARK-41840] [SC-119719][connect][PYTHON] Přidání chybějícího aliasu groupby
  • [SPARK-41846] [SC-119717][connect][PYTHON] Povolení doctestů pro okenní funkce
  • [SPARK-41914] [SC-120094][sql] FileFormatWriter materializuje plán AQE před přístupem k outputOrdering.
  • [SPARK-41805] [SC-119992][sql] Opakované použití výrazů v WindowSpecDefinition
  • [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range by měl přijímat jako argumenty hodnoty typu float.
  • [SPARK-42029] [SC-120336][connect] Přidat pravidla shadingu Guava do connect-common k zabránění selhání spuštění
  • [SPARK-41989] [SC-120334][python] Vyhněte se narušení konfigurace logování způsobené modulem pyspark.pandas
  • [SPARK-42003] [SC-120331][sql] Omezení duplicitního kódu v ResolveGroupByAll
  • [SPARK-41635] [SC-120313][sql] Oprava skupiny podle všech zpráv o chybách
  • [SPARK-41047] [SC-120291][sql] Vylepšení dokumentace pro zaokrouhlování
  • [SPARK-41822] [SC-120122][connect] Nastavení připojení gRPC pro klienta Scala/JVM
  • [SPARK-41879] [SC-120264][connect][PYTHON] Umožnit DataFrame.collect podporu vnořených typů
  • [SPARK-41887] [SC-120268][connect][PYTHON] Upravit DataFrame.hint, aby přijal parametr typu seznam
  • [SPARK-41964] [SC-120210][connect][PYTHON] Přidání seznamu nepodporovaných vstupně-výstupních funkcí
  • [SPARK-41595] [SC-120097][sql] Podpora generátorové funkce explode/explode_outer v klauzuli FROM
  • [SPARK-41957] [SC-120121][connect][PYTHON] Umožnit doctest pro DataFrame.hint
  • [SPARK-41886] [SC-120141][connect][PYTHON] DataFrame.intersect výstup doctestu má jiné pořadí
  • [SPARK-41442] [SC-117795][sql][VŠECHNY TESTY] Aktualizujte hodnotu METRIKY SQL pouze v případě sloučení s platnou metrikou.
  • [SPARK-41944] [SC-120046][connect] Předat konfigurace, když je zapnutý lokální vzdálený režim
  • [SPARK-41708] [SC-119838][sql] Pull v1write information to WriteFiles
  • [SPARK-41780] [SC-120000][sql] By měl vyvolat INVALID_PARAMETER_VALUE. PATTERN, pokud jsou parametry regexp neplatné
  • [SPARK-41889] [SC-119975][sql] Připojení původní příčiny k neplatné chyběPatternError & refaktoring tříd chyb INVALID_PARAMETER_VALUE
  • [SPARK-41860] [SC-120028][sql] Vytváření tříd případů AvroScanBuilder a JsonScanBuilder
  • [SPARK-41945] [SC-120010][connect][PYTHON] Python: Připojení dat ztracených sloupců klienta s pyarrow. Table.to_pylist
  • [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Nezávislé kodéry
  • [SPARK-41354] [SC-119995][connect][PYTHON] Implementace RepartitionByExpression
  • [SPARK-41581] [SC-119997][sql] Aktualizace _LEGACY_ERROR_TEMP_1230 jako INTERNAL_ERROR
  • [SPARK-41928] [SC-119972][connect][PYTHON] Přidejte nepodporovaný seznam pro functions
  • [SPARK-41933] [SC-119980][connect] Zadejte místní režim, který automaticky spustí server.
  • [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame by měl respektovat schéma DDL poskytnuté uživatelem.
  • [SPARK-41936] [SC-119978][connect][PYTHON] Znovu použijte withMetadata k přepracování withColumns proto
  • [SPARK-41898] [SC-119931][connect][PYTHON] Kontrola typů parametrů Window.rowsBetween, Window.rangeBetween shodná s pyspark
  • [SPARK-41939] [SC-119977][connect][PYTHON] Přidání nepodporovaného seznamu pro funkce catalog
  • [SPARK-41924] [SC-119946][connect][PYTHON] Umožnit StructType podporu pro metadata a implementaci DataFrame.withMetadata
  • [SPARK-41934] [SC-119967][connect][PYTHON] Přidejte nepodporovaný seznam funkcí pro session
  • [SPARK-41875] [SC-119969][connect][PYTHON] Přidání testovacích případů pro Dataset.to()
  • [SPARK-41824] [SC-119970][connect][PYTHON] Ignorovat doctest pro vysvětlení funkce connect
  • [SPARK-41880] [SC-119959][connect][PYTHON] Upravte funkci from_json k přijetí neliterálního schématu
  • [SPARK-41927] [SC-119952][connect][PYTHON] Přidejte nepodporovaný seznam pro GroupedData
  • [SPARK-41929] [SC-119949][connect][PYTHON] Přidání funkce array_compact
  • [SPARK-41827] [SC-119841][connect][PYTHON] Upravte GroupBy tak, aby přijímal seznam sloupců
  • [SPARK-41925] [SC-119905][sql] Ve výchozím nastavení povolte spark.sql.orc.enableNestedColumnVectorizedReader
  • [SPARK-41831] [SC-119853][connect][PYTHON] DataFrame.select dovolit přijmutí seznamu sloupců
  • [SPARK-41455] [SC-119858][connect][PYTHON] DataFrame.collect zahoďte informace o časovém pásmu.
  • [SPARK-41923] [SC-119861][connect][PYTHON] Přidání DataFrame.writeTo do nepodporovaného seznamu
  • [SPARK-41912] [SC-119837][sql] Poddotaz by neměl ověřovat CTE
  • [SPARK-41828] [SC-119832][connect][PYTHON][12.x] Zajistit, aby createDataFrame podporovalo prázdný datový rámec
  • [SPARK-41905] [SC-119848][connect] Podpora názvů jako řetězců ve slice
  • [SPARK-41869] [SC-119845][connect] Odmítnout jeden řetězec v dropDuplicates
  • [SPARK-41830] [SC-119840][connect][PYTHON] DataFrame.sample přijmout stejné parametry jako PySpark
  • [SPARK-41849] [SC-119835][connect] Implement DataFrameReader.text
  • [SPARK-41861] [SC-119834][sql] Upravte v2 ScanBuilders, aby build() vracel typovaný scan.
  • [SPARK-41825] [SC-119710][connect][PYTHON] Povolení doctestů souvisejících s DataFrame.show
  • [SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Zajistit správné zpracování None/NaN popisovačem createDataFrame
  • [SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Zajistit, aby DataFrame.collect správně zpracovával None/NaN/Array/Binary.
  • [SPARK-39318] [SC-119713][sql] Odstranit soubory tpch-plan-stability se statistikami golden files
  • [SPARK-41791] [SC-119745] Přidání nových typů sloupců metadat zdroje souborů
  • [SPARK-41790] [SC-119729][sql] Nastavte správně formát čtečky TRANSFORM a zapisovače.
  • [SPARK-41829] [SC-119725][connect][PYTHON] Přidejte chybějící parametr řazení v Sort a sortWithinPartitions
  • [SPARK-41576] [SC-119718][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2051
  • [SPARK-41821] [SC-119716][connect][PYTHON] Oprava doctestu pro DataFrame.describe
  • [SPARK-41871] [SC-119714][connect] Parametr nápovědy datového rámce může být str, float nebo int.
  • [SPARK-41720] [SC-119076][sql] Přejmenovat unresolvedFunc na UnresolvedFunctionName
  • [SPARK-41573] [SC-119567][sql] Přiřadit název _LEGACY_ERROR_TEMP_2136
  • [SPARK-41862] [SC-119492][sql] Oprava chyby správnosti související s výchozími hodnotami v čtečce Orc
  • [SPARK-41582] [SC-119482][sc-118701][CORE][sql] Opakované použití INVALID_TYPED_LITERAL místo _LEGACY_ERROR_TEMP_0022

Aktualizace údržby

Viz aktualizace údržby Databricks Runtime 12.2.

Prostředí systému

  • Operační systém: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.68.0.21-CA-linux64
  • Scala: 2.12.15
  • Python: 3.9.21
  • R: 4.2.2
  • Delta Lake: 2.2.0

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
krásnásoup4 4.11.1 černý 22.3.0 bělit 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
kliknutí 8.0.4 kryptografie 3.4.8 cyklista 0.11.0
Cython 0.29.28 dbus-python 1.2.16 ladění 1.5.1
dekoratér 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 vstupní body 0,4 vykonávající 0.8.3
přehled omezujících vlastností 1.0.0 fastjsonschema 2.16.2 filelock 3.9.0
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.1 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgety 1.0.0
verizonsolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Mccabe 0.7.0 špatně zamyšlení 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
poznámkový blok 6.4.8 numpy 1.21.5 balení 21.3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 bábovka 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Polštář 9.0.1 jádro 21.2.4
platformdirs 2.6.2 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
čistý-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
žádosti 2.27.1 requests-unixsocket 0.2.0 lano 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Šest 1.16.0 polévky 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 houževnatost 8.0.1
terminado 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornádo 6.1
vlastnosti 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
bezobslužné upgrady 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.4
kolo 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Nainstalované knihovny jazyka R

Knihovny R se instalují ze snímku Microsoft CRAN 11.11.2022. Snímek už není k dispozici.

Knihovna Verze Knihovna Verze Knihovna Verze
šipka 10.0.0 askpass 1,1 assertthat 0.2.1
backporty 1.4.1 base 4.2.2 base64enc 0.1-3
bitové 4.0.4 bit64 4.0.5 blob 1.2.3
startování 1.3-28 vařit 1.0-8 verva 1.1.3
koště 1.0.1 bslib 0.4.1 cachem 1.0.6
volající 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 class 7.3-21 Rozhraní příkazového řádku 3.4.1
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-19 barevný prostor 2.0-3 commonmark 1.8.1
– kompilátor 4.2.2 config 0.3.1 cpp11 0.4.3
pastelka 1.5.2 pověření 1.3.2 kudrna 4.3.3
datová tabulka 1.14.4 Power BI 4.2.2 DBI 1.1.3
dbplyr 2.2.1 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 trávit 0.6.30 downlit 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
tři tečky 0.3.2 evaluate 0,18 fanynky 1.0.3
farver 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 zahraniční 0.8-82
kovat 0.2.0 Fs 1.5.2 budoucnost 1.29.0
future.apply 1.10.0 kloktadlo 1.2.1 Generik 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globálních objektů 0.16.1
lepidlo 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 Grafika 4.2.2 grDevices 4.2.2
mřížka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 bezpečnostní přilba 1.2.0 útočiště 2.5.1
highr 0,9 Hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Id 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iterátory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 pletení 1,40
značení 0.4.2 později 1.3.0 mříž 0.20-45
láva 1.7.0 lifecycle 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 sleva 1.3
MŠE 7.3-58.2 Matice 1.5-1 memoise 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
paralelně 1.32.1 pilíř 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 chválit 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Průběh 1.2.2
progressr 0.11.0 sliby 1.2.0.1 proto 1.0.0
plná moc 0.4-27 PS 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 Analýza rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 recepty 1.0.3
odvetný zápas 1.0.1 rematch2 2.1.2 vzdálená zařízení 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.18 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 drzá napodobenina 0.4.2 váhy 1.2.1
selektor 0.4-2 sessioninfo 1.2.2 tvar 1.4.6
lesklý 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.2 prostorový 7.3-11 spline křivky 4.2.2
sqldf 0.4-11 ČTVEREC 2021.1 statistické údaje 4.2.2
Statistiky 4 4.2.2 stringi 1.7.8 stringr 1.4.1
přežití 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 časový interval 0.1.1 timeDate 4021.106
tinytex 0.42 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
utils 4.2.2 Uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 vroom 1.6.0 Waldo 0.4.0
vous 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws automatické škálování aws-java-sdk 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws podpora aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics datový proud 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.kofein kofein 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib nativní native_ref javy 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib nativní native_system javy 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.3
io.dropwizard.metrics metriky – jádro 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metriky – kontroly stavu 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metriky – servlety 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty- common 4.1.74.Final
io.netty obslužná rutina netty 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine marináda 1.2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-client 2.13.0
org.apache.kurátor kurátor-framework 2.13.0
org.apache.kurátor kurátor-recepty 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy břečťan 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquetový sloupec 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet kódování parquet 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus cílové skupiny a poznámky 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty pokračování jetty 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket – společné 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core žerzejové společné 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate-validator 6.1.0.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.1.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Podložky 0.9.25
org.rocksdb rocksdbjni 6.28.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark nepoužitý 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel kočky-kernel_2.12 2.1.1
org.typelevel makro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1