Sdílet prostřednictvím


Databricks Runtime 12.1 (EoS)

Poznámka:

Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze Databricks Runtime naleznete v poznámkách k vydání verze Databricks Runtime a jejich kompatibilitě.

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 12.1, který využívá Apache Spark 3.3.1.

Databricks vydala tuto verzi v lednu 2023.

Nové funkce a vylepšení

Funkce tabulek Delta Lake podporované pro správu protokolů

Služba Azure Databricks zavedla podporu funkcí tabulek Delta Lake, která zavádí podrobné příznaky určující, které funkce jsou podporovány danou tabulkou. Viz Jak Azure Databricks spravuje kompatibilitu funkcí Delta Lake?.

Prediktivní vstupně-výstupní operace pro aktualizace jsou ve verzi Public Preview

Prediktivní vstupně-výstupní operace nyní urychlují DELETEMERGEa UPDATE operace pro tabulky Delta s vektory odstranění povolenými na výpočetních prostředcích s podporou Photon. Podívejte se na co je prediktivní I/O?

Průzkumník katalogu je teď dostupný pro všechny osoby.

Průzkumník katalogu je nyní k dispozici pro všechny osoby Azure Databricks při použití Databricks Runtime 7.3 LTS a vyšší.

Podpora více stavových operátorů v jednom dotazu streamování

Uživatelé teď můžou zřetězovat stavové operátory s přidávacím režimem v streamovacím dotazu. Ne všechny operátory jsou plně podporované. Připojení časových intervalů streamů a flatMapGroupsWithState neumožňuje propojení s jinými stavovými operátory.

Podpora pro Protocol Buffers je ve veřejné preview.

Pomocí funkcí from_protobuf a to_protobuf můžete vyměňovat data mezi binárními typy a strukturami. Viz Vyrovnávací paměti protokolu pro čtení a zápis.

Podpora ověřování registru schématu Confluent

Integrace Azure Databricks s Confluent Schema Registry teď podporuje adresy externího registru schématu s ověřováním. Tato funkce je k dispozici pro from_avro, to_avro, from_protobuf a to_protobuf funkce. Viz Protobuf nebo Avro.

Podpora pro sdílení historie tabulek s Delta Sharing shares

Nyní můžete sdílet tabulku s úplnou historií pomocí Delta Sharing, což příjemcům umožňuje provádět dotazy s časovým cestováním a dotazovat se na tabulku pomocí Spark Structured Streaming. WITH HISTORY je doporučeno místo CHANGE DATA FEED, i když ta je nadále podporována. Viz ALTER SHARE a Přidání tabulek do sdílení.

Podpora streamování pomocí sdílení Delta

Strukturované streamování Sparku teď funguje s formátem deltasharing zdrojové tabulky Delta Sharing, která byla sdílena pomocí WITH HISTORY.

Verze tabulky využívající časové razítko se teď podporuje pro tabulky Delta Sharing v katalogech.

Syntaxi TIMESTAMP AS OF SQL teď můžete použít v SELECT příkazech k určení verze tabulky Delta Sharing, která je připojená v katalogu. Tabulky musí být sdíleny pomocí WITH HISTORY.

Podpora funkcí WHEN NOT MATCHED BY SOURCE pro MERGE INTO

Nyní můžete přidat WHEN NOT MATCHED BY SOURCE klauzule do MERGE INTO k aktualizaci nebo odstranění řádků ve zvolené tabulce, které nemají shodu ve zdrojové tabulce na základě podmínky sloučení. Nová klauzule je dostupná v JAZYCE SQL, Python, Scala a Java. Viz MERGE INTO.

Optimalizovaná kolekce statistik pro CONVERT TO DELTA

Shromažďování statistik pro CONVERT TO DELTA operaci je teď mnohem rychlejší. Tím se sníží počet úloh, které by mohly použít NO STATISTICS pro efektivitu.

Podpora katalogu Unity pro rozbalení tabulek

Tato funkce byla původně vydána ve verzi Public Preview. Je v obecné dostupnosti od 25. října 2023.

Vyřazenou spravovanou nebo externí tabulku teď můžete vrátit zpět do existujícího schématu během sedmi dnů od vyřazení. Podívejte se na UNDROP a SHOW TABLES DROPPED.

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • filelock od 3.8.0 do 3.8.2
    • platformdirs od 2.5.4 do 2.6.0
    • instalační nástroje od 58.0.4 do 61.2.0
  • Upgradované knihovny jazyka R:
  • Upgradované knihovny Java:
    • io.delta.delta-sharing-spark_2.12 od 0.5.2 do 0.6.2
    • org.apache.hive.hive-storage-api od 2.7.2 do 2.8.1
    • org.apache.parquet.parquet-column od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.tukaani.xz od 1.8 do 1.9

Apache Spark

Databricks Runtime 12.1 zahrnuje Apache Spark 3.3.1. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 12.0 (EoS), a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-41405] [SC-119769][12.1.0] Vrátit zpět "[SC-119411][sql] Centralizace logiky rozlišení sloupců" a "[SC-117170][spark-41338][SQL] Vyřešit vnější odkazy a běžné sloupce ve stejné sekvenci analyzátoru"
  • [SPARK-41405] [SC-119411][sql] Centralizace logiky řešení sloupců
  • [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand by měl správně nastavit příznak přepsání.
  • [SPARK-41659] [SC-119526][connect][12.X] Povolení doctestů v pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][sql] Oprava regrese výkonu čtečky ORC způsobené funkcí výchozí hodnoty
  • [SPARK-41807] [SC-119399][core] Odeberte neexistující třídu chyb: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Přiřadit název _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][sql] Přiřadit název _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][connect] Odvození názvů ze seznamu slovníků ve SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Přesunout dokumentaci a skript Spark Connect do dev/ a dokumentace k Pythonu
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] Počáteční klientský modul pro Spark Connect
  • [SPARK-41365] [SC-118498][ui][3.3] Stránka uživatelského rozhraní fází se nepodaří načíst pro proxy server v konkrétním prostředí yarn.
  • [SPARK-41481] [SC-118150][core][SQL] Opakované použití INVALID_TYPED_LITERAL místo _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][sql] Přehodnotit práci se stavovými výrazy
  • [SPARK-41726] [SC-119248][sql] Odebrat OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][sc-118348][SQL] Podpora parametrizovaných dotazů SQL sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] Implementovat DataFrame.sampleBy a DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][sc-119012][SQL][všechny testy] Odsunout zápis v1 do WriteFiles
  • [SPARK-41565] [SC-118868][sql] Přidání třídy chyb UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] Funkce DECODE vrátí nesprávné výsledky při předání hodnoty NULL.
  • [SPARK-41554] [SC-119274] Oprava změny desítkového měřítka při zmenšení měřítka o m...
  • [SPARK-41065] [SC-119324][connect][PYTHON] Implementovat DataFrame.freqItems a DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Znovu povolit testy dokumentace a přidání chybějícího aliasu sloupce do count()
  • [SPARK-41069] [SC-119310][connect][PYTHON] Implementovat DataFrame.approxQuantile a DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][connect][PYTHON] from_json podpora schématu datových typů
  • [SPARK-41804] [SC-119382][sql] Volba správné velikosti prvku v InterpretedUnsafeProjection pro pole UDT
  • [SPARK-41786] [SC-119308][connect][PYTHON] Odstranění duplicit pomocných funkcí
  • [SPARK-41745] [SC-119378][spark-41789][12.X] createDataFrame podpora seznamu řádků
  • [SPARK-41344] [SC-119217][sql] Zpřehlednění chyby, když není nalezena tabulka v katalogu SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][connect][PYTHON] Přidání chybějící funkce log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] Nastavení možností podpory funkcí JSON
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Vytvořte __getitem__ filtr podpory a vyberte
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Umožněte operaci sloupce podporovat None
  • [SPARK-41440] [SC-119279][connect][PYTHON] Vyhněte se operátoru mezipaměti pro náhodný vzorek.
  • [SPARK-41785] [SC-119290][connect][PYTHON] Implementovat GroupedData.mean
  • [SPARK-41629] [SC-119276][connect] Podpora rozšíření protokolu v rámci relace a výrazu
  • [SPARK-41417] [SC-118000][core][SQL] Přejmenování _LEGACY_ERROR_TEMP_0019 na INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] Správné zpracování chyb pro Spark Connect Server / klient
  • [SPARK-41292] [SC-119357][connect][12.X] Okno podpory v oboru názvů pyspark.sql.window
  • [SPARK-41493] [SC-119339][connect][PYTHON] Nastavení možností podpory funkcí CSV
  • [SPARK-39591] [SC-118675][ss] Sledování asynchronního průběhu
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implementace Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][connect][PYTHON] Implementovat DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Povolení doctestů ve sloupci pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][connect] Mix ClientId v mezipaměti SparkSession.
  • [SPARK-41354] [SC-119194][connect] Přidejte RepartitionByExpression do proto
  • [SPARK-41784] [SC-119289][connect][PYTHON] Přidat chybějící __rmod__ ve sloupci
  • [SPARK-41778] [SC-119262][sql] Přidání aliasu "reduce" do ArrayAggregate
  • [SPARK-41067] [SC-119171][connect][PYTHON] Implementovat DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] Nastavení interního názvu operace řetězce v souladu s FunctionRegistry
  • [SPARK-41734] [SC-119160][connect] Přidání nadřazené zprávy pro katalog
  • [SPARK-41742] [SC-119263] Podpora df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][connect][PYTHON] Oprava aritmetických operací: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][sql] Přejmenování UNSUPPORTED_CORRELATED_REFERENCE na CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Oprava Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implementujte funkci unwrap_udt
  • [SPARK-41333] [SC-119195][spark-41737] Implementovat GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Oprava Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][sql] Podpora implicitního řešení aliasů laterálních sloupců v agregaci
  • [SPARK-41529] [SC-119207][connect][12.X] Implementovat SparkSession.stop
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Přejmenování _LEGACY_ERROR_TEMP_0011 na UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][connect][12.X] Odstranění duplicitních dat a repr_html ve společnosti LogicalPlan
  • [SPARK-41740] [SC-119169][connect][PYTHON] Implementovat Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Aplikace prořezávání na základě stromových vzorů pro pravidlo ResolveWindowTime
  • [SPARK-41732] [SC-119157][sql][SS] Uplatnění prořezávání založeného na stromovém vzoru pro pravidlo SessionWindowing
  • [SPARK-41498] [SC-119018] Šíření metadat prostřednictvím sjednocení
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implementace přístupového objektu sloupce
  • [SPARK-41736] [SC-119161][connect][PYTHON] by měl pyspark_types_to_proto_types podporovat ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Implementujte funkci format_number
  • [SPARK-41707] [SC-119141][connect][12.X] Implementujte API katalogu v rámci Spark Connect
  • [SPARK-41710] [SC-119062][connect][PYTHON] Implementovat Column.between
  • [SPARK-41235] [SC-119088][sql][PYTHON] Vyšší řádové funkce: implementace array_compact
  • [SPARK-41518] [SC-118453][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] Implementace funkce sequence
  • [SPARK-41703] [SC-119060][connect][PYTHON] Kombinování typu NullType a typed_null v literálu
  • [SPARK-41722] [SC-119090][connect][PYTHON] Implementace 3 chybějících funkcí časových oken
  • [SPARK-41503] [SC-119043][connect][PYTHON] Implementace transformačních funkcí particí
  • [SPARK-41413] [SC-118968][sql] Vyhněte se náhodnému přeskupení v příkazu Storage-Partitioned Join v případě, že se klíče oddílů neshodují, ale výrazy spojení jsou kompatibilní.
  • [SPARK-41700] [SC-119046][connect][PYTHON] Odebrat FunctionBuilder
  • [SPARK-41706] [SC-119094][connect][PYTHON] by měl pyspark_types_to_proto_types podporovat MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Přidání neplatných operací sloupců
  • [SPARK-41660] [SC-118866][sql] Šíření sloupců metadat pouze v případě jejich použití
  • [SPARK-41637] [SC-119003][sql] ORDER BY ALL
  • [SPARK-41513] [SC-118945][sql] Implementujte akumulátor pro shromažďování metrik počtu řádků mapovače.
  • [SPARK-41647] [SC-119064][connect][12.X] Odstraňte duplicitní dokumentační řetězce v pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][connect][PYTHON] Umožnit podporu operací se sloupci decimal
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementovat rollup, cube a pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY ALL
  • [SPARK-41645] [SC-119057][connect][12.X] Odstranění duplicitních dat v pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][connect][PYTHON] Přesun výrazů do expressions.py
  • [SPARK-41687] [SC-118949][connect] Deduplikace docstringů ve skupině pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][connect] Odstranění duplicitních docstringů v pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][connect] Uspořádat GroupedData do group.py
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementace funkcí Window
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Umožnit podporu operací sloupců datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Povolení zastaralých funkcí
  • [SPARK-41673] [SC-118932][connect][PYTHON] Implementovat Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] Implementace funkce broadcast
  • [SPARK-41648] [SC-118914][connect][12.X] Odstranění duplicitních dat v souboru pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][connect][12.X] Odstranit duplicitní docstringy v pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][connect][12.X] Odstranění duplicitních dat ve sloupci pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementujte zbývající funkce Lambda.
  • [SPARK-41441] [SC-118557][sql] Podpora generování bez potřebného podřízeného výstupu pro hostování vnějších odkazů
  • [SPARK-41669] [SC-118923][sql] Předčasné vyřazování v canCollapseExpressions
  • [SPARK-41639] [SC-118927][sql][PROTOBUF] : Odebrání ScalaReflectionLock ze SchemaConverters
  • [SPARK-41464] [SC-118861][connect][PYTHON] Implementovat DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Počáteční implementace LambdaFunction
  • cs-CZ: [SPARK-41539] [SC-118802][sql] Přemapování statistik a omezení pro výstup v logickém plánu logického RDD
  • [SPARK-41396] [SC-118786][SQL][PROTOBUF] Podpora pro pole OneOf a rekurzivní kontroly
  • [SPARK-41528] [SC-118769][connect][12.X] Sloučení oboru názvů rozhraní Spark Connect a PySpark API
  • [SPARK-41568] [SC-118715][sql] Přiřaďte název _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][connect][PYTHON] Implement DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Přidání Spark Connect a protobuf do setup.py se specifikací závislostí
  • [SPARK-27561] [SC-101081][12.x][SQL] Podpora implicitního vyhodnocení aliasů laterálního sloupce v projekci
  • [SPARK-41535] [SC-118645][sql] Nastavte správně hodnotu null pro pole intervalu kalendáře v InterpretedUnsafeProjection a InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][sql] Podpora maskování dat předdefinované funkce Maska
  • [SPARK-41520] [SC-118440][sql] Rozdělení AND_OR TreePattern, aby byla oddělena TreePatterns pro AND a OR.
  • [SPARK-41349] [SC-118668][connect][PYTHON] Implementace datového rámce.hint
  • [SPARK-41546] [SC-118541][connect][PYTHON pyspark_types_to_proto_types] by měl podporovat typ struktury.
  • [SPARK-41334] [SC-118549][connect][PYTHON] Přesun SortOrder proto z relací do výrazů
  • [SPARK-41387] [SC-118450][ss] Ověřit aktuální koncovou posun z Kafka datového zdroje pro Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][core][SQL] Přejmenování _LEGACY_ERROR_TEMP_1180 na UNEXPECTED_INPUT_TYPE a odebrání _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Implementujte sloupec. {when, otherwise} a when funkce s UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Oprava volání nesprávné podřízené metody v SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][connect][PYTHON] Implementovat DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Přidáníspark.sql.json.enablePartialResults pro povolení nebo zakázání částečných výsledků JSON
  • [SPARK-41437] Vrátit zpět “[SC-117601][sql] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1”
  • [SPARK-41472] [SC-118352][connect][PYTHON] Implementujte zbývající řetězcové/binární funkce.
  • [SPARK-41526] [SC-118355][connect][PYTHON] Implementovat Column.isin
  • [SPARK-32170] [SC-118384] [JÁDRO] Zlepšení spekulace pomocí metriky úkolů fáze.
  • [SPARK-41524] [SC-118399][ss] Rozlišení mezi SQLConf a extraOptions v rámci StateStoreConf pro jejich použití v rámci RocksDBConf
  • [SPARK-41465] [SC-118381][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1235
  • cs-CZ: [SPARK-41511] [SC-118365][sql] Podpora LongToUnsafeRowMap ignoruje duplicitní klíč
  • [SPARK-41409] [SC-118302][core][SQL] Přejmenování _LEGACY_ERROR_TEMP_1043 na WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Implementovat DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1
  • [SPARK-41314] [SC-117172][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Refaktoring LiteralExpression pro podporu datového typu
  • [SPARK-41448] [SC-118046] Zajištění konzistentních ID úloh MR v FileBatchWriter a FileFormatWriter
  • [SPARK-41456] [SC-117970][sql] Zlepšení výkonu try_cast
  • [SPARK-41495] [SC-118125][connect][PYTHON] Implementace funkcí collection: P~Z
  • [SPARK-41478] [SC-118167][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] Přepracovat chybovou zprávu pro NUM_COLUMNS_MISMATCH, aby bylo obecnější
  • [SPARK-41404] [SC-118016][sql] Upravit ColumnVectorUtils#toBatch, aby ColumnarBatchSuite#testRandomRows testoval více primitivní datové typy
  • [SPARK-41468] [SC-118044][sql] Oprava zpracování PlanExpression v EquivalentExpressions
  • [SPARK-40775] [SC-118045][sql] Oprava duplicitních položek popisu pro prohledávání souborů V2
  • [SPARK-41492] [SC-118042][connect][PYTHON] Implementace funkcí MISC
  • [SPARK-41459] [SC-118005][sql] Oprava problému, kdy je výstup protokolu operací serveru Thrift prázdný.
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjection by měl použít setDecimal k nastavení hodnot null pro desetinná místa v nebezpečném řádku.
  • [SPARK-41376] [SC-117840][core][3.3] Oprava logiky kontroly Netty preferDirectBufs při spuštění exekutoru
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementujte collection funkce: E~M
  • [SPARK-41389] [SC-117426][core][SQL] Opětovné použití WRONG_NUM_ARGS namísto _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][sql] Datový typ a časové razítko mohou být převedeny na TimestampNTZ
  • [SPARK-41435] [SC-117810][sql] Změna volání invalidFunctionArgumentsError pro curdate(), pokud expressions není prázdná
  • [SPARK-41187] [SC-118030][core] LiveExecutor MemoryLeak v AppStatusListener při spuštění executorLost
  • [SPARK-41360] [SC-118083][core] Pokud dojde ke ztrátě exekutoru, vyhněte se opětovné registraci nástroje BlockManager.
  • [SPARK-41378] [SC-117686][sql] Statistiky sloupců podpory v DS v2
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Přepsat prettyName u StringDecode
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementace funkcí data a časového razítka
  • [SPARK-41329] [SC-117975][connect] Řešení cyklických importů v nástroji Spark Connect
  • [SPARK-41477] [SC-118025][connect][PYTHON] Správně odvodí datový typ literálových celých čísel.
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] Zajistit, aby createDataFrame podporoval schémata a více typů vstupních datových sad
  • [SPARK-41475] [SC-117997][connect] Oprava chyby příkazu lint-scala a překlepu
  • [SPARK-38277] [SC-117799][ss] Vymažte dávku zápisu po potvrzení stavového úložiště RocksDB
  • [SPARK-41375] [SC-117801][ss] Vyhněte se prázdnému nejnovějšímu KafkaSourceOffset
  • [SPARK-41412] [SC-118015][connect] Implementovat Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Implementace DataFrame.melt a DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Refaktorování testů souvisejících se sloupcem na test_connect_column
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Sloupec by měl podporovat operátor !=
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Přidání zarovnání znaků na straně čtení pro zajištění kompatibility s externími datovými soubory
  • [SPARK-41349] [SC-117594][connect][12.X] Implementace datového rámce.hint
  • [SPARK-41338] [SC-117170][sql] Řešení vnějších odkazů a normálních sloupců ve stejné fázi analyzátoru
  • [SPARK-41436] [SC-117805][connect][PYTHON] Implementace funkcí collection: A~C
  • [SPARK-41445] [SC-117802][connect] Implement DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][sql] to_char by měl vrátit hodnotu null, pokud má formát hodnotu null.
  • [SPARK-41444] [SC-117796][connect] podpora read.json()
  • [SPARK-41398] [SC-117508][sql] Uvolnění omezení připojení Storage-Partitioned Join, když se klíče oddílů po filtrování za běhu neshodují
  • [SPARK-41228] [SC-117169][sql] Přejmenovat & a zlepšit chybovou zprávu pro COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][connect][PYTHON] Implementace funkcí count_distinct a sum_distinct
  • [SPARK-41433] [SC-117596][connect] Umožnění konfigurovatelnosti Max Arrow BatchSize
  • [SPARK-41397] [SC-117590][connect][PYTHON] Implementace části řetězcových/binárních funkcí
  • [SPARK-41382] [SC-117588][connect][PYTHON] Implementujte funkci product
  • [SPARK-41403] [SC-117595][connect][PYTHON] Implementovat DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() by měl být kompatibilní
  • [SPARK-41369] [SC-117584][connect] Přidání "Connect Common" do stínovaného jaru serverů
  • [SPARK-41411] [SC-117562][ss] Oprava chyby podpory vodoznaku vícestavového operátora
  • [SPARK-41176] [SC-116630][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementace agregačních funkcí
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementace normálních funkcí
  • [SPARK-41305] [SC-117411][připojit] Zlepšit dokumentaci pro příkaz proto
  • [SPARK-41372] [SC-117427][connect][PYTHON] Implementace DataFrame TempView
  • [SPARK-41379] [SC-117420][ss][PYTHON] Poskytnutí naklonované relace Spark v rámci DataFrame v uživatelské funkci pro jímku foreachBatch v PySparku.
  • [SPARK-41373] [SC-117405][SQL][ERROR] Změna názvu z CAST_WITH_FUN_SUGGESTION na CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Refaktorovat ColumnVectorUtils#populate metodu pro použití PhysicalDataType místo DataType
  • [SPARK-41355] [SC-117423][sql] Náhradní řešení problému s ověřením názvu tabulky Hive
  • [SPARK-41390] [SC-117429][sql] Aktualizujte skript použitý ke generování funkce register v UDFRegistration
  • [SPARK-41206] [SC-117233][sc-116381][SQL] Přejmenujte třídu chyb _LEGACY_ERROR_TEMP_1233 na COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementace matematických funkcí
  • [SPARK-40970] [SC-117308][connect][PYTHON] Podpora seznamu[Sloupec] pro argument operace JOIN
  • [SPARK-41345] [SC-117178][connect] Přidat nápovědu k Connect Proto
  • [SPARK-41226] [SC-117194][sql][12.x] Refaktoring typů Sparku zavedením fyzických typů
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Přidání základní podpory pro DataFrameWriter
  • [SPARK-41347] [SC-117173][connect] Přidání přetypování do proto výrazu
  • [SPARK-41323] [SC-117128][sql] Podpora current_schema
  • [SPARK-41339] [SC-117171][sql] Zavření dávky zápisu a její opětovné vytvoření v RocksDB místo pouhého vymazání
  • [SPARK-41227] [SC-117165][connect][PYTHON] Implementovat křížové spojení datového rámce
  • [SPARK-41346] [SC-117176][connect][PYTHON] Implementace funkcí asc a desc
  • [SPARK-41343] [SC-117166][connect] Přesunutí parsování názvu funkce na straně serveru
  • [SPARK-41321] [SC-117163][connect] Cílové pole podpory pro UnresolvedStar
  • [SPARK-41237] [SC-117167][sql] Znovu použijte třídu chyb UNSUPPORTED_DATATYPE pro _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][sql] Opakované použití INVALID_SCHEMA.NON_STRING_LITERAL místo _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Optimalizace použití konstruktoru StructType
  • [SPARK-41335] [SC-117135][connect][PYTHON] Podpora IsNull a IsNotNull v rámci sloupce
  • [SPARK-41332] [SC-117131][connect][PYTHON] Oprava nullOrdering v SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] Oprava chybějícího průměru() pro GroupBy nad DF
  • [SPARK-41327] [SC-117137][core] Oprava SparkStatusTracker.getExecutorInfos pomocí přepínání informací On/OffHeapStorageMemory
  • [SPARK-41315] [SC-117129][connect][PYTHON] Implementujte DataFrame.replace a DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Přidání logického a řetězcového rozhraní API do sloupce
  • [SPARK-41331] [SC-117127][connect][PYTHON] Přidání orderBy a drop_duplicates
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal by se měl zajistit, aby byl zámek bez odkladu odemknutý.
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Upravit „Column“ pro kompatibilitu rozhraní API
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implementace datového rámce.withColumnRenamed
  • [SPARK-41221] [SC-116607][sql] Přidání třídy chyb INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] Opakované použití INVALID_SCHEMA místo _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][python][SS][12.x] Přetypování instancí NumPy na primitivní typy Pythonu v aktualizaci GroupState
  • [SPARK-41174] [SC-116609][core][SQL] Rozšíření třídy chyb pro uživatele kvůli neplatnému formatto_binary()
  • [SPARK-41264] [SC-116971][connect][PYTHON] Podpora literálů více datových typů
  • [SPARK-41326] [SC-116972] [CONNECT] Opravit chybějící vstup deduplikace
  • [SPARK-41316] [SC-116900][sql] Povolit koncovou rekurzi, kdykoli je to možné
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Podpora řetězcových výrazů ve filtru
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implementace datového rámce.withColumn
  • [SPARK-41182] [SC-116632][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] Migrace chyb možností mapování do tříd chyb
  • [SPARK-40940] [SC-115993][12.x] Odeberte kontroly vícestavových operátorů pro streamované dotazy.
  • [SPARK-41310] [SC-116885][connect][PYTHON] Implementace datového rámce.toDF
  • [SPARK-41179] [SC-116631][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] BHJ LeftAnti neaktualizuje numOutputRows, pokud je zakázáno generování kódu
  • [SPARK-41148] [SC-116878][connect][PYTHON] Implementace DataFrame.dropna a DataFrame.na.drop
  • [SPARK-41217] [SC-116380][sql] Přidání třídy chyb FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] Vylepšení DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Homogenizace chování sparkSession.range()
  • [SPARK-41306] [SC-116860][connect] Vylepšení dokumentace protokolu Connect Expression
  • [SPARK-41280] [SC-116733][connect] Implementovat DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] Nenastavené schéma se interpretuje jako schéma.
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Přejmenovat RemoteSparkSession
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] – datový rámec. toPandas by neměly vracet volitelný datový rámec pandas
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain by se mělo vytisknout a vrátit None
  • [SPARK-41278] [SC-116732][connect] Vyčistí nevyužitý atribut QualifiedAttribute ve výrazu.proto.
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Odebrání redundantního převodu kolekce na základě kódu Scala 2.13
  • [SPARK-41261] [SC-116718][python][SS] Oprava problému pro applyInPandasWithState, pokud sloupce klíčů seskupení nejsou umístěné v pořadí od nejstaršího
  • [SPARK-40872] [SC-116717][3.3] Návrat k původnímu přeskupovacímu bloku, pokud je sloučený přeskupovací blok nulové velikosti
  • [SPARK-41114] [SC-116628][connect] Podpora lokálních dat pro LocalRelation
  • [SPARK-41216] [SC-116678][connect][PYTHON] Implementovat DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] Podpora více předdefinovaných datových typů
  • [SPARK-41230] [SC-116674][connect][PYTHON] Odstranit str z typu agregačního výrazu
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Optimalizovaná implementace shromažďování na základě šipky pro streamování ze serveru do klienta
  • [SPARK-41222] [SC-116625][connect][PYTHON] Sjednocení definic typování
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Zakažte nepodporované funkce.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Implementace DataFrame.SelectExpr v klientovi Pythonu
  • [SPARK-41203] [SC-116258] [CONNECT] Podpora objektu Dataframe.tansform v klientovi Pythonu
  • [SPARK-41213] [SC-116375][connect][PYTHON] Implementovat DataFrame.__repr__ a DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Implementovat DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] Migrace nejednoznačné chyby ref do třídy chyb
  • [SPARK-41122] [SC-116141][connect] Vysvětlit rozhraní API může podporovat různé režimy.
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] Zlepšení odvození typu PySpark v metodě _merge_type
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenizovat verzi protobuf napříč serverem pro připojení Sparku, aby používala stejnou hlavní verzi.
  • [SPARK-35531] [SC-116409][sql] Aktualizace statistik tabulek Hive bez zbytečného převodu
  • [SPARK-41154] [SC-116289][sql] Nesprávné ukládání relací do mezipaměti pro dotazy se specifikací časového cestování
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementovat DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Přejmenování UNSUPPORTED_EMPTY_LOCATION na INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Přidat rozhraní API pro rozšíření pro normalizaci plánů pro ukládání do mezipaměti
  • [SPARK-41054] [SC-116447][ui][CORE] Podpora RocksDB jako KVStore v živém uživatelském rozhraní
  • [SPARK-38550] [SC-115223]Vrátit zpět “[SQL][core] Použijte úložiště založené na disku k uložení dalších informací o ladění pro živé uživatelské rozhraní”
  • [SPARK-41173] [SC-116185][sql] Přesunutí require() z konstruktorů řetězcových výrazů
  • [SPARK-41188] [SC-116242][core][ML] Nastavení exekutorEnv OMP_NUM_THREADS na spark.task.cpus ve výchozím nastavení pro procesy JVM exekutoru Sparku
  • [SPARK-41130] [SC-116155][sql] Přejmenování OUT_OF_DECIMAL_TYPE_RANGE na NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Omezení převodu kolekce při vytváření AtributMap
  • [SPARK-41139] [SC-115983][sql] Zlepšení třídy chyb: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Vyžadování stínování pro soubor JAR třídy Java, zlepšení zpracování chyb
  • [SPARK-40999] [SC-116168] Šíření nápovědy do poddotazů
  • [SPARK-41017] [SC-116054][sql] Podpora vyřazování sloupců s několika nedeterministickými filtry
  • [SPARK-40834] [SC-114773][sql] Ke sledování konečného stavu SQL v uživatelském rozhraní použijte SparkListenerSQLExecutionEnd.
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_number by měl vrátit null, pokud je formát null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: Zobrazení rozhraní katalogu
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Vyhněte se vkládání Spark Connect v binární verzi Apache Sparku.
  • [SPARK-41048] [SC-116043][sql] Vylepšení dělení a řazení výstupu pomocí mezipaměti AQE
  • [SPARK-41198] [SC-116256][ss] Oprava metrik v dotazu streamování s zdrojem streamování CTE a DSv1
  • [SPARK-41199] [SC-116244][ss] Oprava problému s metrikami, když se zdroj streamování DSv1 a zdroj streamování DSv2 používají společně
  • [SPARK-40957] [SC-116261][sc-114706] Přidání mezipaměti paměti v HDFSMetadataLog
  • [SPARK-40940] Vrátit zpět “[SC-115993] Odstranění kontrol vícestavových operátorů pro streamovací dotazy.”
  • [SPARK-41090] [SC-116040][sql] Vyvolání výjimky pro db_name.view_name při vytváření dočasného zobrazení rozhraním DATASET API
  • [SPARK-41133] [SC-116085][sql] Integrovat UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION do NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] Souhrn kódu 9 potvrzení
  • [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect jako modul plug-in ovladače se stínovanými závislostmi
  • [SPARK-41096] [SC-115812][sql] Podpora čtení typu parquet FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][sql] Přejmenujte třídu chyb _LEGACY_ERROR_TEMP_2440 na INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Neshoda mezi FileSourceScanExec a Orc a ParquetFileFormat při vytváření sloupcového výstupu
  • [SPARK-41155] [SC-115991][sql] Přidejte chybovou zprávu k SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Odstraňte kontrolní mechanismy vícestavových operátorů pro dotazy streamování.
  • [SPARK-41098] [SC-115790][sql] Přejmenování GROUP_BY_POS_REFERS_AGG_EXPR na GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] Přechod chyb kontroly typu při formátování čísel na třídy chyb
  • [SPARK-41059] [SC-115658][sql] Přejmenování _LEGACY_ERROR_TEMP_2420 na NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Převést DATATYPE_MISMATCH.UNSPECIFIED_FRAME na INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][sql] Přejmenování _LEGACY_ERROR_TEMP_0055 na UNCLOSED_BRACKETED_COMMENT

Aktualizace údržby

Podívejte se na aktualizace údržby pro Databricks Runtime 12.1.

Prostředí systému

  • Operační systém: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 zpětné volání 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 černý 22.3.0 bělicí prostředek 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
klikněte 8.0.4 kryptografie 3.4.8 cyklista 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
dekoratér 5.1.1 defusedxml 0.7.1 distlib 0.3.6
Konverze docstringu na markdown 0,11 vstupní body 0,4 vykonávající 0.8.3
přehled aspektů 1.0.0 fastjsonschema 2.16.2 uzamčení souboru 3.8.2
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgety 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Mccabe 0.7.0 špatně naladěný 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
poznámkový blok 6.4.8 numpy 1.21.5 balení 21.3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 bábovka 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Polštář 9.0.1 jádro 21.2.4
platformdirs 2.6.0 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
čistý-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
žádosti 2.27.1 requests-unixsocket 0.2.0 lano 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Šest 1.16.0 sítko na polévku 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 houževnatost 8.0.1
dokončený 0.13.1 testovací cesta 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornádo 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
bezobslužné aktualizace 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.3
kolo 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Nainstalované knihovny jazyka R

Knihovny R jsou nainstalovány ze snímku Microsoft CRAN z 2022-11-11.

Knihovna Verze Knihovna Verze Knihovna Verze
šipka 10.0.0 askpass 1,1 assertthat (funkce) 0.2.1
zpětné portování 1.4.1 základ 4.2.2 base64enc 0.1-3
bitové 4.0.4 bit64 4.0.5 blob 1.2.3
startování 1.3-28 vařit 1.0-8 verva 1.1.3
koště 1.0.1 bslib 0.4.1 cachem 1.0.6
volající 3.7.3 caret 6.0-93 cellranger 1.1.0
chrono 2.3-58 třída 7.3-20 CLI 3.4.1
clipr 0.8.0 hodiny 0.6.1 klastr 2.1.4
codetools 0.2-18 barevný prostor 2.0-3 commonmark 1.8.1
– kompilátor 4.2.2 config 0.3.1 cpp11 0.4.3
pastelka 1.5.2 přihlašovací údaje 1.3.2 zvlnění 4.3.3
data.table 1.14.4 datové sady 4.2.2 DBI 1.1.3
dbplyr 2.2.1 Popis 1.4.2 devtools 2.4.5
diffobj 0.3.5 trávit 0.6.30 osvětlení shora dolů 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
tři tečky 0.3.2 vyhodnotit 0,18 fanoušci 1.0.3
barvy 2.1.1 Rychlá mapa 1.1.0 fontawesome 0.4.0
pro kočky 0.5.2 foreach 1.5.2 zahraniční 0.8-82
kovat 0.2.0 fs 1.5.2 budoucnost 1.29.0
future.apply 1.10.0 kloktadlo 1.2.1 Generika 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globály 0.16.1
lepidlo 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 Grafika 4.2.2 grDevices 4.2.2
mřížka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 bezpečnostní přilba 1.2.0 útočiště 2.5.1
vyšší (if meant to be "higher") 0,9 Hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Id 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iterátory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
značení 0.4.2 později 1.3.0 mřížka 0.20-45
láva 1.7.0 životní cyklus 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 markdown 1.3
MŠE 7.3-58 Matice 1.5-1 memoise 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 paralelní 4.2.2
paralelně 1.32.1 pilíř 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 pochvala 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Průběh 1.2.2
progressr 0.11.0 sliby 1.2.0.1 proto 1.0.0
proxy server 0.4-27 PS 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 recepty 1.0.3
odvetný zápas 1.0.1 rematch2 2.1.2 dálková ovládání 2.4.2
reprodukovatelný příklad 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 drzost 0.4.2 váhy 1.2.1
selektor 0.4-2 sessioninfo 1.2.2 tvar 1.4.6
lesklý 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 prostorový 7.3-11 spline 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 statistické údaje 4.2.2
Statistiky 4 4.2.2 řetězce 1.7.8 stringr 1.4.1
přežití 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 tvarování textu 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 změna času 0.1.1 časDatum 4021.106
tinytex 0.42 nástroje 4.2.2 tzdb 0.3.0
ověřovač URL 1.0.1 použijte toto 2.1.6 utf8 1.2.2
utils 4.2.2 Uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 vroum 1.6.0 Waldo 0.4.0
vous 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk automatické škálování 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics datový proud 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.kofein kofein 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib jádro 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib nativní_ref-java-nativy 1,1
com.github.fommil.netlib nativní_systém-java 1,1
com.github.fommil.netlib nativní_system-java-nativy 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink cink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe nastavení 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift vzduchový kompresor 0.21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metriky – jádro 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metriky – kontroly stavu 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metriky – servlety 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty Netty zpracovatel 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction API pro transakce 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine nakládačka 1.2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant mravenec 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formát šipky 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow šipka-vektor 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-klient 2.13.0
org.apache.kurátor kurátor-framework 2.13.0
org.apache.kurátor kurátor-recepty 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy břečťan 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet kódování parquet 1.12.3-databricks-0002
org.apache.parquet struktury formátu Parquet 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus poznámky k publiku 0.13.0
org.apache.zookeeper ošetřovatel zvířat 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty pokračování jetty 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Jetty webová aplikace 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket API 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket – obecný 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core běžný žerzej 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator Hibernate-validator 6.1.0.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Vymezovací podložky 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt testovací rozhraní 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark nepoužitý 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel makro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1