Databricks Runtime 11.2 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Pro všechny podporované verze Databricks Runtime si můžete prohlédnout poznámky k vydání Databricks Runtime a kompatibilitu verzí.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 11.2, který využívá Apache Spark 3.3.0. Databricks vydala tuto verzi v září 2022.
Nové funkce a vylepšení
- Změna oprávnění ALTER TABLE v řízení přístupu k tabulce (přístupové seznamy k tabulce)
- Dynamické vyřezávání pro MERGE INTO
- Vylepšené zjišťování konfliktů v Delta s dynamickým vyřezáváním souborů
- Nová karta s open source integrací na domovských stránkách DSE/SQL
- vylepšení detekce oddílů CONVERT TO DELTA
- Schémata tabulek teď podporují výchozí hodnoty pro sloupce.
- Nové geoprostorové funkce H3
- Nová závislost Databricks Runtime
- Používání vlastního klíče: Šifrování přihlašovacích údajů Gitu
- SQL: Nová agregační funkce any_value
- Příkazy systému souborů Databricks Utilities povolené u více typů clusterů
- Oprávnění CREATE je teď možné udělit u metastorů pro katalog Unity.
- Optimalizované zápisy pro nerozdělené tabulky v clusterech s podporou Photon
- Podpora Photon pro další zdroje dat
- SQL: ALTER SHARE nyní podporuje START VERSION
Změna oprávnění ALTER TABLE v ovládacích prvcích přístupu k tabulce (tabulkové ACL)
Nyní uživatelé potřebují MODIFY
oprávnění pouze ke změně schématu nebo vlastností tabulky pomocí ALTER TABLE
. Vlastnictví se stále vyžaduje k udělení oprávnění k tabulce, změně jeho vlastníka a umístění nebo k jeho přejmenování. Díky této změně je model oprávnění pro ACL tabulek konzistentní s Unity Catalog. Viz ALTER TABLE.
Dynamické prořezávání pro MERGE INTO
Při použití výpočetních prostředků MERGE INTO
s podporou Photon teď používá dynamické vyřezávání souborů a oddílů, pokud je to vhodné ke zlepšení výkonu, například při sloučení malé zdrojové tabulky do větší cílové tabulky.
Vylepšené zjišťování konfliktů v Delta s dynamickým vyřezáváním souborů
Při kontrole potenciálních konfliktů během potvrzení nyní detekce konfliktů zohledňuje soubory, které jsou odstraněny dynamickým prořezáváním souborů, ale nebyly by odstraněny statickými filtry. Výsledkem je snížení počtu neúspěšných transakcí.
Nová karta s open source integrací na domovských stránkách DSE/SQL
Představujeme novou kartu Open Source Integrations na domovských stránkách DSE/SQL, která zobrazuje možnosti open source integrace, jako je DLT a dbt Core.
vylepšení detekce oddílu CONVERT TO DELTA
CONVERT TO DELTA
automaticky odvodí schéma oddílů pro tabulky Parquet zaregistrované v metastoru Hive nebo v katalogu Unity, a odstraňuje potřebu zadat klauzuli PARTITIONED BY
.
CONVERT TO DELTA
Využívá informace o oddílech z metastoru ke zjišťování souborů pro tabulku Parquet místo výpisu celé základní cesty, čímž zajistí, že se vyřazené oddíly nepřidají do tabulky Delta.
Viz Převod na Delta Lake.
Schémata tabulek teď podporují výchozí hodnoty pro sloupce.
Schémata tabulek teď podporují nastavení výchozích hodnot pro sloupce.
INSERT
, UPDATE
a DELETE
příkazy pro tyto sloupce mohou odkazovat na tyto hodnoty pomocí klíčového DEFAULT
slova. Například CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET
následuje INSERT INTO t VALUES (1, DEFAULT)
, což připojí řádek (1, 42)
. Toto chování se podporuje u zdrojů dat CSV, JSON, Orc a Parquet.
Nové geoprostorové funkce H3
Nyní můžete použít 28 nových integrovaných výrazů H3 pro geoprostorové zpracování v clusterech s podporou Photon, které jsou dostupné v SQL, Scala a Pythonu. Viz geoprostorové funkce H3.
Nová závislost Databricks Runtime
Databricks Runtime nyní závisí na knihovně H3 Java verze 3.7.0.
Používání vlastního klíče: Šifrování přihlašovacích údajů Gitu
Azure Key Vault můžete použít k šifrování tokenu PAT (Personal Access Token) Gitu nebo jiných přihlašovacích údajů Gitu.
Viz Nastavení složek Gitu (Repos) v Databricks.
SQL: Nová agregační funkce any_value
Nová any_value
agregační funkce vrátí libovolnou náhodnou hodnotu expr
pro skupinu řádků. Viz agregační funkci any_value
.
Příkazy systému souborů Databricks Utilities povolené u více typů clusterů
dbutils.fs
Příkazy (s výjimkou příkazů souvisejících s připojením) jsou nyní povoleny na clusterech s izolací uživatelů s katalogem Unity, stejně jako na clusterech starších tabulek s řízením přístupu (ACL), pokud má uživatel ANY FILE
oprávnění.
Oprávnění CREATE je teď možné udělit u metastorů pro katalog Unity.
oprávnění CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENTa CREATE PROVIDER je teď možné udělit v metastorech katalogu Unity.
Optimalizované zápisy pro nerozdělené tabulky v clusterech s podporou Photon
Spravované tabulky v Katalogu Unity teď automaticky uchovávají soubory dobře vyladěné velikosti z nesedělených tabulek, aby se zlepšila rychlost dotazů a optimalizoval výkon.
Podpora Photon pro další zdroje dat
Photon teď podporuje více zdrojů dat, včetně SOUBORŮ CSV a Avro, a je také kompatibilní s datovými snímky uloženými v mezipaměti. Kontrola těchto zdrojů dat dříve znamenala, že celý dotaz nelze fotonizovat bez ohledu na operátory nebo výrazy dotazu. Dotazy, které skenují tyto zdroje dat, teď mohou být fotonizovány, což umožňuje výrazná zlepšení latence a celkových nákladů na vlastnictví.
Tato funkce je ve výchozím nastavení povolená v spark.databricks.photon.photonRowToColumnar.enabled
konfiguraci.
Omezení:
- Schémata s vnořenými typy nejsou v této verzi podporována (tj. pole, mapy a struktury).
- Zdroje ORC, RDD, Kinesis, Kafka a EventHub nejsou v této verzi podporované.
SQL: ALTER SHARE nyní podporuje VERZI START
Příkaz ALTER SHARE
teď podporuje START VERSION
, což umožňuje poskytovatelům sdílet data od konkrétní verze tabulky. Viz ALTER SHARE.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- distlib od 0.3.4 do 0.3.5
- filelock z 3.7.1 na 3.8.0
- vykreslovat od 5.8.2 do 5.9.0
- protobuf od 4.21.2 do 4.21.5
- Upgradované knihovny jazyka R:
- broom z verze 0.8.0 na 1.0.0
- bslib od 0.3.1 do 0.4.0
- callr z verze 3.7.0 na verzi 3.7.1
- caret od 6.0-92 do 6.0-93
- dbplyr od 2.2.0 do 2.2.1
- devtools od 2.4.3 do 2.4.4
- hodnotit od 0,15 do 0,16
- farver od 2.1.0 do 2.1.1
- fontawesome od 0.2.2 do 0.3.0
- aktualizace z verze 1.26.1 na 1.27.0
- generika od 0.1.2 do 0.1.3
- gert od 1.6.0 do 1.7.0
- globals from 0.15.1 to 0.16.0
- googlesheets4 od 1.0.0 do 1.0.1
- hardhat od 1.1.0 do 1.2.0
- htmltools od 0.5.2 do 0.5.3
- paralelně od 1.32.0 do 1.32.1
- pilíř od 1.7.0 do 1.8.0
- pkgload od 1.2.4 do 1.3.0
- processx od 3.6.1 do 3.7.0
- Rcpp od 1.0.8.3 do 1.0.9
- recepty od 0.2.0 do 1.0.1
- rlang od 1.0.2 do 1.0.4
- roxygen2 od 7.2.0 do 7.2.1
- RSQLite od 2.2.14 do 2.2.15
- sass od 0.4.1 do 0.4.2
- lesklý od 1.7.1 do 1.7.2
- stringi od 1.7.6 do 1.7.8
- tibble od 3.1.7 do 3.1.8
- Tidyverse od 1.3.1 do 1.3.2
- timeDate od 3043.102 do 4021.104
- xfun od 0.31 do 0.32
- Upgradované knihovny Java:
- org.apache.orc.orc-core od 1.7.4 do 1.7.5
- org.apache.orc.orc-mapreduce od verze 1.7.4 na verzi 1.7.5
- org.apache.orc.orc-shims od 1.7.4 do 1.7.5
Apache Spark
Databricks Runtime 11.2 zahrnuje Apache Spark 3.3.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 11.1 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Vrácení širších typů intervalů ANSI z funkcí percentilu
- [SPARK-40054] [SQL] Obnovení syntaxe zpracování chyb try_cast()
- [SPARK-39489] [JÁDRO] Vylepšení výkonu protokolování událostí JsonProtocol pomocí Jacksona místo Json4s
-
[SPARK-39319] [CORE][sql] Vytvořte kontexty dotazů jako součást
SparkThrowable
- [SPARK-40085] [SQL] K označení chyb použijte třídu chyb INTERNAL_ERROR místo IllegalStateException.
- [SPARK-40001] [SQL] Zápisy NULL do výchozích sloupců JSON zapisují 'null' do úložiště.
- [SPARK-39635] [SQL] Podpora metrik ovladačů ve vlastním rozhraní API metrik DS v2
- [SPARK-39184] [SQL] Řešení podrozměrného pole výsledků v sekvencích datumů a časových razítek
-
[SPARK-40019] [SQL] Refaktoring komentáře pro "containsNull" z ArrayType a úprava nelogických konstrukcí ve výrazu collectionOperator o
containsNull
. - [SPARK-39989] [SQL] Podpora odhadu statistiky sloupců, pokud je výraz skládací
- [SPARK-39926] [SQL] Oprava chyby v podpoře DEFAULT sloupce pro nevektorizované skenování Parquet
- [SPARK-40052] [SQL] Zpracování přímých byte bufferů v VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Oprava typu cílového intervalu v chybách přetypování přetečení
- [SPARK-39835] [SQL] Oprava EliminovatŘazení eliminovat globální řazení pod místním řazením
- [SPARK-40002] [SQL] Neposouvejte limit dolů přes okno pomocí ntile
- [SPARK-39976] [SQL] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
- [SPARK-39985] [SQL] Povolení implicitních výchozích hodnot sloupců v vkládání z datových rámců
- [SPARK-39776] [SQL] podrobný řetězec by měl přidat typ spojování
- [SPARK-38901] [SQL] DS V2 podporuje prosazování různých funkcí
- [SPARK-40028] [SQL][followup] Vylepšení příkladů řetězcových funkcí
- [SPARK-39983] [CORE][sql] Neukládejte na driver neserializované vysílané relace do mezipaměti
-
[SPARK-39812] [SQL] Zjednodušení kódu, který konstruuje
AggregateExpression
stoAggregateExpression
- [SPARK-40028] [SQL] Přidání binárních příkladů pro řetězcové výrazy
- [SPARK-39981] [SQL] Vyvolá výjimku QueryExecutionErrors.castingCauseOverflowErrorInTableInsert v castu
- [SPARK-40007] [PYTHON][sql] Přidání režimu do funkcí
- [SPARK-40008] [SQL] Podpora přetypování integrálů do intervalů ANSI
- [SPARK-40003] [PYTHON][sql] Přidat ‘medián’ do funkcí
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand by měl znovu uložit do mezipaměti výsledkový vztah
- [SPARK-39951] [SQL] Aktualizace sloupcové kontroly Parquet V2 pro vnořená pole
- [SPARK-33236] [shuffle] Backport do DBR 11.x: Povolení služby přerozdělování založené na push pro uložení stavu v databázi na úrovni NM k zachování práce při restartu
- [SPARK-39836] [SQL] Zjednodušení nástroje V2ExpressionBuilder extrahováním běžné metody
-
[SPARK-39873] [SQL] Odebrání
OptimizeLimitZero
a sloučení doEliminateLimits
- [SPARK-39961] [SQL] Ds V2 push-down přeložit přetypování, pokud je přetypování bezpečné
-
[SPARK-39872] [SQL] Změnit použití
BytePackerForLong#unpack8Values
s API pro vstup pole vVectorizedDeltaBinaryPackedReader
-
[SPARK-39858] [SQL] Odebrání zbytečných
AliasHelper
neboPredicateHelper
u některých pravidel - [SPARK-39900] [SQL] Řešení částečné nebo negované podmínky v predikátu pro binární formát
- [SPARK-39904] [SQL] Přejmenovat inferDate na prefersDate a objasnit sémantiku této možnosti v CSV zdroji dat.
- [SPARK-39958] [SQL] Přidání protokolu upozornění při nemožnosti načíst vlastní objekt metriky
- [SPARK-39932] [SQL] WindowExec by měl vymazat konečnou vyrovnávací paměť oddílu.
- [SPARK-37194] [SQL] Vyhněte se zbytečnému řazení při zápisu v1, pokud se nejedná o dynamické rozdělení
- [SPARK-39902] [SQL] Přidat podrobnosti skenování do uzlu skenování plánu Sparku ve SparkUI
- [SPARK-39865] [SQL] Zobrazení správných chybových zpráv při chybách přetečení při vkládání do tabulky
- [SPARK-39940] [SS] Aktualizace tabulky katalogu při dotazu streamování pomocí jímky DSv1
-
[SPARK-39827] [SQL] Použití třídy
ARITHMETIC_OVERFLOW
chyb v přetečení intadd_months()
- [SPARK-39914] [SQL] Přidání filtru DS V2 do převodu filtru V1
- [SPARK-39857] [SQL] Ruční zpětný port DBR 11.x; V2ExpressionBuilder používá nesprávný datový typ LiteralValue pro predikát In #43454
- [SPARK-39840] [SQL][python] Vyčlenit PythonArrowInput jako souměrnost k PythonArrowOutput
- [SPARK-39651] [SQL] Vyřazení podmínky filtru, pokud je porovnání s randem deterministické
- [SPARK-39877] [PYTHON] Přidat unpivot do rozhraní API datového rámce PySpark
- [SPARK-39909] [SQL] Uspořádání kontroly odsdílení informací pro JDBCV2Suite
- [SPARK-39834] [SQL][ss] Zahrňte statistiky původu a omezení pro LogickéRDD, pokud pochází z datového rámce.
- [SPARK-39849] [SQL] Dataset.as(StructType) vyplní chybějící nové sloupce s hodnotou null.
- [SPARK-39860] [SQL] Další výrazy by měly rozšířit predikát
- [SPARK-39823] [SQL][python] Přejmenujte Dataset.as jako Dataset.to a přidejte DataFrame.to v PySparku.
- [SPARK-39918] [SQL][podverze] Nahraďte v chybové zprávě slovo "un-comparable" slovem "incomparable" (nekompatibilní).
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder používá nesprávný datový typ LiteralValue pro predikát In
- [SPARK-39862] [SQL] Ruční backport pro PR 43654, zaměřený na DBR 11.x: Aktualizace SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS k umožnění/zakázání ALTER TABLE ... Přidejte příkazy COLUMN jednotlivě.
- [SPARK-39844] [SQL] Ruční backport pro PR 43652 zaměřený na DBR 11.x
-
[SPARK-39899] [SQL] Oprava předávání parametrů zprávy do
InvalidUDFClassException
- [SPARK-39890] [SQL] Make TakeOrderedAndProjectExec dědí AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Podpora typu CharType v PySpark
- [SPARK-38864] [SQL] Přidání operace unpivot / melt do Dataset
- [SPARK-39864] [SQL] Lazily zaregistrovat ExecutionListenerBus
- [SPARK-39808] [SQL] Podpora režimu agregační funkce MODE
-
[SPARK-39875] [SQL] Změna
protected
metody v konečné třídě naprivate
nebopackage-visible
- [SPARK-39731] [SQL] Oprava potíží se zdroji dat CSV a JSON při analýze kalendářních dat ve formátu yyyyMDd pomocí zásad analyzátoru opravených času
- [SPARK-39805] [SS] Vyřazení triggeru.once a zvýšení úrovně triggeru.AvailableNow
- [SPARK-39784] [SQL] Po překladu Catalyst Expression do filtru zdroje dat vložte hodnoty literálu na pravou stranu filtru zdroje dat.
- [SPARK-39672] [SQL][3.1] Oprava odebrání projektu před filtrováním s korelovaným poddotazem
-
[SPARK-39552] [SQL] Sjednocení v1 a v2
DESCRIBE TABLE
- [SPARK-39810] [SQL] Catalog.tableExists by měl zpracovávat vnořený obor názvů
- [SPARK-37287] [SQL] Vytáhněte dynamické oddíly a třídění podle kbelíků z FileFormatWriter
- [SPARK-39469] [SQL] Odvození typu data pro odvození schématu CSV
- [SPARK-39148] [SQL] Prosazení agregace DS V2 může fungovat s OFFSET nebo LIMIT
- [SPARK-39818] [SQL] Oprava chyby v polích ARRAY, STRUCT, MAP s výchozími hodnotami s poli NULL
- [SPARK-39792] [SQL] Přidat DecimalDivideWithOverflowCheck pro desetinný průměr
-
[SPARK-39798] [SQL] Nahraďte
toSeq.toArray
pomocí.toArray[Any]
v konstruktoruGenericArrayData
. - [SPARK-39759] [SQL] Implementujte funkci listIndexes v JDBC (dialekt H2)
-
[SPARK-39385] [SQL] Podporuje funkci push down
REGR_AVGX
aREGR_AVGY
- [SPARK-39787] [SQL] Použití třídy chyb v analýze chyby funkce to_timestamp
- [SPARK-39760] [PYTHON] Podpora Varchar v PySpark
- [SPARK-39557] [SQL] Ruční backport do DBR 11.x: Podpora typů ARRAY, STRUCT, MAP jako výchozí hodnoty
- [SPARK-39758] [SQL][3.3] Oprava NPE z funkcí regexp u neplatných vzorů
- [SPARK-39749] [SQL] Režim ANSI SQL: Použití prostého řetězcového vyjádření při přetypování typu Decimal na řetězec
- [SPARK-39704] [SQL] Implementace createIndex &dropIndex &indexExists v JDBC (dialekt H2)
-
[SPARK-39803] [SQL] Používejte
LevenshteinDistance
místoStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Podpora typu TimestampNTZ ve zdroji dat JDBC
- [SPARK-39781] [SS] Přidání podpory pro poskytování max_open_files poskytovateli úložiště stavů rocksdb
- [SPARK-39719] [R] Implementace databaseExists/getDatabase v SparkR podporuje 3L obor názvů
- [SPARK-39751] [SQL] Přejmenování metriky agregovaných klíčů hash
- [SPARK-39772] [SQL] Obor názvů by měl mít hodnotu null, pokud je databáze ve starých konstruktorech null.
- [SPARK-39625] [SPARK-38904][sql] Add Dataset.as(StructType)
- [SPARK-39384] [SQL] Kompilace integrovaných agregačních funkcí lineární regrese pro dialekt JDBC
- [SPARK-39720] [R] Implementace tableExists/getTable v SparkR pro obor názvů 3L
-
[SPARK-39744] [SQL]
REGEXP_INSTR
Přidání funkce - [SPARK-39716] [R] Upravte currentDatabase/setCurrentDatabase/listCatalogs v SparkR tak, aby podporovaly obor názvů 3L.
-
[SPARK-39788] [SQL] Přejmenovat
catalogName
nadialectName
proJdbcUtils
- [SPARK-39647] [JÁDRO] Registrace exekutoru v ESS před registrací BlockManageru
-
[SPARK-39754] [CORE][sql] Odebrání nepoužívaných
import
nebo zbytečných{}
-
[SPARK-39706] [SQL] Nastavení chybějícího sloupce s hodnotou defaultValue jako konstantou v
ParquetColumnVector
- [SPARK-39699] [SQL] Vylepšit funkci CollapseProject v souvislosti s výrazy pro vytváření kolekcí
-
[SPARK-39737] [SQL]
PERCENTILE_CONT
aPERCENTILE_DISC
měl by podporovat agregační filtr. - [SPARK-39579] [SQL][python][R] Make ListFunctions/getFunction/functionExists kompatibilní s třístupňovým oborem názvů
- [SPARK-39627] [SQL] Pushdown JDBC V2 by měl sjednotit rozhraní API pro kompilaci.
- [SPARK-39748] [SQL][ss] Zahrňte originální logický plán pro LogicalRDD, pokud pochází z datového rámce.
- [SPARK-39385] [SQL] Překlad agregačních funkcí lineární regrese pro optimalizaci
-
[SPARK-39695] [SQL]
REGEXP_SUBSTR
Přidání funkce - [SPARK-39667] [SQL] Přidání dalšího alternativního řešení, pokud není dostatek paměti pro sestavení a vysílání tabulky
-
[SPARK-39666] [ES-337834][sql] K dodržení
spark.sql.codegen.factoryMode
v ExpressionEncoder použijte UnsafeProjection.create. - [SPARK-39643] [SQL] Zákaz výrazů poddotazů v hodnotách DEFAULT
- [SPARK-38647] [SQL] Přidat rozhraní SupportsReportOrdering jako mix-in pro Scan (DataSourceV2)
- [SPARK-39497] [SQL] Vylepšení výjimky analýzy chybějícího sloupce s klíčem mapy
- [SPARK-39661] [SQL] Vyhněte se vytváření nepotřebného protokolovacího nástroje SLF4J
- [SPARK-39713] [SQL] Režim ANSI: Přidání návrhu použití try_element_at pro INVALID_ARRAY_INDEX chybu
- [SPARK-38899] [SQL]DS V2 podporuje funkce push down datetime
-
[SPARK-39638] [SQL] Změna použití
ConstantColumnVector
k ukládání sloupců oddílů doOrcColumnarBatchReader
-
[SPARK-39653] [SQL] Vyčištění
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
zColumnVectorUtils
-
[SPARK-39231] [SQL] Použijte
ConstantColumnVector
místoOn/OffHeapColumnVector
pro ukládání sloupců oddílů doVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog by neměl vyvolat NoSuchDatabaseException v loadNamspaceMetadata
- [SPARK-39447] [SQL] Vyhnout se AssertionError v AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Přepracovat MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec by měl respektovat řazení podřízených výstupů.
- [SPARK-39606] [SQL] Použití podřízených statistik k odhadu operátoru objednávky
- [SPARK-39611] [PYTHON][ps] Oprava nesprávných aliasů v array_ufunc
- [SPARK-39656] [SQL][3.3] Opravit nesprávný obor názvů v DescribeNamespaceExec
- [SPARK-39675] [SQL] Přepnutí konfigurace spark.sql.codegen.factoryMode z testovacího účelu na interní účel
- [SPARK-39139] [SQL] DS V2 podporuje funkci push down DS V2 UDF.
- [SPARK-39434] [SQL] Poskytnutí kontextu dotazu při chybě za běhu, když je index pole mimo hranice
- [SPARK-39479] [SQL] DS V2 podporuje prosazování matematických funkcí (ne-ANSI).
-
[SPARK-39618] [SQL]
REGEXP_COUNT
Přidání funkce - [SPARK-39553] [JÁDRO] Při použití Scaly 2.13 by odregistrování shuffle ve více vláknech nemělo vyvolat výjimku Null Pointer Exception (NPE).
- [SPARK-38755] [PYTHON][3.3] Přidání souboru k řešení chybějících obecných funkcí knihovny pandas
- [SPARK-39444] [SQL] Přidat OptimizeSubqueries do seznamu nonExcludableRules
- [SPARK-39316] [SQL] Sloučit PromotePrecision a CheckOverflow do desítkové binární aritmetiky
- [SPARK-39505] [UŽIVATELSKÉ ROZHRANÍ] Upravit obsah logu vykreslený v uživatelském rozhraní
-
[SPARK-39448] [SQL] Přidat
ReplaceCTERefWithRepartition
dononExcludableRules
seznamu - [SPARK-37961] [SQL] Přepsání maxRows/maxRowsPerPartition u některých logických operátorů
- [SPARK-35223] Vrátit zpět Přidání IssueNavigationLink
- [SPARK-39633] [SQL] Podpora časového razítka v sekundách pro TimeTravel pomocí voleb datového rámce
- [SPARK-38796] [SQL] Aktualizace dokumentace pro číselné formátovací řetězce pomocí funkcí {try_}to_number
- [SPARK-39650] [SS] Oprava nesprávného schématu hodnot v deduplikaci streamu se zpětnou kompatibilitou
- [SPARK-39636] [CORE][ui] Oprava více chyb v JsonProtocol, které ovlivňují úrovně úložiště mimo haldu a požadavky na prostředky úloh/Executorů
- [SPARK-39432] [SQL] Vrátit ELEMENT_AT_BY_INDEX_ZERO z element_at(*, 0)
- [SPARK-39349] Přidání centralizované metody CheckError pro zajištění kvality chybového procesu
- [SPARK-39453] [SQL] DS V2 podporuje prosazení různých neagregačních funkcí (ne-ANSI).
- [SPARK-38978] [SQL] DS V2 podporuje operátor pro posouvání dolů OFFSET
- [SPARK-39567] [SQL] Podpora intervalů ANSI ve funkcích percentilu
- [SPARK-39383] [SQL] Podporují výchozí sloupce ve zdrojích dat ALTER TABLE ALTER COLUMNS až V2.
- [SPARK-39396] [SQL] Oprava výjimky přihlášení LDAP s kódem chyby 49 – neplatné přihlašovací údaje
- [SPARK-39548] [SQL] CreateView příkaz s dotazem s klauzulí okna narazil na problém s nenalezenou nesprávnou definicí okna
- [SPARK-39575] [AVRO] přidání ByteBuffer#rewind po ByteBuffer#get v Avr...
- [SPARK-39543] Možnost DataFrameWriterV2 by měla být předána vlastnostem úložiště, pokud dojde k přechodu na verzi v1.
- [SPARK-39564] [SS] Zpřístupnění informací o tabulce katalogu logickému plánu v dotazu pro streamování
-
[SPARK-39582] [SQL] Oprava ukazatele "Od" pro
array_agg
-
[SPARK-39388] [SQL] Opakované použití
orcSchema
při aplikaci predikátů Orc na nižší úrovni - [SPARK-39511] [SQL] Zlepšení prosazení místního limitu 1 pro pravou stranu levého semi/anti spojení, pokud je podmínka spojení prázdná.
- [SPARK-38614] [SQL] Nepřenášejte limit skrze okno, které používá percent_rank
- [SPARK-39551] [SQL] Přidat kontrolu neplatného plánu pro AQE
- [SPARK-39383] [SQL] Podpora výchozích sloupců v ALTER TABLE PŘIDÁNÍ COLUMNS do zdrojů dat V2
- [SPARK-39538] [SQL] Vyhněte se vytváření nepotřebného SLF4J Loggeru
- [SPARK-39383] [SQL] Ruční backport do DBR 11.x: Refaktoring podpory výchozího sloupce tak, aby se vyhnul nutnosti předávat primární analyzátor
- [SPARK-39397] [SQL] Relax AliasAwareOutputExpression pro podporu aliasu s výrazem
-
[SPARK-39496] [SQL] Zpracování struktury null v
Inline.eval
-
[SPARK-39545] [SQL] Přepsat metodu
concat
ve verzi jazyka Scala 2.13 za účelem zlepšení výkonu. - [SPARK-39340] [SQL] Agregace DS v2 by měla umožňovat tečky v názvu sloupců nejvyšší úrovně.
- [SPARK-39488] [SQL] Zjednodušení zpracování chyb tempResolvedColumn
- [SPARK-38846] [SQL] Přidání explicitního mapování dat mezi číselným typem Teradata a počtem desetinných míst Sparku
-
[SPARK-39520] [SQL] Přepsání metody
--
proExpressionSet
ve Scala 2.13 - [SPARK-39470] [SQL] Podpora přetypování intervalů ANSI na desetinná místa
- [SPARK-39477] [SQL] Odebrání informací o počtu dotazů ze zlatých souborů SQLQueryTestSuite
- [SPARK-39419] [SQL] Oprava ArraySortu pro vyvolání výjimky, když srovnávací program vrátí hodnotu null
-
[SPARK-39061] [SQL] Správně nastavit hodnotu null pro
Inline
výstupní atributy -
[SPARK-39320] [SQL] Podpora agregační funkce
MEDIAN
- [SPARK-39261] [JÁDRO] Vylepšení formátování nového textu pro chybové zprávy
- [SPARK-39355] [SQL] Jeden sloupec používá označení v uvozovkách k vytvoření UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE by mělo redigovat vlastnosti
- [SPARK-37623] [SQL] Podpora agregační funkce ANSI: regr_intercept
- [SPARK-39374] [SQL] Zlepšení chybové zprávy pro seznam sloupců zadaných uživatelem
- [SPARK-39255] [SQL][3.3] Vylepšení chybových zpráv
- [SPARK-39321] [SQL] Přetvoření TryCast na použití RuntimeReplaceable
- [SPARK-39406] [PYTHON] Přijmout pole NumPy v createDataFrame
- [SPARK-39267] [SQL] Vyčištění nepotřebného symbolu dsl
- [SPARK-39171] [SQL] Sjednocení výrazu přetypování
- [SPARK-28330] [SQL] Podpora ANSI SQL: klauzule posunu výsledku ve výrazu dotazu
- [SPARK-39203] [SQL] Úprava umístění tabulky na absolutní URI podle URI databáze
-
[SPARK-39313] [SQL]
toCatalystOrdering
pokud V2Expression nejde přeložit, by mělo selhat - [SPARK-39301] [SQL][python] Využijte LocalRelation a respektujte velikost dávky Arrow v objektu createDataFrame s optimalizací Arrow
- [SPARK-39400] [SQL] Spark-sql by měl ve všech případech odebrat adresář prostředků Hive.
Aktualizace údržby
Podívejte se na aktualizace údržby pro Databricks Runtime 11.2.
Prostředí systému
- Operační systém: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | asynchronní generátor | 1,10 |
attrs | 21.2.0 | zpětné volání | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
černý | 22.3.0 | bělicí prostředek | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifikát | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | normalizátor znakové sady | 2.0.4 | klikněte | 8.0.3 |
kryptografie | 3.4.8 | cyklista | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | dekoratér | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | informace o Linux distribuci | 0.23ubuntu1 |
vstupní body | 0.3 | přehled aspektů | 1.0.0 | zámek souboru | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
špatné naladění | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
poznámkový blok | 6.4.5 | numpy | 1.20.3 | balení | 21.0 |
pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Polštář | 8.4.0 | pip | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | žádosti | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
Šest | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
houževnatost | 8.0.1 | dokončeno | 0.9.4 | testovací cesta | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.1 | traitlets | 5.1.0 | typing-extensions | 3.10.0.2 |
bezobslužné aktualizace | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webové kódování | 0.5.1 | kolo | 0.37.0 |
widgetsnbextension | 3.6.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou instalovány z Microsoft CRAN snímku k datu 15. srpna 2022.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | zpětné portování | 1.4.1 |
základ | 4.1.3 | base64enc | 0.1-3 | bitové | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | startování | 1.3-28 |
vařit | 1.0-7 | verva | 1.1.3 | koště | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | volající | 3.7.1 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
třída | 7.3-20 | Rozhraní příkazového řádku (CLI) | 3.3.0 | clipr | 0.8.0 |
klastr | 2.1.3 | codetools | 0.2-18 | barevný prostor | 2.0-3 |
commonmark | 1.8.0 | – kompilátor | 4.1.3 | konfig | 0.3.1 |
cpp11 | 0.4.2 | pastelka | 1.5.1 | přihlašovací údaje | 1.3.2 |
curl | 4.3.2 | datová tabulka | 1.14.2 | datové sady | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Popis | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | trávit | 0.6.29 |
osvětlené směrem dolů | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | tři tečky | 0.3.2 | vyhodnotit | 0,16 |
fanoušci | 1.0.3 | barvy | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | předpověď | 0.5.1 | foreach | 1.5.2 |
zahraniční | 0.8-82 | kovat | 0.2.0 | fs | 1.5.2 |
budoucnost | 1.27.0 | future.apply | 1.9.0 | kloktadlo | 1.2.0 |
Generika | 0.1.3 | Gert | 1.7.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globální | 0.16.0 | lepidlo | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | Grafika | 4.1.3 |
grDevices | 4.1.3 | mřížka | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | ochranná přilba | 1.2.0 |
útočiště | 2.5.0 | vyšší | 0,9 | Hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | Id | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iterátory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1.39 | značení | 0.4.2 | později | 1.3.0 |
mříž | 0.20-45 | láva | 1.6.10 | životní cyklus | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
sleva | 1,1 | MŠE | 7.3-56 | Matice | 1.4-1 |
memoise | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
mim | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
paralelní | 4.1.3 | paralelně | 1.32.1 | pilíř | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
chválit | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Průběh | 1.2.2 | progressr | 0.10.1 | sliby | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
recepty | 1.0.1 | odvetný zápas | 1.0.1 | rematch2 | 2.1.2 |
dálkové ovladače | 2.4.2 | reprodukovatelný příklad | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | drzost | 0.4.2 |
váhy | 1.2.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
tvar | 1.4.6 | lesklý | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | prostorový | 7.3-11 |
spline | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
statistické údaje | 4.1.3 | Statistiky 4 | 4.1.3 | řetězce | 1.7.8 |
stringr | 1.4.0 | přežití | 3.2-13 | systém | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
tvarování textu | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0,40 | nástroje | 4.1.3 | tzdb | 0.3.0 |
kontrola URL | 1.0.1 | použij to | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | Uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | brrrm | 1.5.7 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | ZIP | 2.2.0 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk automatické škálování | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | podpora AWS Java SDK | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | jádro | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-nativy Java | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní systém javy natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib – nativní systém – linux – x86_64 – nativy | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilovač | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
Nahrávání souborů v Commons | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | vzduchový kompresor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | jádro metrik | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | Netty handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | Netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transakční API | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mravenec | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-formát | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | vektorová šipka | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.kurátor | kurátor-klient | 2.13.0 |
org.apache.kurátor | kurátorový rámec | 2.13.0 |
org.apache.kurátor | recepty od kurátora | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-klient-API | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | plánovač hive-shims | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | kódování parquet | 1.12.0-databricks-0004 |
org.apache.parquet | parquetový-formát-struktur | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | poznámky publika | 0.5.0 |
org.apache.zookeeper | ošetřovatel zvířat | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty pokračování | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | klient WebSocketu | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | společný dres | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | Hibernate-validátor | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | vymezovací pásky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | testovací rozhraní | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |