Databricks Runtime 14.3 LTS
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 14.3 LTS, který využívá Apache Spark 3.5.0.
Databricks vydala tuto verzi v únoru 2024.
Poznámka:
LTS znamená, že tato verze je dlouhodobě podporována. Viz životní cyklus verze LTS modulu Databricks Runtime.
Tip
Chcete-li zobrazit poznámky k verzím Databricks Runtime, které dosáhly konce podpory (EoS), podívejte se na Poznámky k ukončení podpory verzí Databricks Runtime. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.
Nové funkce a vylepšení
- podpora systému souborů pracovního prostoru v PySpark User-Defined Functions (UDF) v clusterech se standardním režimem přístupu (dříve sdílený režim přístupu)
- Podpora optimalizací vektorů pro odstranění bez Photonu
- rozhraní API katalogu Sparku jsou teď plně podporovaná v režimu standardního přístupu
- Delta UniForm je teď obecně dostupný.
- nová funkce SQL EXECUTE IMMEDIATE
- Přepočítat statistiky pro přeskakování dat v tabulkách Delta
- Informace o stavu pro stavové streamovací dotazy
- Použití Microsoft Entra ID pro ověřování Kafky na standardních clusterech
- přidání podpory pro vyřezávání souborů a oddílů za účelem zlepšení výkonu dotazů
- Deklarace dočasných proměnných v relaci SQL
- aktualizace thriftserveru pro odebrání nepoužívaných funkcí
- Používat soubory úložiště certifikátů a úložiště klíčů ve svazcích Unity Catalogu
- Podpora nativního formátu souborů XML (Public Preview)
- Podpora úložiště Cloudflare R2 (Public Preview)
- Přístup Spark a dbutils k souborům pracovního prostoru podporují clustery Unity Catalog s přístupem na standardní úrovni
- Podpora skriptů pro inicializaci a knihoven clusterů v clusterech Unity Catalog s běžným přístupem
Podpora systému souborů pracovního prostoru v PySpark User-Defined Functions (UDF) v clusterech se standardním režimem přístupu (dříve sdílený režim přístupu)
Funkce PySpark UDF na standardních clusterech teď může importovat moduly Pythonu z složek Gitu, souborů pracovního prostorunebo svazků UC.
Další informace o práci s moduly ve složkách Gitu nebo souborech pracovních prostorů najdete v tématu Práce s moduly Pythonu a R.
Podpora optimalizace vektorů odstranění bez použití Photonu
Photon se už nevyžaduje pro operace MERGE
, které využívají optimalizace vektorů odstranění. Podívejte se, co jsou to vektory odstranění?
Rozhraní API katalogu Spark jsou nyní ve standardním režimu přístupu plně podporována.
Teď můžete použít všechny funkce v rozhraní API spark.catalog
jak v Pythonu, tak v jazyce Scala na výpočetních prostředcích nakonfigurovaných pomocí standardního režimu přístupu.
Delta UniForm je teď obecně dostupný.
UniForm je nyní obecně dostupný a používá funkci tabulky IcebergCompatV2
. U existujících tabulek teď můžete povolit nebo upgradovat UniForm. Viz Čtení tabulek Delta s klienty Iceberg.
Nová funkce SQL EXECUTE IMMEDIATE
Pomocí syntaxe EXECUTE IMMEDIATE teď můžete podporovat parametrizované dotazy v SQL. Viz EXECUTE IMMEDIATE.
Přepočítejte statistiky vynechávání dat pro tabulky Delta
Statistiky uložené v protokolu Delta teď můžete přepočítat po změně sloupců používaných pro přeskakování dat. Viz Určení sloupců statistiky delta.
Informace o stavu dotazů pro stavové streamovací dotazy
Teď se můžete dotazovat na data stavu strukturovaného streamování a metadata. Viz Přečtěte si informace o stavu strukturovaného streamování.
Použijte Microsoft Entra ID pro ověřování v Kafce na standardních clusterech.
Služby Event Hubs teď můžete ověřovat prostřednictvím OAuth s ID Microsoft Entra na výpočetních prostředcích nakonfigurovaných pomocí standardního režimu přístupu. Viz Autentizace principála služby pomocí ID Microsoft Entra a Azure Event Hubs.
Přidání podpory pro vyřazení souborů a oddílů za účelem zlepšení výkonu dotazů
Abychom urychlili některé dotazy, které v JOIN podmínkách spoléhají na nulovou-tolerantní rovnost, nyní podporujeme DynamicFilePruning
a DynamicPartitionPruning
pro operátor EqualNullSafe
v JOINech.
Deklarovat dočasné proměnné v SQL relaci
Tato verze zavádí možnost deklarovat dočasné proměnné v relaci, které lze nastavit a na které lze poté v dotazech odkazovat. Viz proměnné.
Aktualizace thriftserveru pro odebrání nepoužívaných funkcí
Kód serveru Thrift byl aktualizován tak, aby odebral kód pro zastaralé funkce. Vzhledem k těmto změnám se už nepodporují následující konfigurace:
- Pomocné JAR soubory Hive nakonfigurované pomocí vlastnosti
hive.aux.jars.path
už nejsou podporované pro připojeníhive-thriftserver
. - Globální inicializační soubor Hive (
.hiverc
), jehož umístění je nakonfigurováno pomocí vlastnostihive.server2.global.init.file.location
nebo proměnné prostředíHIVE_CONF_DIR
, se už nepodporuje pro připojeníhive-thriftserver
.
Použití souborů úložiště důvěryhodnosti a úložiště klíčů ve svazcích katalogu Unity
Můžete nyní použít soubory truststore a keystore ve svazcích Unity Catalog k ověřování pomocí Confluent Schema Registry pro data ve formátu Avro nebo Protocol Buffer. Podívejte se do dokumentace pro avro nebo protocol buffers.
Podpora nativního formátu souborů XML (Public Preview)
Podpora nativního formátu souborů XML je teď ve verzi Public Preview. Podpora formátu souboru XML umožňuje příjem dat, dotazování a analýzu dat XML pro dávkové zpracování nebo streamování. Dokáže automaticky odvodit a vyvíjet schémata a datové typy, podporuje výrazy SQL, jako je from_xml
, a může generovat dokumenty XML. Nevyžaduje externí soubory JAR a bezproblémově funguje s Automatickým zavaděčem, read_files
, COPY INTO
a DLT. Viz Čtení a zápis souborů XML.
Podpora úložiště Cloudflare R2 (Public Preview)
Cloudflare R2 teď můžete použít jako cloudové úložiště pro data zaregistrovaná v katalogu Unity. Cloudflare R2 je určen především pro případy použití Delta Sharing, ve kterých se chcete vyhnout poplatkům za odchozí přenos dat, účtovaným poskytovateli cloudu při přechodu mezi oblastmi. Úložiště R2 podporuje všechna data Databricks a prostředky AI podporované v AWS S3, Azure Data Lake Storage Gen2 a Google Cloud Storage. Viz Použití replik Cloudflare R2 nebo migrace úložiště do R2 a vytvoření přihlašovacích údajů úložiště pro připojení ke Cloudflare R2.
Přístup Sparku a dbutils k souborům pracovního prostoru podporují clustery Unity Catalog se standardním přístupem
Spark a dbutils
přístup pro čtení a zápis k souborům pracovního prostoru se teď podporuje v clusterech Unity Catalogu v standardním režimu přístupu. Viz Pracujte se soubory pracovního prostoru.
Podpora inicializačních skriptů a knihoven clusterů v clusterech Katalogu Unity se standardním přístupem
Instalace inicializačních skriptů s oborem clusteru a knihoven Python a JAR v clusterech katalogu Unity v standardním režimu přístupu, včetně instalace pomocí zásad clusteru , je teď obecně dostupná. Databricks doporučuje instalaci inicializačních skriptů a knihoven ze svazků katalogu Unity.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- fastjsonschema od 2.19.0 do 2.19.1
- filelock od 3.12.4 do 3.13.1
- googleapis-common-protos od 1.61.0 do 1.62.0
- balení od 22.0 do 23.2
- Upgradované knihovny jazyka R:
- cizí od 0.8-82 do 0.8-85
- nlme od 3.1-162 do 3.1-163
- rpart od 4.1.19 do 4.1.21
- Upgradované knihovny Java:
- com.databricks.databricks-sdk-java od 0.7.0 do 0.13.0
- org.apache.orc.orc-core od 1.9.1-shaded-protobuf na 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce z verze 1.9.1-shaded-protobuf až 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims od 1.9.1 do 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 od 2.9.0 do 2.11.0
Apache Spark
Databricks Runtime 14.3 zahrnuje Apache Spark 3.5.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 14.2 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-46541] [SC-153546][sql][CONNECT] Oprava nejednoznačného odkazu na sloupec ve vlastním spojení
- [SPARK-45433] Vrátit zpět „[SC-145163][sql] Opravit schéma CSV/JSON...
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Umožněte opakování funkce addArtifact
- [SPARK-46660] [SC-153391][connect] ReattachExecute požadavky na aktualizace stavu správce relací.
- [SPARK-46670] [SC-153273][python][SQL] Samoobslužné klonování DataSourceManager oddělením statických a runtime zdrojů dat Pythonu
- [SPARK-46720] [SC-153410][sql][PYTHON] Refaktoring zdroje dat Pythonu tak, aby odpovídal ostatním integrovaným zdrojům dat DSv2
- [SPARK-46684] [SC-153275][python][CONNECT] Oprava CoGroup.applyInPandas/Arrow pro správné předávání argumentů
- [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Vyvolání chyby u více zdrojů dat XML
- [SPARK-46382] [SC-151881][sql]XML: Výchozí hodnota pro ignoreSurroundingSpaces je nastavena na true
-
[SPARK-46382] [SC-153178][sql] XML: Aktualizace dokumentace pro
ignoreSurroundingSpaces
- [SPARK-45292] Vrátit zpět “[SC-151609][sql][HIVE] Odebrat Guavu ze sdílených tříd z IzolovanéhoClientLoaderu”
- [SPARK-45292] [SC-151609][sql][HIVE] Odebrat Guava ze sdílených tříd IsolatedClientLoaderu
-
[SPARK-46311] [SC-150137][core] Zaznamená finální stav ovladačů během
Master.removeDriver
- [SPARK-46413] [SC-151052][python] Ověřit returnType Arrow Python UDF
- [SPARK-46633] [WARMFIX][sc-153092][SQL] Oprava čtečky Avro pro zpracování bloků nulové délky
- [SPARK-46537] [SC-151286][sql] Převod NPE a asertů z příkazů na vnitřní chyby
- [SPARK-46179] [SC-151678][sql] Přidat CrossDbmsQueryTestSuites, která spouští jiné DBMS proti zlatým souborům s jinými DBMS, počínaje Postgres.
- [SPARK-44001] [SC-151413][protobuf] Přidání možnosti pro povolení rozbalení známých typů obálky protobuf
- [SPARK-40876] [SC-151786][sql] Rozšíření podpory typu pro desetinná místa s větším měřítkem u čteček Parquet
-
[SPARK-46605] [SC-151769][connect] Umožněte, aby funkce
lit/typedLit
v modulu connect podporovalas.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005][sql] literálové ověření by nemělo přejít k polím null
-
[SPARK-37039] [SC-153094][ps] Oprava správného fungování
Series.astype
s chybějící hodnotou -
[SPARK-46312] [SC-150163][core] Použití
lower_camel_case
vstore_types.proto
- [SPARK-46630] [SC-153084][sql] XML: Ověření názvu elementu XML při zápisu
- [SPARK-46627] [SC-152981][ss][UI] Oprava obsahu popisu časové osy v uživatelském rozhraní streamování
- [SPARK-46248] [SC-151774][sql] XML: Podpora pro možnosti ignoreCorruptFiles a ignoreMissingFiles
- [SPARK-46386] [SC-150766][python] Zlepšení asercí u pozorování (pyspark.sql.pozorování)
- [SPARK-46581] [SC-151789][jádro] Aktualizovat komentář k isZero v AccumulatorV2
- [SPARK-46601] [SC-151785] [JÁDRO] Oprava chyby protokolu v handleStatusMessage
- [SPARK-46568] [SC-151685][python] Nastavení možností zdroje dat Pythonu na slovník nerozlišující malá a velká písmena
- [SPARK-46611] [SC-151783][core] Odebrání ThreadLocal nahrazením SimpleDateFormat za DateTimeFormatter
-
[SPARK-46604] [SC-151768][sql] Umožnit podporu
Literal.apply
s.c.immuable.ArraySeq
- [SPARK-46324] [SC-150223][sql][PYTHON] Opravit název výstupu pyspark.sql.functions.user a session_user
- [SPARK-46621] [SC-151794][python] Řešení null z Exception.getMessage v zachycené výjimce Py4J
- [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader by měl při vytváření vektorů sloupců pro chybějící sloupec respektovat režim paměti.
- [SPARK-46613] [SC-151778][sql][PYTHON] Zaznamenejte úplnou výjimku, pokud se nepodaří vyhledat zdroje dat Pythonu
-
[SPARK-46559] [SC-151364][mllib] Zabalte
export
do názvu balíčku pomocí backticks. - [SPARK-46522] [SC-151784][python] Blokovat registraci datového zdroje Python s konflikty názvů
- [SPARK-45580] [SC-149956][sql] Řešení případu, kdy se vnořený poddotaz stane existenciálním spojením
- [SPARK-46609] [SC-151714][sql] Vyhněte se exponenciálnímu nárůstu v partitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][sql] Oprava NPE při popisu rozšířeného sloupce bez statistik sloupců
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Kontrola kompatibility pomocí typeCoercion.findTightestCommonType
- [SPARK-40876] [SC-151129][sql] Rozšíření povýšení typů v čtenářích Parquet
- [SPARK-46179] [SC-151069][sql] Stažení kódu do opakovaně použitelných funkcí v SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][sql] Podpora
s.c.immutable.ArraySeq
jakocustomCollectionCls
vMapObjects
-
[SPARK-46585] [SC-151622][jádro] Přímo vytvořené
metricPeaks
jakoimmutable.ArraySeq
místo použitímutable.ArraySeq.toSeq
vExecutor
- [SPARK-46488] [SC-151173][sql] Přeskočení volání trimAll během analýzy časového razítka
-
[SPARK-46231] [SC-149724][python] Migrace všech zbývajících
NotImplementedError
&TypeError
do architektury chyb PySpark -
[SPARK-46348] [SC-150281][core] Podpora
spark.deploy.recoveryTimeout
-
[SPARK-46313] [SC-150164][jádro] Doba trvání obnovení protokolu
Spark HA
-
[SPARK-46358] [SC-150307][connect] Zjednodušení kontroly podmínek v
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][sql]Před vyhodnocením vložených výrazů tabulky nahraďte aktuální čas a datum.
- [SPARK-46563] [SC-151441][sql] Zobrazení simpleString se neshoduje s nastavením spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Zmenšete hloubku zásobníku nahraďte (řetězec|pole).size za (řetězec|pole).length
- [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT(všechna pole ze struktury) způsobí selhání kontrolního výrazu.
- [SPARK-46565] [SC-151414][python] Upřesnění tříd chyb a chybových zpráv pro zdroje dat Pythonu
- [SPARK-46576] [SC-151614][sql] Vylepšení chybových zpráv pro nepodporovaný režim ukládání zdroje dat
- [SPARK-46540] [SC-151355][python] Respektovat názvy sloupců, když funkce pro čtení z datového zdroje v Pythonu vrací pojmenované objekty typu Row.
- [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite uniká sezení Hiveu SessionState
-
[SPARK-44556] [SC-151562][sql] Opětovné použití
OrcTail
při povolení vectorizedReader - [SPARK-46587] [SC-151618][sql] XML: Oprava velkého celočíselného převodu XSD
- [SPARK-46382] [SC-151297][sql] XML: Zachycení hodnoty rozptýlené mezi prvky
- [SPARK-46567] [SC-151447][core] Odstranit ThreadLocal pro ReadAheadInputStream
- [SPARK-45917] [SC-151269][python][SQL] Automatická registrace zdroje dat Pythonu při spuštění
- [SPARK-28386] [SC-151014][sql] Nelze vyřešit ORDER BY sloupce s GROUP BY a HAVING
- [SPARK-46524] [SC-151446][sql] Vylepšení chybových zpráv pro neplatný režim ukládání
- [SPARK-46294] [SC-150672][sql] Vyčištění sémantiky init vs. nulové hodnoty
-
[SPARK-46301] [SC-150100][core] Podpora
spark.worker.(initial|max)RegistrationRetries
-
[SPARK-46542] [SC-151324][sql] Odeberte kontrolu
c>=0
zExternalCatalogUtils#needsEscaping
, jelikož je vždy pravdivá -
[SPARK-46553] [SC-151360][ps]
FutureWarning
prointerpolate
s typem objektu - [SPARK-45914] [SC-151312][python] Podpora API pro commit a abort při zápisu zdroje dat v Pythonu
-
[SPARK-46543] [SC-151350][python][CONNECT] Vytvoření
json_tuple
vyvolání chyby PySparkValueError pro prázdná pole - [SPARK-46520] [SC-151227][python] Podpora režimu přepsání pro zápis zdroje dat Pythonu
- [SPARK-46502] [SC-151235][sql] Podpora typů časových razítek v UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][connect] Předat parametry zprávy v metadatech
ErrorInfo
-
[SPARK-46397] Vrátit zpět "[SC-151311][python][CONNECT] Funkce
sha2
by měla zvýšitPySparkValueError
pro neplatnounumBits
" - [SPARK-46170] [SC-149472][sql] Podpora vkládání pravidel strategie adaptivního post-plánovače dotazů ve SparkSessionExtensions
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable by neměla načíst tabulku.
-
[SPARK-46397] [SC-151311][python][CONNECT] Funkce
sha2
by měla vyvolatPySparkValueError
pro neplatnénumBits
- [SPARK-46145] [SC-149471][sql] spark.catalog.listTables nevyvolá výjimku, pokud se tabulka nebo zobrazení nenajde
- [SPARK-46272] [SC-151012][sql] Podpora CTAS pomocí zdrojů DSv2
- [SPARK-46480] [SC-151127][core][SQL] Oprava NPE při pokusu o přístup k mezipaměti tabulky
- [SPARK-46100] [SC-149051][core][PYTHON] Omezte hloubku zásobníku nahrazením (řetězec|pole).size za (řetězec|pole).length
- [SPARK-45795] [SC-150764][sql] DS V2 podporuje režim push down
- [SPARK-46485] [SC-151133][sql] V1Write by neměl přidávat řazení, pokud to není nutné
- [SPARK-46468] [SC-151121] [SQL] Zpracování chyby COUNT u poddotazů EXISTS s agregací bez seskupování klíčů
- [SPARK-46246] [SC-150927][sql] podpora EXECUTE IMMEDIATE SQL
-
[SPARK-46498] [SC-151199][core] Odebrání
shuffleServiceEnabled
zo.a.spark.util.Utils#getConfiguredLocalDirs
-
[SPARK-46440] [SC-150807][sql] Nastavte konfigurace rebase na režim
CORRECTED
ve výchozím nastavení. - [SPARK-45525] [SC-151120][sql][PYTHON] Podpora zápisu zdroje dat v Pythonu pomocí DSv2
-
[SPARK-46505] [SC-151187][connect] Nastavení prahové hodnoty bajtů v
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][sql] Odstranění starších konfigurací SQL pro přemapování datumových a časových hodnot.
- [SPARK-46443] [SC-151123][sql] Přesnost a měřítko desetinných míst by mělo rozhodnout dialekt H2.
- [SPARK-46384] [SC-150694][spark-46404][SS][ui] Oprava grafu délky trvání operace na stránce pro strukturované streamování
- [SPARK-46207] [SC-151068][sql] Podpora MergeInto v dataFrameWriterV2
- [SPARK-46452] [SC-151018][sql] Přidání nového rozhraní API v objektu DataWriter pro zápis iterátoru záznamů
- [SPARK-46273] [SC-150313][sql] Podpora INSERT INTO/OVERWRITE pomocí zdrojů DSv2
- [SPARK-46344] [SC-150267][core] Upozornit správně, pokud ovladač existuje úspěšně, ale hlavní server je odpojen
-
[SPARK-46284] [SC-149944][python][CONNECT] Přidání funkce
session_user
do Pythonu - [SPARK-46043] [SC-149786][sql] Podpora vytváření tabulek pomocí zdrojů DSv2
- [SPARK-46323] [SC-150191][python] Oprava názvu výstupu pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][python][CONNECT] Přidání
Column.isNaN
v PySparku -
[SPARK-46456] [SC-151050][core] Přidání
spark.ui.jettyStopTimeout
pro nastavení časového limitu zastavení serveru Jetty pro odblokování vypnutí SparkContextu - [SPARK-43427] [SC-150356][protobuf] spark protobuf: umožnit přetypování nepodepsaných celočíselných typů
- [SPARK-46399] [SC-151013][14.x][Jádro] Přidat stav ukončení do události Konec aplikace pro použití naslouchacího procesu Spark
- [SPARK-46423] [SC-150752][python][SQL] Nastavení instance zdroje dat Pythonu na DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][python][SQL] Podpora metrik Pythonu ve zdroji dat Pythonu
- [SPARK-46330] [SC-151015] Načítání bloků uživatelského rozhraní Sparku po dlouhou dobu, když je povolený HybridStore
- [SPARK-46378] [SC-150397][sql] Po převodu agregace na projekt stále odebrat řazení
- [SPARK-45506] [SC-146959][connect] Přidání podpory pro ivy URI do funkce SparkConnect addArtifact
- [SPARK-45814] [SC-147871][connect][SQL]Make ArrowConverters.createEmptyArrowBatch call close(), aby nedošlo k úniku paměti
- [SPARK-46427] [SC-150759][python][SQL] Změňte popis zdroje dat Pythonu, aby byl přehlednější při zobrazování.
- [SPARK-45597] [SC-150730][python][SQL] Podpora vytváření tabulek pomocí zdroje dat Pythonu v SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][python] Přidání getMessageParameters a podpora getQueryContext
-
[SPARK-46453] [SC-150897][connect] Vyhoď výjimku z
internalError()
vSessionHolder
- [SPARK-45758] [SC-147454][sql] Zavedení mapperu pro kodeky komprese hadoop
-
[SPARK-46213] [PYTHON] Zavedení
PySparkImportError
pro architekturu chyb -
[SPARK-46230] [SC-149960][python] Migrace
RetriesExceeded
do chyby PySpark - [SPARK-45035] [SC-145887][sql] Oprava ignoreCorruptFiles/ignoreMissingFiles s víceřádkovým souborem CSV/JSON oznámí chybu
- [SPARK-46289] [SC-150846][sql] Podpora řazení UDT v interpretovaném režimu
- [SPARK-46229] [SC-150798][python][CONNECT] Add applyInRow to groupBy a cogroup in Spark Connect
- [SPARK-46420] [SC-150847][sql] Odebrání nepoužívaného přenosu ve SparkSQLCLIDriveru
-
[SPARK-46226] [PYTHON] Migrace všech zbývajících
RuntimeError
do systému chyb PySpark - [SPARK-45796] [SC-150613][sql] Podpora MODE() V RÁMCI SKUPINY (ORDER BY col)
- [SPARK-40559] [SC-149686][python][14.X] Přidání příkazu ApplyInArrow pro groupBy a cogroup
- [SPARK-46069] [SC-149672][sql] Podpora převodu typu časové razítko na typ datum
- [SPARK-46406] [SC-150770][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss] Konvertovat
IllegalStateException
nainternalError
v iterátorech relací - [SPARK-45807] [SC-150751][sql] Vylepšení rozhraní API ViewCatalog
- [SPARK-46009] [SC-149771][sql][CONNECT] Sloučí pravidlo analýzy percentileCont a PercentileDisc do functionCall.
- [SPARK-46403] [SC-150756][sql] Dekódování binárního souboru parquet pomocí metody getBytesUnsafe
-
[SPARK-46389] [SC-150779][core] Při
checkVersion
vyvolání výjimky ručně zavřete instanciRocksDB/LevelDB
. -
[SPARK-46360] [SC-150376][python] Vylepšení ladění chybových zpráv pomocí nového rozhraní API
getMessage
-
[SPARK-46233] [SC-149766][python] Migrace všech zbývajících
AttributeError
do architektury chyb PySpark -
[SPARK-46394] [SC-150599][sql] Oprava problémů s spark.catalog.listDatabases() u schémat se speciálními znaky při nastavení
spark.sql.legacy.keepCommandOutputSchema
na true - [SPARK-45964] [SC-148484][sql] Odebrání soukromého přístupového objektu SQL v rámci balíčků XML a JSON pod paketem Catalyst
- [SPARK-45856] [SC-148691] Přesun ArtifactManageru ze Spark Connect do SparkSession (sql/core)
- [SPARK-46409] [SC-150714][connect] Oprava spouštěcího skriptu spark-connect-scala-client
-
[SPARK-46416] [SC-150699][core] Přidání
@tailrec
doHadoopFSUtils#shouldFilterOutPath
-
[SPARK-46115] [SC-149154][sql] Omezení znakových sad v
encode()
- [SPARK-46253] [SC-150416][python] Plánování čtení zdroje dat Pythonu pomocí MapInArrow
- [SPARK-46339] [SC-150266][ss] Adresář pojmenovaný podle čísla dávky by neměl být považován za protokol metadat.
-
[SPARK-46353] [SC-150396][core] Refaktoring pro zlepšení pokrytí jednotkových testů
RegisterWorker
- [SPARK-45826] [SC-149061][sql] Přidání konfigurace SQL pro trasování zásobníku v kontextu dotazu datového rámce
- [SPARK-45649] [SC-150300][sql] Sjednocení architektury přípravy pro OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][jádro] Oprava hlavního serveru pro aktualizaci pracovního procesu z
UNKNOWN
naALIVE
naRegisterWorker
msg -
[SPARK-46388] [SC-150496][sql] HiveAnalysis postrádá vzorovou ochranu
query.resolved
-
[SPARK-46401] [SC-150609][core] Místo
getCardinality() > 0
vRemoteBlockPushResolver
používejte!isEmpty()
naRoaringBitmap
- [SPARK-46393] [SC-150603][sql] Klasifikovat výjimky v katalogu tabulek JDBC
- [SPARK-45798] [SC-150513][connect] Následné kroky: přidat serverSessionId do SessionHolderInfo
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML: Přidání podpory TimestampNTZType
- [SPARK-46075] [SC-150393][connect] Vylepšení SparkConnectSessionManager
- [SPARK-46357] [SC-150596] Nahradit nesprávné použití setConf v dokumentaci s conf.set
- [SPARK-46202] [SC-150420][connect] Zveřejnění nových rozhraní API ArtifactManager pro podporu vlastních cílových adresářů
-
[SPARK-45824] [SC-147648][sql] Vynucování třídy chyb v
ParseException
- [SPARK-45845] [SC-148163][ss][UI] Přidat počet vyřazených řádků stavu do uživatelského rozhraní streamování
-
[SPARK-46316] [SC-150181][core] Povolení
buf-lint-action
v modulucore
-
[SPARK-45816] [SC-147656][sql] Vrátit
NULL
při přetečení během přetypování z časového razítka na celá čísla -
[SPARK-46333] [SC-150263][sql] Nahraďte
IllegalStateException
SparkException.internalError
v katalyzátoru. - [SPARK-45762] [SC-148486][core] Podpora správců shuffle definovaných v uživatelských JAR souborech změnou pořadí spuštění.
-
[SPARK-46239] [SC-149752][jádro] Skrýt informace o
Jetty
-
[SPARK-45886] [SC-148089][sql] Výstup kompletního trasování zásobníku v
callSite
kontextu datového rámce - [SPARK-46290] [SC-150059][python] Změna saveMode na logický příznak pro DataSourceWriter
- [SPARK-45899] [SC-148097][connect] Nastavit errorClass v errorInfoToThrowable
-
[SPARK-45841] [SC-147657][sql] Zpřístupnění trasování zásobníku
DataFrameQueryContext
-
[SPARK-45843] [SC-147721][core] Podpora
killall
v rozhraní REST Submission API -
[SPARK-46234] [SC-149711][python] Zavedení
PySparkKeyError
pro architekturu chyb PySpark - [SPARK-45606] [SC-147655][sql] Omezení vydaných verzí u filtru modulu runtime s více vrstvami
- [SPARK-45725] [SC-147006][sql] Odeberte nevýchozí runtime filtr poddotazů IN.
-
[SPARK-45694] [SC-147314][spark-45695][SQL] Vyčištění používání zastaralého API
View.force
aScalaNumberProxy.signum
-
[SPARK-45805] [SC-147488][sql] Vytvoření
withOrigin
obecnější - [SPARK-46292] [SC-150086][core][UI] Zobrazit souhrn pracovních procesů na MasterPage
-
[SPARK-45685] [SC-146881][core][SQL] Místo
Stream
použijteLazyList
- [SPARK-45888] [SC-149945][ss] Uplatnění rámce tříd chyb na Stav (Metadata) jako Zdroj dat
-
[SPARK-46261] [SC-150111][connect]
DataFrame.withColumnsRenamed
by měly zachovat pořadí diktování a mapování. -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Vyčištění převodů
SeqOps.view
aArrayOps.view
-
[SPARK-46029] [SC-149255][sql] Escapování jednoduchých uvozovek,
_
a%
pro DS V2 pushdown - [SPARK-46275] [SC-150189] Protobuf: Vrátí hodnotu null v režimu permissive v případě selhání deserializace.
-
[SPARK-46320] [SC-150187][core] Podpora
spark.master.rest.host
- [SPARK-46092] [SC-149658][sql] Neposílejte dolů filtry skupin řádků formátu Parquet, které přetékají
- [SPARK-46300] [SC-150097][python][CONNECT] Spárování menšího chování ve sloupci s úplným pokrytím testu
- [SPARK-46298] [SC-150092][python][CONNECT] Upozornění na vyřazení, testovací případ a chyba pro Catalog.createExternalTable
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Vyčistěte zastaralé využití rozhraní API související s
StringContext/StringOps/RightProjection/LeftProjection/Either
a typem použitíBufferedIterator/CanBuildFrom/Traversable
- [SPARK-33393] [SC-148407][sql] Podpora SHOW TABLE EXTENDED ve verzi 2
-
[SPARK-45737] [SC-147011][sql] Odebrání nepotřebných
.toArray[InternalRow]
vSparkPlan#executeTake
- [SPARK-46249] [SC-149797][ss] Je nutné použít zámek instance pro získání metrik RocksDB, aby se zabránilo kolizi s operacemi běžícími na pozadí
-
[SPARK-46260] [SC-149940][python][SQL]
DataFrame.withColumnsRenamed
by mělo respektovat řazení diktů. - [SPARK-46274] [SC-150043] [SQL] Oprava výpočetních statistik operátoru Range() pro kontrolu dlouhé platnosti před převodem
- [SPARK-46040] [SC-149767][sql][Python] Aktualizujte rozhraní API UDTF pro analýzu a řazení sloupců pro podporu obecných výrazů.
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmpty
by měl fungovat se všemi datovými typy - [SPARK-45678] [SC-146825][core] Zahrnout BufferReleasingInputStream.available/reset při tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][core][SQL][connect] Vyčistěte zastaralé využití rozhraní API související s
IterableOnceExtensionMethods
. -
[SPARK-43980] [SC-148992][sql] představuje syntaxi
select * except
- [SPARK-46269] [SC-149816][ps] Povolit více testů kompatibility funkcí NumPy
- [SPARK-45807] [SC-149851][sql] Přidat createOrReplaceView(..) / replaceView(..) do ViewCatalog
-
[SPARK-45742] [SC-147212][CORE][CONNECT][mllib][PYTHON] Zavádí implicitní funkci pro Scala Array, která se má zabalit do
immutable.ArraySeq
. -
[SPARK-46205] [SC-149655][core] Zlepšení výkonu
PersistenceEngine
pomocíKryoSerializer
- [SPARK-45746] [SC-149359][python] Vrátí konkrétní chybové zprávy, pokud metoda UDTF analyze nebo eval přijímá nebo vrací nesprávné hodnoty.
- [SPARK-46186] [SC-149707][connect] Oprava nelegálního přechodu stavu, když je ExecuteThreadRunner přerušen před spuštěním
-
[SPARK-46262] [SC-149803][ps] Povolte test pro
np.left_shift
pro objekt Pandas-on-Spark. - [SPARK-45093] [SC-149679][connect][PYTHON] Podpora řádného zpracování chyb a převodu pro AddArtifactHandler
- [SPARK-46188] [SC-149571][doc][3.5] Oprava šablon stylů CSS vygenerovaných tabulek dokumentace Sparku
- [SPARK-45940] [SC-149549][python] Přidání inputPartition do rozhraní DataSourceReader
- [SPARK-43393] [SC-148301][sql] Chyba přetečení výrazu sekvence adresy.
- [SPARK-46144] [SC-149466][sql] Chyba při provádění INSERT INTO ... Příkaz REPLACE, pokud podmínka obsahuje poddotaz
-
[SPARK-46118] [SC-149096][sql][SS][connect] Místo
SQLContext.conf
použijteSparkSession.sessionState.conf
a označteSQLContext.conf
jako zastaralé - [SPARK-45760] [SC-147550][sql] Přidat s výrazem, aby nedocházelo k duplikování výrazů
- [SPARK-43228] [SC-149670][sql] Klíče připojení také odpovídají PartitioningCollection v CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][ps] Test SparkPandasNotImplementedError s vyčištěním nepoužívaného kódu
-
[SPARK-46119] [SC-149205][sql] Přepsat metodu
toString
proUnresolvedAlias
- [SPARK-46206] [SC-149674][ps] Pro procesor SQL použijte výjimku specifičtějšího rozsahu.
-
[SPARK-46191] [SC-149565][core] Vylepšení
FileSystemPersistenceEngine.persist
chybové zprávy v případě existujícího souboru - [SPARK-46036] [SC-149356][sql] Odebrání třídy chyb z funkce raise_error
- [SPARK-46055] [SC-149254][sql] Přepsání implementace rozhraní API databáze katalogu
- [SPARK-46152] [SC-149454][sql] XML: Přidání podpory decimalType v odvození schématu XML
- [SPARK-45943] [SC-149452][sql] Přesunout DetermineTableStats to resolution rules
-
[SPARK-45887] [SC-148994][sql] Sladění codegenu a ne-codegen implementace
Encode
- [SPARK-45022] [SC-147158][sql] Zadejte kontext pro chyby rozhraní API datové sady.
-
[SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Nahraďte
toIterator
iterator
proIterableOnce
- [SPARK-46141] [SC-149357][sql] Změna výchozí hodnoty pro spark.sql.legacy.ctePrecedencePolicy na OPRAVENO
-
[SPARK-45663] [SC-146617][core][MLLIB] Nahraďte
IterableOnceOps#aggregate
IterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][sql] Opětovné použití literálových objektů v pravidle ComputeCurrentTime
-
[SPARK-45803] [SC-147489][core] Odeberte už nepoužívané
RpcAbortException
- [SPARK-46148] [SC-149350][ps] Oprava pyspark.pandas.mlflow.load_model testu (Python 3.12)
- [SPARK-46110] [SC-149090][python] Použijte třídy chyb v katalogu, konfiguraci, připojení, pozorování, a modulech pandas.
- [SPARK-45827] [SC-149203][sql] Opravy variant s generováním kódu a vektorizovaným čtecím zařízením jsou zakázány
- [SPARK-46080] Vrátit zpět [SC-149012][python] Upgradovat Cloudpickle na verzi 3.0.0
-
[SPARK-45460] [SC-144852][sql] Nahraďte
scala.collection.convert.ImplicitConversions
nascala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][sql] Odeberte speciální rozlišení UnresolvedNamespace pro určité příkazy.
- [SPARK-45600] [SC-148976][python] Nastavení úrovně relace registrace zdroje dat v Pythonu
- [SPARK-46074] [SC-149063][connect][SCALA] Nedostatečné podrobnosti v chybové zprávě o selhání UDF
- [SPARK-46114] [SC-149076][python] Přidání chyby PySparkIndexError do rámce chyb
-
[SPARK-46120] [SC-149083][connect][PYTHON] Odstranit pomocnou funkci
DataFrame.withPlan
- [SPARK-45927] [SC-148660][python] Aktualizovat zpracování cest pro datový zdroj Pythonu
- [SPARK-46062] [14.x][sc-148991][SQL] Synchronizace příznaku isStreaming mezi definicí CTE a odkazem
-
[SPARK-45698] [SC-146736][core][SQL][ss] Vyčistěte zastaralé využití rozhraní API související s
Buffer
- [SPARK-46064] [SC-148984][sql][SS] Přesuňte EliminateEventTimeWatermark do analyzátoru a změňte, aby měly účinek pouze na vyřešené podřízené.
- [SPARK-45922] [SC-149038][connect][CLIENT] Menší refaktoring opakovaných pokusů (v návaznosti na více zásad)
- [SPARK-45851] [SC-148419][connect][SCALA] Podpora více zásad v klientovi scala
- [SPARK-45974] [SC-149062][sql] Přidat kontrolu neprázdnosti pro scan.filterAttributes ve funkci RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][connect] Dataset.groupingSets v klientovi Scala Spark Connect
- [SPARK-45136] [SC-146607][connect] Vylepšit ClosureCleaner s podporou Ammonite
- [SPARK-46084] [SC-149020][ps] Refaktorovat operaci přetypování datového typu pro kategorický typ.
- [SPARK-46083] [SC-149018][python] Udělat ze SparkNoSuchElementException kanonické rozhraní API pro chyby
- [SPARK-46048] [SC-148982][python][CONNECT] Podpora funkcionality DataFrame.groupingSets v Python Spark Connect
- [SPARK-46080] [SC-149012][python] Upgrade Cloudpickle na verzi 3.0.0
- [SPARK-46082] [SC-149015][python][CONNECT] Oprava reprezentace řetězců protobuf pro rozhraní API funkcí Pandas pomocí Spark Connect
-
[SPARK-46065] [SC-148985][ps] Přepsat
(DataFrame|Series).factorize()
, aby použilcreate_map
. - [SPARK-46070] [SC-148993][sql] Kompilace vzoru regulárních výrazů ve SparkDateTimeUtils.getZoneId mimo horkou smyčku
- [SPARK-46063] [SC-148981][python][CONNECT] Vylepšení chybových zpráv souvisejících s typy argumentů v cute, rollup, groupby a pivot
- [SPARK-44442] [SC-144120][mesos] Odebrání podpory Mesos
- [SPARK-45555] [SC-147620][python] Obsahuje objekt pro ladění neúspěšných asercí.
- [SPARK-46048] [SC-148871][python][SQL] Podpora funkce DataFrame.groupingSets v PySpark
- [SPARK-45768] [SC-147304][sql][PYTHON] Udělat z modulu faulthandler konfigurovatelný prvek pro spouštění Pythonu v SQL
- [SPARK-45996] [SC-148586][python][CONNECT] Zobrazit správné zprávy požadavků na závislost pro Spark Connect
- [SPARK-45681] [SC-146893][ui] Klonování js verze UIUtils.errorMessageCell pro konzistentní vykreslování chyb v uživatelském rozhraní
-
[SPARK-45767] [SC-147225][core] Odstranit
TimeStampedHashMap
a jeho UT - [SPARK-45696] [SC-148864][core] Oprava metody tryCompleteWith v rozhraní Promise, která je zastaralá
- [SPARK-45503] [SC-146338][ss] Přidání konfigurace pro nastavení komprese RocksDB
-
[SPARK-45338] [SC-143934][core][SQL] Nahrazení
scala.collection.JavaConverters
nascala.jdk.CollectionConverters
-
[SPARK-44973] [SC-148804][sql] Oprava
ArrayIndexOutOfBoundsException
vconv()
- [SPARK-45912] [SC-144982][sc-148467][SQL] Vylepšení rozhraní API XSDToSchema: Změna rozhraní HDFS API pro usnadnění přístupu ke cloudovému úložišti
-
[SPARK-45819] [SC-147570][core] Podpora
clear
v rozhraní REST Submission API -
[SPARK-45552] [14.x][sc-146874][PS] Zavedení flexibilních parametrů pro
assertDataFrameEqual
-
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Zadejte rozhraní pro ostatní zdroje streamování pro přidání
_metadata
sloupců. - [SPARK-45929] [SC-148692][sql] Podpora operace seskupování sad v API pro datové rámce
- [SPARK-46012] [SC-148693][core] EventLogFileReader by neměl číst kumulativní protokoly, pokud chybí soubor stavu aplikace.
- [SPARK-45965] [SC-148575][sql] Přesun výrazů dělení DSv2 do functions.partitioning
-
[SPARK-45971] [SC-148541][core][SQL] Oprava názvu balíčku
SparkCollectionUtils
naorg.apache.spark.util
-
[SPARK-45688] [SC-147356][spark-45693][CORE] Odstraňte zastaralé využití rozhraní API související s
MapOps
& Opravamethod += in trait Growable is deprecated
-
[SPARK-45962] [SC-144645][sc-148497][SQL] Odeberte
treatEmptyValuesAsNulls
a místo toho použijte možnostnullValue
v JAZYCE XML. -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] Oprava popisů typů pro zpracování
list
GenericAlias v Pythonu 3.11+ -
[SPARK-45999] [SC-148595][ps] Použití vyhrazených
PandasProduct
vcumprod
-
[SPARK-45986] [SC-148583][ml][PYTHON] Oprava
pyspark.ml.torch.tests.test_distributor
v Pythonu 3.11 -
[SPARK-45994] [SC-148581][python] Změna
description-file
nadescription_file
- [SPARK-45575] [SC-146713][sql] Podpora možností časového cestování pro rozhraní API pro čtení df
- [SPARK-45747] [SC-148404][ss] Použít informace o klíči předpony v metadatech stavu ke čtení stavu pro agregaci okna relace
- [SPARK-45898] [SC-148213][sql] Přepsat rozhraní API tabulky katalogové tak, aby používala nevyřešený logický plán
- [SPARK-45828] [SC-147663][sql] Odebrání zastaralé metody v dsl
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Upgradujte
protobuf
na verzi 4.25.1 pro podporuPython 3.11
- [SPARK-45911] [SC-148226][core] Nastavení protokolu TLS1.3 jako výchozí pro PROTOKOL SSL RPC
- [SPARK-45955] [SC-148429][ui] Sbalení podpory pro Flamegraph a podrobnosti výpisu vláken
-
[SPARK-45936] [SC-148392][ps] Optimalizace
Index.symmetric_difference
- [SPARK-45389] [SC-144834][sql][3.5] Správné pravidlo porovnávání metaexceptionů při získávání metadat oddílů
- [SPARK-45655] [SC-148085][sql][SS] Povolit ne deterministické výrazy uvnitř AggregateFunctions v CollectMetrics
- [SPARK-45946] [SC-148448][ss] Oprava použití zastaralé metody zápisu FileUtils pro zavedení výchozí znakové sady v RocksDBSuite
- [SPARK-45511] [SC-148285][ss] Zdroj dat stavu – čtenář
-
[SPARK-45918] [SC-148293][ps] Optimalizovat
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][connect][PYTHON] Vrátí pozorované metriky z příkazů.
-
[SPARK-45867] [SC-147916][core] Podpora
spark.worker.idPattern
-
[SPARK-45945] [SC-148418][connect] Přidání pomocné funkce pro
parser
- [SPARK-45930] [SC-148399][sql] Podpora ne deterministických funkcí UDF v MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][python] Vytvoření rozhraní PYTHON UDTF API pro zastavení využívání řádků ze vstupní tabulky
-
[SPARK-45731] [SC-147929][sql] Aktualizujte také statistiky oddílů pomocí příkazu
ANALYZE TABLE
-
[SPARK-45868] [SC-148355][connect] Ujistěte se, že
spark.table
používá stejný analyzátor jako vanilla Spark. - [SPARK-45882] [SC-148161][sql] Rozšíření BroadcastHashJoinExec by mělo respektovat coalescedHashPartitioning
- [SPARK-45710] [SC-147428][sql] Přiřazení názvů k chybě _LEGACY_ERROR_TEMP_21[59, 60, 61, 62]
-
[SPARK-45915] [SC-148306][sql] Treat decimal(x, 0) stejně jako IntegralType in
PromoteStrings
- [SPARK-45786] [SC-147552][sql] Opravit nepřesné výsledky násobení a dělení desetinných čísel
-
[SPARK-45871] [SC-148084][connect] Optimalizace převodu kolekcí souvisejících s
.toBuffer
v modulechconnect
- [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager může vyhledat zastavený SparkContext.
- [SPARK-45913] [SC-148289][python] Nastavení interních atributů jako soukromé z chyb PySpark.
- [SPARK-45827] [SC-148201][sql] Přidejte do Sparku datový typ Variant.
- [SPARK-44886] [SC-147876][sql] Zavedení klauzule CLUSTER BY pro create/REPLACE TABLE
-
[SPARK-45756] [SC-147959][core] Podpora
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][connect] Ověřit ID relace na straně serveru
-
[SPARK-45896] [SC-148091][sql] Sestavte
ValidateExternalType
se správným očekávaným typem -
[SPARK-45902] [SC-148123][sql] Odebrání nepoužívaných funkcí
resolvePartitionColumns
zDataSource
-
[SPARK-45909] [SC-148137][sql] Odeberte
NumericType
přetypování, pokud je možné bezpečně provést přetypování vIsNotNull
- [SPARK-42821] [SC-147715][sql] Odebrání nepoužívaných parametrů v metodách splitFiles
-
[SPARK-45875] [SC-148088][jádro] Odebrání
MissingStageTableRowData
z modulucore
- [SPARK-45783] [SC-148120][python][CONNECT] Vylepšení chybových zpráv, pokud je povolený režim Spark Connect, ale není nastavená vzdálená adresa URL
- [SPARK-45804] [SC-147529][ui] Přidání konfigurace spark.ui.threadDump.flamegraphEnabled pro zapnutí nebo vypnutí grafu plamene
- [SPARK-45664] [SC-146878][sql] Zavedení mapperu pro komprimační kodeky orc
- [SPARK-45481] [SC-146715][sql] Zavedení mapperu pro kodeky komprese parquet
- [SPARK-45752] [SC-148005][sql] Zjednodušení kódu pro kontrolu neodkazovaných vztahů CTE
- [SPARK-44752] [SC-146262][sql] XML: Aktualizace dokumentace Sparku
- [SPARK-45752] [SC-147869][sql] Neodkazované CTE by mělo být kontrolováno nástrojem CheckAnalysis0.
- [SPARK-45842] [SC-147853][sql] Přepracování rozhraní API funkcí katalogu pro použití analyzátoru
- [SPARK-45639] [SC-147676][sql][PYTHON] Podpora načítání zdrojů dat Pythonu v DataFrameReader
- [SPARK-45592] [SC-146977][sql] Problém se správností v AQE s InMemoryTableScanExec
- [SPARK-45794] [SC-147646][ss] Zavedení systému metadat pro dotazy na informace o metadatech stavu streamování
- [SPARK-45739] [SC-147059][python] Zachycení výjimky IOException místo výjimky EOFException pro správce chyb
- [SPARK-45677] [SC-146700] Lepší protokolování chyb pro rozhraní API pro pozorování
- [SPARK-45544] [SC-146873][core] Integrace podpory SSL do TransportContext
- [SPARK-45654] [SC-147152][python] Přidání rozhraní API pro zápis zdroje dat Pythonu
-
[SPARK-45771] [SC-147270][core] Povolení
spark.eventLog.rolling.enabled
ve výchozím nastavení - [SPARK-45713] [SC-146986][python] Podpora registrace zdrojů dat Pythonu
- [SPARK-45656] [SC-146488][sql] Oprava pozorování při pojmenovaných pozorováních se stejným názvem u různých datových sad
- [SPARK-45808] [SC-147571][connect][PYTHON] Lepší zpracování chyb pro výjimky SQL
-
[SPARK-45774] [SC-147353][core][UI] Podpora
spark.master.ui.historyServerUrl
vApplicationPage
-
[SPARK-45776] [SC-147327][core] Odeberte obrannou kontrolu null pro
MapOutputTrackerMaster#unregisterShuffle
přidanou v SPARK-39553 - [SPARK-45780] [SC-147410][connect] Propagace všech proměnných vláken klienta Spark Connect v InheritableThread
-
[SPARK-45785] [SC-147419][core] Podpora
spark.deploy.appNumberModulo
rotace čísla aplikace - [SPARK-45793] [SC-147456][core] Vylepšení integrovaných kodeků komprese
- [SPARK-45757] [SC-147282][ml] Vyhněte se revýpočtu NNZ v Binarizeru
- [SPARK-45209] [SC-146490][core][UI] Podpora plamenového grafu pro stránku výpisu vláken exekutoru
-
[SPARK-45777] [SC-147319][core] Podpora
spark.test.appId
vLocalSchedulerBackend
- [SPARK-45523] [SC-146331][python] Refaktoring kontroly na null pro zkratky
- [SPARK-45711] [SC-146854][sql] Zavedení mapperu pro kodeky komprese avro
- [SPARK-45523] [SC-146077][python] Vrátí užitečnou chybovou zprávu, pokud funkce UDTF vrátí none pro libovolný sloupec bez hodnoty null.
- [SPARK-45614] [SC-146729][sql] Přiřazení názvů k chybě _LEGACY_ERROR_TEMP_215[6,7;8]
-
[SPARK-45755] [SC-147164][sql] Vylepšení
Dataset.isEmpty()
použitím globálního limitu1
- [SPARK-45569] [SC-145915][sql] Přiřaďte název k chybě _LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][core][WEBUI] Oprava
Spark History Server
správné řazeníDuration
sloupce -
[SPARK-45754] [SC-147169][core] Podpora
spark.deploy.appIdPattern
-
[SPARK-45707] [SC-146880][sql] Zjednodušení
DataFrameStatFunctions.countMinSketch
pomocíCountMinSketchAgg
-
[SPARK-45753] [SC-147167][core] podpora
spark.deploy.driverIdPattern
-
[SPARK-45763] [SC-147177][core][UI] Vylepšení
MasterPage
tak, aby zobrazoval sloupecResource
pouze v případech, kdy existuje - [SPARK-45112] [SC-143259][sql] Použití rozlišení založeného na nevyřešených funkcích v SQL Dataset funkcích
Podpora ovladačů Databricks ODBC/JDBC
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).
Aktualizace údržby
Viz aktualizace údržby pro Databricks Runtime 14.3.
Prostředí systému
- Operační systém: Ubuntu 22.04.3 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.1.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | zpětné volání | 0.2.0 |
BeautifulSoup4 | 4.11.1 | černý | 22.6.0 | bělidlo | 4.1.0 |
blinkr | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifikace | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | klikněte | 8.0.4 | Komunikace | 0.1.2 |
obrysová křivka | 1.0.5 | kryptografie | 39.0.1 | cyklista | 0.11.0 |
Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | dekoratér | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0,11 | vstupní body | 0,4 |
provádění | 0.8.3 | přehled aspektů | 1.1.1 | fastjsonschema | 2.19.1 |
zamykání souborů | 3.13.1 | fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 | klíčenka | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
špatně naladit | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
poznámkový blok | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | balení | 23.2 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | specifikace cesty | 0.10.3 |
bábovka | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Polštář | 9.4.0 | pip | 22.3.1 | platformdirs | 2.5.2 |
plotly | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | čistý-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0.5 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
žádosti | 2.28.1 | lano | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
Šest | 1.16.0 | sniffio | 1.2.0 | cedník na polévku | 2.3.2.post1 |
ssh-import-id | 5,11 | stack-data | 0.2.0 | statsmodels | 0.13.5 |
houževnatost | 8.1.0 | dokončeno | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.1 | traitlets | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | bezobslužné aktualizace | 0,1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webová kódování | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
kolo | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou nainstalovány ze snímku CRAN Posit Package Manager z 13. 7. 2023: https://packagemanager.posit.co/cran/2023-07-13/
.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šipka | 12.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
zpětné porty | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bitové | 4.0.5 | 64bit | 4.0.5 | shluk | 1.2.4 |
startování | 1.3-28 | vařit | 1.0-8 | verva | 1.1.3 |
koště | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
volající | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | třída | 7.3-22 | Rozhraní příkazového řádku (CLI) | 3.6.1 |
clipr | 0.8.0 | hodiny | 0.7.0 | shluk | 2.1.4 |
codetools | 0.2-19 | barevný prostor | 2.1-0 | commonmark | 1.9.0 |
– kompilátor | 4.3.1 | config | 0.3.1 | rozpolcený | 1.2.0 |
cpp11 | 0.4.4 | pastelka | 1.5.2 | pověření | 1.3.2 |
curl | 5.0.1 | data.table | 1.14.8 | datové sady | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | Popis | 1.4.2 |
devtools | 2.4.5 | diagram | 1.6.5 | diffobj | 0.3.5 |
trávit | 0.6.33 | osvětlený shora | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | tři tečky | 0.3.2 |
vyhodnotit | 0.21 | fanoušci | 1.0.4 | barvy | 2.1.1 |
rychlá mapa | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | zahraniční | 0.8-85 | kovat | 0.2.0 |
Fs | 1.6.2 | budoucnost | 1.33.0 | future.apply | 1.11.0 |
kloktadlo | 1.5.1 | generika | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globály | 0.16.2 | lepidlo | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
Grafika | 4.3.1 | grDevices | 4.3.1 | mřížka | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
bezpečnostní přilba | 1.3.0 | útočiště | 2.5.3 | vyšší | 0.10 |
Hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | Iterátory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
značení | 0.4.2 | později | 1.3.1 | mříž | 0.21-8 |
láva | 1.7.2.1 | životní cyklus | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1,7 |
MŠE | 7.3-60 | Matice | 1.5-4.1 | zapamatujte si | 2.0.1 |
metody | 4.3.1 | mgcv | 1.8-42 | mim | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | paralelní | 4.3.1 |
paralelně | 1.36.0 | pilíř | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | chválit | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | Průběh | 1.2.2 |
progressr | 0.13.0 | sliby | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | recepty | 1.0.6 |
odvetný zápas | 1.0.1 | rematch2 | 2.1.2 | dálkové ovladače | 2.4.2 |
reprodukovatelný příklad | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | drzost | 0.4.6 | váhy | 1.2.1 |
selektor | 0.4-2 | informace o sezení | 1.2.2 | tvar | 1.4.6 |
lesklý | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
prostorový | 7.3-15 | spliny | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | statistické údaje | 4.3.1 | Statistiky 4 | 4.3.1 |
řetězce | 1.7.12 | stringr | 1.5.0 | přežití | 3.5-5 |
systém | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | úprava textu | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
změna času | 0.2.0 | časDatum | 4022.108 | tinytex | 0,45 |
nástroje | 4.3.1 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
použijte to | 2.2.2 | utf8 | 1.2.3 | utils | 4.3.1 |
Uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | Waldo | 0.5.1 | vous | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
zip | 2.3.0 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy (nástroj pro automatizaci nasazení aplikací) | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-stínovaný | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.kofein | kofein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | Verze pro nativní uživatele 1.1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | Nativní verze 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Nativní verze 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | Nativní verze 1.1 |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Cink | 1.9.0 |
com.google.errorprone | anotace náchylné k chybám | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profilovací nástroj | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | kompresor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.3 |
io.dropwizard.metrics | metriky pro anotace | 4.2.19 |
io.dropwizard.metrics | jádro metrik | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metriky – servlety | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-obslužná rutina | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transakční API | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mravenec | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | formát šipky | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | šipkový vektor | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-klient | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | břečťan | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | cílové skupiny a poznámky | 0.13.0 |
org.apache.zookeeper | ošetřovatel zvířat | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-pokračování | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket – obecný | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | běžný žerzej | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | Hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | Vyrovnávací podložky | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | testovací rozhraní | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | kompatibilní s scalatestem | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |