Sdílet prostřednictvím


Databricks Runtime 14.3 LTS

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 14.3 LTS, který využívá Apache Spark 3.5.0.

Databricks vydala tuto verzi v únoru 2024.

Poznámka:

LTS znamená, že tato verze je dlouhodobě podporována. Viz životní cyklus verze LTS modulu Databricks Runtime.

Tip

Chcete-li zobrazit poznámky k verzím Databricks Runtime, které dosáhly konce podpory (EoS), podívejte se na Poznámky k ukončení podpory verzí Databricks Runtime. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.

Nové funkce a vylepšení

Podpora systému souborů pracovního prostoru v PySpark User-Defined Functions (UDF) v clusterech se standardním režimem přístupu (dříve sdílený režim přístupu)

Funkce PySpark UDF na standardních clusterech teď může importovat moduly Pythonu z složek Gitu, souborů pracovního prostorunebo svazků UC.

Další informace o práci s moduly ve složkách Gitu nebo souborech pracovních prostorů najdete v tématu Práce s moduly Pythonu a R.

Podpora optimalizace vektorů odstranění bez použití Photonu

Photon se už nevyžaduje pro operace MERGE, které využívají optimalizace vektorů odstranění. Podívejte se, co jsou to vektory odstranění?

Rozhraní API katalogu Spark jsou nyní ve standardním režimu přístupu plně podporována.

Teď můžete použít všechny funkce v rozhraní API spark.catalog jak v Pythonu, tak v jazyce Scala na výpočetních prostředcích nakonfigurovaných pomocí standardního režimu přístupu.

Delta UniForm je teď obecně dostupný.

UniForm je nyní obecně dostupný a používá funkci tabulky IcebergCompatV2. U existujících tabulek teď můžete povolit nebo upgradovat UniForm. Viz Čtení tabulek Delta s klienty Iceberg.

Nová funkce SQL EXECUTE IMMEDIATE

Pomocí syntaxe EXECUTE IMMEDIATE teď můžete podporovat parametrizované dotazy v SQL. Viz EXECUTE IMMEDIATE.

Přepočítejte statistiky vynechávání dat pro tabulky Delta

Statistiky uložené v protokolu Delta teď můžete přepočítat po změně sloupců používaných pro přeskakování dat. Viz Určení sloupců statistiky delta.

Informace o stavu dotazů pro stavové streamovací dotazy

Teď se můžete dotazovat na data stavu strukturovaného streamování a metadata. Viz Přečtěte si informace o stavu strukturovaného streamování.

Použijte Microsoft Entra ID pro ověřování v Kafce na standardních clusterech.

Služby Event Hubs teď můžete ověřovat prostřednictvím OAuth s ID Microsoft Entra na výpočetních prostředcích nakonfigurovaných pomocí standardního režimu přístupu. Viz Autentizace principála služby pomocí ID Microsoft Entra a Azure Event Hubs.

Přidání podpory pro vyřazení souborů a oddílů za účelem zlepšení výkonu dotazů

Abychom urychlili některé dotazy, které v JOIN podmínkách spoléhají na nulovou-tolerantní rovnost, nyní podporujeme DynamicFilePruning a DynamicPartitionPruning pro operátor EqualNullSafe v JOINech.

Deklarovat dočasné proměnné v SQL relaci

Tato verze zavádí možnost deklarovat dočasné proměnné v relaci, které lze nastavit a na které lze poté v dotazech odkazovat. Viz proměnné.

Aktualizace thriftserveru pro odebrání nepoužívaných funkcí

Kód serveru Thrift byl aktualizován tak, aby odebral kód pro zastaralé funkce. Vzhledem k těmto změnám se už nepodporují následující konfigurace:

  • Pomocné JAR soubory Hive nakonfigurované pomocí vlastnosti hive.aux.jars.path už nejsou podporované pro připojení hive-thriftserver.
  • Globální inicializační soubor Hive (.hiverc), jehož umístění je nakonfigurováno pomocí vlastnosti hive.server2.global.init.file.location nebo proměnné prostředí HIVE_CONF_DIR, se už nepodporuje pro připojení hive-thriftserver.

Použití souborů úložiště důvěryhodnosti a úložiště klíčů ve svazcích katalogu Unity

Můžete nyní použít soubory truststore a keystore ve svazcích Unity Catalog k ověřování pomocí Confluent Schema Registry pro data ve formátu Avro nebo Protocol Buffer. Podívejte se do dokumentace pro avro nebo protocol buffers.

Podpora nativního formátu souborů XML (Public Preview)

Podpora nativního formátu souborů XML je teď ve verzi Public Preview. Podpora formátu souboru XML umožňuje příjem dat, dotazování a analýzu dat XML pro dávkové zpracování nebo streamování. Dokáže automaticky odvodit a vyvíjet schémata a datové typy, podporuje výrazy SQL, jako je from_xml, a může generovat dokumenty XML. Nevyžaduje externí soubory JAR a bezproblémově funguje s Automatickým zavaděčem, read_files, COPY INTOa DLT. Viz Čtení a zápis souborů XML.

Podpora úložiště Cloudflare R2 (Public Preview)

Cloudflare R2 teď můžete použít jako cloudové úložiště pro data zaregistrovaná v katalogu Unity. Cloudflare R2 je určen především pro případy použití Delta Sharing, ve kterých se chcete vyhnout poplatkům za odchozí přenos dat, účtovaným poskytovateli cloudu při přechodu mezi oblastmi. Úložiště R2 podporuje všechna data Databricks a prostředky AI podporované v AWS S3, Azure Data Lake Storage Gen2 a Google Cloud Storage. Viz Použití replik Cloudflare R2 nebo migrace úložiště do R2 a vytvoření přihlašovacích údajů úložiště pro připojení ke Cloudflare R2.

Přístup Sparku a dbutils k souborům pracovního prostoru podporují clustery Unity Catalog se standardním přístupem

Spark a dbutils přístup pro čtení a zápis k souborům pracovního prostoru se teď podporuje v clusterech Unity Catalogu v standardním režimu přístupu. Viz Pracujte se soubory pracovního prostoru.

Podpora inicializačních skriptů a knihoven clusterů v clusterech Katalogu Unity se standardním přístupem

Instalace inicializačních skriptů s oborem clusteru a knihoven Python a JAR v clusterech katalogu Unity v standardním režimu přístupu, včetně instalace pomocí zásad clusteru , je teď obecně dostupná. Databricks doporučuje instalaci inicializačních skriptů a knihoven ze svazků katalogu Unity.

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • fastjsonschema od 2.19.0 do 2.19.1
    • filelock od 3.12.4 do 3.13.1
    • googleapis-common-protos od 1.61.0 do 1.62.0
    • balení od 22.0 do 23.2
  • Upgradované knihovny jazyka R:
    • cizí od 0.8-82 do 0.8-85
    • nlme od 3.1-162 do 3.1-163
    • rpart od 4.1.19 do 4.1.21
  • Upgradované knihovny Java:
    • com.databricks.databricks-sdk-java od 0.7.0 do 0.13.0
    • org.apache.orc.orc-core od 1.9.1-shaded-protobuf na 1.9.2-shaded-protobuf
    • org.apache.orc.orc-mapreduce z verze 1.9.1-shaded-protobuf až 1.9.2-shaded-protobuf
    • org.apache.orc.orc-shims od 1.9.1 do 1.9.2
    • org.scala-lang.modules.scala-collection-compat_2.12 od 2.9.0 do 2.11.0

Apache Spark

Databricks Runtime 14.3 zahrnuje Apache Spark 3.5.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 14.2 (EoS), a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-46541] [SC-153546][sql][CONNECT] Oprava nejednoznačného odkazu na sloupec ve vlastním spojení
  • [SPARK-45433] Vrátit zpět „[SC-145163][sql] Opravit schéma CSV/JSON...
  • [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Umožněte opakování funkce addArtifact
  • [SPARK-46660] [SC-153391][connect] ReattachExecute požadavky na aktualizace stavu správce relací.
  • [SPARK-46670] [SC-153273][python][SQL] Samoobslužné klonování DataSourceManager oddělením statických a runtime zdrojů dat Pythonu
  • [SPARK-46720] [SC-153410][sql][PYTHON] Refaktoring zdroje dat Pythonu tak, aby odpovídal ostatním integrovaným zdrojům dat DSv2
  • [SPARK-46684] [SC-153275][python][CONNECT] Oprava CoGroup.applyInPandas/Arrow pro správné předávání argumentů
  • [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Vyvolání chyby u více zdrojů dat XML
  • [SPARK-46382] [SC-151881][sql]XML: Výchozí hodnota pro ignoreSurroundingSpaces je nastavena na true
  • [SPARK-46382] [SC-153178][sql] XML: Aktualizace dokumentace pro ignoreSurroundingSpaces
  • [SPARK-45292] Vrátit zpět “[SC-151609][sql][HIVE] Odebrat Guavu ze sdílených tříd z IzolovanéhoClientLoaderu”
  • [SPARK-45292] [SC-151609][sql][HIVE] Odebrat Guava ze sdílených tříd IsolatedClientLoaderu
  • [SPARK-46311] [SC-150137][core] Zaznamená finální stav ovladačů během Master.removeDriver
  • [SPARK-46413] [SC-151052][python] Ověřit returnType Arrow Python UDF
  • [SPARK-46633] [WARMFIX][sc-153092][SQL] Oprava čtečky Avro pro zpracování bloků nulové délky
  • [SPARK-46537] [SC-151286][sql] Převod NPE a asertů z příkazů na vnitřní chyby
  • [SPARK-46179] [SC-151678][sql] Přidat CrossDbmsQueryTestSuites, která spouští jiné DBMS proti zlatým souborům s jinými DBMS, počínaje Postgres.
  • [SPARK-44001] [SC-151413][protobuf] Přidání možnosti pro povolení rozbalení známých typů obálky protobuf
  • [SPARK-40876] [SC-151786][sql] Rozšíření podpory typu pro desetinná místa s větším měřítkem u čteček Parquet
  • [SPARK-46605] [SC-151769][connect] Umožněte, aby funkce lit/typedLit v modulu connect podporovala s.c.immutable.ArraySeq
  • [SPARK-46634] [SC-153005][sql] literálové ověření by nemělo přejít k polím null
  • [SPARK-37039] [SC-153094][ps] Oprava správného fungování Series.astype s chybějící hodnotou
  • [SPARK-46312] [SC-150163][core] Použití lower_camel_case v store_types.proto
  • [SPARK-46630] [SC-153084][sql] XML: Ověření názvu elementu XML při zápisu
  • [SPARK-46627] [SC-152981][ss][UI] Oprava obsahu popisu časové osy v uživatelském rozhraní streamování
  • [SPARK-46248] [SC-151774][sql] XML: Podpora pro možnosti ignoreCorruptFiles a ignoreMissingFiles
  • [SPARK-46386] [SC-150766][python] Zlepšení asercí u pozorování (pyspark.sql.pozorování)
  • [SPARK-46581] [SC-151789][jádro] Aktualizovat komentář k isZero v AccumulatorV2
  • [SPARK-46601] [SC-151785] [JÁDRO] Oprava chyby protokolu v handleStatusMessage
  • [SPARK-46568] [SC-151685][python] Nastavení možností zdroje dat Pythonu na slovník nerozlišující malá a velká písmena
  • [SPARK-46611] [SC-151783][core] Odebrání ThreadLocal nahrazením SimpleDateFormat za DateTimeFormatter
  • [SPARK-46604] [SC-151768][sql] Umožnit podporu Literal.applys.c.immuable.ArraySeq
  • [SPARK-46324] [SC-150223][sql][PYTHON] Opravit název výstupu pyspark.sql.functions.user a session_user
  • [SPARK-46621] [SC-151794][python] Řešení null z Exception.getMessage v zachycené výjimce Py4J
  • [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader by měl při vytváření vektorů sloupců pro chybějící sloupec respektovat režim paměti.
  • [SPARK-46613] [SC-151778][sql][PYTHON] Zaznamenejte úplnou výjimku, pokud se nepodaří vyhledat zdroje dat Pythonu
  • [SPARK-46559] [SC-151364][mllib] Zabalte export do názvu balíčku pomocí backticks.
  • [SPARK-46522] [SC-151784][python] Blokovat registraci datového zdroje Python s konflikty názvů
  • [SPARK-45580] [SC-149956][sql] Řešení případu, kdy se vnořený poddotaz stane existenciálním spojením
  • [SPARK-46609] [SC-151714][sql] Vyhněte se exponenciálnímu nárůstu v partitioningPreservingUnaryExecNode
  • [SPARK-46535] [SC-151288][sql] Oprava NPE při popisu rozšířeného sloupce bez statistik sloupců
  • [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Kontrola kompatibility pomocí typeCoercion.findTightestCommonType
  • [SPARK-40876] [SC-151129][sql] Rozšíření povýšení typů v čtenářích Parquet
  • [SPARK-46179] [SC-151069][sql] Stažení kódu do opakovaně použitelných funkcí v SQLQueryTestSuite
  • [SPARK-46586] [SC-151679][sql] Podpora s.c.immutable.ArraySeq jako customCollectionCls v MapObjects
  • [SPARK-46585] [SC-151622][jádro] Přímo vytvořené metricPeaks jako immutable.ArraySeq místo použití mutable.ArraySeq.toSeq v Executor
  • [SPARK-46488] [SC-151173][sql] Přeskočení volání trimAll během analýzy časového razítka
  • [SPARK-46231] [SC-149724][python] Migrace všech zbývajících NotImplementedError & TypeError do architektury chyb PySpark
  • [SPARK-46348] [SC-150281][core] Podpora spark.deploy.recoveryTimeout
  • [SPARK-46313] [SC-150164][jádro] Doba trvání obnovení protokolu Spark HA
  • [SPARK-46358] [SC-150307][connect] Zjednodušení kontroly podmínek v ResponseValidator#verifyResponse
  • [SPARK-46380] [SC-151078][sql]Před vyhodnocením vložených výrazů tabulky nahraďte aktuální čas a datum.
  • [SPARK-46563] [SC-151441][sql] Zobrazení simpleString se neshoduje s nastavením spark.sql.debug.maxToStringFields
  • [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Zmenšete hloubku zásobníku nahraďte (řetězec|pole).size za (řetězec|pole).length
  • [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT(všechna pole ze struktury) způsobí selhání kontrolního výrazu.
  • [SPARK-46565] [SC-151414][python] Upřesnění tříd chyb a chybových zpráv pro zdroje dat Pythonu
  • [SPARK-46576] [SC-151614][sql] Vylepšení chybových zpráv pro nepodporovaný režim ukládání zdroje dat
  • [SPARK-46540] [SC-151355][python] Respektovat názvy sloupců, když funkce pro čtení z datového zdroje v Pythonu vrací pojmenované objekty typu Row.
  • [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite uniká sezení Hiveu SessionState
  • [SPARK-44556] [SC-151562][sql] Opětovné použití OrcTail při povolení vectorizedReader
  • [SPARK-46587] [SC-151618][sql] XML: Oprava velkého celočíselného převodu XSD
  • [SPARK-46382] [SC-151297][sql] XML: Zachycení hodnoty rozptýlené mezi prvky
  • [SPARK-46567] [SC-151447][core] Odstranit ThreadLocal pro ReadAheadInputStream
  • [SPARK-45917] [SC-151269][python][SQL] Automatická registrace zdroje dat Pythonu při spuštění
  • [SPARK-28386] [SC-151014][sql] Nelze vyřešit ORDER BY sloupce s GROUP BY a HAVING
  • [SPARK-46524] [SC-151446][sql] Vylepšení chybových zpráv pro neplatný režim ukládání
  • [SPARK-46294] [SC-150672][sql] Vyčištění sémantiky init vs. nulové hodnoty
  • [SPARK-46301] [SC-150100][core] Podpora spark.worker.(initial|max)RegistrationRetries
  • [SPARK-46542] [SC-151324][sql] Odeberte kontrolu c>=0 z ExternalCatalogUtils#needsEscaping, jelikož je vždy pravdivá
  • [SPARK-46553] [SC-151360][ps] FutureWarning pro interpolate s typem objektu
  • [SPARK-45914] [SC-151312][python] Podpora API pro commit a abort při zápisu zdroje dat v Pythonu
  • [SPARK-46543] [SC-151350][python][CONNECT] Vytvoření json_tuple vyvolání chyby PySparkValueError pro prázdná pole
  • [SPARK-46520] [SC-151227][python] Podpora režimu přepsání pro zápis zdroje dat Pythonu
  • [SPARK-46502] [SC-151235][sql] Podpora typů časových razítek v UnwrapCastInBinaryComparison
  • [SPARK-46532] [SC-151279][connect] Předat parametry zprávy v metadatech ErrorInfo
  • [SPARK-46397] Vrátit zpět "[SC-151311][python][CONNECT] Funkce sha2 by měla zvýšit PySparkValueError pro neplatnou numBits"
  • [SPARK-46170] [SC-149472][sql] Podpora vkládání pravidel strategie adaptivního post-plánovače dotazů ve SparkSessionExtensions
  • [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable by neměla načíst tabulku.
  • [SPARK-46397] [SC-151311][python][CONNECT] Funkce sha2 by měla vyvolat PySparkValueError pro neplatné numBits
  • [SPARK-46145] [SC-149471][sql] spark.catalog.listTables nevyvolá výjimku, pokud se tabulka nebo zobrazení nenajde
  • [SPARK-46272] [SC-151012][sql] Podpora CTAS pomocí zdrojů DSv2
  • [SPARK-46480] [SC-151127][core][SQL] Oprava NPE při pokusu o přístup k mezipaměti tabulky
  • [SPARK-46100] [SC-149051][core][PYTHON] Omezte hloubku zásobníku nahrazením (řetězec|pole).size za (řetězec|pole).length
  • [SPARK-45795] [SC-150764][sql] DS V2 podporuje režim push down
  • [SPARK-46485] [SC-151133][sql] V1Write by neměl přidávat řazení, pokud to není nutné
  • [SPARK-46468] [SC-151121] [SQL] Zpracování chyby COUNT u poddotazů EXISTS s agregací bez seskupování klíčů
  • [SPARK-46246] [SC-150927][sql] podpora EXECUTE IMMEDIATE SQL
  • [SPARK-46498] [SC-151199][core] Odebrání shuffleServiceEnabled z o.a.spark.util.Utils#getConfiguredLocalDirs
  • [SPARK-46440] [SC-150807][sql] Nastavte konfigurace rebase na režim CORRECTED ve výchozím nastavení.
  • [SPARK-45525] [SC-151120][sql][PYTHON] Podpora zápisu zdroje dat v Pythonu pomocí DSv2
  • [SPARK-46505] [SC-151187][connect] Nastavení prahové hodnoty bajtů v ProtoUtils.abbreviate
  • [SPARK-46447] [SC-151025][sql] Odstranění starších konfigurací SQL pro přemapování datumových a časových hodnot.
  • [SPARK-46443] [SC-151123][sql] Přesnost a měřítko desetinných míst by mělo rozhodnout dialekt H2.
  • [SPARK-46384] [SC-150694][spark-46404][SS][ui] Oprava grafu délky trvání operace na stránce pro strukturované streamování
  • [SPARK-46207] [SC-151068][sql] Podpora MergeInto v dataFrameWriterV2
  • [SPARK-46452] [SC-151018][sql] Přidání nového rozhraní API v objektu DataWriter pro zápis iterátoru záznamů
  • [SPARK-46273] [SC-150313][sql] Podpora INSERT INTO/OVERWRITE pomocí zdrojů DSv2
  • [SPARK-46344] [SC-150267][core] Upozornit správně, pokud ovladač existuje úspěšně, ale hlavní server je odpojen
  • [SPARK-46284] [SC-149944][python][CONNECT] Přidání funkce session_user do Pythonu
  • [SPARK-46043] [SC-149786][sql] Podpora vytváření tabulek pomocí zdrojů DSv2
  • [SPARK-46323] [SC-150191][python] Oprava názvu výstupu pyspark.sql.functions.now
  • [SPARK-46465] [SC-151059][python][CONNECT] Přidání Column.isNaN v PySparku
  • [SPARK-46456] [SC-151050][core] Přidání spark.ui.jettyStopTimeout pro nastavení časového limitu zastavení serveru Jetty pro odblokování vypnutí SparkContextu
  • [SPARK-43427] [SC-150356][protobuf] spark protobuf: umožnit přetypování nepodepsaných celočíselných typů
  • [SPARK-46399] [SC-151013][14.x][Jádro] Přidat stav ukončení do události Konec aplikace pro použití naslouchacího procesu Spark
  • [SPARK-46423] [SC-150752][python][SQL] Nastavení instance zdroje dat Pythonu na DataSource.lookupDataSourceV2
  • [SPARK-46424] [SC-150765][python][SQL] Podpora metrik Pythonu ve zdroji dat Pythonu
  • [SPARK-46330] [SC-151015] Načítání bloků uživatelského rozhraní Sparku po dlouhou dobu, když je povolený HybridStore
  • [SPARK-46378] [SC-150397][sql] Po převodu agregace na projekt stále odebrat řazení
  • [SPARK-45506] [SC-146959][connect] Přidání podpory pro ivy URI do funkce SparkConnect addArtifact
  • [SPARK-45814] [SC-147871][connect][SQL]Make ArrowConverters.createEmptyArrowBatch call close(), aby nedošlo k úniku paměti
  • [SPARK-46427] [SC-150759][python][SQL] Změňte popis zdroje dat Pythonu, aby byl přehlednější při zobrazování.
  • [SPARK-45597] [SC-150730][python][SQL] Podpora vytváření tabulek pomocí zdroje dat Pythonu v SQL (DSv2 exec)
  • [SPARK-46402] [SC-150700][python] Přidání getMessageParameters a podpora getQueryContext
  • [SPARK-46453] [SC-150897][connect] Vyhoď výjimku z internalError() v SessionHolder
  • [SPARK-45758] [SC-147454][sql] Zavedení mapperu pro kodeky komprese hadoop
  • [SPARK-46213] [PYTHON] Zavedení PySparkImportError pro architekturu chyb
  • [SPARK-46230] [SC-149960][python] Migrace RetriesExceeded do chyby PySpark
  • [SPARK-45035] [SC-145887][sql] Oprava ignoreCorruptFiles/ignoreMissingFiles s víceřádkovým souborem CSV/JSON oznámí chybu
  • [SPARK-46289] [SC-150846][sql] Podpora řazení UDT v interpretovaném režimu
  • [SPARK-46229] [SC-150798][python][CONNECT] Add applyInRow to groupBy a cogroup in Spark Connect
  • [SPARK-46420] [SC-150847][sql] Odebrání nepoužívaného přenosu ve SparkSQLCLIDriveru
  • [SPARK-46226] [PYTHON] Migrace všech zbývajících RuntimeError do systému chyb PySpark
  • [SPARK-45796] [SC-150613][sql] Podpora MODE() V RÁMCI SKUPINY (ORDER BY col)
  • [SPARK-40559] [SC-149686][python][14.X] Přidání příkazu ApplyInArrow pro groupBy a cogroup
  • [SPARK-46069] [SC-149672][sql] Podpora převodu typu časové razítko na typ datum
  • [SPARK-46406] [SC-150770][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1023
  • [SPARK-46431] [SC-150782][ss] Konvertovat IllegalStateException na internalError v iterátorech relací
  • [SPARK-45807] [SC-150751][sql] Vylepšení rozhraní API ViewCatalog
  • [SPARK-46009] [SC-149771][sql][CONNECT] Sloučí pravidlo analýzy percentileCont a PercentileDisc do functionCall.
  • [SPARK-46403] [SC-150756][sql] Dekódování binárního souboru parquet pomocí metody getBytesUnsafe
  • [SPARK-46389] [SC-150779][core] Při checkVersion vyvolání výjimky ručně zavřete instanci RocksDB/LevelDB.
  • [SPARK-46360] [SC-150376][python] Vylepšení ladění chybových zpráv pomocí nového rozhraní API getMessage
  • [SPARK-46233] [SC-149766][python] Migrace všech zbývajících AttributeError do architektury chyb PySpark
  • [SPARK-46394] [SC-150599][sql] Oprava problémů s spark.catalog.listDatabases() u schémat se speciálními znaky při nastavení spark.sql.legacy.keepCommandOutputSchema na true
  • [SPARK-45964] [SC-148484][sql] Odebrání soukromého přístupového objektu SQL v rámci balíčků XML a JSON pod paketem Catalyst
  • [SPARK-45856] [SC-148691] Přesun ArtifactManageru ze Spark Connect do SparkSession (sql/core)
  • [SPARK-46409] [SC-150714][connect] Oprava spouštěcího skriptu spark-connect-scala-client
  • [SPARK-46416] [SC-150699][core] Přidání @tailrec do HadoopFSUtils#shouldFilterOutPath
  • [SPARK-46115] [SC-149154][sql] Omezení znakových sad v encode()
  • [SPARK-46253] [SC-150416][python] Plánování čtení zdroje dat Pythonu pomocí MapInArrow
  • [SPARK-46339] [SC-150266][ss] Adresář pojmenovaný podle čísla dávky by neměl být považován za protokol metadat.
  • [SPARK-46353] [SC-150396][core] Refaktoring pro zlepšení pokrytí jednotkových testů RegisterWorker
  • [SPARK-45826] [SC-149061][sql] Přidání konfigurace SQL pro trasování zásobníku v kontextu dotazu datového rámce
  • [SPARK-45649] [SC-150300][sql] Sjednocení architektury přípravy pro OffsetWindowFunctionFrame
  • [SPARK-46346] [SC-150282][jádro] Oprava hlavního serveru pro aktualizaci pracovního procesu z UNKNOWN na ALIVE na RegisterWorker msg
  • [SPARK-46388] [SC-150496][sql] HiveAnalysis postrádá vzorovou ochranu query.resolved
  • [SPARK-46401] [SC-150609][core] Místo getCardinality() > 0 v RemoteBlockPushResolver používejte !isEmpty() na RoaringBitmap
  • [SPARK-46393] [SC-150603][sql] Klasifikovat výjimky v katalogu tabulek JDBC
  • [SPARK-45798] [SC-150513][connect] Následné kroky: přidat serverSessionId do SessionHolderInfo
  • [SPARK-46153] [SC-146564][sc-150508][SQL] XML: Přidání podpory TimestampNTZType
  • [SPARK-46075] [SC-150393][connect] Vylepšení SparkConnectSessionManager
  • [SPARK-46357] [SC-150596] Nahradit nesprávné použití setConf v dokumentaci s conf.set
  • [SPARK-46202] [SC-150420][connect] Zveřejnění nových rozhraní API ArtifactManager pro podporu vlastních cílových adresářů
  • [SPARK-45824] [SC-147648][sql] Vynucování třídy chyb v ParseException
  • [SPARK-45845] [SC-148163][ss][UI] Přidat počet vyřazených řádků stavu do uživatelského rozhraní streamování
  • [SPARK-46316] [SC-150181][core] Povolení buf-lint-action v modulu core
  • [SPARK-45816] [SC-147656][sql] Vrátit NULL při přetečení během přetypování z časového razítka na celá čísla
  • [SPARK-46333] [SC-150263][sql] Nahraďte IllegalStateExceptionSparkException.internalError v katalyzátoru.
  • [SPARK-45762] [SC-148486][core] Podpora správců shuffle definovaných v uživatelských JAR souborech změnou pořadí spuštění.
  • [SPARK-46239] [SC-149752][jádro] Skrýt informace o Jetty
  • [SPARK-45886] [SC-148089][sql] Výstup kompletního trasování zásobníku v callSite kontextu datového rámce
  • [SPARK-46290] [SC-150059][python] Změna saveMode na logický příznak pro DataSourceWriter
  • [SPARK-45899] [SC-148097][connect] Nastavit errorClass v errorInfoToThrowable
  • [SPARK-45841] [SC-147657][sql] Zpřístupnění trasování zásobníku DataFrameQueryContext
  • [SPARK-45843] [SC-147721][core] Podpora killall v rozhraní REST Submission API
  • [SPARK-46234] [SC-149711][python] Zavedení PySparkKeyError pro architekturu chyb PySpark
  • [SPARK-45606] [SC-147655][sql] Omezení vydaných verzí u filtru modulu runtime s více vrstvami
  • [SPARK-45725] [SC-147006][sql] Odeberte nevýchozí runtime filtr poddotazů IN.
  • [SPARK-45694] [SC-147314][spark-45695][SQL] Vyčištění používání zastaralého API View.force a ScalaNumberProxy.signum
  • [SPARK-45805] [SC-147488][sql] Vytvoření withOrigin obecnější
  • [SPARK-46292] [SC-150086][core][UI] Zobrazit souhrn pracovních procesů na MasterPage
  • [SPARK-45685] [SC-146881][core][SQL] Místo Stream použijte LazyList
  • [SPARK-45888] [SC-149945][ss] Uplatnění rámce tříd chyb na Stav (Metadata) jako Zdroj dat
  • [SPARK-46261] [SC-150111][connect] DataFrame.withColumnsRenamed by měly zachovat pořadí diktování a mapování.
  • [SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Vyčištění převodů SeqOps.view a ArrayOps.view
  • [SPARK-46029] [SC-149255][sql] Escapování jednoduchých uvozovek, _ a % pro DS V2 pushdown
  • [SPARK-46275] [SC-150189] Protobuf: Vrátí hodnotu null v režimu permissive v případě selhání deserializace.
  • [SPARK-46320] [SC-150187][core] Podpora spark.master.rest.host
  • [SPARK-46092] [SC-149658][sql] Neposílejte dolů filtry skupin řádků formátu Parquet, které přetékají
  • [SPARK-46300] [SC-150097][python][CONNECT] Spárování menšího chování ve sloupci s úplným pokrytím testu
  • [SPARK-46298] [SC-150092][python][CONNECT] Upozornění na vyřazení, testovací případ a chyba pro Catalog.createExternalTable
  • [SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Vyčistěte zastaralé využití rozhraní API související s StringContext/StringOps/RightProjection/LeftProjection/Either a typem použití BufferedIterator/CanBuildFrom/Traversable
  • [SPARK-33393] [SC-148407][sql] Podpora SHOW TABLE EXTENDED ve verzi 2
  • [SPARK-45737] [SC-147011][sql] Odebrání nepotřebných .toArray[InternalRow] v SparkPlan#executeTake
  • [SPARK-46249] [SC-149797][ss] Je nutné použít zámek instance pro získání metrik RocksDB, aby se zabránilo kolizi s operacemi běžícími na pozadí
  • [SPARK-46260] [SC-149940][python][SQL] DataFrame.withColumnsRenamed by mělo respektovat řazení diktů.
  • [SPARK-46274] [SC-150043] [SQL] Oprava výpočetních statistik operátoru Range() pro kontrolu dlouhé platnosti před převodem
  • [SPARK-46040] [SC-149767][sql][Python] Aktualizujte rozhraní API UDTF pro analýzu a řazení sloupců pro podporu obecných výrazů.
  • [SPARK-46287] [SC-149949][python][CONNECT] DataFrame.isEmpty by měl fungovat se všemi datovými typy
  • [SPARK-45678] [SC-146825][core] Zahrnout BufferReleasingInputStream.available/reset při tryOrFetchFailedException
  • [SPARK-45667] [SC-146716][core][SQL][connect] Vyčistěte zastaralé využití rozhraní API související s IterableOnceExtensionMethods.
  • [SPARK-43980] [SC-148992][sql] představuje syntaxi select * except
  • [SPARK-46269] [SC-149816][ps] Povolit více testů kompatibility funkcí NumPy
  • [SPARK-45807] [SC-149851][sql] Přidat createOrReplaceView(..) / replaceView(..) do ViewCatalog
  • [SPARK-45742] [SC-147212][CORE][CONNECT][mllib][PYTHON] Zavádí implicitní funkci pro Scala Array, která se má zabalit do immutable.ArraySeq.
  • [SPARK-46205] [SC-149655][core] Zlepšení výkonu PersistenceEngine pomocí KryoSerializer
  • [SPARK-45746] [SC-149359][python] Vrátí konkrétní chybové zprávy, pokud metoda UDTF analyze nebo eval přijímá nebo vrací nesprávné hodnoty.
  • [SPARK-46186] [SC-149707][connect] Oprava nelegálního přechodu stavu, když je ExecuteThreadRunner přerušen před spuštěním
  • [SPARK-46262] [SC-149803][ps] Povolte test pro np.left_shift pro objekt Pandas-on-Spark.
  • [SPARK-45093] [SC-149679][connect][PYTHON] Podpora řádného zpracování chyb a převodu pro AddArtifactHandler
  • [SPARK-46188] [SC-149571][doc][3.5] Oprava šablon stylů CSS vygenerovaných tabulek dokumentace Sparku
  • [SPARK-45940] [SC-149549][python] Přidání inputPartition do rozhraní DataSourceReader
  • [SPARK-43393] [SC-148301][sql] Chyba přetečení výrazu sekvence adresy.
  • [SPARK-46144] [SC-149466][sql] Chyba při provádění INSERT INTO ... Příkaz REPLACE, pokud podmínka obsahuje poddotaz
  • [SPARK-46118] [SC-149096][sql][SS][connect] Místo SQLContext.conf použijte SparkSession.sessionState.conf a označte SQLContext.conf jako zastaralé
  • [SPARK-45760] [SC-147550][sql] Přidat s výrazem, aby nedocházelo k duplikování výrazů
  • [SPARK-43228] [SC-149670][sql] Klíče připojení také odpovídají PartitioningCollection v CoalesceBucketsInJoin
  • [SPARK-46223] [SC-149691][ps] Test SparkPandasNotImplementedError s vyčištěním nepoužívaného kódu
  • [SPARK-46119] [SC-149205][sql] Přepsat metodu toString pro UnresolvedAlias
  • [SPARK-46206] [SC-149674][ps] Pro procesor SQL použijte výjimku specifičtějšího rozsahu.
  • [SPARK-46191] [SC-149565][core] Vylepšení FileSystemPersistenceEngine.persist chybové zprávy v případě existujícího souboru
  • [SPARK-46036] [SC-149356][sql] Odebrání třídy chyb z funkce raise_error
  • [SPARK-46055] [SC-149254][sql] Přepsání implementace rozhraní API databáze katalogu
  • [SPARK-46152] [SC-149454][sql] XML: Přidání podpory decimalType v odvození schématu XML
  • [SPARK-45943] [SC-149452][sql] Přesunout DetermineTableStats to resolution rules
  • [SPARK-45887] [SC-148994][sql] Sladění codegenu a ne-codegen implementace Encode
  • [SPARK-45022] [SC-147158][sql] Zadejte kontext pro chyby rozhraní API datové sady.
  • [SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Nahraďte toIteratoriterator pro IterableOnce
  • [SPARK-46141] [SC-149357][sql] Změna výchozí hodnoty pro spark.sql.legacy.ctePrecedencePolicy na OPRAVENO
  • [SPARK-45663] [SC-146617][core][MLLIB] Nahraďte IterableOnceOps#aggregateIterableOnceOps#foldLeft
  • [SPARK-45660] [SC-146493][sql] Opětovné použití literálových objektů v pravidle ComputeCurrentTime
  • [SPARK-45803] [SC-147489][core] Odeberte už nepoužívané RpcAbortException
  • [SPARK-46148] [SC-149350][ps] Oprava pyspark.pandas.mlflow.load_model testu (Python 3.12)
  • [SPARK-46110] [SC-149090][python] Použijte třídy chyb v katalogu, konfiguraci, připojení, pozorování, a modulech pandas.
  • [SPARK-45827] [SC-149203][sql] Opravy variant s generováním kódu a vektorizovaným čtecím zařízením jsou zakázány
  • [SPARK-46080] Vrátit zpět [SC-149012][python] Upgradovat Cloudpickle na verzi 3.0.0
  • [SPARK-45460] [SC-144852][sql] Nahraďte scala.collection.convert.ImplicitConversions na scala.jdk.CollectionConverters
  • [SPARK-46073] [SC-149019][sql] Odeberte speciální rozlišení UnresolvedNamespace pro určité příkazy.
  • [SPARK-45600] [SC-148976][python] Nastavení úrovně relace registrace zdroje dat v Pythonu
  • [SPARK-46074] [SC-149063][connect][SCALA] Nedostatečné podrobnosti v chybové zprávě o selhání UDF
  • [SPARK-46114] [SC-149076][python] Přidání chyby PySparkIndexError do rámce chyb
  • [SPARK-46120] [SC-149083][connect][PYTHON] Odstranit pomocnou funkci DataFrame.withPlan
  • [SPARK-45927] [SC-148660][python] Aktualizovat zpracování cest pro datový zdroj Pythonu
  • [SPARK-46062] [14.x][sc-148991][SQL] Synchronizace příznaku isStreaming mezi definicí CTE a odkazem
  • [SPARK-45698] [SC-146736][core][SQL][ss] Vyčistěte zastaralé využití rozhraní API související s Buffer
  • [SPARK-46064] [SC-148984][sql][SS] Přesuňte EliminateEventTimeWatermark do analyzátoru a změňte, aby měly účinek pouze na vyřešené podřízené.
  • [SPARK-45922] [SC-149038][connect][CLIENT] Menší refaktoring opakovaných pokusů (v návaznosti na více zásad)
  • [SPARK-45851] [SC-148419][connect][SCALA] Podpora více zásad v klientovi scala
  • [SPARK-45974] [SC-149062][sql] Přidat kontrolu neprázdnosti pro scan.filterAttributes ve funkci RowLevelOperationRuntimeGroupFiltering
  • [SPARK-46085] [SC-149049][connect] Dataset.groupingSets v klientovi Scala Spark Connect
  • [SPARK-45136] [SC-146607][connect] Vylepšit ClosureCleaner s podporou Ammonite
  • [SPARK-46084] [SC-149020][ps] Refaktorovat operaci přetypování datového typu pro kategorický typ.
  • [SPARK-46083] [SC-149018][python] Udělat ze SparkNoSuchElementException kanonické rozhraní API pro chyby
  • [SPARK-46048] [SC-148982][python][CONNECT] Podpora funkcionality DataFrame.groupingSets v Python Spark Connect
  • [SPARK-46080] [SC-149012][python] Upgrade Cloudpickle na verzi 3.0.0
  • [SPARK-46082] [SC-149015][python][CONNECT] Oprava reprezentace řetězců protobuf pro rozhraní API funkcí Pandas pomocí Spark Connect
  • [SPARK-46065] [SC-148985][ps] Přepsat (DataFrame|Series).factorize(), aby použil create_map.
  • [SPARK-46070] [SC-148993][sql] Kompilace vzoru regulárních výrazů ve SparkDateTimeUtils.getZoneId mimo horkou smyčku
  • [SPARK-46063] [SC-148981][python][CONNECT] Vylepšení chybových zpráv souvisejících s typy argumentů v cute, rollup, groupby a pivot
  • [SPARK-44442] [SC-144120][mesos] Odebrání podpory Mesos
  • [SPARK-45555] [SC-147620][python] Obsahuje objekt pro ladění neúspěšných asercí.
  • [SPARK-46048] [SC-148871][python][SQL] Podpora funkce DataFrame.groupingSets v PySpark
  • [SPARK-45768] [SC-147304][sql][PYTHON] Udělat z modulu faulthandler konfigurovatelný prvek pro spouštění Pythonu v SQL
  • [SPARK-45996] [SC-148586][python][CONNECT] Zobrazit správné zprávy požadavků na závislost pro Spark Connect
  • [SPARK-45681] [SC-146893][ui] Klonování js verze UIUtils.errorMessageCell pro konzistentní vykreslování chyb v uživatelském rozhraní
  • [SPARK-45767] [SC-147225][core] Odstranit TimeStampedHashMap a jeho UT
  • [SPARK-45696] [SC-148864][core] Oprava metody tryCompleteWith v rozhraní Promise, která je zastaralá
  • [SPARK-45503] [SC-146338][ss] Přidání konfigurace pro nastavení komprese RocksDB
  • [SPARK-45338] [SC-143934][core][SQL] Nahrazení scala.collection.JavaConverters na scala.jdk.CollectionConverters
  • [SPARK-44973] [SC-148804][sql] Oprava ArrayIndexOutOfBoundsException v conv()
  • [SPARK-45912] [SC-144982][sc-148467][SQL] Vylepšení rozhraní API XSDToSchema: Změna rozhraní HDFS API pro usnadnění přístupu ke cloudovému úložišti
  • [SPARK-45819] [SC-147570][core] Podpora clear v rozhraní REST Submission API
  • [SPARK-45552] [14.x][sc-146874][PS] Zavedení flexibilních parametrů pro assertDataFrameEqual
  • [SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Zadejte rozhraní pro ostatní zdroje streamování pro přidání _metadata sloupců.
  • [SPARK-45929] [SC-148692][sql] Podpora operace seskupování sad v API pro datové rámce
  • [SPARK-46012] [SC-148693][core] EventLogFileReader by neměl číst kumulativní protokoly, pokud chybí soubor stavu aplikace.
  • [SPARK-45965] [SC-148575][sql] Přesun výrazů dělení DSv2 do functions.partitioning
  • [SPARK-45971] [SC-148541][core][SQL] Oprava názvu balíčku SparkCollectionUtils na org.apache.spark.util
  • [SPARK-45688] [SC-147356][spark-45693][CORE] Odstraňte zastaralé využití rozhraní API související s MapOps & Oprava method += in trait Growable is deprecated
  • [SPARK-45962] [SC-144645][sc-148497][SQL] Odeberte treatEmptyValuesAsNulls a místo toho použijte možnost nullValue v JAZYCE XML.
  • [SPARK-45988] [SC-148580][spark-45989][PYTHON] Oprava popisů typů pro zpracování list GenericAlias v Pythonu 3.11+
  • [SPARK-45999] [SC-148595][ps] Použití vyhrazených PandasProduct v cumprod
  • [SPARK-45986] [SC-148583][ml][PYTHON] Oprava pyspark.ml.torch.tests.test_distributor v Pythonu 3.11
  • [SPARK-45994] [SC-148581][python] Změna description-file na description_file
  • [SPARK-45575] [SC-146713][sql] Podpora možností časového cestování pro rozhraní API pro čtení df
  • [SPARK-45747] [SC-148404][ss] Použít informace o klíči předpony v metadatech stavu ke čtení stavu pro agregaci okna relace
  • [SPARK-45898] [SC-148213][sql] Přepsat rozhraní API tabulky katalogové tak, aby používala nevyřešený logický plán
  • [SPARK-45828] [SC-147663][sql] Odebrání zastaralé metody v dsl
  • [SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Upgradujte protobuf na verzi 4.25.1 pro podporu Python 3.11
  • [SPARK-45911] [SC-148226][core] Nastavení protokolu TLS1.3 jako výchozí pro PROTOKOL SSL RPC
  • [SPARK-45955] [SC-148429][ui] Sbalení podpory pro Flamegraph a podrobnosti výpisu vláken
  • [SPARK-45936] [SC-148392][ps] Optimalizace Index.symmetric_difference
  • [SPARK-45389] [SC-144834][sql][3.5] Správné pravidlo porovnávání metaexceptionů při získávání metadat oddílů
  • [SPARK-45655] [SC-148085][sql][SS] Povolit ne deterministické výrazy uvnitř AggregateFunctions v CollectMetrics
  • [SPARK-45946] [SC-148448][ss] Oprava použití zastaralé metody zápisu FileUtils pro zavedení výchozí znakové sady v RocksDBSuite
  • [SPARK-45511] [SC-148285][ss] Zdroj dat stavu – čtenář
  • [SPARK-45918] [SC-148293][ps] Optimalizovat MultiIndex.symmetric_difference
  • [SPARK-45813] [SC-148288][connect][PYTHON] Vrátí pozorované metriky z příkazů.
  • [SPARK-45867] [SC-147916][core] Podpora spark.worker.idPattern
  • [SPARK-45945] [SC-148418][connect] Přidání pomocné funkce pro parser
  • [SPARK-45930] [SC-148399][sql] Podpora ne deterministických funkcí UDF v MapInPandas/MapInArrow
  • [SPARK-45810] [SC-148356][python] Vytvoření rozhraní PYTHON UDTF API pro zastavení využívání řádků ze vstupní tabulky
  • [SPARK-45731] [SC-147929][sql] Aktualizujte také statistiky oddílů pomocí příkazu ANALYZE TABLE
  • [SPARK-45868] [SC-148355][connect] Ujistěte se, že spark.table používá stejný analyzátor jako vanilla Spark.
  • [SPARK-45882] [SC-148161][sql] Rozšíření BroadcastHashJoinExec by mělo respektovat coalescedHashPartitioning
  • [SPARK-45710] [SC-147428][sql] Přiřazení názvů k chybě _LEGACY_ERROR_TEMP_21[59, 60, 61, 62]
  • [SPARK-45915] [SC-148306][sql] Treat decimal(x, 0) stejně jako IntegralType in PromoteStrings
  • [SPARK-45786] [SC-147552][sql] Opravit nepřesné výsledky násobení a dělení desetinných čísel
  • [SPARK-45871] [SC-148084][connect] Optimalizace převodu kolekcí souvisejících s .toBuffer v modulech connect
  • [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager může vyhledat zastavený SparkContext.
  • [SPARK-45913] [SC-148289][python] Nastavení interních atributů jako soukromé z chyb PySpark.
  • [SPARK-45827] [SC-148201][sql] Přidejte do Sparku datový typ Variant.
  • [SPARK-44886] [SC-147876][sql] Zavedení klauzule CLUSTER BY pro create/REPLACE TABLE
  • [SPARK-45756] [SC-147959][core] Podpora spark.master.useAppNameAsAppId.enabled
  • [SPARK-45798] [SC-147956][connect] Ověřit ID relace na straně serveru
  • [SPARK-45896] [SC-148091][sql] Sestavte ValidateExternalType se správným očekávaným typem
  • [SPARK-45902] [SC-148123][sql] Odebrání nepoužívaných funkcí resolvePartitionColumns z DataSource
  • [SPARK-45909] [SC-148137][sql] Odeberte NumericType přetypování, pokud je možné bezpečně provést přetypování v IsNotNull
  • [SPARK-42821] [SC-147715][sql] Odebrání nepoužívaných parametrů v metodách splitFiles
  • [SPARK-45875] [SC-148088][jádro] Odebrání MissingStageTableRowData z modulu core
  • [SPARK-45783] [SC-148120][python][CONNECT] Vylepšení chybových zpráv, pokud je povolený režim Spark Connect, ale není nastavená vzdálená adresa URL
  • [SPARK-45804] [SC-147529][ui] Přidání konfigurace spark.ui.threadDump.flamegraphEnabled pro zapnutí nebo vypnutí grafu plamene
  • [SPARK-45664] [SC-146878][sql] Zavedení mapperu pro komprimační kodeky orc
  • [SPARK-45481] [SC-146715][sql] Zavedení mapperu pro kodeky komprese parquet
  • [SPARK-45752] [SC-148005][sql] Zjednodušení kódu pro kontrolu neodkazovaných vztahů CTE
  • [SPARK-44752] [SC-146262][sql] XML: Aktualizace dokumentace Sparku
  • [SPARK-45752] [SC-147869][sql] Neodkazované CTE by mělo být kontrolováno nástrojem CheckAnalysis0.
  • [SPARK-45842] [SC-147853][sql] Přepracování rozhraní API funkcí katalogu pro použití analyzátoru
  • [SPARK-45639] [SC-147676][sql][PYTHON] Podpora načítání zdrojů dat Pythonu v DataFrameReader
  • [SPARK-45592] [SC-146977][sql] Problém se správností v AQE s InMemoryTableScanExec
  • [SPARK-45794] [SC-147646][ss] Zavedení systému metadat pro dotazy na informace o metadatech stavu streamování
  • [SPARK-45739] [SC-147059][python] Zachycení výjimky IOException místo výjimky EOFException pro správce chyb
  • [SPARK-45677] [SC-146700] Lepší protokolování chyb pro rozhraní API pro pozorování
  • [SPARK-45544] [SC-146873][core] Integrace podpory SSL do TransportContext
  • [SPARK-45654] [SC-147152][python] Přidání rozhraní API pro zápis zdroje dat Pythonu
  • [SPARK-45771] [SC-147270][core] Povolení spark.eventLog.rolling.enabled ve výchozím nastavení
  • [SPARK-45713] [SC-146986][python] Podpora registrace zdrojů dat Pythonu
  • [SPARK-45656] [SC-146488][sql] Oprava pozorování při pojmenovaných pozorováních se stejným názvem u různých datových sad
  • [SPARK-45808] [SC-147571][connect][PYTHON] Lepší zpracování chyb pro výjimky SQL
  • [SPARK-45774] [SC-147353][core][UI] Podpora spark.master.ui.historyServerUrl v ApplicationPage
  • [SPARK-45776] [SC-147327][core] Odeberte obrannou kontrolu null pro MapOutputTrackerMaster#unregisterShuffle přidanou v SPARK-39553
  • [SPARK-45780] [SC-147410][connect] Propagace všech proměnných vláken klienta Spark Connect v InheritableThread
  • [SPARK-45785] [SC-147419][core] Podpora spark.deploy.appNumberModulo rotace čísla aplikace
  • [SPARK-45793] [SC-147456][core] Vylepšení integrovaných kodeků komprese
  • [SPARK-45757] [SC-147282][ml] Vyhněte se revýpočtu NNZ v Binarizeru
  • [SPARK-45209] [SC-146490][core][UI] Podpora plamenového grafu pro stránku výpisu vláken exekutoru
  • [SPARK-45777] [SC-147319][core] Podpora spark.test.appId v LocalSchedulerBackend
  • [SPARK-45523] [SC-146331][python] Refaktoring kontroly na null pro zkratky
  • [SPARK-45711] [SC-146854][sql] Zavedení mapperu pro kodeky komprese avro
  • [SPARK-45523] [SC-146077][python] Vrátí užitečnou chybovou zprávu, pokud funkce UDTF vrátí none pro libovolný sloupec bez hodnoty null.
  • [SPARK-45614] [SC-146729][sql] Přiřazení názvů k chybě _LEGACY_ERROR_TEMP_215[6,7;8]
  • [SPARK-45755] [SC-147164][sql] Vylepšení Dataset.isEmpty() použitím globálního limitu 1
  • [SPARK-45569] [SC-145915][sql] Přiřaďte název k chybě _LEGACY_ERROR_TEMP_2153
  • [SPARK-45749] [SC-147153][core][WEBUI] Oprava Spark History Server správné řazení Duration sloupce
  • [SPARK-45754] [SC-147169][core] Podpora spark.deploy.appIdPattern
  • [SPARK-45707] [SC-146880][sql] Zjednodušení DataFrameStatFunctions.countMinSketch pomocí CountMinSketchAgg
  • [SPARK-45753] [SC-147167][core] podpora spark.deploy.driverIdPattern
  • [SPARK-45763] [SC-147177][core][UI] Vylepšení MasterPage tak, aby zobrazoval sloupec Resource pouze v případech, kdy existuje
  • [SPARK-45112] [SC-143259][sql] Použití rozlišení založeného na nevyřešených funkcích v SQL Dataset funkcích

Podpora ovladačů Databricks ODBC/JDBC

Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).

Aktualizace údržby

Viz aktualizace údržby pro Databricks Runtime 14.3.

Prostředí systému

  • Operační systém: Ubuntu 22.04.3 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.1.0

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 attrs 22.1.0 zpětné volání 0.2.0
BeautifulSoup4 4.11.1 černý 22.6.0 bělidlo 4.1.0
blinkr 1.4 boto3 1.24.28 botocore 1.27.96
certifikace 2022.12.7 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 klikněte 8.0.4 Komunikace 0.1.2
obrysová křivka 1.0.5 kryptografie 39.0.1 cyklista 0.11.0
Cython 0.29.32 Databricks-SDK 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 dekoratér 5.1.1 defusedxml 0.7.1
distlib 0.3.7 docstring-to-markdown 0,11 vstupní body 0,4
provádění 0.8.3 přehled aspektů 1.1.1 fastjsonschema 2.19.1
zamykání souborů 3.13.1 fonttools 4.25.0 googleapis-common-protos 1.62.0
grpcio 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
jupyter-client 7.3.4 jupyter-server 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgety 1.0.0 klíčenka 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 Mccabe 0.7.0
špatně naladit 0.8.4 more-itertools 8.10.0 mypy-extensions 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
poznámkový blok 6.5.2 notebook_shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 balení 23.2 pandas 1.5.3
pandocfilters 1.5.0 parso 0.8.3 specifikace cesty 0.10.3
bábovka 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Polštář 9.4.0 pip 22.3.1 platformdirs 2.5.2
plotly 5.9.0 pluggy 1.0.0 prometheus-client 0.14.1
prompt-toolkit 3.0.36 protobuf 4.24.0 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 čistý-eval 0.2.2
pyarrow 8.0.0 pyarrow-hotfix 0.5 pycparser 2.21
pydantic 1.10.6 pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 pyright 1.1.294 pyrsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 python-lsp-server 1.8.0
pytoolconfig 1.2.5 pytz 2022.7 pyzmq 23.2.0
žádosti 2.28.1 lano 1.7.0 s3transfer 0.6.2
scikit-learn 1.1.1 scipy 1.10.0 seaborn 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 setuptools 65.6.3
Šest 1.16.0 sniffio 1.2.0 cedník na polévku 2.3.2.post1
ssh-import-id 5,11 stack-data 0.2.0 statsmodels 0.13.5
houževnatost 8.1.0 dokončeno 0.17.1 threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
tornádo 6.1 traitlets 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 bezobslužné aktualizace 0,1 urllib3 1.26.14
virtualenv 20.16.7 wadllib 1.3.6 wcwidth 0.2.5
webová kódování 0.5.1 websocket-client 0.58.0 whatthepatch 1.0.2
kolo 0.38.4 widgetsnbextension 3.6.1 yapf 0.33.0
zipp 1.0.0

Nainstalované knihovny jazyka R

Knihovny R jsou nainstalovány ze snímku CRAN Posit Package Manager z 13. 7. 2023: https://packagemanager.posit.co/cran/2023-07-13/.

Knihovna Verze Knihovna Verze Knihovna Verze
šipka 12.0.1 askpass 1,1 assertthat 0.2.1
zpětné porty 1.4.1 base 4.3.1 base64enc 0.1-3
bitové 4.0.5 64bit 4.0.5 shluk 1.2.4
startování 1.3-28 vařit 1.0-8 verva 1.1.3
koště 1.0.5 bslib 0.5.0 cachem 1.0.8
volající 3.7.3 caret 6.0-94 cellranger 1.1.0
chron 2.3-61 třída 7.3-22 Rozhraní příkazového řádku (CLI) 3.6.1
clipr 0.8.0 hodiny 0.7.0 shluk 2.1.4
codetools 0.2-19 barevný prostor 2.1-0 commonmark 1.9.0
– kompilátor 4.3.1 config 0.3.1 rozpolcený 1.2.0
cpp11 0.4.4 pastelka 1.5.2 pověření 1.3.2
curl 5.0.1 data.table 1.14.8 datové sady 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Popis 1.4.2
devtools 2.4.5 diagram 1.6.5 diffobj 0.3.5
trávit 0.6.33 osvětlený shora 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 tři tečky 0.3.2
vyhodnotit 0.21 fanoušci 1.0.4 barvy 2.1.1
rychlá mapa 1.1.1 fontawesome 0.5.1 forcats 1.0.0
foreach 1.5.2 zahraniční 0.8-85 kovat 0.2.0
Fs 1.6.2 budoucnost 1.33.0 future.apply 1.11.0
kloktadlo 1.5.1 generika 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 globály 0.16.2 lepidlo 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
Grafika 4.3.1 grDevices 4.3.1 mřížka 4.3.1
gridExtra 2.3 gsubfn 0,7 gtable 0.3.3
bezpečnostní přilba 1.3.0 útočiště 2.5.3 vyšší 0.10
Hms 1.1.3 htmltools 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Id 1.0.1 ini 0.3.1 ipred 0.9-14
isoband 0.2.7 Iterátory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 knitr 1,43
značení 0.4.2 později 1.3.1 mříž 0.21-8
láva 1.7.2.1 životní cyklus 1.0.3 listenv 0.9.0
lubridate 1.9.2 magrittr 2.0.3 markdown 1,7
MŠE 7.3-60 Matice 1.5-4.1 zapamatujte si 2.0.1
metody 4.3.1 mgcv 1.8-42 mim 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 paralelní 4.3.1
paralelně 1.36.0 pilíř 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
plogr 0.2.0 plyr 1.8.8 chválit 1.0.0
prettyunits 1.1.1 pROC 1.18.4 processx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 Průběh 1.2.2
progressr 0.13.0 sliby 1.2.0.1 proto 1.0.0
proxy 0.4-27 PS 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
readr 2.1.4 readxl 1.4.3 recepty 1.0.6
odvetný zápas 1.0.1 rematch2 2.1.2 dálkové ovladače 2.4.2
reprodukovatelný příklad 2.0.2 reshape2 1.4.4 rlang 1.1.1
rmarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.21 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 drzost 0.4.6 váhy 1.2.1
selektor 0.4-2 informace o sezení 1.2.2 tvar 1.4.6
lesklý 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
prostorový 7.3-15 spliny 4.3.1 sqldf 0.4-11
SQUAREM 2021.1 statistické údaje 4.3.1 Statistiky 4 4.3.1
řetězce 1.7.12 stringr 1.5.0 přežití 3.5-5
systém 3.4.2 systemfonts 1.0.4 tcltk 4.3.1
testthat 3.1.10 úprava textu 0.3.6 tibble 3.2.1
tidyr 1.3.0 tidyselect 1.2.0 tidyverse 2.0.0
změna času 0.2.0 časDatum 4022.108 tinytex 0,45
nástroje 4.3.1 tzdb 0.4.0 urlchecker 1.0.1
použijte to 2.2.2 utf8 1.2.3 utils 4.3.1
Uuid 1.1-0 vctrs 0.6.3 viridisLite 0.4.2
vroom 1.6.3 Waldo 0.5.1 vous 0.4.1
withr 2.5.0 xfun 0,39 xml2 1.3.5
xopen 1.0.0 xtable 1.8-4 yaml 2.3.7
zip 2.3.0

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws automatické škálování aws-java-sdk 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy (nástroj pro automatizaci nasazení aplikací) 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics datový proud 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.13.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-stínovaný 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofein kofein 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java Verze pro nativní uživatele 1.1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java Nativní verze 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64 Nativní verze 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64 Nativní verze 1.1
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Cink 1.9.0
com.google.errorprone anotace náchylné k chybám 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger profilovací nástroj 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor 0.25
io.delta delta-sharing-client_2.12 1.0.3
io.dropwizard.metrics metriky pro anotace 4.2.19
io.dropwizard.metrics jádro metrik 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metriky – kontroly stavu 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metriky – servlety 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-obslužná rutina 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transakční API 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine marináda 1.3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant mravenec 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow formát šipky 12.0.1
org.apache.arrow arrow-memory-core 12.0.1
org.apache.arrow arrow-memory-netty 12.0.1
org.apache.arrow šipkový vektor 12.0.1
org.apache.avro avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-klient 2.13.0
org.apache.kurátor kurátor-framework 2.13.0
org.apache.kurátor kurátor-recepty 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy břečťan 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus cílové skupiny a poznámky 0.13.0
org.apache.zookeeper ošetřovatel zvířat 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty Jetty-pokračování 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket – obecný 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core běžný žerzej 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Vyrovnávací podložky 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt testovací rozhraní 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest kompatibilní s scalatestem 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1