Sdílet prostřednictvím


Databricks Runtime 16.1

Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 16.1, který využívá Apache Spark 3.5.0.

Databricks vydala tuto verzi v prosinci 2024.

Spropitné

Pro zobrazení poznámek k verzím Databricks Runtime, které dosáhly konce podpory (EoS), navštivte poznámky k verzím Databricks Runtime s ukončenou podporou. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.

Změny chování

zásadní změna: Zpracování regulárních výrazů Photon je teď konzistentní s Apache Spark

Ve službě Databricks Runtime 15.4 a vyšší se aktualizuje zpracování regulárních výrazů ve Photonu tak, aby odpovídalo chování zpracování regulárních výrazů Apache Sparku. Dříve funkce regulárních výrazů spouštěné společností Photon, například split() a regexp_extract(), přijali některé regulární výrazy odmítnuté analyzátorem Sparku. Kvůli zachování konzistence s Apache Sparkem teď dotazy Photon pro regulární výrazy, které Spark považuje za neplatné, selžou.

Kvůli této změně se můžou zobrazit chyby, pokud kód Sparku obsahuje neplatné regulární výrazy. Například výraz split(str_col, '{'), který obsahuje nepárovanou složenou závorku a byl dříve přijat Photonem, nyní neuspěje. Pokud chcete tento výraz opravit, můžete použít escape na znak závorky: split(str_col, '\\{').

Chování Photon a Spark se také liší u některých regulárních výrazů odpovídajících znakům, které nejsou ASCII. Aktualizuje se také tak, aby Photon odpovídal chování Apache Sparku.

Datový typ VARIANT už nejde použít s operacemi, které vyžadují porovnání.

Ve službě Databricks Runtime 16.1 a novějších není možné v dotazech, které obsahují datový typ VARIANT, použít následující klauzule ani operátory:

  • DISTINCT
  • INTERSECT
  • EXCEPT
  • UNION
  • DISTRIBUTE BY

Kromě toho nemůžete použít tyto funkce datového rámce:

  • df.dropDuplicates()
  • df.repartition()

Tyto operace provádějí porovnání a porovnání, která používají datový typ VARIANT, vytvářejí nedefinované výsledky a nejsou podporovány v Databricks. Pokud ve svých úlohách nebo tabulkách Azure Databricks používáte typ VARIANT, doporučuje Databricks následující změny:

  • Aktualizujte dotazy nebo výrazy tak, aby explicitně přetypovály hodnoty VARIANT na datové typy, které nejsouVARIANT.
  • Pokud máte pole, která je nutné použít s některou z výše uvedených operací, extrahujte tato pole z datového typu VARIANT a uložte je pomocí datových typů, které nejsouVARIANT.

Pro více informací, viz data variant dotazování.

Nové funkce a vylepšení

Podpora kolací v Apache Sparku je ve verzi Public Preview.

Teď můžete ke sloupcům a výrazům STRING přiřazovat kolace rozlišující jazyk, nerozlišující malá a velká písmena a nerozlišující přístup. Tato seřazení se používají v porovnání řetězců, řazení, operacích seskupování a mnoha řetězcových funkcích. Viz kolace.

Podpora kolací v Delta Lake je ve verzi Public Preview.

Při vytváření nebo změně tabulky Delta teď můžete definovat kolace pro sloupce. Podívejte se na podporu uspořádání pro Delta Lake.

režim LITE pro vakuum je ve verzi Public Preview.

Nyní můžete použít VACUUM table_name LITE k provedení lehčího čištění, které využívá metadata v transakčním protokolu Delta. Viz plnohodnotný režim vs. odlehčený režim a VACUUM.

Podpora parametrizace klauzule USE CATALOG with IDENTIFIER

V Databricks Runtime 16.1 a novějších je pro příkaz USE CATALOG podporovaná klauzule IDENTIFIER. S touto podporou můžete parametrizovat aktuální katalog pomocí řetězcové proměnné nebo značky parametru.

podpora COMMENT ONCOLUMN pro tabulky a zobrazení

V Databricks Runtime 16.1 a novějším podporuje příkaz COMMENT ON změny komentářů pro sloupce zobrazení a tabulky.

Nové funkce SQL

Ve službě Databricks Runtime 16.1 a novějších jsou k dispozici následující integrované funkce SQL:

Vyvolání pojmenovaného parametru pro další funkce

V Databricks Runtime 16.1 a novějších podporují následující funkce volání pojmenovaných parametrů:

Metastore Hive podporuje parametr SYNC METADATA příkazu REPAIR TABLE.

V Databricks Runtime 16.1 a novějších můžete pomocí parametru SYNC METADATA s příkazem REPAIR TABLE aktualizovat metadata spravované tabulky metastoru Hive. Viz REPAIR TABLE.

Vylepšená integrita dat pro komprimované dávky Apache Arrow

V Databricks Runtime 16.1 a novějších nyní každá LZ4 komprimovaná dávka Arrow obsahuje kontrolní součty obsahu a bloků LZ4, aby poskytovala lepší ochranu proti poškození dat. Viz popis formátu rámce LZ4 .

Přidání podpory pro metody Scala ve výpočetním režimu sdíleného přístupu katalogu Unity

Ve výpočetním režimu sdíleného přístupu v Unity Catalogu v Databricks Runtime 16.1 a novějších byla přidána podpora pro následující metody Scaly: Dataset.flatMapGroups(), Dataset.mapGroups()a DataStreamWriter.foreach().

Integrovaný ovladač Teradata JDBC

V Databricks Runtime 16.1 a novějších je ovladač Teradata JDBC integrovaný do Azure Databricks. Pokud používáte ovladač JDBC ve formátu JAR, který jste nahráli přes DriverManager, je nutné přepsat skripty tak, aby explicitně používaly tento vlastní soubor JAR. V opačném případě se použije integrovaný ovladač. Tento ovladač podporuje pouze Federaci Lakehouse. Pro jiné případy použití musíte poskytnout vlastní ovladač.

Podpora StreamQueryListener pro Scala

Teď můžete použít StreamingQueryListener v jazyce Scala na výpočetních prostředcích nakonfigurovaných pomocí režimu sdíleného přístupu.

Integrovaný ovladač Oracle JDBC

V Databricks Runtime 16.1 a novějších je ovladač Oracle JDBC integrovaný do Azure Databricks. Pokud používáte ovladač JDBC ve formátu JAR, který jste nahráli přes DriverManager, je nutné přepsat skripty tak, aby explicitně používaly tento vlastní soubor JAR. V opačném případě se použije integrovaný ovladač. Tento ovladač podporuje pouze Federaci Lakehouse. Pro jiné případy použití musíte poskytnout vlastní ovladač.

Podrobnější přehled chyb pro tabulky Delta přístupné prostřednictvím cest

K dispozici je nové prostředí pro zobrazení chybových zpráv pro tabulky Delta, k nimž se přistupuje pomocí cest. Všechny výjimky se teď předávají uživateli. Výjimka DELTA_MISSING_DELTA_TABLE je teď vyhrazena, když se podkladové soubory nedají číst jako tabulka Delta.

Další změny

Přejmenovány chybové kódy pro zdroj strukturovaného streamování cloudFiles

Tato verze obsahuje změnu pro přejmenování následujících kódů chyb:

  • _LEGACY_ERROR_TEMP_DBR_0143 se přejmenuje na CF_INCORRECT_STREAM_USAGE.
  • _LEGACY_ERROR_TEMP_DBR_0260 se přejmenuje na CF_INCORRECT_BATCH_USAGE .

Opravy chyb

Vnořené typy nyní správně přijímají omezení na NULL.

Tato verze opravuje chybu, která ovlivňuje některé sloupce vygenerované Deltou u vnořených typů, například STRUCT. Tyto sloupce by někdy nesprávně odmítaly výrazy na základě omezení NULL nebo NOT NULL ve vnořených polích. Toto bylo opraveno.

Upgrady knihoven

  • Upgradované knihovny Pythonu:
    • ipyflow-core od 0.0.198 do 0.0.201
    • pyccolo od 0.0.52 do 0.0.65
  • Upgradované knihovny jazyka R:
  • Upgradované knihovny Java:
    • io.delta.delta-sharing-client_2.12 od 1.2.1 do 1.2.2
    • org.lz4.lz4-java od 1.8.0 do 1.8.0-databricks-1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider od 1.6.2-linux-x86_64 do 2.4.1-linux-x86_64

Apache Spark

Databricks Runtime 16.1 zahrnuje Apache Spark 3.5.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v Databricks Runtime 16.0a také následující další opravy chyb a vylepšení Sparku:

  • [SPARK-50482] [SC-182879][CORE] Zastaralá konfigurace no-op spark.shuffle.spill
  • [SPARK-50032] [SC-182706][SQL][16.x] Povolit použití plně kvalifikovaného názvu kolace
  • [SPARK-50467] [SC-182823][PYTHON] Přidání __all__ pro předdefinované funkce
  • [SPARK-48898] [SC-182828][SQL] Oprava chyby rozkladu varianty
  • [SPARK-50441] [SC-182668][SQL] Oprava parametrizovaných identifikátorů, které nefungují při odkazování na identifikátory CTE
  • [SPARK-50446] [SC-182639][PYTHON] Souběžná úroveň v UDF optimalizované pro šipky
  • [SPARK-50430] [SC-182536][CORE] Použít standardní Properties.clone místo ručního klonování.
  • [SPARK-50471] [SC-182790][PYTHON] Podpora zapisovače zdroje dat Pythonu založeného na šipkách
  • [SPARK-50466] [SC-182791][PYTHON] Zpřesnění dokumentačního řetězce pro funkce pracující s řetězci – část 1
  • [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] Integrace nového rozhraní API časovače a rozhraní API počátečního stavu s časovačem
  • [SPARK-50437] [SC-182586][SS] Snížení režie při vytváření deserializerů v TransformWithStateExec
  • [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Přidat podporu pro řetězení o...
  • [SPARK-49294] [SC-182730][UI] Přidání atributu šířky pro zaškrtávací políčko shuffle-write-time.
  • [SPARK-50426] [SC-182540][PYTHON] Vyhněte se vyhledávání statických zdrojů dat v Pythonu při použití předdefinovaných nebo java zdrojů dat
  • [SPARK-48356] [SC-182603][SQL] Podpora příkazu FOR
  • [SPARK-50333] [SC-182136][SQL] Podpora codegen pro CsvToStructs (vyvoláním & RuntimeReplaceable)
  • [SPARK-50285] [SC-182575] Metriky pro potvrzení do instancí StagedTable
  • [SPARK-50081] [SC-182344][SQL] Podpora Codegen pro XPath*(vyvoláním & RuntimeReplaceable)
  • [SPARK-50440] [SC-182592] [SQL] Refaktor attributeSeq.resolveCandidates
  • [SPARK-50067] [SC-179648][SQL] Podpora generování kódu pro SchemaOfCsv (pomocí Invoke & RuntimeReplaceable)
  • [SPARK-49873] [SC-178577][SQL] oprava selhání po sloučení při testování chyb
  • [SPARK-50118] [SC-181259][CONNET] Resetování izolované stavové mezipaměti při spuštění úloh
  • [SPARK-49873] [SC-178577][SQL] Přiřazení správné třídy chyb pro _LEGACY_ERROR_TEMP_1325
  • [SPARK-50381] [SC-182197][CORE] Podpora spark.master.rest.maxThreads
  • [SPARK-46725] [SC-182448][SQL] Přidání funkce DAYNAME
  • [SPARK-50270] [SC-181179][SS][PYTHON] Přidání vlastních metrik stavu pro TransformWithStateInPandas
  • [SPARK-50118] Vrátit zpět [SC-181259][CONNET] Resetovat izolovanou mezipaměť stavu při spuštění úloh
  • [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] Přidání rozhraní API datového rámce pro funkce s hodnotami tabulky
  • [SPARK-49470] [SC-175736][UI] Aktualizace šablon stylů datových tabulek a javascriptů z verze 1.13.5 na 1.13.11
  • [SPARK-50235] Vrátit zpět “[SC-180786][SQL] Vyčištění prostředku ColumnVector po zpracování všech řádků v ColumnarToRowExecu”
  • [SPARK-50324] [SC-182278][PYTHON][CONNECT] createDataFrame triggeruje Config RPC nejvýše jednou
  • [SPARK-50387] [SC-182441][SS] Podmínka aktualizace pro vypršení platnosti časovače a relevantní test
  • [SPARK-50287] [SC-182400][SQL] Možnosti sloučení tabulek a relací při vytváření nástroje WriteBuilder v FileTable
  • [SPARK-50066] [SC-181484][SQL] Podpora codegenu pro SchemaOfXml (vyvoláním & RuntimeReplaceable)
  • [SPARK-50092] [SC-181568][SQL] Oprava chování konektoru PostgreSQL pro multidimenzionální pole
  • [SPARK-50318] [SC-181641][SQL] Přidat IntervalUtils.makeYearMonthInterval k odstranění duplicitního kódu mezi interpretovaným a codegenem
  • [SPARK-50312] [SC-181646][SQL] SparkThriftServer chyba při předávání parametrů v createServer, pokud je kerberos aktivní
  • [SPARK-50246] [SC-181468][SQL] Přiřaďte příslušné chybové podmínky pro _LEGACY_ERROR_TEMP_2167: INVALID_JSON_RECORD_TYPE
  • [SPARK-50214] [SC-180692][SQL] Z json/xml by se v daném schématu neměly měnit kolace.
  • [SPARK-50250] [SC-181466][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_2075: UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
  • [SPARK-50248] [SC-181467][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_2058: INVALID_PARTITION_VALUE
  • [SPARK-50118] [SC-181259][CONNET] Resetování izolované stavové mezipaměti při spuštění úloh
  • [SPARK-50235] [SC-180786][SQL] Vyčištění prostředku ColumnVector po zpracování všech řádků ve ColumnarToRowExec
  • [SPARK-50156] [SC-180781][SQL] Integrace _LEGACY_ERROR_TEMP_2113 do UNRECOGNIZED_STATISTIC
  • [SPARK-50069] [SC-180163][SQL] Integrace _LEGACY_ERROR_TEMP_0028 do UNSUPPORTED_FROM_TO_EXPRESSION
  • [SPARK-50154] [SC-180663][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_0043: INVALID_RESET_COMMAND_FORMAT
  • [SPARK-49967] [SC-179534][SQL] Codegen Support for StructsToJson(to_json)
  • [SPARK-50055] [SC-180978][SQL] Přidání alternativního příkazu TryMakeInterval
  • [SPARK-50397] [SC-182367][CORE] Odebrání zastaralých --ip a -i argumentů z Master/Worker
  • [SPARK-50238] [SC-181434][PYTHON] Přidání podpory variant v UDF/UDTFs/UDAFs PySpark a UDF UC v Pythonu
  • [SPARK-50079] [SC-179830][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_2013: NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
  • [SPARK-50182] [SC-180346][EXAMPLE] Příklad přidání submit-sql.sh rozhraní REST API
  • [SPARK-49966] [SC-179501][SQL] K implementaci Invoke(JsonToStructs) použijte from_json.
  • [SPARK-50302] [SC-182518][SS] Ujistěte se, že sekundární velikosti indexů jsou stejné jako velikosti primárních indexů pro stavové proměnné TransformWithState pomocí hodnoty TTL.
  • [SPARK-50301] [SC-182241][SS][16.x] Metriky Make TransformWithState odrážejí jejich intuitivní významy.
  • [SPARK-50175] [SC-182140][SQL] Změna výpočtu precedence řazení
  • [SPARK-50148] [SC-180292][SQL] Upravte StaticInvoke tak, aby byl kompatibilní s metodou, která vyvolává výjimku.
  • [SPARK-50280] [SC-181214][PYTHON] Refaktoring řazení výsledků a vyplnění prázdného intervalu compute_hist
  • [SPARK-50190] [SC-182458][PYTHON] Odebrání přímé závislosti Numpy z Histogramu
  • [SPARK-50382] [SC-182368][CONNECT] Přidání dokumentace pro obecné informace o vývoji aplikací a rozšíření Spark Connect
  • [SPARK-50296] [SC-181464][PYTHON][CONNECT] Vyhněte se použití class property ve vláknovém fondu pro klienta Python Connect
  • [SPARK-49566] [SC-182239][SQL] Přidání syntaxe kanálu SQL pro operátor EXTEND
  • [SPARK-50036] [SC-179533][CORE][PYTHON] Zahrnout SPARK_LOG_SCHEMA v kontextu prostředí REPL
  • [SPARK-49859] [SC-178259][CONNECT] Nahrazení multiprocessing.ThreadPool s ThreadPoolExecutor
  • [SPARK-50141] [SC-182378][PYTHON] lpad a rpad přijmout argumenty typu sloupce
  • [SPARK-50379] [SC-182142][SQL] Oprava zpracování DayTimeIntevalType v WindowExecBase
  • [SPARK-49954] [SC-179110][SQL] Podpora Codegen pro SchemaOfJson (vyvoláním & RuntimeReplaceable)
  • [SPARK-50398] [SC-182341][CORE] Pro 0 použití ve skriptech Sparku použijte --help ExitCode.
  • [SPARK-50377] [SC-182238][SQL] Povolit vyhodnocení skládacího modulu RuntimeReplaceable
  • [SPARK-50241] [SC-181444][SQL] Nahraďte NullIntolerant Mixin metodou Expression.nullIntolerant
  • [SPARK-50084] [SC-179672][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_3168: MISSING_TIMEOUT_CONFIGURATION
  • [SPARK-50078] [SC-179649][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_0038: DUPLICATED_CTE_NAMES
  • [SPARK-50057] [SC-179573][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_1049: INVALID_ATTRIBUTE_NAME_SYNTAX
  • [SPARK-50070] [SC-179579][SQL] Integrace _LEGACY_ERROR_TEMP_0039 do UNSUPPORTED_SQL_STATEMENT
  • [SPARK-50378] [SC-182235][SS] Přidejte vlastní metriku pro sledování času stráveného při počátečním stavu v transformWithState
  • [SPARK-50029] [SC-179531][SQL] Udělat StaticInvoke kompatibilním s metodou, která vrací Any
  • [SPARK-49990] [SC-179497][SQL] Zlepšení výkonu randStr
  • [SPARK-50048] [SC-179528][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_2114: UNRECOGNIZED_STATISTIC
  • [SPARK-50053] [SC-179532][SQL] Převod _LEGACY_ERROR_TEMP_2104 na INTERNAL_ERROR
  • [SPARK-49665] [SC-180054][SQL] Podpora trimování kolace pro řetězcové funkce
  • [SPARK-48549] [SC-176472][SQL][PYTHON] Vylepšení funkce SQL sentences
  • [SPARK-50022] [SC-179503][CORE][UI] Opravit MasterPage, aby se skryly odkazy uživatelského rozhraní, když je uživatelské rozhraní zakázané
  • [SPARK-50087] [SC-182152] Robustní zpracování logických výrazů v CASE WHEN pro MsSqlServer a budoucí konektory
  • [SPARK-49991] [SC-179481][SQL] Make HadoopMapReduceCommitProtocol respect 'mapreduce.output.basename' pro generování názvů souborů
  • [SPARK-50038] [SC-179521][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_0008: MERGE_WITHOUT_WHEN
  • [SPARK-50236] [SC-181671][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_1156: COLUMN_NOT_DEFINED_IN_TABLE
  • [SPARK-50021] [SC-179500][CORE][UI] Oprava ApplicationPage skrytí odkazů uživatelského rozhraní aplikace, když je uživatelské rozhraní zakázané
  • [SPARK-49911] [SC-179111][SQL] Oprava sémantiky podpory binární rovnosti
  • [SPARK-50025] [SC-179496][SQL] Integrovat _LEGACY_ERROR_TEMP_1253 do EXPECT_VIEW_NOT_TABLE
  • [SPARK-49829] [SC-179480][SS] Oprava chyby optimalizace při přidávání vstupu do úložiště stavů ve spojení stream-stream
  • [SPARK-50004] [SC-179499][SQL] Integrace _LEGACY_ERROR_TEMP_3327 do FIELD_NOT_FOUND
  • [SPARK-50380] [SC-182210][SQL] Změna pořadí AsociativníOperator by měla respektovat kontrakt v ConstantFoldingu.
  • [SPARK-50340] [SC-181859][SQL] Rozbalení UDT ve vstupním dotazu INSERT
  • [SPARK-50237] [SC-181660][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_2138-9: CIRCULAR_CLASS_REFERENCE
  • [SPARK-50258] [SC-181993][SQL] Oprava problému se změněným pořadím výstupních sloupců po optimalizaci AQE
  • [SPARK-49773] [SC-178369][SQL] Nezachycená výjimka Javy z make_timestamp() s chybným časovým pásmem
  • [SPARK-49977] [SC-179265][SQL] Použijte iterativní výpočet pomocí zásobníku, abyste se vyhnuli vytváření velkého množství objektů Scala List pro stromy hlubokých výrazů.
  • [SPARK-50153] [SC-181591][SQL] Přidání name do RuleExecutor, aby byl tisk protokolů QueryExecutionMetricsjasnější
  • [SPARK-50320] [SC-181668][CORE] Udělat z --remote oficiální možnost odstraněním upozornění experimental
  • [SPARK-49909] [SC-179492]Vrátit "[SQL] Oprava hezkého názvu některých výrazů"
  • [SPARK-50330] [SC-180720][SC-181764][SQL] Přidání nápověd k řazení a uzlům okna
  • [SPARK-50364] [SC-182003][SQL] Implementace serializace pro typ LocalDateTime v Row.jsonValue
  • [SPARK-50016] [SC-182139][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_2067: UNSUPPORTED_PARTITION_TRANSFORM
  • [SPARK-49899] [SC-181175][PYTHON][SS] Podpora funkce deleteIfExists pro TransformWithStateInPandas
  • [SPARK-49757] [SC-177824][SQL] Podpora výrazu IDENTIFIER v příkazu SETCATALOG
  • [SPARK-50315] [SC-181886][SQL] Podpora vlastních metrik pro zápisy V1Fallback
  • [SPARK-42838] [SC-181509][SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_2000
  • [SPARK-50353] [SC-181985][SQL] Refaktorizace ResolveSQLOnFile
  • [SPARK-48344] [SC-181967][SQL] Příprava skriptování SQL pro přidání architektury Execution Framework
  • [SPARK-49345] [SC-174786][CONNECT] Ujistěte se, že používáte aktuální spuštěnou relaci Sparku.
  • [SPARK-49925] [SC-178882][SQL] Přidání testů pro řazení pomocí kompletovaných řetězců
  • [SPARK-50167] [SC-181199][PYTHON][CONNECT] Zlepšení vykreslování chybových zpráv a importů PySpark
  • [SPARK-49368] [SC-174999][CONNECT] Vyhněte se přímému přístupu k třídám protobuf lite
  • [SPARK-50056] [SC-181378][SQL] Podpora generování kódu pro analýzu URL (vyvoláním & RuntimeReplaceable)
  • [SPARK-49601] [SC-180770][SS][PYTHON] Podpora počátečního zpracování stavu pro TransformWithStateInPandas
  • [SPARK-49908] [SC-178768][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_0044
  • [SPARK-50144] [SC-180307][SS] Řešení omezení výpočtů metrik se zdroji streamování DSv1
  • [SPARK-49874] [SC-178303][SQL] Odeberte specifikátory pro trim a ltrim, které se týkají kolace.
  • [SPARK-49513] [SC-180339][SS] Přidání podpory časovače v transformWithStateInPandas API
  • [SPARK-49119] [SC-175607][SQL] Oprava nekonzistence syntaxe show columns mezi v1 a v2
  • [SPARK-49206] [SC-173704][CORE][UI] Přidat tabulku Environment Variables do Master EnvironmentPage
  • [SPARK-49934] [SC-179581][SQL] Přidání implicitního přetypování pro přístup ke kompletované mapě pomocí literálu
  • [SPARK-50049] [SC-181659][SQL] Podpora vlastních metrik ovladačů při zápisu do tabulky v2
  • [SPARK-50171] [SC-180295][PYTHON] Udělat numpy volitelnou pro vykreslení KDE
  • [SPARK-49962] [SC-179320][SQL] Zjednodušení hierarchie tříd AbstractStringTypes
  • [SPARK-50226] [SC-181483][SQL] Oprava MakeDTInterval a MakeYMInterval pro zachycení výjimek Javy
  • [SPARK-48775] [SC-170801][SQL][STS] Nahraďte SQLContextu SparkSessionem v STS.
  • [SPARK-49015] [SC-175688][CORE] Connect Server by měl respektovat spark.log.structuredLogging.enabled
  • [SPARK-50327] [SC-181667][SQL][16.x] Rozlišení funkce pro opětovné použití v analyzátoru s jedním průchodem
  • [SPARK-49995] [SC-180762][SQL] Přidání podpory pojmenovaných argumentů do dalších souborů TVF
  • [SPARK-49268] [SC-174903][CORE] Protokolování výjimek vstupně-výstupních operací u poskytovatele historie SHS
  • [SPARK-48123] [SC-164989][Core] Zadejte schéma konstantní tabulky pro dotazování strukturovaných protokolů.
  • [SPARK-49217] [SC-174904][CORE] Podpora samostatné konfigurace velikosti vyrovnávací paměti v UnsafeShuffleWriter
  • [SPARK-50325] [SC-181664][SQL][16.x] Rozlišení aliasů pro opětovné použití v analyzátoru s jedním průchodem
  • [SPARK-50322] [SC-181665][SQL] Oprava parametrizovaného identifikátoru v dílčím dotazu
  • [SPARK-48400] [SC-175283][CORE] Zvýšení úrovně PrometheusServlet na DeveloperApi
  • [SPARK-50118] Vrátit zpět [SC-181259][CONNET] Resetovat izolovanou mezipaměť stavu při spuštění úloh
  • [SPARK-50306] [SC-181564][PYTHON][CONNECT] Podpora Pythonu 3.13 ve Spark Connect
  • [SPARK-50152] [SC-181264][SS] Podpora funkce handleInitialState se čtečkou zdroje dat o stavu
  • [SPARK-50260] [SC-181271][CONNECT] Refaktorování a optimalizace Spark C...
  • [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: Migrace logInfo s proměnnými do architektury strukturovaného protokolování
  • [SPARK-49312] [SC-174672][PYTHON] Zlepšení chybové zprávy pro assertSchemaEqual
  • [SPARK-49439] [SC-175236][SQL] Oprava hezkého názvu výrazu FromProtobuf & ToProtobuf
  • [SPARK-50092] [ES-1258521] Oprava chování konektoru PostgreSQL pro multidimenzionální pole
  • [SPARK-49913] [SC-181565][SQL] Přidání kontroly jedinečných názvů štítků ve vnořených oborech štítků
  • [SPARK-49563] [SC-181465][SQL] Přidání syntaxe kanálu SQL pro operátor WINDOW
  • [SPARK-49661] [SC-179021][SQL] Implementujte hashování a porovnání kolace oříznutí.
  • [SPARK-38912] [SC-181543][PYTHON] Odeberte komentář týkající se classmethod a vlastnosti.
  • [SPARK-49770] [16.x][SC-179802][SC-179270][SS][RocksDB Hardening] Vylepšení správy mapování souborů SST RocksDB a oprava problému s opětovným načtením stejné verze s existujícím snímkem
  • [SPARK-49002] Zrušit změnu “[SC-172846][SQL] Konzistentně zpracovávat neplatná umístění ve WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
  • [SPARK-49668] [SC-178268][SQL] Implementace podpory kompletačních klíčů pro kolaci oříznutí
  • [SPARK-50262] [SC-181193][SQL] Zakázat specifikaci komplexních typů během změny kolace
  • [SPARK-48898] [SC-181435][SQL] Přidat funkce variantového shreddingu
  • [SPARK-48273] [SC-181381]Vrátit “[SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier”
  • [SPARK-50222] [SC-180706][CORE] Podpora spark.submit.appName
  • [SPARK-50208] [SC-180662][CORE] Podpora spark.master.useDriverIdAsAppName.enabled
  • [SPARK-50224] [SC-180689][SQL] Nahrazení funkcí IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 by mělo být necitlivé na null hodnoty
  • [SPARK-50247] [SC-180962][CORE] Definujte BLOCK_MANAGER_REREGISTRATION_FAILED jako ExecutorExitCode
  • [SPARK-50282] [SC-181221][ML] Zjednodušení TargetEncoderModel.transform
  • [SPARK-50112] [SC-180763][SQL] Povolení operátoru TransformWithState pro použití kódování Avro
  • [SPARK-50267] [SC-181180][ML] Vylepšení TargetEncoder.fit s využitím rozhraní API datového rámce
  • [SPARK-37178] [SC-180939][ML] Přidat cílové kódování do ml.feature
  • [SPARK-50118] [SC-181259][CONNET] Resetování izolované stavové mezipaměti při spuštění úloh
  • [SPARK-50085] [CHOVÁNÍ-176][SC-179809][PYTHON] lit(ndarray) s np.int8 respektujte datový typ numpy.
  • [SPARK-50256] [SC-181048][SQL] Přidání zjednodušeného ověření pro kontrolu, jestli se logický plán po každém pravidlu optimalizátoru nevyřeší
  • [SPARK-50196] [SC-180932][CONNECT] Oprava kontextu chyby Pythonu pro použití správného kontextu
  • [SPARK-50274] [SC-181181][CORE] Ochrana před použitím po uzavření v DirectByteBufferOutputStream
  • [SPARK-49999] [SC-180063][PYTHON][CONNECT] Podpora volitelného parametru 'sloupec' v krabicových, hustotních a histogramových grafech
  • [SPARK-50273] [SC-181178][SS] Vylepšení protokolování pro případy získání a vydání zámku RocksDB
  • [SPARK-50033] [SC-180720][SC-180659][SQL] Přidejte nápovědu k uzlu logical.Aggregate()
  • [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Oprava extra uvolnění zámku RocksDB kvůli posluchači dokončení
  • [SPARK-50253] [SC-180969][SS] Stream-Stream Připojení by nemělo načítat ID kontrolního bodu, pokud není podporováno.
  • [SPARK-50255] [SC-180964][PYTHON] Vyhněte se zbytečnému přetypování v compute_hist
  • [SPARK-50228] [SC-180780][SQL] Přesunutí pravidla RewriteCollationJoin do FinishAnalysis
  • [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] Upravte, aby „přesnost“ byla součástí kwargs pro krabicové grafy.
  • [SPARK-49637] [SC-180160][SQL] Změněna chybová zpráva pro INVALID_FRACTION_OF_SECOND
  • [SPARK-49530] [SC-180658][PYTHON] Získání aktivní relace z datových rámců
  • [SPARK-50195] [SC-180654][CORE] Oprava StandaloneRestServer šíření spark.app.name na správné SparkSubmit
  • [SPARK-50229] [SC-180773] Snižte využití paměti u ovladačů pro široká schémata snížením životnosti objektů AttributeReference vytvořených během logického plánování.
  • [SPARK-50231] [SC-180815][PYTHON] Umožnit funkci instr přijímat sloupec substring
  • [SPARK-49854] [SC-179812][16.x][SQL] Naklonování správce artefaktů během klonování relace
  • [SPARK-50219] [SC-180694][SQL] Refaktorovat ApplyCharTypePadding, aby pomocné metody mohly být použity v překladači s jedním průchodem.
  • [SPARK-50077] [SC-179827][SQL] Zavedení nového objektu vzoru pro LogicalRelation, který pomáhá vyhnout se výchozímu vzoru úplného vzoru parametrů
  • [SPARK-50128] [Backport][16x][SC-180677][SS] Přidání rozhraní API pro zpracování stavového procesoru pomocí implicitních kodérů v jazyce Scala
  • [SPARK-50061] [SC-179961][SQL] Povolení analýzy tabulek pro kompletované sloupce
  • [SPARK-49993] [SC-180084][SQL] Zlepšení chybových zpráv pro součet a průměr
  • [SPARK-49638] [SC-179665][SQL] Odstranění návrhu konfigurace ANSI v INVALID_URL
  • [SPARK-50204] [SC-180660][SQL] Oddělit HiveTableRelation překlad cesty čtení
  • [SPARK-50193] [SC-180651][SS] Oprava zpracování výjimek pro ověřování časových režimů
  • [SPARK-50179] [SC-180342][CORE] Volitelná vlastnost spark.app.name v rozhraní REST API
  • [SPARK-50068] [SC-180300][SQL] Přepracování TypeCoercion a AnsiTypeCoercion pro oddělení transformací s jedním uzlem
  • [SPARK-49411] [SC-179483][SS] Komunikace ID kontrolního bodu úložiště stavu mezi ovladačem a stavovými operátory
  • [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET by měly zachovat pořadí dat.
  • [SPARK-49506] [SC-180165][SQL] Optimalizace ArrayBinarySearch pro pole, které lze skládat
  • [SPARK-50097] [SC-179908][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_1248: ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
  • [SPARK-50071] [SC-180159][SQL][PYTHON] Přidání try_make_timestamp(_ltz a _ntz) a souvisejících testů
  • [SPARK-50054] [SC-180228][PYTHON][CONNECT] Podpora grafů histogramů
  • [SPARK-50015] [SC-179964][SQL] Přiřaďte odpovídající chybový stav pro _LEGACY_ERROR_TEMP_1125: MISSING_DATABASE_FOR_V1_SESSION_CATALOG
  • [SPARK-50155] [SC-180240][3.5] Přesunutí souborů scala a Java do výchozích složek
  • [SPARK-49980] [SC-180353][CORE][SQL] Oprava potenciálního úniku datových proudů souborů způsobených přerušením zrušených úloh
  • [SPARK-49010] [SC-172304][SQL][XML] Přidání jednotkových testů pro odvození schématu XML s ohledem na citlivost na velká a malá písmena
  • [SPARK-49562] [SC-180211][SQL] Přidání syntaxe kanálu SQL pro agregaci
  • [SPARK-49663] [SC-180239][SQL] Povolení návrhů RTRIM ve výrazech kolace
  • [SPARK-48965] [SC-175926][SQL] Použijte správné schéma v Dataset#toJSON
  • [SPARK-48493] [SC-175893][PYTHON] Vylepšení čtečky datových zdrojů Pythonu s přímou podporou Arrow Batch pro lepší výkon
  • [SPARK-49734] [SC-180226][PYTHON] Přidání argumentu seed pro funkci shuffle
  • [SPARK-50174] [16.x][SC-180253][SQL] Factor out UnresolvedCatalogRelation resolution
  • [SPARK-49989] [SC-179512][PYTHON][CONNECT] Podpora grafů kde/hustota
  • [SPARK-49805] [SC-180218][SQL][ML] Odebrání privátních[xxx] funkcí z function.scala
  • [SPARK-49808] [SC-179490][SQL] Oprava zablokování v provádění poddotazů kvůli opožděným valům
  • [SPARK-49929] [SC-180144][PYTHON][CONNECT] Diagramy podpůrných boxů
  • [SPARK-50008] [SC-179290][PS][CONNECT] Vyhněte se zbytečným operacím v attach_distributed_sequence_column
  • [SPARK-49767] [SC-180161][PS][CONNECT] Refaktorování volání interní funkce
  • [SPARK-49683] [SC-178341][SQL] Blokovat kolaci oříznutí
  • [SPARK-49939] [SC-178941][SQL] Podpora codegenu pro json_object_keys pomocí vyvolání & RuntimeReplaceable
  • [SPARK-50031] [SC-179582][SQL] Přidání výrazu TryParseUrl
  • [SPARK-49766] [SC-178933][SQL] Codegen Support for json_array_length (podle Invoke & RuntimeReplaceable)
  • [SPARK-50046] [SC-180026][SS] K výpočtu vodoznaku použijte stabilní pořadí uzlu EventTimeWatermark.
  • [SPARK-49540] [SC-180145][PS] Sjednocení využití distributed_sequence_id
  • [SPARK-50060] [SC-179965][SQL] Zakázán převod mezi různými kompletovanými typy v TypeCoercion a AnsiTypeCoercion
  • [SPARK-49004] [SC-173244][CONNECT] Pro interní funkce rozhraní API sloupců použijte samostatný registr.
  • [SPARK-49811] [SC-177888][SQL]Přejmenovat StringTypeAnyCollation
  • [SPARK-49202] [SC-180059][PS] Použít ArrayBinarySearch pro histogram
  • [SPARK-49203] [SC-175734][SQL] Přidání výrazu pro java.util.Arrays.binarySearch
  • [SPARK-50034] [SC-179816][CORE] Oprava nesprávného hlášení fatálních chyb jako nezachycených výjimek v SparkUncaughtExceptionHandler
  • [SPARK-50093] [SC-179836][SQL] Kolace, které používají ICU, by měly mít verzi používané knihovny ICU.
  • [SPARK-49985] [SC-179644][SQL] Odebrání podpory pro typy intervalů ve Variant
  • [SPARK-49103] [SC-173066][CORE] Podpora spark.master.rest.filters
  • [SPARK-50090] [SC-179819] Refaktorujte ResolveBinaryArithmetic, aby oddělil transformaci na jednotlivé uzly
  • [SPARK-49902] [SC-179650][SQL] Zachytávání základních chyb běhového prostředí v RegExpReplace
  • [SPARK-49126] [SC-173342][CORE] Přesun definice konfigurace spark.history.ui.maxApplications do History.scala
  • [SPARK-50094] [SC-179820][PYTHON][CONNECT] Lepší chybová zpráva při použití profileru paměti v editorech bez čísel řádků
  • [SPARK-50062] [SC-179835][SQL] Podpora kolací podle InSet
  • [SPARK-50035] [Backport][16x][SC-179530][SS] Přidání podpory pro explicitní funkci handleExpiredTimer v části stavového procesoru
  • [SPARK-49982] [SC-179814][SQL] Oprava negativního ukládání do mezipaměti v InMemoryRelation
  • [SPARK-49082] [SC-173350][SQL] Rozšíření povýšení typů v AvroDeserializer
  • [SPARK-50088] [SC-179680][SQL] Refaktorovat UnresolvedStarBase.expand
  • [SPARK-49802] [SC-179482][SS] Přidání podpory pro čtení kanálu změn pro typy map a seznamů používaných ve stavových procesorech
  • [SPARK-49846] [SC-179506][SS] Přidání metrik numUpdatedStateRows a numRemovedStateRows pro použití s operátorem transformWithState
  • [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] Umožněte, aby lit přijal typy str a bool numpy ndarray
  • [SPARK-49821] [SC-179527][SS][PYTHON] Implementace hodnoty MapState a TTL pro TransformWithStateInPandas
  • [SPARK-49558] [SC-179485][SQL] Přidání syntaxe kanálu SQL pro LIMIT/OFFSET a ORDER/SORT/CLUSTER/DISTRIBUTE BY
  • [SPARK-48144] [SC-165725][LC-4080][SQL] Upravit canPlanAsBroadcastHashJoin tak, aby respektoval nápovědy pro shuffle join
  • [SPARK-50051] [SC-179571][PYTHON][CONNECT] Umožnit, aby lit fungoval s prázdným numpy ndarray
  • [SPARK-50018] [SC-179488][SQL] Učinit AbstractStringType serializovatelný
  • [SPARK-50016] [SC-179491][SQL] Zlepšení chyby explicitní neshody kolace
  • [SPARK-50010] [SC-179487][SQL] Rozšíření chyby implicitní neshody kolace
  • [SPARK-48749] [SC-170116][SQL] Zjednodušení UnaryPositive a odstranění jeho katalytických pravidel pomocí RuntimeReplaceable
  • [SPARK-49857] [SC-178576][SQL] Přidání úrovně uložení do rozhraní API datové sady localCheckpoint
  • [SPARK-50058] [SC-179538][SQL] Vyjmout normalizační funkce plánu pro pozdější využití při testování analyzátoru s jedním průchodem
  • [SPARK-50052] [SC-179535][PYTHON][16.X] Umožnění, aby NumpyArrayConverter podporoval prázdný řetězec ndarray
  • [SPARK-47261] [SC-173665][SQL] Přiřaďte lepší název chyb _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 a _LEGACY_ERROR_TEMP_1174
  • [SPARK-49147] [SC-173471][CORE] Označte KryoRegistrator s rozhraním DeveloperApi
  • [SPARK-48949] [SC-173070][SQL] SPJ: Filtrování oddílů modulu runtime
  • [SPARK-50044] [SC-179523][PYTHON] Upřesněte docstring několika matematických funkcí.
  • [SPARK-48757] [SC-170113][CORE] IndexShuffleBlockResolver mají explicitní konstruktory
  • [SPARK-50037] [SQL] Refaktorování AttributeSeq.resolve(...)
  • [SPARK-48782] [SC-177056][SQL] Přidání podpory pro provádění procedur v katalogech
  • [SPARK-49057] [SC-173081][SQL] Neblokujte smyčku AQE při odesílání fází dotazu.
  • [SPARK-48824] [SC-176772][BEHAVE-167][SQL] Syntaxe přidání sloupce identity SQL
  • [SPARK-48773] [SC-170773] Konfigurace dokumentu Spark.default.parallelism podle architektury tvůrce konfigurace
  • [SPARK-48735] [SC-169810][SQL] Zlepšení výkonu pro funkci BIN
  • [SPARK-48900] [SC-172433] Přidejte pole reason pro všechna interní volání pro zrušení úlohy/fáze
  • [SPARK-48488] [SC-167605][CORE] Oprava metod log[info|warning|error] v SparkSubmit
  • [SPARK-48708] [SC-169809][CORE] Odebrání tří nepotřebných registrací typů z KryoSerializer
  • [SPARK-49958] [SC-179312][PYTHON] Python API pro funkce ověřování řetězců
  • [SPARK-49979] [SC-179264][SQL] Oprava problému se zaseknutím AQE při opakovaném shromažďování na neúspěšném plánu
  • [SPARK-48729] [SC-169795][SQL] Přidání rozhraní UserDefinedFunction pro reprezentaci funkce SQL
  • [SPARK-49997] [SC-179279][SQL] Integrace _LEGACY_ERROR_TEMP_2165 do MALFORMED_RECORD_IN_PARSING
  • [SPARK-49259] [SC-179271][SS]Vytváření oddílů na základě velikosti během čtení Kafka
  • [SPARK-48129] [SC-165006][PYTHON] Poskytnutí schématu konstantní tabulky v PySparku pro dotazování strukturovaných protokolů
  • [SPARK-49951] [SC-179259][SQL] Přiřazení správného chybového stavu pro LEGACY_ERROR_TEMP(1099|3085)
  • [SPARK-49971] [SC-179278][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_1097
  • [SPARK-49998] [SC-179277][SQL] Integrace _LEGACY_ERROR_TEMP_1252 do EXPECT_TABLE_NOT_VIEW
  • [SPARK-49876] [SC-179262][CONNECT] Zbavit se globálních zámků ze služby Spark Connect Service
  • [SPARK-49957] [SC-179202][SQL] Scala API pro funkce ověřování řetězců
  • [SPARK-48480] [SC-173055][SS][CONNECT] StreamingQueryListener by neměl mít vliv na Spark.interrupt()
  • [SPARK-49643] [SC-179239][SQL] Sloučení _LEGACY_ERROR_TEMP_2042 do ARITHMETIC_OVERFLOW
  • [SPARK-49959] [SC-179109][SQL] Oprava ColumnarArray.copy() pro čtení hodnot null ze správného offsetu
  • [SPARK-49956] Vrátit zpět "[SC-179070] Zakázané kolace s výrazem collect_set"
  • [SPARK-49987] [SC-179180][SQL] Oprava výzvy k chybě při nepřekládání seedExpression v randstr
  • [SPARK-49948] [SC-179158][PS][CONNECT] Přidání parametru "přesnost" do knihovny pandas v krabicových grafech Sparku
  • [SPARK-49970] [SC-179167][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_2069
  • [SPARK-49916] [SC-179108][SQL] Vyvolá odpovídající výjimku pro neshodu typů mezi typem ColumnType a datovým typem v některých řádcích
  • [SPARK-49956] [SC-179070] Zakázaná kolace s výrazem collect_set
  • [SPARK-49974] [16.x][SC-179071][SQL] Přesunout resolveRelations(...) z Analyzer.scala
  • [SPARK-47259] [SC-176437][SQL] Přiřazení názvů k chybovým stavům pro chyby intervalu
  • [SPARK-47430] [SC-173679][SQL] Přepracování seskupení podle typu mapy pro opravu výjimky při referenci na vazbu
  • [SPARK-49067] [SC-172616][SQL] Přesun literálu utf-8 do interních metod třídy UrlCodec
  • [SPARK-49955] [SC-178989][SQL] hodnota null neznamená poškozený soubor při analýze řetězce JSON RDD.
  • [SPARK-49393] [SC-175212][SQL] Selhání ve výchozím nastavení v zastaralých rozhraních API modulu plug-in katalogu
  • [SPARK-49952] [SC-178985][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_1142
  • [SPARK-49405] [SC-175224][SQL] Omezení znakových sad v JsonOptions
  • [SPARK-49892] [SC-178975][SQL] Přiřazení správné třídy chyb pro _LEGACY_ERROR_TEMP_1136
  • [SPARK-49904] [SC-178973][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_2140
  • [SPARK-47257] [SC-174244][SQL] Přiřazení názvů ke třídám chyb _LEGACY_ERROR_TEMP_105[3-4] a _LEGACY_ERROR_TEMP_1331
  • [SPARK-49915] [SC-178869][SQL] Zpracování nul a jednotek v ReorderAssociativeOperator
  • [SPARK-49891] [SC-178970][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_2271
  • [SPARK-49918] [SC-178748][CORE] Použijte přístup jen pro čtení ke konfiguraci tam, kde je to vhodné SparkContext.
  • [SPARK-49666] [SC-177891][SQL] Přidání příznaku funkce pro funkci kolace oříznutí
  • [SPARK-48885] [SC-171050][SQL] Upravte některé podtřídy RuntimeReplaceable, aby nahrazovaly metodu lazy val při prvním použití
  • [SPARK-49932] [SC-178931][CORE] Použijte tryWithResource vydané JsonUtils#toJsonString prostředky, abyste se vyhnuli nevráceným paměti.
  • [SPARK-49949] [SC-178978][PS] Vyhněte se zbytečným úlohám analýzy v attach_sequence_column
  • [SPARK-49924] [SC-178935][SQL] Zachovat containsNull po nahrazení ArrayCompact
  • [SPARK-49121] [SC-174787][SQL] Podpora from_protobuf a to_protobuf pro funkce SQL
  • [SPARK-47496] [SC-160529][SQL] Podpora rozhraní Java SPI pro dynamické registraci dialektu JDBC
  • [SPARK-49359] [SC-174895][SQL] Povolit implementacím StagedTableCatalog návrat k neatomickému zápisu
  • [SPARK-49895] [SC-178543][SQL][ES-1270338] Zlepšení chyby při výskytu koncové čárky v klauzuli SELECT
  • [SPARK-47945] [SC-163457][SQL] MsSQLServer: Dokumentace mapování datových typů Spark SQL z Microsoft SQL Server a přidání testů
  • [SPARK-46037] [SC-175495][SQL] Oprava správnosti pro sestavení shuffled hash Join doleva bez codegenu
  • [SPARK-47813] [SC-162615][SQL] Nahradit getArrayDimension funkcí updateExtraColumnMeta
  • [SPARK-49542] [SC-178765][SQL] Chyba vyhodnocení výjimky transformace oddílu
  • [SPARK-47172] [SC-169537][CORE] Přidání podpory pro AES-GCM pro šifrování RPC
  • [SPARK-47666] [SC-161476][SQL] Oprava NPE při čtení bitového pole MySQL jako LongType
  • [SPARK-48947] [SC-174239][SQL] Použijte název znakové sady malými písmeny ke snížení chybějící mezipaměti v Charset.forName.
  • [SPARK-49909] [SC-178552][SQL] Oprava hezkého názvu některých výrazů
  • [SPARK-47647] [SC-161377][SQL] Umožňuje, aby zdroj dat MySQL mohl číst bit (n>1) jako BinaryType, jako je Postgres
  • [SPARK-46622] [SC-153004][CORE] Přepsat metodu toString pro o.a.s.network.shuffledb.StoreVersion
  • [SPARK-48961] [SC-171910][PYTHON] Nastavení pojmenování parametrů PySparkException v souladu s JVM
  • [SPARK-49889] [SC-178474][PYTHON] Přidání argumentu trim pro funkcetrim/ltrim/rtrim
  • [SPARK-47537] [SC-160747][SQL] Oprava mapování datových typů chyb na konektoru MySQL/J
  • [SPARK-47628] [SC-161257][SQL] Oprava problému s bitovým polem Postgres – Nelze převést na booleovskou hodnotu
  • [SPARK-49843] [SC-178084][ES-1268164][SQL] Opravit změnu komentáře u sloupců char/varchar
  • [SPARK-49549] [SC-178764][SQL] Přiřazení názvu k chybovému stavu _LEGACY_ERROR_TEMP_3055, 3146
  • [SPARK-49791] [SC-177730][SQL] Udělat DelegatingCatalogExtension více rozšiřitelné
  • [SPARK-49559] [SC-178551][SQL] Přidání rourkové syntaxe SQL pro množinové operace
  • [SPARK-49906] [SC-178536][SQL] Zavedení a použití chyby "CONFLICTING_DIRECTORY_STRUCTURES" pro PartitioningUtils
  • [SPARK-49877] [SC-178392][SQL] Změna podpisu funkce classifyException: přidání argumentu isRuntime
  • [SPARK-47501] [SC-160532][SQL] Přidat funkci convertDateToDate podobně jako existující convertTimestampToTimestamp pro JdbcDialect.
  • [SPARK-49044] [SC-175746][SQL] ValidateExternalType by měl vrátit potomek při chybě
  • [SPARK-47462] [SC-160460][SQL] Zarovnání mapování jiných nepodepsaných číselných typů s TINYINT v MySQLDialect
  • [SPARK-47435] [SC-160129][SQL] Oprava problému s přetečením MySQL UNSIGNED TINYINT způsobeným SPARK-45561
  • [SPARK-49398] [SC-176377][SQL] Vylepšení chyby parametrů v dotazu CACHE TABLE a CREATE VIEW
  • [SPARK-47263] [SC-177012][SQL] Přiřazení názvů ke starším podmínkám _LEGACY_ERROR_TEMP_13[44-46]
  • [SPARK-49605] [SC-176605][SQL] Oprava výzvy, když je ascendingOrderDataTypeMismatch v SortArray
  • [SPARK-49806] [SC-178304][SQL][CONNECT] Odebrání nadbytečných blank space po show v klientech Scala a Connect
  • [SPARK-47258] [SC-175032][SQL] Přiřazení názvů ke třídám chyb _LEGACY_ERROR_TEMP_127[0-5]
  • [SPARK-49564] [SC-178461][SQL] Přidání syntaxe kanálu SQL pro operátor JOIN
  • [SPARK-49836] [SC-178339][SQL][SS] Oprava pravděpodobně přerušeného dotazu při zadání okna nebo funkce session_window
  • [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] Zpracování mapování časových razítek SQL pro Postgres a MySQL
  • [SPARK-49776] [SC-177818][PYTHON][CONNECT] Podpora výsečových grafů
  • [SPARK-49824] [SC-178251][SS][CONNECT] Vylepšení protokolování v SparkConnectStreamingQueryCache
  • [SPARK-49894] [SC-178460][PYTHON][CONNECT] Upřesněte řetězcovou reprezentaci operací polí sloupců.
  • [SPARK-49764] [SC-177491][PYTHON][CONNECT] Podpora plošných grafů
  • [SPARK-49694] [SC-177376][PYTHON][CONNECT] Podpora rozptylových grafů
  • [SPARK-49744] [SC-178363][SS][PYTHON] Implementace podpory TTL pro ListState v TransformWithStateInPandas
  • [SPARK-49879] [SC-178334][CORE] Přesunutí TransportCipherUtil do samostatného souboru, aby se eliminovala upozornění kompilace Java
  • [SPARK-49866] [SC-178353][SQL] Vylepšení chybové zprávy pro popis tabulky s partičními sloupci
  • [SPARK-49867] [SC-178302][ES-1260570][SQL] Vylepšete chybovou zprávu, když je index mimo rozsah při volání GetColumnByOrdinal
  • [SPARK-49607] [SC-177373][PYTHON] Aktualizujte přístup vzorkování pro vzorkované grafy.
  • [SPARK-49626] [SC-177276][PYTHON][CONNECT] Podpora vodorovných a svislých pruhových grafů
  • [SPARK-49531] [SC-177770][PYTHON][CONNECT] Podpora čárového grafu s backendem plotly
  • [SPARK-49444] [SC-177692][ES-1203248][SQL] Upravená funkce UnivocityParser kvůli vyvolání výjimek modulu runtime způsobených arrayIndexOutOfBounds s více uživateli orientovanými zprávami
  • [SPARK-49870] [SC-178262][PYTHON] Přidání podpory Pythonu 3.13 ve Spark Classic
  • [SPARK-49560] [SC-178121][SQL] Přidání syntaxe kanálu SQL pro operátor TABLESAMPLE
  • [SPARK-49864] [SC-178305][SQL] Vylepšit zprávu BINARY_ARITHMETIC_OVERFLOW
  • [SPARK-48780] [SC-170274][SQL] Zobecnění chyb v NamedParametersSupport pro zpracování funkcí a procedur
  • [SPARK-49358] [SC-178158][SQL] Mód výrazu pro typy map s seřazenými řetězci
  • [SPARK-47341] [SC-178157][SQL] Oprava nepřesné dokumentace modulu RuntimeConfig#get
  • [SPARK-48357] [SC-178153][SQL] Podpora příkazu LOOP
  • [SPARK-49845] [SC-178059][CORE] appArgs a environmentVariables volitelné v rozhraní REST API
  • [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable by měl indikovat, jestli se jedná o zápis.
  • [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Přidána podpora naslouchacího procesu na straně klienta pro Scalu
  • [SPARK-48700] [SC-177978][SQL] Výraz pro režim u složitých typů (všechna seřazení)
  • [SPARK-48196] [SC-177899][SQL] Převést "lazy val" plány v QueryExecution na LazyTry
  • [SPARK-49749] [16.x][SC-177877][CORE] Změna úrovně protokolu pro ladění v BlockManagerInfo
  • [SPARK-49561] [SC-177897][SQL] Přidání syntaxe kanálu SQL pro operátory PIVOT a UNPIVOT
  • [SPARK-49823] [SC-177885][SS] Vyhněte se flush během vypínání v uzavírací cestě rocksdb
  • [SPARK-49820] [SC-177855] [PYTHON] Změna raise IOError na raise OSError
  • [SPARK-49653] [SC-177266][SQL] Jedno spojení pro korelované skalární poddotazy
  • [SPARK-49552] [SC-177477][PYTHON] Přidání podpory rozhraní DATAFrame API pro nové funkce randstr a Uniform SQL
  • [SPARK-48303] [16.x][SC-166251][CORE] Změna uspořádání klíčů protokolu
  • [SPARK-49656] [16x][Backport][SS] Přidání podpory proměnných stavu s typy kolekcí stavových hodnot a možnostmi čtecího kanálu změn
  • [SPARK-48112] [SC-165129][CONNECT] Zveřejnění relace ve SparkConnectPlanneru pro moduly plug-in
  • [SPARK-48126] [16.x][SC-165309][Core] Zprovoznit funkčnost spark.log.structuredLogging.enabled
  • [SPARK-49505] [SC-176873][SQL] Vytvoření nových funkcí SQL "randstr" a "uniform" pro generování náhodných řetězců nebo čísel v rozsahech
  • [SPARK-49463] [SC-177474] Podpora ListState pro TransformWithStateInPandas
  • [SPARK-48131] [SC-165007][Core] Sjednocení mdc.taskName a task_name klíčů MDC
  • [SPARK-49557] [SC-177227][SQL] Přidání syntaxe kanálu SQL pro operátor WHERE
  • [SPARK-49323] [16.x][SC-174689][CONNECT] Přesunutí MockObserveru z testovací složky Serveru Spark Connect Serveru do hlavní složky Serveru
  • [SPARK-49745] [SC-177501][SS] Přidání změny pro čtení registrovaných časovačů prostřednictvím čtečky zdroje dat stavu
  • [SPARK-49772] [16.x][SC-177478][SC-177214][SS] Odeberte columnFamilyOptions a přidejte konfigurace přímo do dbOptions v RocksDB.

Podpora ovladačů Databricks ODBC/JDBC

Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgrade (stáhnout ODBC, stáhnout JDBC).

Viz Aktualizace údržby Databricks Runtime 16.1.

Systémové prostředí

  • operační systém: Ubuntu 24.04.1 LTS
  • java: Zulu17.54+21-CA
  • Scala: 2.12.18
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.2.1

Nainstalované knihovny Pythonu

Knihovna Verze Knihovna Verze Knihovna Verze
anotované typy 0.7.0 asttokens 2.0.5 astunparse 1.6.3
automatické příkazy 2.2.2 Azure Core 1.31.0 azure-storage-blob 12.23.0
azure-storage-file-datalake 12.17.0 backports.tarfile 1.2.0 černý 24.4.2
blinkr 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools 5.3.3 certifi 2024.6.2 cffi 1.16.0
chardet 4.0.0 charset-normalizer 2.0.4 kliknout 8.1.7
cloudpickle 2.2.1 Komunikace 0.2.1 obrysová křivka 1.2.0
kryptografie 42.0.5 cyklista 0.11.0 Cython 3.0.11
Databricks-sdk 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
dekoratér 5.1.1 Zavrhovaný 1.2.14 distlib 0.3.8
docstring na markdown 0.11 vstupní body 0.4 provádění 0.8.3
přehled aspektů 1.1.1 zamčení souboru 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
google-auth 2.35.0 google-cloud-core 2.4.1 google-cloud-storage 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
skloňovat 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 klient Jupyter 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
Mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-sémantické-konvence 0,48b0
balení 24.1 Pandy 1.5.3 parso 0.8.3
specifikace cesty 0.10.3 bábovka 0.5.6 pexpect 4.8.0
polštář 10.3.0 pip 24.2 platformdirs 3.10.0
plotly 5.22.0 pluggy 1.0.0 prompt-toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 čistý eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.65 pycparser 2.21 pydantic 2.8.2
pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing 3.0.9 pyright 1.1.294 python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6
pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
požadavky 2.32.2 lano 1.12.0 Rsa 4.9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1
seaborn 0.13.2 setuptools 74.0.0 Šest 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
stack-data 0.2.0 statsmodels 0.14.2 houževnatost 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádo 6.4.1 traitlets 5.14.3 typeguard 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 typy-žádostí 2.31.0.0 types-setuptools 68.0.0.0
typy-šest 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 bezobslužné aktualizace 0.1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5
whatthepatch 1.0.2 kolo 0.43.0 zavinul 1.14.1
yapf 0.33.0 zipp 3.17.0

nainstalované knihovny jazyka R

Knihovny R se instalují ze snímku CRAN balíčkového manažera Posit na datum 2024-08-04.

Knihovna Verze Knihovna Verze Knihovna Verze
šíp 16.1.0 askpass 1.2.0 ověř, že 0.2.1
zpětné portace 1.5.0 základna 4.4.0 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-8 shluk 1.2.4 bota 1.3-30
vařit 1.0-10 verva 1.1.5 koště 1.0.6
bslib 0.8.0 kašmír 1.1.0 volající 3.7.6
stříška 6.0-94 cellranger 1.1.0 chron 2.3-61
třída 7.3-22 Cli 3.6.3 clipr 0.8.0
hodiny 0.7.1 shluk 2.1.6 codetools 0.2-20
barevný prostor 2.1-1 commonmark 1.9.1 kompilátor 4.4.0
konfigurace 0.3.2 rozpolcený 1.2.0 cpp11 0.4.7
pastelka 1.5.3 pověření 2.0.1 kudrna 5.2.1
data.table 1.15.4 Datové sady 4.4.0 DBI 1.2.3
dbplyr 2.5.0 Popis 1.4.3 devtools 2.4.5
schéma 1.6.5 diffobj 0.3.5 trávit 0.6.36
světlo dolů 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 výpustka 0.3.2 hodnotit 0.24.0
fanoušci 1.0.6 barvy 2.1.2 rychlé mapování 1.2.0
fontawesome 0.5.2 knihovna 'forcats' 1.0.0 foreach 1.5.2
zahraniční 0.8-86 kovat 0.2.0 Fs 1.6.4
budoucnost 1.34.0 future.apply 1.11.2 kloktadlo 1.5.2
Generika 0.1.3 Gert 2.1.0 ggplot2 3.5.1
gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globály 0.16.3 lepidlo 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafika 4.4.0 grDevices 4.4.0 mřížka 4.4.0
gridExtra 2.3 gsubfn 0.7 Gt 0.11.0
gtable 0.3.5 bezpečnostní přilba 1.4.0 útočiště 2.5.4
vyšší 0.11 Hms 1.1.3 htmltools 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 Id 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iterátory 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 šťavnatý džus 0.1.0
KernSmooth 2.23-22 knitr 1.48 značení 0.4.3
později 1.3.2 mříž 0.22-5 láva 1.8.0
životní cyklus 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.13 MŠE 7.3-60.0.1
Matice 1.6-5 zapamatovat si 2.0.1 metody 4.4.0
mgcv 1.9-1 mim 0.12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 rovnoběžný 4.4.0
paralelně 1.38.0 pilíř 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 pochvala 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 pokrok 1.2.3
progressr 0.14.0 sliby 1.3.0 proto 1.0.0
proxy 0,4-27 PS 1.7.7 purrr 1.0.2
R6 2.5.1 ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reagovatelná 0.4.4
reactR 0.6.0 readr 2.1.5 readxl 1.4.3
recepty 1.1.0 odvetný zápas 2.0.0 rematch2 2.1.2
dálkové ovladače 2.5.0 případ reprodukovatelného problému 2.1.1 reshape2 1.4.4
rlang 1.1.4 rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 drzost 0.4.9
váhy 1.3.0 selektor 0.4-2 sessioninfo 1.2.2
tvar 1.4.6.1 lesklý 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 prostorový 7.3-17 spliny 4.4.0
sqldf 0.4-11 SQUAREM 2021.1 statistické údaje 4.4.0
stats4 4.4.0 řetězce 1.8.4 stringr 1.5.1
přežití 3.6-4 naparování 5.17.14.1 systém 3.4.2
systemfonts 1.1.0 tcltk 4.4.0 testthat 3.2.1.1
tvarování textu 0.4.0 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.1 tidyverse 2.0.0 změna času 0.3.0
časDatum 4032.109 tinytex 0.52 nářadí 4.4.0
tzdb 0.4.0 kontrola URL 1.0.1 použij toto 3.0.0
utf8 1.2.4 nástroje 4.4.0 UUID (unicelně unikátní identifikátor) 1.2-1
V8 4.4.2 vctrs 0.6.5 viridisLite 0.4.2
vrrrrm 1.6.5 Waldo 0.5.2 fous 0.4.1
withr 3.0.1 xfun 0.46 xml2 1.3.6
xopen 1.0.1 xtable 1.8-4 yaml 2.3.10
zeallot 0.1.0 zip 2.3.1

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)

ID skupiny ID artefaktu Verze
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk pro automatické škálování 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml spolužák 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofein kofein 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java Verze 1.1 pro místní uživatele
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java Verze 1.1 pro místní uživatele
com.github.fommil.netlib netlib-native_ref-linux-x86_64 Verze 1.1 pro místní uživatele
com.github.fommil.netlib netlib-native_system-linux-x86_64 Verze 1.1 pro místní uživatele
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone anotace_náchylné_k_chybám 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (sada nástrojů pro vývojáře softwaru) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfigurace 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift vzduchový kompresor 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics anotace metrik 4.2.19
io.dropwizard.metrics metriky – jádro 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metriky – kontroly stavu 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metriky – servlety 4.2.19
io.netty netty-all 4.1.108.Final
io.netty netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-socks 4.1.108.Final
io.netty netty-common 4.1.108.Final
io.netty obslužná rutina netty 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty netty-resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty Netty transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx sběratel 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transakční API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine nakládačka 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant mravenec 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow formát se šipkami 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow vektorová šipka 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.kurátor kurátor-klient 2.13.0
org.apache.kurátor kurátorský rámec 2.13.0
org.apache.kurátor kurátorské recepty 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive rozhraní pro úložiště Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy břečťan 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus poznámky pro publikum 0.13.0
org.apache.zookeeper ošetřovatel zvířat 3.9.2
org.apache.zookeeper zookeeper-jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-kompilátor 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms (systém pro řízení relačních databází) 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty Jetty pokračování 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty webová aplikace 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket API 9.4.52.v20230823
org.eclipse.jetty.websocket klient WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket - společné prvky 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core společný jersey 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator Hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotace 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Vymezovací podložky 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt testovací rozhraní 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest kompatibilní s scalatestem 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
stax stax-api 1.0.1