Databricks Runtime 16.1
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 16.1, který využívá Apache Spark 3.5.0.
Databricks vydala tuto verzi v prosinci 2024.
Spropitné
Pro zobrazení poznámek k verzím Databricks Runtime, které dosáhly konce podpory (EoS), navštivte poznámky k verzím Databricks Runtime s ukončenou podporou. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.
Změny chování
zásadní změna: Zpracování regulárních výrazů Photon je teď konzistentní s Apache Spark
Ve službě Databricks Runtime 15.4 a vyšší se aktualizuje zpracování regulárních výrazů ve Photonu tak, aby odpovídalo chování zpracování regulárních výrazů Apache Sparku. Dříve funkce regulárních výrazů spouštěné společností Photon, například split()
a regexp_extract()
, přijali některé regulární výrazy odmítnuté analyzátorem Sparku. Kvůli zachování konzistence s Apache Sparkem teď dotazy Photon pro regulární výrazy, které Spark považuje za neplatné, selžou.
Kvůli této změně se můžou zobrazit chyby, pokud kód Sparku obsahuje neplatné regulární výrazy. Například výraz split(str_col, '{')
, který obsahuje nepárovanou složenou závorku a byl dříve přijat Photonem, nyní neuspěje. Pokud chcete tento výraz opravit, můžete použít escape na znak závorky: split(str_col, '\\{')
.
Chování Photon a Spark se také liší u některých regulárních výrazů odpovídajících znakům, které nejsou ASCII. Aktualizuje se také tak, aby Photon odpovídal chování Apache Sparku.
Datový typ VARIANT
už nejde použít s operacemi, které vyžadují porovnání.
Ve službě Databricks Runtime 16.1 a novějších není možné v dotazech, které obsahují datový typ VARIANT
, použít následující klauzule ani operátory:
DISTINCT
INTERSECT
EXCEPT
UNION
DISTRIBUTE BY
Kromě toho nemůžete použít tyto funkce datového rámce:
df.dropDuplicates()
df.repartition()
Tyto operace provádějí porovnání a porovnání, která používají datový typ VARIANT, vytvářejí nedefinované výsledky a nejsou podporovány v Databricks. Pokud ve svých úlohách nebo tabulkách Azure Databricks používáte typ VARIANT, doporučuje Databricks následující změny:
- Aktualizujte dotazy nebo výrazy tak, aby explicitně přetypovály hodnoty
VARIANT
na datové typy, které nejsouVARIANT
. - Pokud máte pole, která je nutné použít s některou z výše uvedených operací, extrahujte tato pole z datového typu
VARIANT
a uložte je pomocí datových typů, které nejsouVARIANT
.
Pro více informací, viz data variant dotazování.
Nové funkce a vylepšení
- Podpora třídění v Apache Spark je ve verzi Veřejná ukázka
- Podpora kolací v Delta Lake je ve verzi Public Preview
-
LITE
režim pro vakuum je ve verzi Public Preview -
Podpora parametrizace klauzule
USE CATALOG with IDENTIFIER
- podpora COMMENT ONCOLUMN pro tabulky a zobrazení
- nové funkce SQL
- vyvolání pojmenovaného parametru pro více funkcí
-
parametr
SYNC METADATA
příkazu REPAIR TABLE podporuje metastor Hive - vylepšená integrita dat pro komprimované dávky Apache Arrow
- Přidána podpora pro metody Scala na výpočetních prostředcích ve sdíleném přístupovém režimu katalogu Unity
- integrovaný ovladač Teradata JDBC
- Podpora StreamingQueryListener pro Scala
- integrovaný ovladač Oracle JDBC
- Podrobnější chyby u tabulek Delta, které jsou přístupné pomocí cest
Podpora kolací v Apache Sparku je ve verzi Public Preview.
Teď můžete ke sloupcům a výrazům STRING
přiřazovat kolace rozlišující jazyk, nerozlišující malá a velká písmena a nerozlišující přístup. Tato seřazení se používají v porovnání řetězců, řazení, operacích seskupování a mnoha řetězcových funkcích. Viz kolace.
Podpora kolací v Delta Lake je ve verzi Public Preview.
Při vytváření nebo změně tabulky Delta teď můžete definovat kolace pro sloupce. Podívejte se na podporu uspořádání pro Delta Lake.
režim LITE
pro vakuum je ve verzi Public Preview.
Nyní můžete použít VACUUM table_name LITE
k provedení lehčího čištění, které využívá metadata v transakčním protokolu Delta. Viz plnohodnotný režim vs. odlehčený režim a VACUUM.
Podpora parametrizace klauzule USE CATALOG with IDENTIFIER
V Databricks Runtime 16.1 a novějších je pro příkaz USE CATALOG podporovaná klauzule IDENTIFIER. S touto podporou můžete parametrizovat aktuální katalog pomocí řetězcové proměnné nebo značky parametru.
podpora COMMENT ONCOLUMN pro tabulky a zobrazení
V Databricks Runtime 16.1 a novějším podporuje příkaz COMMENT ON změny komentářů pro sloupce zobrazení a tabulky.
Nové funkce SQL
Ve službě Databricks Runtime 16.1 a novějších jsou k dispozici následující integrované funkce SQL:
- dayname(výraz) vrátí třípísmennou anglickou zkratku pro den v týdnu daného data.
- uniform(výraz1, výraz2 [,generátor]) vrátí náhodnou hodnotu s nezávisle a identicky distribuovanými hodnotami v zadaném rozsahu čísel.
-
randstr(length) vrátí náhodný řetězec skládající se z
length
alfanumerických znaků.
Vyvolání pojmenovaného parametru pro další funkce
V Databricks Runtime 16.1 a novějších podporují následující funkce volání pojmenovaných parametrů:
Metastore Hive podporuje parametr SYNC METADATA
příkazu REPAIR TABLE.
V Databricks Runtime 16.1 a novějších můžete pomocí parametru SYNC METADATA
s příkazem REPAIR TABLE
aktualizovat metadata spravované tabulky metastoru Hive. Viz REPAIR TABLE.
Vylepšená integrita dat pro komprimované dávky Apache Arrow
V Databricks Runtime 16.1 a novějších nyní každá LZ4
komprimovaná dávka Arrow obsahuje kontrolní součty obsahu a bloků LZ4
, aby poskytovala lepší ochranu proti poškození dat. Viz popis formátu rámce LZ4 .
Přidání podpory pro metody Scala ve výpočetním režimu sdíleného přístupu katalogu Unity
Ve výpočetním režimu sdíleného přístupu v Unity Catalogu v Databricks Runtime 16.1 a novějších byla přidána podpora pro následující metody Scaly: Dataset.flatMapGroups()
, Dataset.mapGroups()
a DataStreamWriter.foreach()
.
Integrovaný ovladač Teradata JDBC
V Databricks Runtime 16.1 a novějších je ovladač Teradata JDBC integrovaný do Azure Databricks. Pokud používáte ovladač JDBC ve formátu JAR, který jste nahráli přes DriverManager
, je nutné přepsat skripty tak, aby explicitně používaly tento vlastní soubor JAR. V opačném případě se použije integrovaný ovladač. Tento ovladač podporuje pouze Federaci Lakehouse. Pro jiné případy použití musíte poskytnout vlastní ovladač.
Podpora StreamQueryListener pro Scala
Teď můžete použít StreamingQueryListener
v jazyce Scala na výpočetních prostředcích nakonfigurovaných pomocí režimu sdíleného přístupu.
Integrovaný ovladač Oracle JDBC
V Databricks Runtime 16.1 a novějších je ovladač Oracle JDBC integrovaný do Azure Databricks. Pokud používáte ovladač JDBC ve formátu JAR, který jste nahráli přes DriverManager
, je nutné přepsat skripty tak, aby explicitně používaly tento vlastní soubor JAR. V opačném případě se použije integrovaný ovladač. Tento ovladač podporuje pouze Federaci Lakehouse. Pro jiné případy použití musíte poskytnout vlastní ovladač.
Podrobnější přehled chyb pro tabulky Delta přístupné prostřednictvím cest
K dispozici je nové prostředí pro zobrazení chybových zpráv pro tabulky Delta, k nimž se přistupuje pomocí cest. Všechny výjimky se teď předávají uživateli. Výjimka DELTA_MISSING_DELTA_TABLE
je teď vyhrazena, když se podkladové soubory nedají číst jako tabulka Delta.
Další změny
Přejmenovány chybové kódy pro zdroj strukturovaného streamování cloudFiles
Tato verze obsahuje změnu pro přejmenování následujících kódů chyb:
-
_LEGACY_ERROR_TEMP_DBR_0143
se přejmenuje naCF_INCORRECT_STREAM_USAGE
. -
_LEGACY_ERROR_TEMP_DBR_0260
se přejmenuje naCF_INCORRECT_BATCH_USAGE
.
Opravy chyb
Vnořené typy nyní správně přijímají omezení na NULL.
Tato verze opravuje chybu, která ovlivňuje některé sloupce vygenerované Deltou u vnořených typů, například STRUCT
. Tyto sloupce by někdy nesprávně odmítaly výrazy na základě omezení NULL
nebo NOT NULL
ve vnořených polích. Toto bylo opraveno.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- ipyflow-core od 0.0.198 do 0.0.201
- pyccolo od 0.0.52 do 0.0.65
- Upgradované knihovny jazyka R:
- Upgradované knihovny Java:
- io.delta.delta-sharing-client_2.12 od 1.2.1 do 1.2.2
- org.lz4.lz4-java od 1.8.0 do 1.8.0-databricks-1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider od 1.6.2-linux-x86_64 do 2.4.1-linux-x86_64
Apache Spark
Databricks Runtime 16.1 zahrnuje Apache Spark 3.5.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v Databricks Runtime 16.0a také následující další opravy chyb a vylepšení Sparku:
-
[SPARK-50482] [SC-182879][CORE] Zastaralá konfigurace no-op
spark.shuffle.spill
- [SPARK-50032] [SC-182706][SQL][16.x] Povolit použití plně kvalifikovaného názvu kolace
-
[SPARK-50467] [SC-182823][PYTHON] Přidání
__all__
pro předdefinované funkce - [SPARK-48898] [SC-182828][SQL] Oprava chyby rozkladu varianty
- [SPARK-50441] [SC-182668][SQL] Oprava parametrizovaných identifikátorů, které nefungují při odkazování na identifikátory CTE
- [SPARK-50446] [SC-182639][PYTHON] Souběžná úroveň v UDF optimalizované pro šipky
- [SPARK-50430] [SC-182536][CORE] Použít standardní Properties.clone místo ručního klonování.
- [SPARK-50471] [SC-182790][PYTHON] Podpora zapisovače zdroje dat Pythonu založeného na šipkách
- [SPARK-50466] [SC-182791][PYTHON] Zpřesnění dokumentačního řetězce pro funkce pracující s řetězci – část 1
- [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] Integrace nového rozhraní API časovače a rozhraní API počátečního stavu s časovačem
- [SPARK-50437] [SC-182586][SS] Snížení režie při vytváření deserializerů v TransformWithStateExec
- [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Přidat podporu pro řetězení o...
- [SPARK-49294] [SC-182730][UI] Přidání atributu šířky pro zaškrtávací políčko shuffle-write-time.
- [SPARK-50426] [SC-182540][PYTHON] Vyhněte se vyhledávání statických zdrojů dat v Pythonu při použití předdefinovaných nebo java zdrojů dat
- [SPARK-48356] [SC-182603][SQL] Podpora příkazu FOR
-
[SPARK-50333] [SC-182136][SQL] Podpora codegen pro
CsvToStructs
(vyvoláním & RuntimeReplaceable) - [SPARK-50285] [SC-182575] Metriky pro potvrzení do instancí StagedTable
-
[SPARK-50081] [SC-182344][SQL] Podpora Codegen pro
XPath*
(vyvoláním & RuntimeReplaceable) - [SPARK-50440] [SC-182592] [SQL] Refaktor attributeSeq.resolveCandidates
- [SPARK-50067] [SC-179648][SQL] Podpora generování kódu pro SchemaOfCsv (pomocí Invoke & RuntimeReplaceable)
- [SPARK-49873] [SC-178577][SQL] oprava selhání po sloučení při testování chyb
- [SPARK-50118] [SC-181259][CONNET] Resetování izolované stavové mezipaměti při spuštění úloh
- [SPARK-49873] [SC-178577][SQL] Přiřazení správné třídy chyb pro _LEGACY_ERROR_TEMP_1325
-
[SPARK-50381] [SC-182197][CORE] Podpora
spark.master.rest.maxThreads
- [SPARK-46725] [SC-182448][SQL] Přidání funkce DAYNAME
- [SPARK-50270] [SC-181179][SS][PYTHON] Přidání vlastních metrik stavu pro TransformWithStateInPandas
- [SPARK-50118] Vrátit zpět [SC-181259][CONNET] Resetovat izolovanou mezipaměť stavu při spuštění úloh
- [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] Přidání rozhraní API datového rámce pro funkce s hodnotami tabulky
- [SPARK-49470] [SC-175736][UI] Aktualizace šablon stylů datových tabulek a javascriptů z verze 1.13.5 na 1.13.11
- [SPARK-50235] Vrátit zpět “[SC-180786][SQL] Vyčištění prostředku ColumnVector po zpracování všech řádků v ColumnarToRowExecu”
-
[SPARK-50324] [SC-182278][PYTHON][CONNECT]
createDataFrame
triggerujeConfig
RPC nejvýše jednou - [SPARK-50387] [SC-182441][SS] Podmínka aktualizace pro vypršení platnosti časovače a relevantní test
- [SPARK-50287] [SC-182400][SQL] Možnosti sloučení tabulek a relací při vytváření nástroje WriteBuilder v FileTable
-
[SPARK-50066] [SC-181484][SQL] Podpora codegenu pro
SchemaOfXml
(vyvoláním & RuntimeReplaceable) - [SPARK-50092] [SC-181568][SQL] Oprava chování konektoru PostgreSQL pro multidimenzionální pole
- [SPARK-50318] [SC-181641][SQL] Přidat IntervalUtils.makeYearMonthInterval k odstranění duplicitního kódu mezi interpretovaným a codegenem
- [SPARK-50312] [SC-181646][SQL] SparkThriftServer chyba při předávání parametrů v createServer, pokud je kerberos aktivní
-
[SPARK-50246] [SC-181468][SQL] Přiřaďte příslušné chybové podmínky pro
_LEGACY_ERROR_TEMP_2167
:INVALID_JSON_RECORD_TYPE
- [SPARK-50214] [SC-180692][SQL] Z json/xml by se v daném schématu neměly měnit kolace.
-
[SPARK-50250] [SC-181466][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_2075
:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
-
[SPARK-50248] [SC-181467][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_2058
:INVALID_PARTITION_VALUE
- [SPARK-50118] [SC-181259][CONNET] Resetování izolované stavové mezipaměti při spuštění úloh
- [SPARK-50235] [SC-180786][SQL] Vyčištění prostředku ColumnVector po zpracování všech řádků ve ColumnarToRowExec
-
[SPARK-50156] [SC-180781][SQL] Integrace
_LEGACY_ERROR_TEMP_2113
doUNRECOGNIZED_STATISTIC
-
[SPARK-50069] [SC-180163][SQL] Integrace
_LEGACY_ERROR_TEMP_0028
doUNSUPPORTED_FROM_TO_EXPRESSION
-
[SPARK-50154] [SC-180663][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_0043
:INVALID_RESET_COMMAND_FORMAT
-
[SPARK-49967] [SC-179534][SQL] Codegen Support for
StructsToJson
(to_json
) - [SPARK-50055] [SC-180978][SQL] Přidání alternativního příkazu TryMakeInterval
-
[SPARK-50397] [SC-182367][CORE] Odebrání zastaralých
--ip
a-i
argumentů zMaster/Worker
- [SPARK-50238] [SC-181434][PYTHON] Přidání podpory variant v UDF/UDTFs/UDAFs PySpark a UDF UC v Pythonu
-
[SPARK-50079] [SC-179830][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_2013
:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
-
[SPARK-50182] [SC-180346][EXAMPLE] Příklad přidání
submit-sql.sh
rozhraní REST API -
[SPARK-49966] [SC-179501][SQL] K implementaci
Invoke
(JsonToStructs
) použijtefrom_json
. - [SPARK-50302] [SC-182518][SS] Ujistěte se, že sekundární velikosti indexů jsou stejné jako velikosti primárních indexů pro stavové proměnné TransformWithState pomocí hodnoty TTL.
- [SPARK-50301] [SC-182241][SS][16.x] Metriky Make TransformWithState odrážejí jejich intuitivní významy.
- [SPARK-50175] [SC-182140][SQL] Změna výpočtu precedence řazení
-
[SPARK-50148] [SC-180292][SQL] Upravte
StaticInvoke
tak, aby byl kompatibilní s metodou, která vyvolává výjimku. -
[SPARK-50280] [SC-181214][PYTHON] Refaktoring řazení výsledků a vyplnění prázdného intervalu
compute_hist
- [SPARK-50190] [SC-182458][PYTHON] Odebrání přímé závislosti Numpy z Histogramu
- [SPARK-50382] [SC-182368][CONNECT] Přidání dokumentace pro obecné informace o vývoji aplikací a rozšíření Spark Connect
- [SPARK-50296] [SC-181464][PYTHON][CONNECT] Vyhněte se použití class property ve vláknovém fondu pro klienta Python Connect
- [SPARK-49566] [SC-182239][SQL] Přidání syntaxe kanálu SQL pro operátor EXTEND
- [SPARK-50036] [SC-179533][CORE][PYTHON] Zahrnout SPARK_LOG_SCHEMA v kontextu prostředí REPL
- [SPARK-49859] [SC-178259][CONNECT] Nahrazení multiprocessing.ThreadPool s ThreadPoolExecutor
-
[SPARK-50141] [SC-182378][PYTHON]
lpad
arpad
přijmout argumenty typu sloupce - [SPARK-50379] [SC-182142][SQL] Oprava zpracování DayTimeIntevalType v WindowExecBase
- [SPARK-49954] [SC-179110][SQL] Podpora Codegen pro SchemaOfJson (vyvoláním & RuntimeReplaceable)
-
[SPARK-50398] [SC-182341][CORE] Pro
0
použití ve skriptech Sparku použijte--help
ExitCode. - [SPARK-50377] [SC-182238][SQL] Povolit vyhodnocení skládacího modulu RuntimeReplaceable
- [SPARK-50241] [SC-181444][SQL] Nahraďte NullIntolerant Mixin metodou Expression.nullIntolerant
-
[SPARK-50084] [SC-179672][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_3168
:MISSING_TIMEOUT_CONFIGURATION
-
[SPARK-50078] [SC-179649][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_0038
:DUPLICATED_CTE_NAMES
-
[SPARK-50057] [SC-179573][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_1049
:INVALID_ATTRIBUTE_NAME_SYNTAX
-
[SPARK-50070] [SC-179579][SQL] Integrace
_LEGACY_ERROR_TEMP_0039
doUNSUPPORTED_SQL_STATEMENT
- [SPARK-50378] [SC-182235][SS] Přidejte vlastní metriku pro sledování času stráveného při počátečním stavu v transformWithState
-
[SPARK-50029] [SC-179531][SQL] Udělat
StaticInvoke
kompatibilním s metodou, která vracíAny
-
[SPARK-49990] [SC-179497][SQL] Zlepšení výkonu
randStr
-
[SPARK-50048] [SC-179528][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_2114
:UNRECOGNIZED_STATISTIC
-
[SPARK-50053] [SC-179532][SQL] Převod
_LEGACY_ERROR_TEMP_2104
naINTERNAL_ERROR
- [SPARK-49665] [SC-180054][SQL] Podpora trimování kolace pro řetězcové funkce
-
[SPARK-48549] [SC-176472][SQL][PYTHON] Vylepšení funkce SQL
sentences
-
[SPARK-50022] [SC-179503][CORE][UI] Opravit
MasterPage
, aby se skryly odkazy uživatelského rozhraní, když je uživatelské rozhraní zakázané - [SPARK-50087] [SC-182152] Robustní zpracování logických výrazů v CASE WHEN pro MsSqlServer a budoucí konektory
- [SPARK-49991] [SC-179481][SQL] Make HadoopMapReduceCommitProtocol respect 'mapreduce.output.basename' pro generování názvů souborů
-
[SPARK-50038] [SC-179521][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_0008
:MERGE_WITHOUT_WHEN
-
[SPARK-50236] [SC-181671][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_1156
:COLUMN_NOT_DEFINED_IN_TABLE
-
[SPARK-50021] [SC-179500][CORE][UI] Oprava
ApplicationPage
skrytí odkazů uživatelského rozhraní aplikace, když je uživatelské rozhraní zakázané - [SPARK-49911] [SC-179111][SQL] Oprava sémantiky podpory binární rovnosti
-
[SPARK-50025] [SC-179496][SQL] Integrovat
_LEGACY_ERROR_TEMP_1253
doEXPECT_VIEW_NOT_TABLE
- [SPARK-49829] [SC-179480][SS] Oprava chyby optimalizace při přidávání vstupu do úložiště stavů ve spojení stream-stream
-
[SPARK-50004] [SC-179499][SQL] Integrace
_LEGACY_ERROR_TEMP_3327
doFIELD_NOT_FOUND
- [SPARK-50380] [SC-182210][SQL] Změna pořadí AsociativníOperator by měla respektovat kontrakt v ConstantFoldingu.
- [SPARK-50340] [SC-181859][SQL] Rozbalení UDT ve vstupním dotazu INSERT
-
[SPARK-50237] [SC-181660][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_2138-9
:CIRCULAR_CLASS_REFERENCE
- [SPARK-50258] [SC-181993][SQL] Oprava problému se změněným pořadím výstupních sloupců po optimalizaci AQE
-
[SPARK-49773] [SC-178369][SQL] Nezachycená výjimka Javy z
make_timestamp()
s chybným časovým pásmem - [SPARK-49977] [SC-179265][SQL] Použijte iterativní výpočet pomocí zásobníku, abyste se vyhnuli vytváření velkého množství objektů Scala List pro stromy hlubokých výrazů.
-
[SPARK-50153] [SC-181591][SQL] Přidání
name
doRuleExecutor
, aby byl tisk protokolůQueryExecutionMetrics
jasnější -
[SPARK-50320] [SC-181668][CORE] Udělat z
--remote
oficiální možnost odstraněním upozorněníexperimental
- [SPARK-49909] [SC-179492]Vrátit "[SQL] Oprava hezkého názvu některých výrazů"
- [SPARK-50330] [SC-180720][SC-181764][SQL] Přidání nápověd k řazení a uzlům okna
- [SPARK-50364] [SC-182003][SQL] Implementace serializace pro typ LocalDateTime v Row.jsonValue
-
[SPARK-50016] [SC-182139][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_2067
:UNSUPPORTED_PARTITION_TRANSFORM
- [SPARK-49899] [SC-181175][PYTHON][SS] Podpora funkce deleteIfExists pro TransformWithStateInPandas
- [SPARK-49757] [SC-177824][SQL] Podpora výrazu IDENTIFIER v příkazu SETCATALOG
- [SPARK-50315] [SC-181886][SQL] Podpora vlastních metrik pro zápisy V1Fallback
- [SPARK-42838] [SC-181509][SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][SQL] Refaktorizace ResolveSQLOnFile
- [SPARK-48344] [SC-181967][SQL] Příprava skriptování SQL pro přidání architektury Execution Framework
- [SPARK-49345] [SC-174786][CONNECT] Ujistěte se, že používáte aktuální spuštěnou relaci Sparku.
- [SPARK-49925] [SC-178882][SQL] Přidání testů pro řazení pomocí kompletovaných řetězců
- [SPARK-50167] [SC-181199][PYTHON][CONNECT] Zlepšení vykreslování chybových zpráv a importů PySpark
- [SPARK-49368] [SC-174999][CONNECT] Vyhněte se přímému přístupu k třídám protobuf lite
- [SPARK-50056] [SC-181378][SQL] Podpora generování kódu pro analýzu URL (vyvoláním & RuntimeReplaceable)
- [SPARK-49601] [SC-180770][SS][PYTHON] Podpora počátečního zpracování stavu pro TransformWithStateInPandas
- [SPARK-49908] [SC-178768][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_0044
- [SPARK-50144] [SC-180307][SS] Řešení omezení výpočtů metrik se zdroji streamování DSv1
- [SPARK-49874] [SC-178303][SQL] Odeberte specifikátory pro trim a ltrim, které se týkají kolace.
- [SPARK-49513] [SC-180339][SS] Přidání podpory časovače v transformWithStateInPandas API
-
[SPARK-49119] [SC-175607][SQL] Oprava nekonzistence syntaxe
show columns
mezi v1 a v2 -
[SPARK-49206] [SC-173704][CORE][UI] Přidat tabulku
Environment Variables
do MasterEnvironmentPage
- [SPARK-49934] [SC-179581][SQL] Přidání implicitního přetypování pro přístup ke kompletované mapě pomocí literálu
- [SPARK-50049] [SC-181659][SQL] Podpora vlastních metrik ovladačů při zápisu do tabulky v2
- [SPARK-50171] [SC-180295][PYTHON] Udělat numpy volitelnou pro vykreslení KDE
- [SPARK-49962] [SC-179320][SQL] Zjednodušení hierarchie tříd AbstractStringTypes
- [SPARK-50226] [SC-181483][SQL] Oprava MakeDTInterval a MakeYMInterval pro zachycení výjimek Javy
- [SPARK-48775] [SC-170801][SQL][STS] Nahraďte SQLContextu SparkSessionem v STS.
-
[SPARK-49015] [SC-175688][CORE] Connect Server by měl respektovat
spark.log.structuredLogging.enabled
- [SPARK-50327] [SC-181667][SQL][16.x] Rozlišení funkce pro opětovné použití v analyzátoru s jedním průchodem
- [SPARK-49995] [SC-180762][SQL] Přidání podpory pojmenovaných argumentů do dalších souborů TVF
- [SPARK-49268] [SC-174903][CORE] Protokolování výjimek vstupně-výstupních operací u poskytovatele historie SHS
- [SPARK-48123] [SC-164989][Core] Zadejte schéma konstantní tabulky pro dotazování strukturovaných protokolů.
- [SPARK-49217] [SC-174904][CORE] Podpora samostatné konfigurace velikosti vyrovnávací paměti v UnsafeShuffleWriter
- [SPARK-50325] [SC-181664][SQL][16.x] Rozlišení aliasů pro opětovné použití v analyzátoru s jedním průchodem
- [SPARK-50322] [SC-181665][SQL] Oprava parametrizovaného identifikátoru v dílčím dotazu
-
[SPARK-48400] [SC-175283][CORE] Zvýšení úrovně
PrometheusServlet
naDeveloperApi
- [SPARK-50118] Vrátit zpět [SC-181259][CONNET] Resetovat izolovanou mezipaměť stavu při spuštění úloh
- [SPARK-50306] [SC-181564][PYTHON][CONNECT] Podpora Pythonu 3.13 ve Spark Connect
- [SPARK-50152] [SC-181264][SS] Podpora funkce handleInitialState se čtečkou zdroje dat o stavu
- [SPARK-50260] [SC-181271][CONNECT] Refaktorování a optimalizace Spark C...
- [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: Migrace logInfo s proměnnými do architektury strukturovaného protokolování
-
[SPARK-49312] [SC-174672][PYTHON] Zlepšení chybové zprávy pro
assertSchemaEqual
-
[SPARK-49439] [SC-175236][SQL] Oprava hezkého názvu výrazu
FromProtobuf
&ToProtobuf
- [SPARK-50092] [ES-1258521] Oprava chování konektoru PostgreSQL pro multidimenzionální pole
- [SPARK-49913] [SC-181565][SQL] Přidání kontroly jedinečných názvů štítků ve vnořených oborech štítků
- [SPARK-49563] [SC-181465][SQL] Přidání syntaxe kanálu SQL pro operátor WINDOW
- [SPARK-49661] [SC-179021][SQL] Implementujte hashování a porovnání kolace oříznutí.
- [SPARK-38912] [SC-181543][PYTHON] Odeberte komentář týkající se classmethod a vlastnosti.
- [SPARK-49770] [16.x][SC-179802][SC-179270][SS][RocksDB Hardening] Vylepšení správy mapování souborů SST RocksDB a oprava problému s opětovným načtením stejné verze s existujícím snímkem
- [SPARK-49002] Zrušit změnu “[SC-172846][SQL] Konzistentně zpracovávat neplatná umístění ve WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY
- [SPARK-49668] [SC-178268][SQL] Implementace podpory kompletačních klíčů pro kolaci oříznutí
- [SPARK-50262] [SC-181193][SQL] Zakázat specifikaci komplexních typů během změny kolace
- [SPARK-48898] [SC-181435][SQL] Přidat funkce variantového shreddingu
- [SPARK-48273] [SC-181381]Vrátit “[SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier”
-
[SPARK-50222] [SC-180706][CORE] Podpora
spark.submit.appName
-
[SPARK-50208] [SC-180662][CORE] Podpora
spark.master.useDriverIdAsAppName.enabled
- [SPARK-50224] [SC-180689][SQL] Nahrazení funkcí IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 by mělo být necitlivé na null hodnoty
-
[SPARK-50247] [SC-180962][CORE] Definujte
BLOCK_MANAGER_REREGISTRATION_FAILED
jakoExecutorExitCode
-
[SPARK-50282] [SC-181221][ML] Zjednodušení
TargetEncoderModel.transform
- [SPARK-50112] [SC-180763][SQL] Povolení operátoru TransformWithState pro použití kódování Avro
-
[SPARK-50267] [SC-181180][ML] Vylepšení
TargetEncoder.fit
s využitím rozhraní API datového rámce - [SPARK-37178] [SC-180939][ML] Přidat cílové kódování do ml.feature
- [SPARK-50118] [SC-181259][CONNET] Resetování izolované stavové mezipaměti při spuštění úloh
-
[SPARK-50085] [CHOVÁNÍ-176][SC-179809][PYTHON]
lit(ndarray)
s np.int8 respektujte datový typ numpy. - [SPARK-50256] [SC-181048][SQL] Přidání zjednodušeného ověření pro kontrolu, jestli se logický plán po každém pravidlu optimalizátoru nevyřeší
- [SPARK-50196] [SC-180932][CONNECT] Oprava kontextu chyby Pythonu pro použití správného kontextu
- [SPARK-50274] [SC-181181][CORE] Ochrana před použitím po uzavření v DirectByteBufferOutputStream
- [SPARK-49999] [SC-180063][PYTHON][CONNECT] Podpora volitelného parametru 'sloupec' v krabicových, hustotních a histogramových grafech
- [SPARK-50273] [SC-181178][SS] Vylepšení protokolování pro případy získání a vydání zámku RocksDB
- [SPARK-50033] [SC-180720][SC-180659][SQL] Přidejte nápovědu k uzlu logical.Aggregate()
- [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Oprava extra uvolnění zámku RocksDB kvůli posluchači dokončení
- [SPARK-50253] [SC-180969][SS] Stream-Stream Připojení by nemělo načítat ID kontrolního bodu, pokud není podporováno.
-
[SPARK-50255] [SC-180964][PYTHON] Vyhněte se zbytečnému přetypování v
compute_hist
-
[SPARK-50228] [SC-180780][SQL] Přesunutí pravidla
RewriteCollationJoin
doFinishAnalysis
- [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] Upravte, aby „přesnost“ byla součástí kwargs pro krabicové grafy.
- [SPARK-49637] [SC-180160][SQL] Změněna chybová zpráva pro INVALID_FRACTION_OF_SECOND
- [SPARK-49530] [SC-180658][PYTHON] Získání aktivní relace z datových rámců
-
[SPARK-50195] [SC-180654][CORE] Oprava
StandaloneRestServer
šířeníspark.app.name
na správnéSparkSubmit
- [SPARK-50229] [SC-180773] Snižte využití paměti u ovladačů pro široká schémata snížením životnosti objektů AttributeReference vytvořených během logického plánování.
-
[SPARK-50231] [SC-180815][PYTHON] Umožnit funkci
instr
přijímat sloupecsubstring
- [SPARK-49854] [SC-179812][16.x][SQL] Naklonování správce artefaktů během klonování relace
-
[SPARK-50219] [SC-180694][SQL] Refaktorovat
ApplyCharTypePadding
, aby pomocné metody mohly být použity v překladači s jedním průchodem. - [SPARK-50077] [SC-179827][SQL] Zavedení nového objektu vzoru pro LogicalRelation, který pomáhá vyhnout se výchozímu vzoru úplného vzoru parametrů
- [SPARK-50128] [Backport][16x][SC-180677][SS] Přidání rozhraní API pro zpracování stavového procesoru pomocí implicitních kodérů v jazyce Scala
- [SPARK-50061] [SC-179961][SQL] Povolení analýzy tabulek pro kompletované sloupce
- [SPARK-49993] [SC-180084][SQL] Zlepšení chybových zpráv pro součet a průměr
- [SPARK-49638] [SC-179665][SQL] Odstranění návrhu konfigurace ANSI v INVALID_URL
-
[SPARK-50204] [SC-180660][SQL] Oddělit
HiveTableRelation
překlad cesty čtení - [SPARK-50193] [SC-180651][SS] Oprava zpracování výjimek pro ověřování časových režimů
-
[SPARK-50179] [SC-180342][CORE] Volitelná vlastnost
spark.app.name
v rozhraní REST API -
[SPARK-50068] [SC-180300][SQL] Přepracování
TypeCoercion
aAnsiTypeCoercion
pro oddělení transformací s jedním uzlem - [SPARK-49411] [SC-179483][SS] Komunikace ID kontrolního bodu úložiště stavu mezi ovladačem a stavovými operátory
- [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET by měly zachovat pořadí dat.
- [SPARK-49506] [SC-180165][SQL] Optimalizace ArrayBinarySearch pro pole, které lze skládat
-
[SPARK-50097] [SC-179908][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_1248
:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
- [SPARK-50071] [SC-180159][SQL][PYTHON] Přidání try_make_timestamp(_ltz a _ntz) a souvisejících testů
- [SPARK-50054] [SC-180228][PYTHON][CONNECT] Podpora grafů histogramů
-
[SPARK-50015] [SC-179964][SQL] Přiřaďte odpovídající chybový stav pro
_LEGACY_ERROR_TEMP_1125
:MISSING_DATABASE_FOR_V1_SESSION_CATALOG
- [SPARK-50155] [SC-180240][3.5] Přesunutí souborů scala a Java do výchozích složek
- [SPARK-49980] [SC-180353][CORE][SQL] Oprava potenciálního úniku datových proudů souborů způsobených přerušením zrušených úloh
- [SPARK-49010] [SC-172304][SQL][XML] Přidání jednotkových testů pro odvození schématu XML s ohledem na citlivost na velká a malá písmena
- [SPARK-49562] [SC-180211][SQL] Přidání syntaxe kanálu SQL pro agregaci
- [SPARK-49663] [SC-180239][SQL] Povolení návrhů RTRIM ve výrazech kolace
-
[SPARK-48965] [SC-175926][SQL] Použijte správné schéma v
Dataset#toJSON
- [SPARK-48493] [SC-175893][PYTHON] Vylepšení čtečky datových zdrojů Pythonu s přímou podporou Arrow Batch pro lepší výkon
-
[SPARK-49734] [SC-180226][PYTHON] Přidání argumentu
seed
pro funkcishuffle
- [SPARK-50174] [16.x][SC-180253][SQL] Factor out UnresolvedCatalogRelation resolution
- [SPARK-49989] [SC-179512][PYTHON][CONNECT] Podpora grafů kde/hustota
-
[SPARK-49805] [SC-180218][SQL][ML] Odebrání privátních[xxx] funkcí z
function.scala
- [SPARK-49808] [SC-179490][SQL] Oprava zablokování v provádění poddotazů kvůli opožděným valům
- [SPARK-49929] [SC-180144][PYTHON][CONNECT] Diagramy podpůrných boxů
-
[SPARK-50008] [SC-179290][PS][CONNECT] Vyhněte se zbytečným operacím v
attach_distributed_sequence_column
- [SPARK-49767] [SC-180161][PS][CONNECT] Refaktorování volání interní funkce
- [SPARK-49683] [SC-178341][SQL] Blokovat kolaci oříznutí
- [SPARK-49939] [SC-178941][SQL] Podpora codegenu pro json_object_keys pomocí vyvolání & RuntimeReplaceable
-
[SPARK-50031] [SC-179582][SQL] Přidání výrazu
TryParseUrl
-
[SPARK-49766] [SC-178933][SQL] Codegen Support for
json_array_length
(podleInvoke
&RuntimeReplaceable
) - [SPARK-50046] [SC-180026][SS] K výpočtu vodoznaku použijte stabilní pořadí uzlu EventTimeWatermark.
-
[SPARK-49540] [SC-180145][PS] Sjednocení využití
distributed_sequence_id
- [SPARK-50060] [SC-179965][SQL] Zakázán převod mezi různými kompletovanými typy v TypeCoercion a AnsiTypeCoercion
- [SPARK-49004] [SC-173244][CONNECT] Pro interní funkce rozhraní API sloupců použijte samostatný registr.
- [SPARK-49811] [SC-177888][SQL]Přejmenovat StringTypeAnyCollation
-
[SPARK-49202] [SC-180059][PS] Použít
ArrayBinarySearch
pro histogram -
[SPARK-49203] [SC-175734][SQL] Přidání výrazu pro
java.util.Arrays.binarySearch
-
[SPARK-50034] [SC-179816][CORE] Oprava nesprávného hlášení fatálních chyb jako nezachycených výjimek v
SparkUncaughtExceptionHandler
- [SPARK-50093] [SC-179836][SQL] Kolace, které používají ICU, by měly mít verzi používané knihovny ICU.
- [SPARK-49985] [SC-179644][SQL] Odebrání podpory pro typy intervalů ve Variant
-
[SPARK-49103] [SC-173066][CORE] Podpora
spark.master.rest.filters
- [SPARK-50090] [SC-179819] Refaktorujte ResolveBinaryArithmetic, aby oddělil transformaci na jednotlivé uzly
-
[SPARK-49902] [SC-179650][SQL] Zachytávání základních chyb běhového prostředí v
RegExpReplace
-
[SPARK-49126] [SC-173342][CORE] Přesun definice konfigurace
spark.history.ui.maxApplications
doHistory.scala
- [SPARK-50094] [SC-179820][PYTHON][CONNECT] Lepší chybová zpráva při použití profileru paměti v editorech bez čísel řádků
-
[SPARK-50062] [SC-179835][SQL] Podpora kolací podle
InSet
- [SPARK-50035] [Backport][16x][SC-179530][SS] Přidání podpory pro explicitní funkci handleExpiredTimer v části stavového procesoru
- [SPARK-49982] [SC-179814][SQL] Oprava negativního ukládání do mezipaměti v InMemoryRelation
-
[SPARK-49082] [SC-173350][SQL] Rozšíření povýšení typů v
AvroDeserializer
-
[SPARK-50088] [SC-179680][SQL] Refaktorovat
UnresolvedStarBase.expand
- [SPARK-49802] [SC-179482][SS] Přidání podpory pro čtení kanálu změn pro typy map a seznamů používaných ve stavových procesorech
- [SPARK-49846] [SC-179506][SS] Přidání metrik numUpdatedStateRows a numRemovedStateRows pro použití s operátorem transformWithState
- [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] Umožněte, aby lit přijal typy str a bool numpy ndarray
- [SPARK-49821] [SC-179527][SS][PYTHON] Implementace hodnoty MapState a TTL pro TransformWithStateInPandas
- [SPARK-49558] [SC-179485][SQL] Přidání syntaxe kanálu SQL pro LIMIT/OFFSET a ORDER/SORT/CLUSTER/DISTRIBUTE BY
-
[SPARK-48144] [SC-165725][LC-4080][SQL] Upravit
canPlanAsBroadcastHashJoin
tak, aby respektoval nápovědy pro shuffle join -
[SPARK-50051] [SC-179571][PYTHON][CONNECT] Umožnit, aby
lit
fungoval s prázdným numpy ndarray - [SPARK-50018] [SC-179488][SQL] Učinit AbstractStringType serializovatelný
- [SPARK-50016] [SC-179491][SQL] Zlepšení chyby explicitní neshody kolace
- [SPARK-50010] [SC-179487][SQL] Rozšíření chyby implicitní neshody kolace
- [SPARK-48749] [SC-170116][SQL] Zjednodušení UnaryPositive a odstranění jeho katalytických pravidel pomocí RuntimeReplaceable
- [SPARK-49857] [SC-178576][SQL] Přidání úrovně uložení do rozhraní API datové sady localCheckpoint
- [SPARK-50058] [SC-179538][SQL] Vyjmout normalizační funkce plánu pro pozdější využití při testování analyzátoru s jedním průchodem
- [SPARK-50052] [SC-179535][PYTHON][16.X] Umožnění, aby NumpyArrayConverter podporoval prázdný řetězec ndarray
- [SPARK-47261] [SC-173665][SQL] Přiřaďte lepší název chyb _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 a _LEGACY_ERROR_TEMP_1174
-
[SPARK-49147] [SC-173471][CORE] Označte
KryoRegistrator
s rozhraním DeveloperApi - [SPARK-48949] [SC-173070][SQL] SPJ: Filtrování oddílů modulu runtime
- [SPARK-50044] [SC-179523][PYTHON] Upřesněte docstring několika matematických funkcí.
-
[SPARK-48757] [SC-170113][CORE]
IndexShuffleBlockResolver
mají explicitní konstruktory - [SPARK-50037] [SQL] Refaktorování AttributeSeq.resolve(...)
- [SPARK-48782] [SC-177056][SQL] Přidání podpory pro provádění procedur v katalogech
- [SPARK-49057] [SC-173081][SQL] Neblokujte smyčku AQE při odesílání fází dotazu.
- [SPARK-48824] [SC-176772][BEHAVE-167][SQL] Syntaxe přidání sloupce identity SQL
- [SPARK-48773] [SC-170773] Konfigurace dokumentu Spark.default.parallelism podle architektury tvůrce konfigurace
- [SPARK-48735] [SC-169810][SQL] Zlepšení výkonu pro funkci BIN
-
[SPARK-48900] [SC-172433] Přidejte pole
reason
pro všechna interní volání pro zrušení úlohy/fáze -
[SPARK-48488] [SC-167605][CORE] Oprava metod
log[info|warning|error]
vSparkSubmit
-
[SPARK-48708] [SC-169809][CORE] Odebrání tří nepotřebných registrací typů z
KryoSerializer
- [SPARK-49958] [SC-179312][PYTHON] Python API pro funkce ověřování řetězců
- [SPARK-49979] [SC-179264][SQL] Oprava problému se zaseknutím AQE při opakovaném shromažďování na neúspěšném plánu
- [SPARK-48729] [SC-169795][SQL] Přidání rozhraní UserDefinedFunction pro reprezentaci funkce SQL
-
[SPARK-49997] [SC-179279][SQL] Integrace
_LEGACY_ERROR_TEMP_2165
doMALFORMED_RECORD_IN_PARSING
- [SPARK-49259] [SC-179271][SS]Vytváření oddílů na základě velikosti během čtení Kafka
- [SPARK-48129] [SC-165006][PYTHON] Poskytnutí schématu konstantní tabulky v PySparku pro dotazování strukturovaných protokolů
- [SPARK-49951] [SC-179259][SQL] Přiřazení správného chybového stavu pro LEGACY_ERROR_TEMP(1099|3085)
- [SPARK-49971] [SC-179278][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_1097
-
[SPARK-49998] [SC-179277][SQL] Integrace
_LEGACY_ERROR_TEMP_1252
doEXPECT_TABLE_NOT_VIEW
- [SPARK-49876] [SC-179262][CONNECT] Zbavit se globálních zámků ze služby Spark Connect Service
- [SPARK-49957] [SC-179202][SQL] Scala API pro funkce ověřování řetězců
- [SPARK-48480] [SC-173055][SS][CONNECT] StreamingQueryListener by neměl mít vliv na Spark.interrupt()
- [SPARK-49643] [SC-179239][SQL] Sloučení _LEGACY_ERROR_TEMP_2042 do ARITHMETIC_OVERFLOW
- [SPARK-49959] [SC-179109][SQL] Oprava ColumnarArray.copy() pro čtení hodnot null ze správného offsetu
- [SPARK-49956] Vrátit zpět "[SC-179070] Zakázané kolace s výrazem collect_set"
-
[SPARK-49987] [SC-179180][SQL] Oprava výzvy k chybě při nepřekládání
seedExpression
vrandstr
- [SPARK-49948] [SC-179158][PS][CONNECT] Přidání parametru "přesnost" do knihovny pandas v krabicových grafech Sparku
- [SPARK-49970] [SC-179167][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_2069
- [SPARK-49916] [SC-179108][SQL] Vyvolá odpovídající výjimku pro neshodu typů mezi typem ColumnType a datovým typem v některých řádcích
- [SPARK-49956] [SC-179070] Zakázaná kolace s výrazem collect_set
- [SPARK-49974] [16.x][SC-179071][SQL] Přesunout resolveRelations(...) z Analyzer.scala
- [SPARK-47259] [SC-176437][SQL] Přiřazení názvů k chybovým stavům pro chyby intervalu
- [SPARK-47430] [SC-173679][SQL] Přepracování seskupení podle typu mapy pro opravu výjimky při referenci na vazbu
- [SPARK-49067] [SC-172616][SQL] Přesun literálu utf-8 do interních metod třídy UrlCodec
- [SPARK-49955] [SC-178989][SQL] hodnota null neznamená poškozený soubor při analýze řetězce JSON RDD.
- [SPARK-49393] [SC-175212][SQL] Selhání ve výchozím nastavení v zastaralých rozhraních API modulu plug-in katalogu
- [SPARK-49952] [SC-178985][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_1142
- [SPARK-49405] [SC-175224][SQL] Omezení znakových sad v JsonOptions
- [SPARK-49892] [SC-178975][SQL] Přiřazení správné třídy chyb pro _LEGACY_ERROR_TEMP_1136
- [SPARK-49904] [SC-178973][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_2140
- [SPARK-47257] [SC-174244][SQL] Přiřazení názvů ke třídám chyb _LEGACY_ERROR_TEMP_105[3-4] a _LEGACY_ERROR_TEMP_1331
- [SPARK-49915] [SC-178869][SQL] Zpracování nul a jednotek v ReorderAssociativeOperator
- [SPARK-49891] [SC-178970][SQL] Přiřazení správného chybového stavu pro _LEGACY_ERROR_TEMP_2271
-
[SPARK-49918] [SC-178748][CORE] Použijte přístup jen pro čtení ke konfiguraci tam, kde je to vhodné
SparkContext
. - [SPARK-49666] [SC-177891][SQL] Přidání příznaku funkce pro funkci kolace oříznutí
- [SPARK-48885] [SC-171050][SQL] Upravte některé podtřídy RuntimeReplaceable, aby nahrazovaly metodu lazy val při prvním použití
-
[SPARK-49932] [SC-178931][CORE] Použijte
tryWithResource
vydanéJsonUtils#toJsonString
prostředky, abyste se vyhnuli nevráceným paměti. -
[SPARK-49949] [SC-178978][PS] Vyhněte se zbytečným úlohám analýzy v
attach_sequence_column
-
[SPARK-49924] [SC-178935][SQL] Zachovat
containsNull
po nahrazeníArrayCompact
-
[SPARK-49121] [SC-174787][SQL] Podpora
from_protobuf
ato_protobuf
pro funkce SQL - [SPARK-47496] [SC-160529][SQL] Podpora rozhraní Java SPI pro dynamické registraci dialektu JDBC
- [SPARK-49359] [SC-174895][SQL] Povolit implementacím StagedTableCatalog návrat k neatomickému zápisu
- [SPARK-49895] [SC-178543][SQL][ES-1270338] Zlepšení chyby při výskytu koncové čárky v klauzuli SELECT
- [SPARK-47945] [SC-163457][SQL] MsSQLServer: Dokumentace mapování datových typů Spark SQL z Microsoft SQL Server a přidání testů
- [SPARK-46037] [SC-175495][SQL] Oprava správnosti pro sestavení shuffled hash Join doleva bez codegenu
- [SPARK-47813] [SC-162615][SQL] Nahradit getArrayDimension funkcí updateExtraColumnMeta
- [SPARK-49542] [SC-178765][SQL] Chyba vyhodnocení výjimky transformace oddílu
- [SPARK-47172] [SC-169537][CORE] Přidání podpory pro AES-GCM pro šifrování RPC
- [SPARK-47666] [SC-161476][SQL] Oprava NPE při čtení bitového pole MySQL jako LongType
- [SPARK-48947] [SC-174239][SQL] Použijte název znakové sady malými písmeny ke snížení chybějící mezipaměti v Charset.forName.
- [SPARK-49909] [SC-178552][SQL] Oprava hezkého názvu některých výrazů
- [SPARK-47647] [SC-161377][SQL] Umožňuje, aby zdroj dat MySQL mohl číst bit (n>1) jako BinaryType, jako je Postgres
-
[SPARK-46622] [SC-153004][CORE] Přepsat metodu
toString
proo.a.s.network.shuffledb.StoreVersion
- [SPARK-48961] [SC-171910][PYTHON] Nastavení pojmenování parametrů PySparkException v souladu s JVM
-
[SPARK-49889] [SC-178474][PYTHON] Přidání argumentu
trim
pro funkcetrim/ltrim/rtrim
- [SPARK-47537] [SC-160747][SQL] Oprava mapování datových typů chyb na konektoru MySQL/J
- [SPARK-47628] [SC-161257][SQL] Oprava problému s bitovým polem Postgres – Nelze převést na booleovskou hodnotu
- [SPARK-49843] [SC-178084][ES-1268164][SQL] Opravit změnu komentáře u sloupců char/varchar
- [SPARK-49549] [SC-178764][SQL] Přiřazení názvu k chybovému stavu _LEGACY_ERROR_TEMP_3055, 3146
- [SPARK-49791] [SC-177730][SQL] Udělat DelegatingCatalogExtension více rozšiřitelné
- [SPARK-49559] [SC-178551][SQL] Přidání rourkové syntaxe SQL pro množinové operace
- [SPARK-49906] [SC-178536][SQL] Zavedení a použití chyby "CONFLICTING_DIRECTORY_STRUCTURES" pro PartitioningUtils
- [SPARK-49877] [SC-178392][SQL] Změna podpisu funkce classifyException: přidání argumentu isRuntime
- [SPARK-47501] [SC-160532][SQL] Přidat funkci convertDateToDate podobně jako existující convertTimestampToTimestamp pro JdbcDialect.
- [SPARK-49044] [SC-175746][SQL] ValidateExternalType by měl vrátit potomek při chybě
- [SPARK-47462] [SC-160460][SQL] Zarovnání mapování jiných nepodepsaných číselných typů s TINYINT v MySQLDialect
- [SPARK-47435] [SC-160129][SQL] Oprava problému s přetečením MySQL UNSIGNED TINYINT způsobeným SPARK-45561
- [SPARK-49398] [SC-176377][SQL] Vylepšení chyby parametrů v dotazu CACHE TABLE a CREATE VIEW
- [SPARK-47263] [SC-177012][SQL] Přiřazení názvů ke starším podmínkám _LEGACY_ERROR_TEMP_13[44-46]
-
[SPARK-49605] [SC-176605][SQL] Oprava výzvy, když je
ascendingOrder
DataTypeMismatch
vSortArray
-
[SPARK-49806] [SC-178304][SQL][CONNECT] Odebrání nadbytečných
blank space
poshow
v klientechScala
aConnect
- [SPARK-47258] [SC-175032][SQL] Přiřazení názvů ke třídám chyb _LEGACY_ERROR_TEMP_127[0-5]
- [SPARK-49564] [SC-178461][SQL] Přidání syntaxe kanálu SQL pro operátor JOIN
- [SPARK-49836] [SC-178339][SQL][SS] Oprava pravděpodobně přerušeného dotazu při zadání okna nebo funkce session_window
- [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] Zpracování mapování časových razítek SQL pro Postgres a MySQL
- [SPARK-49776] [SC-177818][PYTHON][CONNECT] Podpora výsečových grafů
- [SPARK-49824] [SC-178251][SS][CONNECT] Vylepšení protokolování v SparkConnectStreamingQueryCache
- [SPARK-49894] [SC-178460][PYTHON][CONNECT] Upřesněte řetězcovou reprezentaci operací polí sloupců.
- [SPARK-49764] [SC-177491][PYTHON][CONNECT] Podpora plošných grafů
- [SPARK-49694] [SC-177376][PYTHON][CONNECT] Podpora rozptylových grafů
- [SPARK-49744] [SC-178363][SS][PYTHON] Implementace podpory TTL pro ListState v TransformWithStateInPandas
-
[SPARK-49879] [SC-178334][CORE] Přesunutí
TransportCipherUtil
do samostatného souboru, aby se eliminovala upozornění kompilace Java - [SPARK-49866] [SC-178353][SQL] Vylepšení chybové zprávy pro popis tabulky s partičními sloupci
- [SPARK-49867] [SC-178302][ES-1260570][SQL] Vylepšete chybovou zprávu, když je index mimo rozsah při volání GetColumnByOrdinal
- [SPARK-49607] [SC-177373][PYTHON] Aktualizujte přístup vzorkování pro vzorkované grafy.
- [SPARK-49626] [SC-177276][PYTHON][CONNECT] Podpora vodorovných a svislých pruhových grafů
- [SPARK-49531] [SC-177770][PYTHON][CONNECT] Podpora čárového grafu s backendem plotly
- [SPARK-49444] [SC-177692][ES-1203248][SQL] Upravená funkce UnivocityParser kvůli vyvolání výjimek modulu runtime způsobených arrayIndexOutOfBounds s více uživateli orientovanými zprávami
- [SPARK-49870] [SC-178262][PYTHON] Přidání podpory Pythonu 3.13 ve Spark Classic
- [SPARK-49560] [SC-178121][SQL] Přidání syntaxe kanálu SQL pro operátor TABLESAMPLE
- [SPARK-49864] [SC-178305][SQL] Vylepšit zprávu BINARY_ARITHMETIC_OVERFLOW
- [SPARK-48780] [SC-170274][SQL] Zobecnění chyb v NamedParametersSupport pro zpracování funkcí a procedur
- [SPARK-49358] [SC-178158][SQL] Mód výrazu pro typy map s seřazenými řetězci
- [SPARK-47341] [SC-178157][SQL] Oprava nepřesné dokumentace modulu RuntimeConfig#get
- [SPARK-48357] [SC-178153][SQL] Podpora příkazu LOOP
-
[SPARK-49845] [SC-178059][CORE]
appArgs
aenvironmentVariables
volitelné v rozhraní REST API - [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable by měl indikovat, jestli se jedná o zápis.
- [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Přidána podpora naslouchacího procesu na straně klienta pro Scalu
- [SPARK-48700] [SC-177978][SQL] Výraz pro režim u složitých typů (všechna seřazení)
- [SPARK-48196] [SC-177899][SQL] Převést "lazy val" plány v QueryExecution na LazyTry
- [SPARK-49749] [16.x][SC-177877][CORE] Změna úrovně protokolu pro ladění v BlockManagerInfo
- [SPARK-49561] [SC-177897][SQL] Přidání syntaxe kanálu SQL pro operátory PIVOT a UNPIVOT
- [SPARK-49823] [SC-177885][SS] Vyhněte se flush během vypínání v uzavírací cestě rocksdb
-
[SPARK-49820] [SC-177855] [PYTHON] Změna
raise IOError
naraise OSError
- [SPARK-49653] [SC-177266][SQL] Jedno spojení pro korelované skalární poddotazy
- [SPARK-49552] [SC-177477][PYTHON] Přidání podpory rozhraní DATAFrame API pro nové funkce randstr a Uniform SQL
- [SPARK-48303] [16.x][SC-166251][CORE] Změna uspořádání klíčů protokolu
- [SPARK-49656] [16x][Backport][SS] Přidání podpory proměnných stavu s typy kolekcí stavových hodnot a možnostmi čtecího kanálu změn
- [SPARK-48112] [SC-165129][CONNECT] Zveřejnění relace ve SparkConnectPlanneru pro moduly plug-in
- [SPARK-48126] [16.x][SC-165309][Core] Zprovoznit funkčnost spark.log.structuredLogging.enabled
- [SPARK-49505] [SC-176873][SQL] Vytvoření nových funkcí SQL "randstr" a "uniform" pro generování náhodných řetězců nebo čísel v rozsahech
- [SPARK-49463] [SC-177474] Podpora ListState pro TransformWithStateInPandas
-
[SPARK-48131] [SC-165007][Core] Sjednocení
mdc.taskName
atask_name
klíčů MDC - [SPARK-49557] [SC-177227][SQL] Přidání syntaxe kanálu SQL pro operátor WHERE
- [SPARK-49323] [16.x][SC-174689][CONNECT] Přesunutí MockObserveru z testovací složky Serveru Spark Connect Serveru do hlavní složky Serveru
- [SPARK-49745] [SC-177501][SS] Přidání změny pro čtení registrovaných časovačů prostřednictvím čtečky zdroje dat stavu
- [SPARK-49772] [16.x][SC-177478][SC-177214][SS] Odeberte columnFamilyOptions a přidejte konfigurace přímo do dbOptions v RocksDB.
Podpora ovladačů Databricks ODBC/JDBC
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgrade (stáhnout ODBC, stáhnout JDBC).
Viz Aktualizace údržby Databricks Runtime 16.1.
Systémové prostředí
- operační systém: Ubuntu 24.04.1 LTS
- java: Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
anotované typy | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
automatické příkazy | 2.2.2 | Azure Core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | černý | 24.4.2 |
blinkr | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | kliknout | 8.1.7 |
cloudpickle | 2.2.1 | Komunikace | 0.2.1 | obrysová křivka | 1.2.0 |
kryptografie | 42.0.5 | cyklista | 0.11.0 | Cython | 3.0.11 |
Databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
dekoratér | 5.1.1 | Zavrhovaný | 1.2.14 | distlib | 0.3.8 |
docstring na markdown | 0.11 | vstupní body | 0.4 | provádění | 0.8.3 |
přehled aspektů | 1.1.1 | zamčení souboru | 3.15.4 | fonttools | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-auth | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
skloňovat | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | klient Jupyter | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-sémantické-konvence | 0,48b0 |
balení | 24.1 | Pandy | 1.5.3 | parso | 0.8.3 |
specifikace cesty | 0.10.3 | bábovka | 0.5.6 | pexpect | 4.8.0 |
polštář | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | čistý eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
požadavky | 2.32.2 | lano | 1.12.0 | Rsa | 4.9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
seaborn | 0.13.2 | setuptools | 74.0.0 | Šest | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.2 | houževnatost | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | typy-žádostí | 2.31.0.0 | types-setuptools | 68.0.0.0 |
typy-šest | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | bezobslužné aktualizace | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | kolo | 0.43.0 | zavinul | 1.14.1 |
yapf | 0.33.0 | zipp | 3.17.0 |
nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku CRAN balíčkového manažera Posit na datum 2024-08-04.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šíp | 16.1.0 | askpass | 1.2.0 | ověř, že | 0.2.1 |
zpětné portace | 1.5.0 | základna | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-8 | shluk | 1.2.4 | bota | 1.3-30 |
vařit | 1.0-10 | verva | 1.1.5 | koště | 1.0.6 |
bslib | 0.8.0 | kašmír | 1.1.0 | volající | 3.7.6 |
stříška | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
třída | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
hodiny | 0.7.1 | shluk | 2.1.6 | codetools | 0.2-20 |
barevný prostor | 2.1-1 | commonmark | 1.9.1 | kompilátor | 4.4.0 |
konfigurace | 0.3.2 | rozpolcený | 1.2.0 | cpp11 | 0.4.7 |
pastelka | 1.5.3 | pověření | 2.0.1 | kudrna | 5.2.1 |
data.table | 1.15.4 | Datové sady | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | Popis | 1.4.3 | devtools | 2.4.5 |
schéma | 1.6.5 | diffobj | 0.3.5 | trávit | 0.6.36 |
světlo dolů | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | výpustka | 0.3.2 | hodnotit | 0.24.0 |
fanoušci | 1.0.6 | barvy | 2.1.2 | rychlé mapování | 1.2.0 |
fontawesome | 0.5.2 | knihovna 'forcats' | 1.0.0 | foreach | 1.5.2 |
zahraniční | 0.8-86 | kovat | 0.2.0 | Fs | 1.6.4 |
budoucnost | 1.34.0 | future.apply | 1.11.2 | kloktadlo | 1.5.2 |
Generika | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globály | 0.16.3 | lepidlo | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.4.0 | grDevices | 4.4.0 | mřížka | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | Gt | 0.11.0 |
gtable | 0.3.5 | bezpečnostní přilba | 1.4.0 | útočiště | 2.5.4 |
vyšší | 0.11 | Hms | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | Id | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | isoband | 0.2.7 | Iterátory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | šťavnatý džus | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1.48 | značení | 0.4.3 |
později | 1.3.2 | mříž | 0.22-5 | láva | 1.8.0 |
životní cyklus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | MŠE | 7.3-60.0.1 |
Matice | 1.6-5 | zapamatovat si | 2.0.1 | metody | 4.4.0 |
mgcv | 1.9-1 | mim | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | rovnoběžný | 4.4.0 |
paralelně | 1.38.0 | pilíř | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | pochvala | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | pokrok | 1.2.3 |
progressr | 0.14.0 | sliby | 1.3.0 | proto | 1.0.0 |
proxy | 0,4-27 | PS | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reagovatelná | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
recepty | 1.1.0 | odvetný zápas | 2.0.0 | rematch2 | 2.1.2 |
dálkové ovladače | 2.5.0 | případ reprodukovatelného problému | 2.1.1 | reshape2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | drzost | 0.4.9 |
váhy | 1.3.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
tvar | 1.4.6.1 | lesklý | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | prostorový | 7.3-17 | spliny | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistické údaje | 4.4.0 |
stats4 | 4.4.0 | řetězce | 1.8.4 | stringr | 1.5.1 |
přežití | 3.6-4 | naparování | 5.17.14.1 | systém | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
tvarování textu | 0.4.0 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | změna času | 0.3.0 |
časDatum | 4032.109 | tinytex | 0.52 | nářadí | 4.4.0 |
tzdb | 0.4.0 | kontrola URL | 1.0.1 | použij toto | 3.0.0 |
utf8 | 1.2.4 | nástroje | 4.4.0 | UUID (unicelně unikátní identifikátor) | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vrrrrm | 1.6.5 | Waldo | 0.5.2 | fous | 0.4.1 |
withr | 3.0.1 | xfun | 0.46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | zip | 2.3.1 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk pro automatické škálování | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.kofein | kofein | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | Verze 1.1 pro místní uživatele |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | Verze 1.1 pro místní uživatele |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Verze 1.1 pro místní uživatele |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | Verze 1.1 pro místní uživatele |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | anotace_náchylné_k_chybám | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk (sada nástrojů pro vývojáře softwaru) | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfigurace | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | vzduchový kompresor | 0.27 |
io.delta | delta-sharing-client_2.12 | 1.2.2 |
io.dropwizard.metrics | anotace metrik | 4.2.19 |
io.dropwizard.metrics | metriky – jádro | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metriky – servlety | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | obslužná rutina netty | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | Netty transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transakční API | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | nakládačka | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mravenec | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | formát se šipkami | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | vektorová šipka | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-klient | 2.13.0 |
org.apache.kurátor | kurátorský rámec | 2.13.0 |
org.apache.kurátor | kurátorské recepty | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | rozhraní pro úložiště Hive | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | břečťan | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | poznámky pro publikum | 0.13.0 |
org.apache.zookeeper | ošetřovatel zvířat | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-kompilátor | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms (systém pro řízení relačních databází) | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty pokračování | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty webová aplikace | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | klient WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket - společné prvky | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | společný jersey | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | Hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Vymezovací podložky | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | testovací rozhraní | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | kompatibilní s scalatestem | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
stax | stax-api | 1.0.1 |