Databricks Runtime 16.2
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.2 által működtetett Databricks Runtime 16.2-ről nyújtanak információkat.
A Databricks 2025 februárjában adta ki ezt a verziót.
Borravaló
A megszűnt támogatású (EoS) Databricks Runtime-verziók kiadási megjegyzéseinek megtekintéséhez lásd a lejárt támogatású Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Viselkedési változások
Az ANALYZE most kihagyja a nem támogatott típusok kolumáit
ANALYZE TABLE
már nem jelenik meg hibaüzenet, ha nem támogatott típusok ( például ARRAY
vagy MAP
) táblán fut. A nem támogatott oszlopok mostantól automatikusan ki lesznek hagyva. Azok a felhasználók, amelyek olyan logikát implementáltak, amely ezeket a hibákat várta, frissíteniük kell a kódjukat.
A Delta Sharingben a táblaelőzmények alapértelmezés szerint engedélyezve lesznek
Az SQL-paranccsal (ALTER SHARE <share> ADD TABLE <table>
) létrehozott megosztásoknál az előzménymegosztás (WITH HISTORY
) mostantól alapértelmezés szerint engedélyezett. Lásd a(z) ALTER SHARE.
A hitelesítő adatok SQL-utasításai hibaüzenetet adnak vissza, ha a hitelesítő adatok típusa nem egyezik
Ebben a kiadásban, ha a hitelesítőadat-kezelési SQL-utasításban megadott hitelesítő adattípus nem egyezik meg a hitelesítő argumentum típusával, a rendszer hibát ad vissza, és az utasítás nem fut. Ha például az utasítás DROP STORAGE CREDENTIAL 'credential-name'
, ha credential-name
nem tárolási hitelesítő adat, az utasítás hibaüzenettel meghiúsul.
Ez a módosítás segít megelőzni a felhasználói hibákat. Korábban ezek az utasítások sikeresen lefuttak, még akkor is, ha a megadott hitelesítő adattípusnak nem megfelelő hitelesítő adatokat adták át. Például, a következő utasítás sikeresen eltávolítja storage-credential
: DROP SERVICE CREDENTIAL storage-credential
.
Ez a változás a következő nyilatkozatokat érinti:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT...RA...HITELESÍTŐ ADATOK
- REVOKE...CÍMRE...HITELESÍTŐ ADATOK
- SHOW GRANTS BE... HITELESÍTŐ ADATOK
Új funkciók és fejlesztések
-
Egyéni állapotalapú alkalmazások létrehozása
transformWithState
- Hitelesítés felhőbeli objektumtárolóba szolgáltatás hitelesítő adataival
- A Unity Katalógus által szabályozott hozzáférés a szolgáltatás hitelesítő adataival rendelkező külső felhőszolgáltatásokhoz mostantól általánosan elérhető
- jegyzetfüzetek munkaterületfájlokként támogatottak
-
A
timestampdiff
×tampadd
használata létrehozott oszlopkifejezésekben - SQL-folyamat szintaxisának támogatása
-
HTTP-kérés készítése a
http_request
függvény használatával -
Frissítés a
DESCRIBE TABLE
-re, amely a metaadatokat strukturált JSON formájában adja vissza - Végi szóköz érzékenység nélküli rendezések
- Iceberg-táblák konvertálása gyűjtőparticionálással nem particionált Delta-táblákká
-
Standard hozzáférési mód (korábban megosztott hozzáférési mód) számítása mostantól támogatja a Spark Scala metódusokat
foreach
,foreachBatch
ésflatMapGroupsWithState
Egyéni állapotalapú alkalmazások létrehozása transformWithState
Mostantól a transformWithState
és a kapcsolódó API-k használatával egyéni állapotalapú alkalmazásokat implementálhat a strukturált streamelési lekérdezések részeként. Lásd: Egyéni állapotalapú alkalmazás létrehozása.
Hitelesítés a felhőbeli objektumtárban szolgáltatás hitelesítő adataival
Mostantól a Databricks szolgáltatás hitelesítő adataival hitelesítheti magát a felhőbeli objektumtárolóban az Automatikus betöltővel. Lásd: Mi az automatikus betöltő fájlértesítési módja?
A Unity katalógus által szabályozott hozzáférés a szolgáltatási hitelesítő adatokkal rendelkező külső felhőszolgáltatásokhoz mostantól általánosan elérhető.
A szolgáltatás hitelesítő adatai egyszerű és biztonságos hitelesítést tesznek lehetővé a felhőbeli bérlő szolgáltatásaival az Azure Databricksből. A Databricks Runtime 16.2-ben a szolgáltatás hitelesítő adatai általánosan elérhetők, és mostantól támogatják a Scala SDK-kat a nyilvános előzetes verzióban támogatott Python SDK mellett. Lásd: Külső felhőszolgáltatásokhoz való hozzáférés kezelése szolgáltatás hitelesítő adatokkal.
A jegyzetfüzetek munkaterületfájlokként támogatottak
A Databricks Runtime 16.2-ben és újabb verziókban a jegyzetfüzetek munkaterületfájlokként támogatottak. Mostantól programozott módon kezelheti a jegyzetfüzeteket bárhonnan, ahol a munkaterület fájlrendszere elérhető, beleértve a jegyzetfüzetek írását, olvasását és törlését, mint bármely más fájlt. További információért tekintse meg a(z) Jegyzetfüzetek munkaterületi fájlként.
A timestampdiff
& timestampadd
használata generált oszlopkifejezésekben
A Databricks Runtime 16.2-ben és újabb verziókban használhatja a timestampdiff és timestampadd függvényeket a Delta Lake által létrehozott oszlopkifejezésekben. Lásd Delta Lake által létrehozott oszlopokat.
Az SQL-folyamat szintaxisának támogatása
A Databricks Runtime 16.2-ben és az újabb verziókban SQL-folyamatokat hozhat létre. Az SQL-folyamatok egy szabványos lekérdezést( például SELECT c2 FROM T WHERE c1 = 5
) építenek be lépésenkénti sorrendbe, ahogyan az a következő példában látható:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Az SQL-folyamatok támogatott szintaxisának megismeréséhez tekintse meg SQL-folyamat szintaxisánakcímű témakört.
Az iparágak közötti kiterjesztés hátteréről lásd SQL-nek problémái vannak. Kijavíthatjuk őket: Pipe szintaxis az SQL-ben (a Google Research által).
HTTP-kérés létrehozása a http_request
függvénnyel
A Databricks Runtime 16.2-ben és újabb verziókban http-kapcsolatokat hozhat létre, és rajtuk keresztül HTTP-kéréseket végezhet a http_request függvénnyel.
A DESCRIBE TABLE
frissítése strukturált JSON-ként adja vissza a metaadatokat
A Databricks Runtime 16.2-ben és újabb verziókban a DESCRIBE TABLE AS JSON
paranccsal JSON-dokumentumként visszaadhatja a tábla metaadatait. A JSON-kimenet strukturáltabb, mint az alapértelmezett, ember által olvasható jelentés, és programozott módon használható a tábla sémájának értelmezéséhez. További információ: DESCRIBE TABLE AS JSON.
Végén álló üreshelyet nem figyelembe vevő rendezések
A Databricks Runtime 16.2 támogatja a végső szóközökre nem érzékeny rendezéseket, kiegészítve a Databricks Runtime 16.1-ben hozzáadott rendezési támogatást. Ezek a kollációk például a 'Hello'
és 'Hello '
értékeket egyenlőként kezelik. További információ: RTRIM kolláció.
Iceberg-táblák konvertálása gyűjtőparticionálással nem particionált Delta-táblákká
A CONVERT TO DELTA és CREATE TABLE CLONE utasítások mostantól támogatják az Iceberg-táblák vödör-particionálással való átalakítását particionálatlan Delta-táblákká.
A standard hozzáférési mód (korábban megosztott hozzáférési mód) számítása mostantól támogatja a Spark Scala metódusokat foreach
, foreachBatch
és flatMapGroupsWithState
A Databricks Runtime 16.2-ben és újabb verziókban a standard hozzáférési módú számítás mostantól támogatja a Scala metódusokat DataStreamWriter.foreachBatch
és KeyValueGroupedDataset.flatMapGroupsWithState
. A Databricks Runtime 16.1-ben és újabb verziókban a standard hozzáférési módú számítás mostantól támogatja a Scala metódust DataStreamWriter.foreach
.
Hibajavítások
Továbbfejlesztett növekményes klónfeldolgozás
Ez a kiadás tartalmaz egy javítást egy peremes esethez, ahol egy növekményes CLONE
újramásolhatja a forrástáblából a céltáblába másolt fájlokat. Lásd: Az Azure Databricks táblájának klónozása.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- org.json4s.json4s-ast_2.12 3.7.0-M11-től 4.0.7-ig
- org.json4s.json4s-core_2.12 3.7.0-M11-től 4.0.7-ig
- org.json4s.json4s-jackson_2.12 3.7.0-M11-től 4.0.7-ig
- org.json4s.json4s-scalap_2.12 3.7.0-M11-től 4.0.7-ig
Apache Spark
A Databricks Runtime 16.2 tartalmazza az Apache Spark 3.5.2-t. Ez a kiadás tartalmazza Databricks Runtime 16.1összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
-
[SPARK-49966] „[SC-179501][sql]
Invoke
használatának visszavonásaJsonToStructs
implementálásához (from_json
)” - [SPARK-50904] [SC-186976][sql] Kijavítottuk a rendezési kifejezés léptető lekérdezésének végrehajtását
- [SPARK-49666] [SQL] Az InSet-kifejezés vágási tesztjeinek engedélyezése
- [SPARK-50669] [SC-184566][es-1327450][SQL] A TimestampAdd kifejezés aláírásának módosítása
-
[SPARK-50795] [16.x][sc-186719][SQL] A LinkedHashMap
describe
long
típusaként tárolja az időbélyeget - [SPARK-50870] [SC-186950][sql] Adja hozzá az időzónát a V2ScanRelationPushDown időbélyegzőbe történő öntésekor
- [SPARK-50735] [SC-186944][connect] Az ExecuteResponseObserver hibája végtelen újracsatlakozási kéréseket eredményez
- [SPARK-50522] [SC-186500][sql] Határozatlan rendezés támogatása
- [SPARK-50525] [SC-186058][sql] InsertMapSortInRepartitionExpressions Optimizer-szabály definiálása
- [SPARK-50679] [SC-184572][sql] Duplikált gyakori kifejezések a különböző With-ben csak egyszer legyenek kivetítve
- [SPARK-50847] [SC-186916] [SQL] Megakadályozza az ApplyCharTypePadding alkalmazását specifikus In kifejezések esetén
- [SPARK-50714] [SC-186786][sql][SS] A TransformWithState sémafejlődésének engedélyezése Avro-kódolás használatakor
-
[SPARK-50795] [SC-186390][sql] Az összes JSON-dátum megjelenítése ISO-8601 formátumban és típusokként
dataType.simpleString
- [SPARK-50561] [SC-185924][sql] DBR 16.x cherrypick: A UNIFORM SQL függvény típuskényszerítésének és határellenőrzésének javítása
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalog
támogatjabuiltin
mágikus értéket - [SPARK-50831] [SC-186736][sql] Alapértelmezés szerint engedélyezi a levágási kollációt.
-
[SPARK-50263] [SC-186793][connect] Cserélje le
System.currentTimeMillis
System.nanoTime
- [SPARK-48730] [SC-184926][sql] CreateSQLFunctionCommand implementálása AZ SQL Scalar és a Table Functions számára
- [SPARK-50830] [SC-186718] [SQL] Egymenetes eredményt ad vissza kettős futtatású elemzési eredményként
- [SPARK-50707] [SC-186098][sql] A karakter/varchar típusra történő átalakítás engedélyezése
- [SPARK-49490] [SC-182137][sql] Benchmarks hozzáadása az initCap-hoz
-
[SPARK-50529] [SC-184535][sql] A karakter/varchar viselkedésének módosítása a
spark.sql.preserveCharVarcharTypeInfo
konfigurációban - [SPARK-49632] [SC-184179][sql] Távolítsa el az ANSI konfigurációra vonatkozó javaslatot a CANNOT_PARSE_TIMESTAMP-ból
- [SPARK-50815] [SC-186487][python][SQL] Kijavítottuk a hibát, amely miatt a null Variants átadása a createDataFrame-ben meghiúsult, és Variant-támogatás hozzáadása a CreateDataFrame-ben a Spark Connectben
-
[SPARK-50828] [SC-186493][python][ML][connect] Lecserélendő
pyspark.ml.connect
- [SPARK-50600] [SC-186057][connect][SQL] Elemzési hiba alapján elemezett készlet
- [SPARK-50824] [SC-186472][python] Ne importáljon opcionális Python-csomagokat ellenőrzésre
- [SPARK-50755] [SC-185521][sql] Szép tervmegjelenítés az InsertIntoHiveTable-hoz
- [SPARK-50789] [SC-186312][connect] A beírt aggregációk bemeneteit elemezni kell
- [SPARK-50791] [SC-185867][sc-186338][SQL] Az NPE javítása a State Store hibakezelésében
-
[SPARK-50801] [SC-186365] [SQL] Javítani kell a
PlanLogger.logPlanResolution
, hogy csak megoldatlan és megoldott terveket jelenítsen meg - [SPARK-50749] [SC-185925][sql] A Rendezési hiba javítása a CommutativeExpression.gatherCommutative metódusban
- [SPARK-50783] [SC-186347] A JVM profilozó eredményfájljának nevének és elrendezésének kanonizálása a DFS-en
- [SPARK-50790] [SC-186354][python] Parse json implementálása a pysparkban
- [SPARK-50738] [SC-184856][python] Black frissítése 23.12.1-re
- [SPARK-50764] [SC-185930][python] Az xpathhoz kapcsolódó metódusok docstringjének pontosítása
-
[SPARK-50798] [SC-186277][sql]
NormalizePlan
Javítása - [SPARK-49883] [SC-183787][ss] Állapot tárhely ellenőrzőpont struktúra V2 integráció a RocksDB és a RocksDBFileManager alkalmazásokkal
- [SPARK-50779] [SC-186062][sql] Funkciójelző hozzáadása objektumszintű rendezéshez
- [SPARK-50778] [SC-186183][python] MetadataColumn hozzáadása a PySpark DataFrame-hez
- [SPARK-49565] [SC-186056][sql] DBR 16.x cherrypick: Az automatikusan létrehozott kifejezési aliasok javítása csőszintű SQL-operátorokkal
- [SPARK-50541] [16.x][sc-184937] A táblázat leírása JSON-ként
- [SPARK-50772] [SC-185923][sql] DBR 16.x cherrypick: Tábla aliasainak megőrzése SETután, EXTEND, DROP operátorok
- [SPARK-50769] [SC-185919][sql] A ClassCastException javítása a HisztogramNumeric alkalmazásban
- [SPARK-49025] [SC-174667] Szinkronizáld a Delta kód különbségeit a DBR-rel
- [SPARK-50752] [SC-185547][python][SQL] Konfigurációk bevezetése a Python UDF arrow nélküli hangolásához
-
[SPARK-50705] [SC-185944][sql]
QueryPlan
zárolásmentessé válik - [SPARK-50690] [16.x][sc-184640][SQL] Az eltérés javítása DESCRIBE TABLE lekérdezés kimeneti oszlopainak idézőjelében
- [SPARK-50746] [SC-184932][sql] Az Either kifejezést cserélje le a VariantPathSegmentre.
-
[SPARK-50715] [SC-185546][python][CONNECT]
SparkSession.Builder
kötegben állítja be a konfigurációkat - [SPARK-50480] [SC-183359][sql] CharType és VarcharType kiterjesztése StringType-ból
- [SPARK-50675] [SC-184539][sql] Tábla- és nézetszintű rendezések támogatása
-
[SPARK-50409] [SC-184516][sql] A
SET;
,SET -v;
ésSET key;
végén a;
figyelmen kívül hagyására vonatkozó beállítás javítása - [SPARK-50743] [SC-185528][sql] A CTERelationDef és a CTERelationRef azonosítók normalizálása
- [SPARK-50693] [SC-184684][connect] A TypedScalaUdf bemeneteit elemezni kell
- [SPARK-50744] [SC-184929][sql] Teszteset hozzáadása a nézet/CTE névfeloldási prioritásának tesztelésére
- [SPARK-50710] [SC-184767][connect] Támogatás hozzáadása opcionális ügyfél-újracsatlakozáshoz a munkamenetekhez kiadás után
- [SPARK-50703] [SC-184843][python] Finomítsa a regexp_replace, regexp_substr és regexp_instr docstringjeit
-
[SPARK-50716] [SC-184823][core] A
JavaUtils.deleteRecursivelyUsingJavaIO
metódus szimbolikus hivatkozásainak tisztítási logikájának javítása - [SPARK-50630] [SC-184443][sql] Kijavítottuk a cső SQL AGGREGATE operátorainak GROUP BY sorszámtámogatását
- [SPARK-50614] [SC-184729][sql] A Parquethez tartozó Variant-aprítási támogatás hozzáadása
- [SPARK-50661] [SASP-4936] A régi ügyfél FEB-hez visszamenőleges kompatibilitást biztosít.
-
[SPARK-50676] [SC-184641][sql] Távolítsa el a nem használt
private lazy val mapValueContainsNull
aElementAt
-
[SPARK-50515] [SC-183813][core] Írásvédett felület hozzáadása
SparkConf
- [SPARK-50697] [SC-184702][sql] A tail-recursion engedélyezése, ahol csak lehetséges
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]A "FlatMapGroupsWithState" állapotsémájának javítása a Spark Connect-ben, ha nincs kezdeti állapot
- [SPARK-50701] [SC-184704][python] A diagramkészítéshez a Plotly minimális verziója szükséges
- [SPARK-50702] [SC-184727][python] Finomítja a regexp_count, regexp_extract és regexp_extract_all docstringjeit
- [SPARK-50499] [SC-184177][python] A BasePythonRunner metrikáinak elérhetővé tétele
- [SPARK-50692] [SC-184705][16.x] RPAD pushdown támogatás hozzáadása
- [SPARK-50682] [SC-184579][sql] A belső aliast kanonizálni kell
- [SPARK-50699] [SC-184695][python] Elemzés és DDL-sztring létrehozása egy megadott munkamenettel
- [SPARK-50573] [SC-184568][ss] Állapotséma-azonosító hozzáadása állapotsorokhoz a sémafejlődéshez
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] A Spark Connect Scala foreachBatch implementáció javítása. Dataset[T] támogatására.
- [SPARK-50689] [SC-184591][sql] Determinisztikus rendezés kényszerítése LCA-projektlistákban
- [SPARK-50696] [SC-184667][python] Py4J-hívás optimalizálása DDL-elemzési metódushoz
- [SPARK-49670] [SC-182902][sql] A vágási rendezés engedélyezése az összes átmenő kifejezéshez
-
[SPARK-50673] [SC-184565][ml] Kerülje a modell együtthatóinak kétszeri bejárását
Word2VecModel
konstruktorban - [SPARK-50687] [SC-184588][python] Optimalizálja a logikai folyamatot a DataFrameQueryContext stack trace-ek lekéréséhez
- [SPARK-50681] [SC-184662][python][CONNECT] Gyorsítótárazza a MapInXXX és az ApplyInXXX elemezett sémáit
- [SPARK-50674] [SC-184589][python] Kijavítottuk a "befejez" metódus meglétének ellenőrzését az UDTF-értékelés során
- [SPARK-50684] [SC-184582][python] A Py4J teljesítményének javítása a DataFrameQueryContextben
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Az állapot metaadatainak új verziójának támogatása a TransformWithStateInPandashoz
- [SPARK-50602] [SC-184439][sql] A transzponálás javítása a megfelelő hibaüzenet megjelenítéséhez érvénytelen indexoszlopok megadásakor
- [SPARK-50650] [SC-184532][sql] A naplózás javítása az egyáteresztő elemzőben
- [SPARK-50665] [SC-184533][sql] LocalRelation helyettesítése a NormalizePlan-ban a ComparableLocalRelation használatával
- [SPARK-50644] [SC-184486][sql] Változatstruktúra olvasása a Parquet-olvasóban.
- [SPARK-49636] [SC-184089][sql] Távolítsa el az ANSI konfigurációs javaslatot INVALID_ARRAY_INDEX és INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] A Union kimenetének átalakítása az egylépéses elemzőben való újrafelhasználáshoz
- [SPARK-50659] [SC-184512][sql] Az unióval kapcsolatos hibák áthelyezése a QueryCompilationErrorsba
- [SPARK-50530] [SC-183419][sql] Hibás implicit sztringtípus környezeti számításának javítása
- [SPARK-50546] [SC-183807][sql] Alquery cast támogatás hozzáadása a rendezési típus kényszerítéséhez
- [SPARK-50405] [SC-182889][sql] Az összetett adattípusok rendezési típusának kényszerítésének helyes kezelése
- [SPARK-50637] [SC-184434][sql] Az egyáteresztő elemző kódstílusának javítása
- [SPARK-50638] [SC-184435][sql] A nézet felbontásának átalakítása külön fájlba, hogy újból felhasználható legyen az egy menetben működő elemzőben
- [SPARK-50615] [SC-184298][sql] A variáns leküldése a vizsgálatba.
- [SPARK-50619] [SC-184210][sql] A VariantGet.cast átalakítása az átalakított argumentumok csomagolásához
- [SPARK-50599] [SC-184058][sql] Hozza létre a DataEncoder tulajdonságot, amely lehetővé teszi az Avro és unsafeRow kódolást
- [SPARK-50076] [SC-183809] Logkulcsok javítása
- [SPARK-50597] [SC-183972][sql] Kötegek újraszervezése az Optimizer.scala és a SparkOptimizer.scala alkalmazásban
- [SPARK-50339] [SC-183063][spark-50360][SS] A változásnapló engedélyezése származási információ tárolásához
- [SPARK-50526] [SC-183811][ss] A tárolókódolási formátum hozzáadása az eltolási naplóhoz, és a nem támogatott állapotalapú operátorok letiltása az avro használatakor
- [SPARK-50540] [SC-183810][python][SS] A StatefulProcessorHandle karakterlánc séma javítása
- [SPARK-50157] [SC-183789][sql] Először a SparkSession által biztosított SQLConf használatával.
- [SPARK-48898] [SC-183793][sql] A nullérvényesség helyes beállítása a Variant sémában
- [SPARK-50559] [SC-183814][sql] Tárolja az Except, az Intersect és az Union kimeneteit lusta változókként
- [SPARK-48416] [SC-183643][sql] Beágyazott korrelált With kifejezés támogatása
- [SPARK-50428] [SC-183566][ss][PYTHON] A TransformWithStateInPandas támogatása kötegelt lekérdezésekben
- [SPARK-50063] [SC-183350][sql][CONNECT] A Variant támogatása a Spark Connect Scala-ügyfélben
-
[SPARK-50544] [SC-183569][python][CONNECT] Megvalósítás
StructType.toDDL
- [SPARK-50443] [SC-182590][ss] A Guava cache által a RocksDBStateStoreProviderben bevezetett Maven-buildelési hibák javítása
- [SPARK-50491] [SC-183434][sql] Kijavítottuk a hibát, amely miatt az üres BEGIN END-blokkok hibát jeleznek
-
[SPARK-50536] [SC-183443][core] A letöltött archív fájlméretek
SparkContext
ésExecutor
naplózása - [SPARK-45891] [SC-183439][sql] A bináris változat újraépítése az aprított adatokból.
- [SPARK-49565] [SC-183465][sql] SQL-cső szintaxisának hozzáadása a FROM operátorhoz
- [SPARK-50497] [SC-183338][sql] Hibás lekérdezések megfelelő üzenettel, ha a MultiAlias nem generátorfüggvényt tartalmaz
- [SPARK-50460] [SC-183375][python][CONNECT] A csatlakozás kivételkezelésének általánosítása és egyszerűsítése
-
[SPARK-50537] [SC-183452][connect][PYTHON] A tömörítési beállítások felülírásának javítása a
df.write.parquet
-ben - [SPARK-50329] [SC-183358][sql] az InSet$toString hibájának javítása
-
[SPARK-50524] [SC-183364][sql] Alacsonyabb
RowBasedKeyValueBatch.spill
hibakeresési szintre figyelmeztető üzenet -
[SPARK-50528] [SC-183385][connect]
InvalidCommandInput
áthelyezése a közös modulba - [SPARK-50017] [SC-182438][ss] Avro kódolás támogatása a TransformWithState operátorhoz
-
[SPARK-50463] [SC-182833][sql] A
ConstantColumnVector
javítása oszlopos sorra konvertálással - [SPARK-50235] [SC-180786][sql] A ColumnVector-erőforrás törlése a ColumnarToRowExec összes sorának feldolgozása után
- [SPARK-50516] [SC-183279][ss][MINOR] A StreamManualClock használatára vonatkozó init állapotteszt javítása
- [SPARK-50478] [SC-183188][sql] StringType-egyeztetés javítása
- [SPARK-50492] [SC-183177][ss] Kijavítottuk a java.util.NoSuchElementException hibát, ha a dropDuplicatesWithinWatermark után az eseményidő oszlop el van vetve
- [SPARK-49566] [SC-182589][sql] Sql-cső szintaxisának hozzáadása a SET operátorhoz
- [SPARK-50449] [SC-183178][sql] Kijavítottuk az SQL nyelvhelyességét, amely most már engedélyezi a hurkok, a HA és a CASE üres törzseinek használatát
-
[SPARK-50251] [SC-180970][python]
getSystemProperty
hozzáadása a PySparkhezSparkContext
- [SPARK-50421] [SC-183091][core] A végrehajtóhoz kapcsolódó memóriakonfiguráció javítása helytelen volt több erőforrásprofil használatakor
- [SPARK-49461] [SC-179572][ss] Állandó ellenőrzőpont-azonosító a naplók véglegesítéséhez és visszaolvasásához
- [SPARK-50343] [SC-183119][spark-50344][SQL] SQL-cső szintaxisának hozzáadása a DROP és AS operátorokhoz
-
[SPARK-50481] [SC-182880][core] A
SortShuffleManager.unregisterShuffle
továbbfejlesztése az ellenőrzőösszeg fájllogika kihagyásához, ha az ellenőrzőösszeg le van tiltva -
[SPARK-50498] [SC-183090][python] Kerülje a szükségtelen py4j-hívásokat a
listFunctions
-
[SPARK-50489] [SC-183053][sql][PYTHON] Az öncsatlakozás javítása
applyInArrow
- [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres javítás: xor push-down
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat, és frissítsen (töltse le az ODBC, töltse le a JDBC).
Karbantartási frissítések
Lásd Databricks Runtime 16.2 karbantartási frissítések.
Rendszerkörnyezet
- operációs rendszer: Ubuntu 24.04.1 LTS
- Java: Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
széljegyzetes típusok | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
automatikus parancs | 2.2.2 | azure-core | 1.31.0 | Azure tárolási blob | 12.23.0 |
Azure tárhely fájl adat-tó | 12.17.0 | backports.tarfile | 1.2.0 | fekete | 24.4.2 |
villogó | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | tanúsítvány | 2024.6.2 | cffi | 1.16.0 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | kattint | 8.1.7 |
cloudpickle | 2.2.1 | komm | 0.2.1 | contourpy | 1.2.0 |
kriptográfia | 42.0.5 | biciklista | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
lakberendező | 5.1.1 | Elavult | 1.2.14 | distlib | 0.3.8 |
docstring átalakítása markdownrá | 0.11 | belépési pontok | 0.4 | Végrehajtó | 0.8.3 |
aspektusok áttekintése | 1.1.1 | fájlzár | 3.15.4 | betűtípusok | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-autentikáció | 2.35.0 | google-cloud-core | 2.4.1 | Google felhőtárhely | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
ragoz | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
ISO-dátum | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-konvenciók | 0,48b0 |
csomagolás | 24.1 | Pandák | 1.5.3 | parso | 0.8.3 |
útvonalspecifikáció | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
párna | 10.3.0 | pip | 24,2 | platformdirs | 3.10.0 |
ábrázolás | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
Kérelmek | 2.32.2 | kötél | 1.12.0 | Rsa | 4.9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
tengeri | 0.13.2 | setuptools | 74.0.0 | Hat | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
veremadatok | 0.2.0 | statsmodels | 0.14.2 | Kitartás | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádó | 6.4.1 | traitlets | 5.14.3 | típusvédő | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | típusok-kérések | 2.31.0.0 | types-setuptools | 68.0.0.0 |
6-os típusok | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | felügyelet nélküli frissítések | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | kerék | 0.43.0 | becsomagolt | 1.14.1 |
yapf | 0.33.0 | cipzár | 3.17.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Package Manager CRAN-pillanatképéből vannak telepítve 2024.08.04-én: https://packagemanager.posit.co/cran/2024-08-04/
.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
visszaportolások | 1.5.0 | alap | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-8 | csepp | 1.2.4 | boot - rendszerindítás | 1.3-30 |
főzet | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.6 |
bslib | 0.8.0 | gyorsítótár | 1.1.0 | hívó | 3.7.6 |
kalap | 6.0-94 | cellranger | 1.1.0 | kronológia | 2.3-61 |
osztály | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
óra | 0.7.1 | klaszter | 2.1.6 | kódeszközök | 0.2-20 |
színtér | 2.1-1 | commonmark | 1.9.1 | fordítóprogram | 4.4.0 |
konfig | 0.3.2 | Konfliktusban álló | 1.2.0 | cpp11 | 0.4.7 |
zsírkréta | 1.5.3 | Megbízólevél | 2.0.1 | göndörít | 5.2.1 |
data.table | 1.15.4 | Adatkészletek | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | Leírás | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | kivonat | 0.6.36 |
lefelé világító | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | három pont | 0.3.2 | kiértékel | 0.24.0 |
rajongók | 1.0.6 | színek | 2.1.2 | gyorstérkép | 1.2.0 |
fontawesome | 0.5.2 | fogvatartottak | 1.0.0 | foreach | 1.5.2 |
külföldi | 0.8-86 | kovácsol | 0.2.0 | fs | 1.6.4 |
jövő | 1.34.0 | jövő.alkalmaz | 1.11.2 | gargarizál | 1.5.2 |
Generikus | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globálisok | 0.16.3 | ragasztó | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.4.0 | grDevices | 4.4.0 | rács | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | Gt | 0.11.0 |
gtable | 0.3.5 | védősisak | 1.4.0 | kikötő | 2.5.4 |
magasabb | 0.11 | HMS | 1.1.3 | html-eszközök | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | Azonosítók | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1.48 | címkézés | 0.4.3 |
később | 1.3.2 | rács | 0.22-5 | láva | 1.8.0 |
életciklus | 1.0.4 | figyelő | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | TÖMEG | 7.3-60.0.1 |
Mátrix | 1.6-5 | memoise | 2.0.1 | Módszerek | 4.4.0 |
mgcv | 1.9-1 | pantomimás | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | párhuzamos | 4.4.0 |
párhuzamosan | 1.38.0 | pillér | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | dicséret | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | haladás | 1.2.3 |
progressr | 0.14.0 | Ígéretek | 1.3.0 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktív | 0.4.4 |
reactR | 0.6.0 | olvasó | 2.1.5 | readxl | 1.4.3 |
Receptek | 1.1.0 | Visszavágó | 2.0.0 | visszavágó2 | 2.1.2 |
Távirányítók | 2.5.0 | újra előállítható példa | 2.1.1 | újraformázás2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
mérlegek / pikkelyek | 1.3.0 | selectr | 0.4-2 | munkamenet-információk | 1.2.2 |
alak | 1.4.6.1 | Fényes | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | térbeli | 7.3-17 | splinek | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statisztika | 4.4.0 |
statisztikák4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
túlélés | 3.6-4 | magabiztosság | 5.17.14.1 | sys | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
szövegformázás | 0.4.0 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | időváltozás | 0.3.0 |
Idő és dátum | 4032.109 | tinytex | 0.52 | Eszközök | 4.4.0 |
tzdb | 0.4.0 | URL ellenőrző | 1.0.1 | használd ezt | 3.0.0 |
utf8 | 1.2.4 | segédprogramok | 4.4.0 | uuid | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
brumm | 1.6.5 | Waldo | 0.5.2 | pofaszőr | 0.4.1 |
withr | 3.0.1 | xfun | 0.46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | zip | 2.3.1 |
Telepített Java- és Scala-könyvtárak (Scala 2.12-klaszterverzió)
Csoportazonosító | Tárgy azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client (Amazon Kinesis kliens) | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf könyvtárak | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-árnyékolt | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-benszülöttek |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | natív_rendszer-java | 1.1-őslakosok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-benszülöttek |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-anyanyelviek |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Csellengő | 1.9.0 |
com.google.errorprone | hibára hajlamos jelölések | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guáva | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | profilkészítő | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk (az Azure Data Lake Store fejlesztői készlet) | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfig | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
Commons-fájl-feltöltés | közösségi fájlfeltöltés | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | légkompresszor | 0.27 |
io.delta | delta-sharing-client_2.12 | 1.2.2 |
io.dropwizard.metrics | metrika-annotáció | 4.2.19 |
io.dropwizard.metrics | metrikák magja | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrikák-állapotellenőrzések | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrika-json | 4.2.19 |
io.dropwizard.metrics | JVM-metrikák | 4.2.19 |
io.dropwizard.metrics | metrika-szerverek | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-zokni | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | Egyszerűkliens_általános | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | savanyított zöldség | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | hangya | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | nyílformátum | 15.0.0 |
org.apache.arrow | nyílt memória mag | 15.0.0 |
org.apache.arrow | nyíl-memória-netty | 15.0.0 |
org.apache.arrow | nyíl-vektor | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derbi | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-távtartók | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | közönségi megjegyzések | 0.13.0 |
org.apache.zookeeper | állatkertész | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-folytatás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security (jetty-biztonság) | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-szerver | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webalkalmazás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | WebSocket kliens | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket szerver | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2. Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 4.0.7 |
org.json4s | json4s-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson_2.12 | 4.0.7 |
org.json4s | json4s-scalap_2.12 | 4.0.7 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Hézagolók | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | Scalatest-kompatibilis | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
stax | stax-api | 1.0.1 |