Databricks Runtime 16.0
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 16.0-ról nyújtanak információkat.
A Databricks 2024 novemberében adta ki ezt a verziót.
Tipp.
A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Működésbeli változások
- Kompatibilitástörő változás: A JDK 17 mostantól az alapértelmezett
- Breaking change: Hosted RStudio is end of life
-
Kompatibilitástörő változás: A változók
byte
short
ésint
a típusok szélesebb típusokra történő módosításánaklong
támogatása - Regex-minták helyes elemzése beágyazott karaktercsoportozással
-
Duplikált egyezésészlelés javítása a Delta Lake-ben
MERGE
- A fürttár telepítési módszere már nem bírálható felül
- Két óra alapértelmezett időtúllépése fürt hatókörű kódtár telepítésekor
-
A kódtárak telepítése a DBFS-ből és a spark conf
spark.databricks.driver.dbfsLibraryInstallationAllowed
beállítása le van tiltva -
A
addArtifact()
funkció mostantól konzisztens a számítási típusok között
Kompatibilitástörő változás: A JDK 17 mostantól az alapértelmezett
A Databricks Runtime 16.0-s és újabb verzióiban a JDK alapértelmezett verziója JDK 8-ról JDK 17-re vált. Ez a változás a JDK 8 tervezett elavulása és a támogatás megszűnése miatt történik. Ez a következőkre van hatással:
- Az Azure Databricks compute-en futó Java-kódnak kompatibilisnek kell lennie a Java 17-zel.
- A jegyzetfüzetekben vagy az Azure Databricks compute-ben futó Scala-kódnak kompatibilisnek kell lennie a Java 17-zel.
- A számításra telepített Java- és Scala-kódtáraknak kompatibilisnek kell lenniük a Java 17-zel.
- Az Apache Hive metaadattár-ügyfél 2.x alatti verziói. Ha a Spark-konfigurációt
spark.sql.hive.metastore.version
2.x-nél kisebb verzióra állítja, kompatibilitási problémákat okoz a Java 17-zel, és a Hive metaadattárhoz való kapcsolódási hibákat okoz. A Databricks azt javasolja, hogy frissítse a Hive-t a 2.0.0-snál újabb verzióra.
Ha vissza kell térnie a Java 8-ra, adja hozzá a következőket a Spark környezeti változóihoz az Azure Databricks-számítás konfigurálásakor:
JNAME=zulu8-ca-amd64
ARM-példányok használata esetén használja a következőket:
JNAME=zulu8-ca-arm64
A JDK-verziók Azure Databricks-számítással való megadásáról további információt a JDK 17-et használó fürt létrehozása című témakörben talál.
A kód Java 8-ból való migrálásával kapcsolatos segítségért tekintse meg az alábbi útmutatókat:
Breaking change: Hosted RStudio is end of life
Ezzel a kiadással a Databricks által üzemeltetett RStudio-kiszolgáló élettartama lejárt, és nem érhető el a Databricks Runtime 16.0-s vagy újabb verzióját futtató Azure Databricks-munkaterületeken. További információkért és az RStudio alternatíváinak listájáért lásd: Az üzemeltetett RStudio-kiszolgáló elavulása.
Kompatibilitástörő változás: A változók byte
short
és int
a típusok szélesebb típusokra történő módosításának long
támogatása
A Databricks Runtime 15.4.3 és újabb verziókban a következő adattípus-módosítások már nem alkalmazhatók a típustágító funkcióval rendelkező táblákra:
-
byte
,short
ésint
long
a .decimal
-
byte
,short
ésint
a .double
Ez a módosítás a Delta- és Iceberg-táblák konzisztens viselkedésének biztosítása érdekében történik. A típusszűkítésről további információt a Típusszűkítés című témakörben talál.
Regex-minták helyes elemzése beágyazott karaktercsoportozással
Ez a kiadás tartalmaz egy módosítást, amely támogatja a regex minták megfelelő elemzését a beágyazott karaktercsoportozásban való negációval. A rendszer például [^[abc]]
"bármely olyan karakterként lesz elemezve, amely NEM az "abc" egyike.
Emellett a Photon viselkedése inkonzisztens volt a Sparkkal a beágyazott karakterosztályok esetében. A beágyazott karakterosztályokat tartalmazó Regex-minták már nem használják a Photont, hanem a Sparkot. A beágyazott karakterosztály minden olyan minta, amely szögletes zárójeleket tartalmaz, például [[a-c][1-3]]
.
Duplikált egyezésészlelés javítása a Delta Lake-ben MERGE
A Databricks Runtime 15.4 LTS-ben és alatta a műveletek meghiúsulnak, MERGE
ha a forrástábla több sora megegyezik a céltábla ugyanazon sorával a MERGE
ON
záradékban megadott feltétel alapján. A Databricks Runtime 16.0-s és újabb MERGE
verziókban a záradékban WHEN MATCHED
megadott feltételeket is figyelembe veszi. Lásd: Az Upsert használata egy Delta Lake-táblához történő egyesítéssel.
A fürttár telepítési módszere már nem bírálható felül
A Spark-konfigurációk spark.databricks.libraries.enableSparkPyPI
spark.databricks.libraries.enableMavenResolution
, és spark.databricks.libraries.enableCRANResolutionnow
most már az alapértelmezetttrue
, és nem lehet felülbírált.
Két óra alapértelmezett időtúllépése fürt hatókörű kódtár telepítésekor
A Databricks Runtime 16.0-s és újabb verzióiban a fürt hatókörű kódtárának telepítése két óra alapértelmezett időtúllépéssel rendelkezik. Az ennél az időtúllépésnél hosszabb ideig igénybe vett kódtár-telepítések sikertelenek lesznek, és a telepítés leáll. Fürt konfigurálásakor a Spark-konfigurációval spark.databricks.driver.clusterLibraryInstallationTimeoutSec
módosíthatja az időtúllépési időszakot.
A kódtárak telepítése a DBFS-ből és a spark conf spark.databricks.driver.dbfsLibraryInstallationAllowed
beállítása le van tiltva
A Databricks Runtime 16.0-s és újabb verziókban a kódtárak dbFS-ből való telepítése teljesen le van tiltva. Ez a módosítás a Databricks-munkaterületen lévő kódtárak biztonságának javítása érdekében történik. Emellett a Databricks Runtime 16.0-s és újabb verziókban már nem használhatja a Spark-konfigurációt spark.databricks.driver.dbfsLibraryInstallationAllowed
.
A addArtifact()
funkció mostantól konzisztens a számítási típusok között
Ezzel a kiadással az archívum automatikusan ki lesz csomagolva, amikor függőséget ad addArtifact(archive = True)
hozzá a megosztott vagy kiszolgáló nélküli Azure Databricks-számításhoz. Ez a módosítás konzisztenssé teszi az addArtifact(archive = True)
viselkedését ezeken a számítási típusokon az önálló felhasználói számítással, amely már támogatja az automatikus kicsomagolási archívumokat.
Új funkciók és fejlesztések
-
A módosított Python-modulok megbízhatóbb újratöltése a
autoreload
- Rekurzív séma Avro-támogatása
- to_avro és from_avro függvények
- A Confluent Schema Registry kiterjesztett támogatása az Avro-hoz
- Visszahelyezés kényszerítése folyékony fürtözéssel rendelkező táblákon
- A Pythonhoz és a Scalához készült Delta API-k mostantól támogatják az identitásoszlopokat
- Általánosan elérhető az egyfelhasználós számítás részletes hozzáférés-vezérlése
- Folyékony fürtözött táblák létrehozása streamelési írások során
- A OPTIMIZE FULL záradék támogatása
- A WITH opciók specifikációjának támogatása INSERT és a táblahivatkozás
- Új SQL-függvények
- Automatikus sémafejlődés engedélyezése adatok Delta-táblába való egyesítésekor
A módosított Python-modulok megbízhatóbb újratöltése a autoreload
A Databricks Runtime 16.0-s és újabb verzióiban a autoreload
bővítmény frissítései növelik a munkaterületfájlokból importált módosított Python-modulok újratöltésének biztonságát és megbízhatóságát. Ezekkel a módosításokkal autoreload
lehetőség szerint csak a modul azon részét tölti be újra, amely a teljes modul helyett módosult. Emellett az Azure Databricks mostantól automatikusan javasolja a autoreload
bővítmény használatát, ha a modul a legutóbbi importálás óta megváltozott. Lásd: Python-modulok automatikus betöltése.
Rekurzív séma Avro-támogatása
Most már használhatja a recursiveFieldMaxDepth
funkciót és az from_avro
adatforrást avro
. Ez a beállítás a séma-rekurzió maximális mélységét állítja be az Avro-adatforráson. Lásd a streamelt Avro-adatok olvasását és írását.
to_avro és from_avro függvények
A to_avro és from_avro függvények lehetővé teszik az SQL-típusok Avro bináris adatokké és visszaalakítását.
A Confluent Schema Registry kiterjesztett támogatása az Avro-hoz
Az Azure Databricks mostantól támogatja az Avro-sémahivatkozást a Confluent sémaregisztrációs adatbázisával. Lásd: Hitelesítés külső Confluent-sémaregisztrációs adatbázisba.
Visszahelyezés kényszerítése folyékony fürtözéssel rendelkező táblákon
A Databricks Runtime 16.0-s és újabb verzióiban a OPTIMIZE FULL
szintaxissal kényszerítheti a tábla összes rekordjának újrarekedését, ha engedélyezve van a folyékony fürtözés. Lásd: Az összes rekord visszahelyezésének kényszerítése.
A Pythonhoz és a Scalához készült Delta API-k mostantól támogatják az identitásoszlopokat
Mostantól a Pythonhoz és a Scalához készült Delta API-k segítségével identitásoszlopokat tartalmazó táblákat hozhat létre. Lásd: Az identitásoszlopok használata a Delta Lake esetében.
Általánosan elérhető az egyfelhasználós számítás részletes hozzáférés-vezérlése
A Databricks Runtime 16.0-s és újabb verziókban általánosan elérhető az egyfelhasználós számítás részletes hozzáférés-vezérlése. A kiszolgáló nélküli számításhoz engedélyezett munkaterületeken, ha egy lekérdezés támogatott számításon , például egyfelhasználós számításon fut, és a lekérdezés a következő objektumok bármelyikéhez hozzáfér, a számítási erőforrás átadja a lekérdezést a kiszolgáló nélküli számításnak az adatszűrés futtatásához:
- Olyan táblákhoz definiált nézetek, amelyeken a felhasználó nem rendelkezik
SELECT
jogosultsággal. - Dinamikus nézetek.
- Sorszűrőket vagy oszlopmaszkokat tartalmazó táblák.
- Materializált nézetek és Streaming táblák
Folyékony fürtözött táblák létrehozása streamelési írások során
Mostantól clusterBy
engedélyezheti a folyékony fürtözést, amikor új táblákat hoz létre strukturált streamelési írásokkal. Lásd: Folyékony fürtözés engedélyezése.
A OPTIMIZE FULL záradék támogatása
A Databricks Runtime 16.0 támogatja a OPTIMIZE FULL záradékot. Ez a záradék optimalizálja a folyékony fürtözést használó táblák összes rekordjait, beleértve a korábban fürtözött adatokat is.
WITH-beállítások specifikációjának támogatása a INSERT-ban és a táblahivatkozásban
A Databricks Runtime 16.0 támogatja egy , amely az adatforrások viselkedésének szabályozására használható.
Új SQL-függvények
A Databricks Runtime 16.0 a következő SQL-függvényeket adja hozzá:
-
Ez a függvény a url_decode hibatűrő verziója. Ez a függvény akkor ad
NULL
vissza, ha a bemenet nem érvényes URL-kódolású sztring. -
Ha a függvény bemeneti kifejezése
zeroifnull()
azNULL
, akkor a függvény 0 értéket ad vissza. Ellenkező esetben a bemeneti kifejezés értéke lesz visszaadva. -
Akkor adja
NULL
vissza, ha a bemenet 0, vagy ha nem 0. Ha a függvény bemeneti kifejezésenullifzero()
0, akkor a függvény ad visszaNULL
. Ha a bemeneti kifejezés nem 0, a bemeneti kifejezés értéke lesz visszaadva
Automatikus sémafejlődés engedélyezése adatok Delta-táblába való egyesítésekor
Ez a kiadás támogatja az withSchemaEvolution()
osztály tagját DeltaMergeBuilder
. A műveletek során withSchemaEvolution()
az automatikus sémafejlődés engedélyezésére használhatóMERGE
. Például: mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}
.
Egyéb változások
A SparkR elavult
A Databricks Runtime 16.0-s és újabb verziójában a SparkR a Databricksben elavult, és a spark 4 hamarosan megjelenő kiadásában elavul. Tekintse meg az Apache Spark elavult SparkR-szálát.
A Databricks inkább a Sparklyr használatát javasolja.
A Databricks Runtime 16.0 nem támogatott PVC-vel
A Databricks Runtime 16.0-t a Databricks Private Virtual Cloud (PVC) nem támogatja. A Databricks Runtime 15.4-es vagy újabb verziójának az összes PVC-kiadással együtt kell lennie.
Hibajavítások
Az Automatikus betöltő mostantól üres sémákkal menti az Avro-rekordtípusokat
Ha egy Avro-fájlt az Automatikus betöltő használatával tölt be egy Delta-táblába, record
a rendszer hozzáadja az üres sémával rendelkező fájltípusokat a mentett adatoszlophoz. Mivel nem tölthet be üres összetett adattípusokat egy Delta-táblába, ez megold néhány Avro-fájl betöltésével kapcsolatos problémát. A mentett adatokról további információt a Mi a mentett adatoszlop? című témakörben talál.
Kijavítottuk a második eltolást tartalmazó időzónákat tartalmazó időbélyegek írásának hibáit.
Ez a kiadás kijavít egy hibát, amely bizonyos időbélyegeket érint, és az időzónák egy második eltolást tartalmaznak. Ez a hiba miatt a másodpercek nem lesznek megadva, amikor JSON-, XML- vagy CSV-fájlba írnak, ami helytelen időbélyeg-értékeket eredményez.
Az előző viselkedéshez való visszatéréshez használja a következő lehetőséget, amikor az egyik érintett formátumba ír: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]")
.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- azure-core 1.30.2-től 1.31.0-sig
- azure-storage-blob 12.19.1-től 12.23.0-ra
- azure-storage-file-datalake 12.14.0-tól 12.17.0-ra
- fekete 23.3.0 és 24.4.2 között
- villogó 1,4 és 1,7,0 között
- boto3 1.34.39 és 1.34.69 között
- botocore 1.34.39 és 1.34.69 között
- minősítés 2023.7.22-től 2024.6.2-től
- cffi 1.15.1 és 1.16.0 között
- kattintson a 8.0.4-től a 8.1.7-hez
- comm 0.1.2-től 0.2.1-től
- contourpy 1.0.5-től 1.2.0-ra
- titkosítás a 41.0.3-tól a 42.0.5-ösig
- Cython 0.29.32-től 3.0.11-ig
- databricks-sdk 0.20.0 és 0.30.0 között
- dbus-python 1.2.18 és 1.3.2 között
- filelock 3.13.4 és 3.15.4 között
- fonttools 4.25.0-tól 4.51.0-ra
- GitPython 3.1.43-tól 3.1.37-ig
- google-api-core 2.18.0-tól 2.20.0-ra
- google-hitelesítés 2.31.0-tól 2.35.0-ig
- google-cloud-storage 2.17.0 és 2.18.2 között
- google-crc32c 1.5.0 és 1.6.0 között
- google-resumable-media 2.7.1-2.7.2
- googleapis-common-protos 1.63.2-től 1.65.0-ra
- httplib2 0.20.2 és 0.20.4 között
- idna 3,4 és 3,7 között
- ipykernel 6.25.1 és 6.28.0 között
- ipython 8.15.0-tól 8.25.0-ig
- jedi 0.18.1-től 0.19.1-től
- jmespath 0.10.0 és 1.0.1 között
- joblib 1.2.0 és 1.4.2 között
- jupyter_client 7.4.9-től 8.6.0-ra
- jupyter_core 5.3.0-ról 5.7.2-re
- launchpadlib from 1.10.16 to 1.11.0
- lazr.restfulclient 0.14.4-től 0.14.6-osig
- matplotlib 3.7.2 és 3.8.4 között
- mlflow-skinny 2.11.4-től 2.15.1-esig
- more-itertools 8.10.0-tól 10.3.0-ra
- mypy-extensions from 0.4.3 to 1.0.0
- nest-asyncio 1.5.6 és 1.6.0 között
- numpy 1.23.5 és 1.26.4 között
- oauthlib 3.2.0-tól 3.2.2-ig
- csomagolás 23,2 és 24,1 között
- patsy 0.5.3-tól 0.5.6-osig
- pip 23.2.1 és 24.2 között
- ábrázolás 5.9.0 és 5.22.0 között
- prompt-toolkit from 3.0.36 to 3.0.43
- pyarrow 14.0.1 és 15.0.2 között
- pydantic 1.10.6–2.8.2
- PyGObject 3.42.1 és 3.48.2 között
- PyJWT 2.3.0 és 2.7.0 között
- pyodbc 4.0.38-tól 5.0.1-ig
- python-dateutil 2.8.2 és 2.9.0.post0 között
- python-lsp-jsonrpc 1.1.1-től 1.1.2-től
- pytz 2022.7-től 2024.1-től
- PyYAML 6.0 és 6.0.1 között
- pyzmq 23.2.0 és 25.1.2 között
- 2.31.0 és 2.32.2 közötti kérelmek
- scikit-learn 1.3.0-1.4.2
- scipy from 1.11.1 to 1.13.1
- tengeri 0.12.2-től 0.13.2-ig
- setuptools 68.0.0-tól 74.0.0-ra
- smmap 5.0.1-től 5.0.0-ra
- sqlparse 0.5.0 és 0.5.1 között
- 0.14.0 és 0.14.2 közötti állapotok
- tornádó 6.3.2 és 6.4.1 között
- 5.7.1–5.14.3.
- typing_extensions 4.10.0-tól 4.11.0-ra
- ujson 5.4.0-tól 5.10.0-ra
- virtualenv 20.24.2 és 20.26.2 között
- 0.38.4 és 0.43.0 közötti
- zipp 3.11.0-ról 3.17.0-ra
- Frissített R-kódtárak:
- nyíl a 14.0.0.2-től a 16.1.0-sig
- backports from 1.4.1 to 1.5.0
- alap: 4.3.2–4.4.0
- bitops 1,0-7-1,0-8
- rendszerindítás 1.3-28-ról 1.3-30-ra
- brio 1.1.4 és 1.1.5 között
- seprű 1.0.5-től 1.0.6-osig
- bslib 0.6.1-től 0.8.0-ra
- gyorsítótár 1.0.8-tól 1.1.0-sig
- hívó a 3.7.3-tól a 3.7.6-osig
- cli 3.6.2 és 3.6.3 között
- óra 0.7.0 és 0.7.1 között
- fürt 2.1.4-től 2.1.6-osig
- 0,2-19 és 0,2-20 közötti kódtoolok
- színtér 2.1-0 és 2.1-1 között
- fordító a 4.3.2-től a 4.4.0-sig
- 1.5.2-től 1.5.3-ra
- curl 5.2.0-ról 5.2.1-re
- data.table 1.15.0 és 1.15.4 között
- adatkészletek a 4.3.2-től a 4.4.0-sig
- DBI 1.2.1-től 1.2.3-ra
- dbplyr 2.4.0 és 2.5.0 között
- kivonatolás a 0.6.34-től a 0.6.36-osig
- 0.4.3-tól 0.4.4-hez
- kiértékelés 0,23-ról 0.24.0-ra
- farver 2.1.1 és 2.1.2 között
- gyorstérkép 1.1.1-től 1.2.0-sig
- idegen 0,8-85-től 0,8-86-ra
- fs 1.6.3–1.6.4
- 1.33.1-től 1.34.0-ra
- future.apply from 1.11.1 to 1.11.2
- gert 2.0.1-től 2.1.0-ra
- ggplot2 3.4.4 és 3.5.1 között
- gh 1.4.0 és 1.4.1 között
- globals from 0.16.2 to 0.16.3
- 4.3.2 és 4.4.0 közötti grafikus elemek
- grDevices 4.3.2-től 4.4.0-ra
- rács 4.3.2-től 4.4.0-ra
- gt 0.10.1-től 0.11.0-ra
- 0.3.4-től 0.3.5-ösig
- hardhat 1.3.1-től 1.4.0-ra
- highr 0,10 és 0,11 között
- htmltoolok 0.5.7-től 0.5.8.1-ig
- httpuv 1.6.14-től 1.6.15-ösig
- httr2 1.0.0 és 1.0.2 között
- ipred 0,9-14-0,9-15
- KernSmooth 2.23-21-2.23-22
- knitr 1,45-től 1,48-ig
- rács 0,21-8-tól 0,22-5-re
- láva 1.7.3-tól 1.8.0-ra
- markdown 1.12-től 1.13-ra
- TÖMEG 7,3-60-7,3-60,0,1
- Mátrix 1,5-4,1-1,6-5 között
- metódusok a 4.3.2-től a 4.4.0-sig
- mgcv 1,8-42-1,9-1
- mlflow 2.10.0 és 2.14.1 között
- munsell 0.5.0 és 0.5.1 között
- nlme a 3.1-163-tól a 3.1-165-ösig
- 2.1.1-ről 2.2.0-ra nyit
- párhuzamos 4.3.2 és 4.4.0 között
- párhuzamosan az 1.36.0-tól az 1.38.0-sig
- pkgbuild 1.4.3-tól 1.4.4-re
- pkgdown 2.0.7-től 2.1.0-ra
- pkgload 1.3.4-től 1.4.0-ra
- processx 3.8.3–3.8.4
- prodlim 2023.08.28-tól 2024.06.25-ig
- ígéretek 1.2.1-től 1.3.0-ig
- ps 1.7.6 és 1.7.7 között
- ragg 1.2.7 és 1.3.2 között
- Rcpp 1.0.12-től 1.0.13-ra
- RcppEigen 0.3.3.9.4 és 0.3.4.0.0 között
- reactR 0.5.0 és 0.6.0 között
- receptek 1.0.9-től 1.1.0-ra
- 2.4.2.1-től 2.5.0-ra
- reprex 2.1.0-ról 2.1.1-re
- rlang 1.1.3-tól 1.1.4-ig
- rmarkdown 2.25-től 2.27-ig
- roxygen2 7.3.1-től 7.3.2-ig
- rpart 4.1.21-től 4.1.23-ig
- RSQLite 2.3.5 és 2.3.7 között
- rstudioapi 0.15.0-tól 0.16.0-ra
- rvest 1.0.3 és 1.0.4 között
- sass 0.4.8-tól 0.4.9-esig
- alakzat 1.4.6-tól 1.4.6.1-től
- fényes 1.8.0 és 1.9.1 között
- sparklyr 1.8.4-től 1.8.6-osig
- térbeli 7,3-15-7,3-17
- splines from 4.3.2 to 4.4.0
- 4.3.2 és 4.4.0 közötti statisztikák
- statisztikái4 a 4.3.2-től a 4.4.0-sig
- stringi 1.8.3 és 1.8.4 között
- túlélés 3,5-5 és 3,6-4 között
- swagger 3.33.1-től 5.17.14.1-től
- systemfonts 1.0.5–1.1.0
- tcltk 4.3.2-től 4.4.0-ra
- testthat 3.2.1 és 3.2.1.1 között
- szövegformázás 0.3.7-től 0.4.0-ra
- tidyselect from 1.2.0 to 1.2.1
- tinytex 0,49 és 0,52 között
- 4.3.2 és 4.4.0 közötti eszközök
- usethis 2.2.2-től 3.0.0-ig
- utils from 4.3.2 to 4.4.0
- uuid 1.2-0-1.2-1
- V8 4.4.1 és 4.4.2 között
- 3.0.0 és 3.0.1 közötti elválasztó
- xfun 0,41-től 0,46-osig
- xopen 1.0.0 és 1.0.1 között
- yaml 2.3.8–2.3.10
- Frissített Java-kódtárak:
- com.amazonaws.aws-java-sdk-autoscaling from 1.12.610 to 1.12.638
- com.amazonaws.aws-java-sdk-cloudformation from 1.12.610 to 1.12.638
- com.amazonaws.aws-java-sdk-cloudfront 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-cloudhsm 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-cloudsearch 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-cloudtrail 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-cloudwatch 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-cloudwatchmetrics 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-codedeploy 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-cognitoidentity 1.12.610-1.12.638
- com.amazonaws.aws-java-sdk-cognitosync 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-config 1.12.610-1.12.638
- com.amazonaws.aws-java-sdk-core 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-datapipeline 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-directconnect 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-directory 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-dynamodb 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-ec2 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-ecs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-efs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-elasticache 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-elasticbeanstalk 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-elasticloadbalancing from 1.12.610 to 1.12.638
- com.amazonaws.aws-java-sdk-elastictranscoder 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-emr 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-glacier 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-glue 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-iam 1.12.610-től 1.12.638-ig
- com.amazonaws.aws-java-sdk-importexport 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-kinesis 1.12.610-1.12.638
- com.amazonaws.aws-java-sdk-kms 1.12.610-1.12.638
- com.amazonaws.aws-java-sdk-lambda 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-logs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-machinelearning 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-opsworks 1.12.610–1.12.638
- com.amazonaws.aws-java-sdk-rds 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-redshift 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-route53 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-s3 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-ses 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-simpledb 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-simpleworkflow 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-sns 1.12.610-ről 1.12.638-ra
- com.amazonaws.aws-java-sdk-sqs 1.12.610 és 1.12.638 között
- com.amazonaws.aws-java-sdk-ssm 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-storagegateway 1.12.610-1.12.638
- com.amazonaws.aws-java-sdk-sts 1.12.610-től 1.12.638-ra
- com.amazonaws.aws-java-sdk-support 1.12.610-1.12.638
- com.amazonaws.aws-java-sdk-workspaces 1.12.610–1.12.638
- com.amazonaws.jmespath-java 1.12.610-től 1.12.638-ra
- com.google.protobuf.protobuf-java 2.6.1 és 3.25.1 között
- io.airlift.aircompressor 0,25 és 0,27 között
- io.delta.delta-sharing-client_2.12 1.1.3 és 1.2.0 között
- io.netty.netty-all 4.1.96.Final-4.1.108.Final
- io.netty.netty-puffer 4.1.96.Final-ról 4.1.108.Final-ra
- io.netty.netty-codec 4.1.96.Final-4.1.108.Final
- io.netty.netty-codec-http-tól 4.1.96.Final to 4.1.108.Final
- io.netty.netty-codec-http2 4.1.96.Final-4.1.108.Final
- io.netty.netty-codec-socks 4.1.96.Final-4.1.108.Final
- io.netty.netty-common 4.1.96.Final-4.1.108.Final
- io.netty.netty-handler 4.1.96.Final és 4.1.108.Final
- io.netty.netty-handler-proxy 4.1.96.Final-4.1.108.Final
- io.netty.netty-resolver 4.1.96.Final–4.1.108.Final
- io.netty.netty-transport 4.1.96.Final-4.1.108.Final
- io.netty.netty-transport-classes-epoll 4.1.96.Final-4.1.108.Final
- io.netty.netty-transport-classes-kqueue 4.1.96.Final-4.1.108.Final
- io.netty.netty-transport-native-epoll 4.1.96.Final-linux-x86_64 4.1.108.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue 4.1.96.Final-osx-x86_64 4.1.108.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common 4.1.96.Final–4.1.108.Final
- org.apache.ivy.ivy 2.5.1 és 2.5.2 között
- org.apache.zookeeper.zookeeper 3.6.3-tól 3.9.2-től
- org.apache.zookeeper.zookeeper-jute 3.6.3-tól 3.9.2-től
- org.rocksdb.rocksdbjni 8.11.4-től 9.2.1-től
- org.scalactic.scalactic_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-compatible from 3.2.15 to 3.2.16
- org.scalatest.scalatest-core_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-diagrams_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-featurespec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-flatspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-freespec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-funspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-funsuite_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-matchers-core_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-mustmatchers_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-propspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-refspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-shouldmatchers_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest-wordspec_2.12 3.2.15-től 3.2.16-osig
- org.scalatest.scalatest_2.12 3.2.15-től 3.2.16-osig
Apache Spark
A Databricks Runtime 16.0 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 15.4 LTS-ben található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-49093] [DBRRM-1371] Visszavonás “[SC-172958][SQL] GROUP BY a MapType nes...
- [SPARK-49898] [DBRRM-1282][SC-178410] A SPARK-42204-ből származó eseménynapló-tevékenységmetrikák gyűjtőnaplózási jelzőjének dokumentációja és alapértelmezett beállítása
- [SPARK-49743] [ES-1260022][VISELKEDÉS-157][SC-177475][SQL] Az OptimizeCsvJsonExpr nem módosíthatja a sémamezőket a GetArrayStructFields metszésekor
- [SPARK-49816] [SC-177896][SQL] A hivatkozott külső CTE-reláció esetében csak az out-going-ref-count függvényt kell frissíteni
- [SPARK-48939] [SC-177022][SC-172766][AVRO] Az Avro olvasásának támogatása rekurzív sémahivatkozással
- [SPARK-49688] [SC-177468][ES-1242349][CONNECT] Adatverseny javítása a megszakítási és végrehajtási terv között
- [SPARK-49771] [SC-177466][PYTHON] A Pandas skaláris iter UDF-hibájának javítása, ha a kimeneti sorok túllépik a bemeneti sorokat
- [SPARK-48866] [SC-170772][SQL] A INVALID_PARAMETER_VALUE hibaüzenetében szereplő érvényes karakterkészletre vonatkozó tippek javítása. KARAKTERKÉSZLET
- [SPARK-48195] [FIXFORWARD][SC-177267][CORE] A SparkPlan által létrehozott RDD/Broadcast mentése és újrafelhasználása
- [SPARK-49585] [CONNECT] Végrehajtási leképezés cseréje a SessionHolderben műveletazonosító-készletre
- [SPARK-49211] [SC-174257][SQL] A V2-katalógus a beépített adatforrásokat is támogatja
- [SPARK-49684] A munkamenet-visszaállítási zárolás élettartamának minimalizálása
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPARK-48291] Strukturált napló-keretrendszer a Java oldalán
- [SPARK-48857] [SC-170661][SQL] Karakterkészletek korlátozása a CSVOptionsban
- [SPARK-49152] [SC-173690][SQL] A V2SessionCatalognak v2Command-t kell használnia
- [SPARK-42846] [SC-176588][SQL] Hibaállapot eltávolítása _LEGACY_ERROR_TEMP_2011
- [SPARK-48195] [SC-177267][CORE] A SparkPlan által létrehozott RDD/Broadcast mentése és újrafelhasználása
- [SPARK-49630] [SC-177379][SS] Összesimított beállítás hozzáadása a gyűjteménytípusok állapotadat-olvasóval történő feldolgozásához
- [SPARK-49699] [SC-177154][SS] PruneFilters letiltása streamelési számítási feladatokhoz
- [SPARK-48781] [SC-175282][SQL] Katalógus API-k hozzáadása tárolt eljárások betöltéséhez
- [SPARK-49667] [SC-177068][SQL] A StringSearch-et használó kifejezések CS_AI collatorok letiltása
- [SPARK-49737] [SC-177207][SQL] Gyűjtőzés letiltása összetett típusok csoportosított oszlopaiban
- [SPARK-48712] [SC-169794][SQL] Perf Fejlesztés üres értékekkel vagy UTF-8 karakterkészlettel történő kódoláshoz
- [SPARK-49038] [SC-173933][SQL] Az SQLMetricnak jelentenie kell a nyers értéket az akkumulátor frissítési eseményében
- [SPARK-48541] [SC-169066][CORE] Új kilépési kód hozzáadása a TaskReaper által megölt végrehajtókhoz
- [SPARK-48774] [SC-170138][SQL] SparkSession használata az SQLImplicitsben
-
[SPARK-49719] [SC-177139][SQL] Egész szám létrehozása
UUID
ésSHUFFLE
elfogadásaseed
-
[SPARK-49713] [SC-177135][PYTHON][CONNECT] Függvény
count_min_sketch
elfogadása számargumentumokkal - [SPARK-47601] [SC-162499][GRAPHX] Graphx: Változókkal rendelkező naplók migrálása strukturált naplózási keretrendszerbe
- [SPARK-49738] [SC-177219][SQL] Hibajavítással végződik
- [SPARK-48623] [SC-170822][CORE] Strukturált naplózási migrálások [3. rész]
- [SPARK-49677] [SC-177148][SS] Győződjön meg arról, hogy a changelog-fájlok véglegesítésre vannak írva, és a forceSnapshot jelző is alaphelyzetbe áll
- [SPARK-49684] [SC-177040][CONNECT] Globális zárolások eltávolítása a munkamenet- és végrehajtási kezelőkből
- [SPARK-48302] [SC-168814][PYTHON] Null értékek megőrzése a PyArrow-táblák térképoszlopaiban
- [SPARK-48601] [SC-169025][SQL] Felhasználóbarátabb hibaüzenet küldése a JDBC-beállítás null értékének beállításakor
- [SPARK-48635] [SC-169263][SQL] Osztályok hozzárendelése csatlakozási típushibákhoz és illesztés közbeni hibákhoz
- [SPARK-49673] [SC-177032][CONNECT] CONNECT_GRPC_ARROW_MAX_BATCH_SIZE növelése 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
-
[SPARK-49693] [SC-177071][PYTHON][CONNECT] A sztring-ábrázolás pontosítása
timedelta
-
[SPARK-49687] [SC-176901][SQL] A rendezés késleltetése a következőben:
validateAndMaybeEvolveStateSchema
-
[SPARK-49718] [SC-177112][PS] Diagram váltása
Scatter
mintául szolgáló adatokra - [SPARK-48472] [SC-169044][SQL] Tükrözött kifejezések engedélyezése csoportosított sztringekkel
- [SPARK-48484] [SC-167484][SQL] Javítás: A V2Write ugyanazt a TaskAttemptId azonosítót használja a különböző tevékenységkísérletekhez
- [SPARK-48341] [SC-166560][CONNECT] A beépülő modulok használhatják a QueryTestet a tesztjeikben
-
[SPARK-42252] [SC-168723][CORE] Hozzáadás
spark.shuffle.localDisk.file.output.buffer
és elavultságspark.shuffle.unsafe.file.output.buffer
- [SPARK-48314] [SC-166565][SS] A FileStreamSource fájljainak duplázása az Trigger.AvailableNow használatával
-
[SPARK-49567] [SC-176241][PYTHON] Használata
classic
avanilla
PySpark-kódbázis helyett - [SPARK-48374] [SC-167596][PYTHON] További PyArrow-táblaoszloptípusok támogatása
-
[SPARK-48300] [SC-166481][SQL] Codegen-támogatás a következőhöz:
from_xml
- [SPARK-49412] [SC-177059][PS] Az összes meződiagram metrikáinak kiszámítása egyetlen feladatban
- [SPARK-49692] [SC-177031][PYTHON][CONNECT] A konstans dátum és dátum idő sztring-ábrázolásának finomítása
- [SPARK-49392] [ES-1130351][SC-176705][SQL] Hibaüzenetek a külső adatforrásba való írás sikertelensége esetén
- [SPARK-48306] [SC-166241][SQL] Az UDT javítása hibaüzenetben
- [SPARK-44924] [SC-166379][SS] Konfiguráció hozzáadása a FileStreamSource gyorsítótárazott fájljaihoz
- [SPARK-48176] [SC-165644][SQL] FIELD_ALREADY_EXISTS hibafeltétel nevének módosítása
-
[SPARK-49691] [SC-176988][PYTHON][CONNECT] A függvénynek
substring
el kell fogadnia az oszlopneveket - [SPARK-49502] [SC-176077][CORE] Az NPE elkerülése a SparkEnv.get.shuffleManager.unregisterShuffle alkalmazásban
- [SPARK-49244] [SC-176703][SQL] Az elemző/értelmező további kivételekre vonatkozó fejlesztései
- [SPARK-48355] [SC-176684][SQL] CASE utasítás támogatása
-
[SPARK-49355] [SC-175121][SQL]
levenshtein
ellenőriznie kell, hogy azcollation
összes paramétertípus értéke megegyezik-e -
[SPARK-49640] [SC-176953][PS] Tározó mintavételezésének alkalmazása
SampledPlotBase
-
[SPARK-49678] [SC-176857][CORE] Támogatás a következőben
spark.test.master
:SparkSubmitArguments
-
[SPARK-49680] [SC-176856][PYTHON] A buildek párhuzamosságának korlátozása
Sphinx
alapértelmezés szerint 4-re - [SPARK-49396] "[SC-176030][SQL] Nullability check for CaseWhen expression" visszaállítása
- [SPARK-48419] [SC-167443][SQL] Összecsukható propagálás cserélje le az összecsukható oszlopot...
- [SPARK-49556] [SC-176757][SQL] Sql-cső szintaxisának hozzáadása az SELECT operátorhoz
-
[SPARK-49438] [SC-175237][SQL] A >
FromAvro
ToAvro
kifejezés szép nevének javítása - [SPARK-49659] [SC-1229924][SQL] Adjunk hozzá egy felhasználóbarát hibaüzenetet a skaláris al-lekérdezésekhez a VALUES záradékban
- [SPARK-49646] [SC-176778][SQL] Kijavíthatja az egyesítő/halmazműveletek részquery-dekorrelációját, ha a parentOuterReferences olyan hivatkozásokat tartalmaz, amelyekre a collectedChildOuterReferences nem terjed ki
-
[SPARK-49354] [SC-175034][SQL]
split_part
ellenőriznie kell, hogy azcollation
összes paramétertípus értéke megegyezik-e - [SPARK-49478] [SC-175914][CONNECT] Null metrikák kezelése a ConnectProgressExecutionListenerben
- [SPARK-48358] [SC-176374][SQL] REPEAT utasítás támogatása
- [SPARK-49183] [SC-173680][SQL] A V2SessionCatalog.createTable-nak tiszteletben kell tartania PROP_IS_MANAGED_LOCATION
-
[SPARK-49611] [SC-176791][SQL] A TVF
collations()
bemutatása & aSHOW COLLATIONS
parancs eltávolítása - [SPARK-49261] [SC-176589][SQL] Az összesítő kifejezésekben lévő literálok nem helyettesíthetik a csoportosítási kifejezéseket
- [SPARK-49099] [SC-173229][SQL] A CatalogManager.setCurrentNamespace-nek tiszteletben kell tartania az egyéni munkamenet-katalógust
- [SPARK-49594] [SC-176569][SS] Annak ellenőrzése, hogy a StateSchemaV3 fájl írásához hozzáadták-e vagy eltávolították-e a columnFamilies oszlopot
- [SPARK-49578] [SC-176385][SQL] Távolítsa el az ANSI konfigurációs javaslatát CAST_INVALID_INPUT és CAST_OVERFLOW
- [SPARK-48882] [SC-174256][SS] Nevek hozzárendelése streamelési kimeneti módhoz kapcsolódó hibaosztályokhoz
-
[SPARK-49155] [SC-176506][SQL][SS] A megfelelőbb paramétertípus használata a konstrukt
GenericArrayData
- [SPARK-49519] [SC-176388][SQL] A tábla és a kapcsolat egyesítése a FileScanBuilder létrehozásakor
- [SPARK-49591] [SC-176587][SQL] Logikai típus oszlop hozzáadása a variant readme-hez
-
[SPARK-49596] [SC-176423][SQL] A teljesítmény javítása
FormatString
- [SPARK-49525] [SC-176044][SS][CONNECT] Kisebb naplófejlesztés a kiszolgálóoldali streamelési lekérdezés figyelőjénekbus-figyelője számára
-
[SPARK-49583] [SC-176272][SQL] A hiba alfeltételének
SECONDS_FRACTION
meghatározása érvénytelen másodperc tört mintához - [SPARK-49536] [SC-176242] A Python streamelési adatforrásrekord-előkezelésével kapcsolatos hiba kezelése
- [SPARK-49443] [SC-176273][SQL][PYTHON] To_variant_object kifejezés implementálása, és schema_of_variant kifejezések nyomtatása OBJECT for Variant Objects
- [SPARK-49544] [SASP-3990][SC-176557][CONNECT] A durva zárolás cseréje a SparkConnectExecutionManagerben a ConcurrentMap-re
- [SPARK-49548] [SASP-3990][SC-176556][CONNECT] A durva zárolás cseréje a SparkConnectSessionManagerben a ConcurrentMap-ra
- [SPARK-49551] [SC-176218][SS] A RocksDB-napló fejlesztése a replayChangeloghoz
-
[SPARK-49595] [SC-176396][CONNECT][SQL] Javítás
DataFrame.unpivot/melt
a Spark Connect Scala-ügyfélben - [SPARK-49006] [SC-176162] Purging implementálása OperatorStateMetadataV2 és StateSchemaV3 fájlokhoz
-
[SPARK-49600] [SC-176426][PYTHON] A -related logic eltávolítása
Python 3.6 and older
atry_simplify_traceback
- [SPARK-49303] [SC-176013][SS] TTL implementálása ValueState-hez a transformWithStateInPandas API-ban
- [SPARK-49191] [SC-176243][SS] Az transformWithState leképezési állapotváltozók olvasásának támogatása állapotadat-olvasóval
- [SPARK-49593] [SC-176371][SS] RocksDB-kivétel dobása a hívóra a DB bezárásakor, ha hiba jelenik meg
-
[SPARK-49334] [SC-174803][SQL]
str_to_map
ellenőriznie kell, hogy azcollation
összes paramétertípus értéke megegyezik-e - [SPARK-42204] [SC-176126][CORE] Lehetőség hozzáadása a TaskMetrics belső akkumulátorainak redundáns naplózásának letiltásához az eseménynaplókban
- [SPARK-49575] [SC-176256][SS] Csak akkor adja hozzá a naplózást a zárolási kiadáshoz, ha a beszerzettThreadInfo nem null értékű
- [SPARK-49539] [SC-176250][SS] Belső oszlopcsaládok kezdőazonosítóinak frissítése egy másikra
- [SPARK-49205] [SC-173853][SQL] A KeyGroupedPartitioningnek örökölnie kell a HashPartitioningLiket
- [SPARK-49396] [SC-176030][SQL] CaseWhen-kifejezés null értékűségének módosítása
- [SPARK-49476] [SC-175700][SQL] A base64 függvény null értékűségének javítása
- [SPARK-47262] [SC-174829][SQL] Nevek hozzárendelése a parquet-konverziók hibafeltételeihez
- [SPARK-47247] [SC-158349][SQL] Használjon kisebb célméretet a partíciók robbanásszerű illesztésekkel való összekapcsolásakor
- [SPARK-49501] [SC-176166][SQL] A tábla helyének dupla menekülésének javítása
- [SPARK-49083] [SC-173214][CONNECT] A JSON-sémák natív használatának engedélyezése from_xml és from_json
- [SPARK-49043] [SC-174673][SQL] Az értelmezett codepath-csoport kijavítása csoportosított sztringeket tartalmazó térképen
- [SPARK-48986] [SC-172265][CONNECT][SQL] Oszlopcsomópont köztes ábrázolása
- [SPARK-49326] [SC-176016][SS] A Foreach fogadó felhasználói függvényének hibaosztályba sorolása
-
[SPARK-48348] [SC-175950][SPARK-48376][SQL] Bevezetés
LEAVE
ésITERATE
utasítások - [SPARK-49523] [SC-175949][CONNECT] A kapcsolódási kiszolgáló maximális várakozási idejének növelése a teszteléshez
- [SPARK-49000] [VISELKEDÉS-105][ES-1194747][SQL] Javítsa ki a "select count(distinct 1) from t" (select count(distinct 1) from t" (select count(distinct 1) from t) (1) elemet, ahol t üres tábla a RewriteDistinctAggregates kibontásával – DBR 16.x-es verzió
- [SPARK-49311] [SC-175038][SQL] Lehetővé teszi, hogy a nagy "intervallum második" értékek tizedesjelre legyenek öntöttek
- [SPARK-49200] [SC-173699][SQL] Null típusú, nem codegen rendezési kivétel kijavítása
- [SPARK-49467] [SC-176051][SS] Támogatás hozzáadása az állapotadat-olvasóhoz és a listaállapothoz
- [SPARK-47307] [SC-170891][SQL] Konfiguráció hozzáadása opcionálisan adattömb alap64-sztringekhez
- [SPARK-49391] [SC-176032][PS] Box plot select outliers by distance from fences
- [SPARK-49445] [SC-175845][Felhasználói felület] Támogatási elemleírás megjelenítése a felhasználói felület folyamatjelző sávjában
- [SPARK-49451] [SC-175702] Duplikált kulcsok engedélyezése parse_json.
- [SPARK-49275] [SC-175701][SQL] Az xpath kifejezés visszatérési típusának nullértékének javítása
- [SPARK-49021] [SC-175578][SS] Az transformWithState értékállapot-változók olvasásának támogatása az állapotadat-olvasóval
- [SPARK-49474] [VISELKEDÉS-143][SC-169253][SC-175933][SS] A FlatMapGroupsWithState felhasználói függvény hibaosztályának besorolása
- [SPARK-49408] [SC-175932][SQL] Az IndexedSeq használata a ProjectingInternalRow-ban
-
[SPARK-49509] [SC-175853][CORE] Használat
Platform.allocateDirectBuffer
helyettByteBuffer.allocateDirect
- [SPARK-49382] [SC-175013][PS] A keretdoboz rajzának megfelelő megjelenítése a szórólapok/kiugró értékek megjelenítéséhez
- [SPARK-49002] [SC-172846][SQL] A WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY érvénytelen helyeinek következetes kezelése biztosítása
-
[SPARK-49480] [SC-175699][CORE] NullPointerException hiba kijavítása
SparkThrowableHelper.isInternalError
- [SPARK-49477] [SC-175828][PYTHON] A pandas udf érvénytelen visszatérési típusának javítása hibaüzenet
- [SPARK-48693] [SC-169492][SQL] A meghívás és a StaticInvoke toString-jének egyszerűsítése és egységesítése
-
[SPARK-49441] [SC-175716][ML]
StringIndexer
tömbök rendezése végrehajtókban - [SPARK-49347] [SC-175004][R] Elavult SparkR
- [SPARK-49357] [SC-175227][CONNECT][PYTHON] Mélyen beágyazott protobuf üzenet függőlegesen csonkolása
- [SPARK-41982] [SC-120604][SQL] A típussztring partícióit nem szabad numerikus típusokként kezelni
- [SPARK-48776] [SC-170452][VISELKEDÉS-72] JSON, xml és csv időbélyeg-formázásának javítása
- [SPARK-49223] [SC-174800][ML] A StringIndexer.countByValue egyszerűsítése beépített függvényekkel
-
[SPARK-49016] Visszaállítás "[SC-174663][SQL] A nyers CSV-fájlokból származó lekérdezések viselkedésének visszaállítása nem engedélyezett, ha csak sérült rekordoszlopot tartalmaz, és a név hozzárendelése a következőhöz
_LEGACY_ERROR_TEMP_1285
: " -
[SPARK-49041] [SC-172392][PYTHON][CONNECT] Megfelelő hiba felmerülése
dropDuplicates
, ha helytelentsubset
ad meg - [SPARK-49050] [SC-175235] DeleteIfExists operátor engedélyezése virtuális oszlopcsaládokkal rendelkező TWS-ben
- [SPARK-49216] [SC-173919][CORE]Javítás, hogy ne naplózza az üzenetkörnyezetet explicit módon létrehozott LogEntry használatával, amikor a strukturált naplózási konferencia ki van kapcsolva
-
[SPARK-49252] [SC-175596][CORE] Make
TaskSetExcludeList
andHeathTracker
independent - [SPARK-49352] [SC-174971][SQL] Kerülje az azonos kifejezés redundáns tömbátalakítását
- [SPARK-42307] [SC-173863][SQL] A hiba nevének hozzárendelése _LEGACY_ERROR_TEMP_2232
-
[SPARK-49197] [SC-173732][CORE] Redact
Spark Command
kimenet a modulbanlauncher
- [SPARK-48913] [SC-173934][SQL] Az IndentingXMLStreamWriter implementálása
- [SPARK-49306] [SC-175363][PYTHON][SQL] SQL-függvény-aliasok létrehozása a "zeroifnull" és a "nullifzero" függvényhez
- [SPARK-48344] [SQL] SQL-szkriptek végrehajtása (beleértve a Spark Connectet)
- [SPARK-49402] [SC-175122][PYTHON] Binder-integráció javítása a PySpark dokumentációjában
- [SPARK-49017] [SC-174664][SQL] A beszúrási utasítás sikertelen, ha több paramétert használ
- [SPARK-49318] [SC-174733][SQL] Alacsony prioritású hiba előzetes beállítása az LCA-n az ellenőrzési elemzés végéig a hibaélmény javítása érdekében
-
[SPARK-49016] [SC-174663][SQL] Állítsa vissza azt a viselkedést, amely szerint a nyers CSV-fájlok lekérdezései nem engedélyezettek, ha csak sérült rekordoszlopot tartalmaz, és nevet rendel hozzá
_LEGACY_ERROR_TEMP_1285
-
[SPARK-49387] [SC-175124][PYTHON] A be- és be- és beírási
accuracy
típusra vonatkozópercentile_approx
tipp javításaapprox_percentile
- [SPARK-49131] [SC-174666][SS] A TransformWithState-nek megfelelően kell beállítania az implicit csoportosítási kulcsokat még lusta iterátorokkal is
- [SPARK-49301] [SC-174795][SS] A Python-feldolgozónak átadott adattömbnyilat
- [SPARK-49039] [SC-174651][Felhasználói felület] A végrehajtói metrikák a Szakaszok lapra való betöltésekor a jelölőnégyzet alaphelyzetbe állítása
- [SPARK-48428] [SC-169806][SQL]: Az IllegalStateException javítása a NestedColumnAliasingben
-
[SPARK-49353] [SC-174830][SQL] Kódolással
UTF-32
/dekódolással kapcsolatos dokumentumok frissítése - [SPARK-48613] [SC-170966][SQL] SPJ: Az egyik oldal automatikus átrendezésének támogatása + kevesebb illesztőkulcs, mint a partíciókulcsok
- [SPARK-47473] [SC-160450][VISELKEDÉS-127][SQL] A postgres INFINITY időbélyegeinek konvertálásával kapcsolatos helyességi probléma kijavítása
- [SPARK-49142] [SC-173658][CONNECT][PYTHON] A proto sztring teljesítményköltségre való visszaállításának nyomon követése
- [SPARK-49300] [SC-175008][CORE] Kijavíthatja a Hadoop delegálási jogkivonatának kiszivárgását, ha a tokenRenewalInterval nincs beállítva.
- [SPARK-49367] [SC-175012][PS] Több oszlop KDE-számításának párhuzamosítása (ábrázolt háttérrendszer)
- [SPARK-49365] [SC-175011][PS] A gyűjtő aggregációjának egyszerűsítése a hisztdiagramban
- [SPARK-49372] [SC-175003][SS] A későbbi használat elkerülése érdekében győződjön meg arról, hogy a latestSnapshot értéke nincs a közelben
-
[SPARK-49341] [SC-174785] Eltávolítás
connector/docker
a következő javára:Apache Spark Operator
-
[SPARK-49344] [SC-174894][PS] A Pandas API támogatása
json_normalize
a Sparkban - [SPARK-49306] [SC-174794][SQL] Új "zeroifnull" és "nullifzero" SQL-függvények létrehozása
- [SPARK-48796] [SC-174668][SS] Oszlopcsalád-azonosító betöltése a RocksDBCheckpointMetadata for VCF-ből újraindításkor
- [SPARK-49342] [SC-174899][SQL] A TO_AVRO SQL-függvény "jsonFormatSchema" argumentumának megadása nem kötelező
- [SPARK-48628] [SC-174695][CORE] Tevékenységcsúcs hozzáadása halommemória-metrikákhoz
- [SPARK-47407] [SC-159379][VISELKEDÉS-126][SQL] A java.sql.Types.NULL-megfeleltetés támogatása NullType értékre
- [SPARK-48628] [SC-173407][CORE] Tevékenységcsúcs hozzáadása halommemória-metrikákhoz
- [SPARK-49166] [SC-173987][SQL] Támogatás OFFSET a korrelált részlekérdezésben
- [SPARK-49269] [SC-174676][SQL] Az AstBuilder VALUES() listájának gyors kiértékelése
- [SPARK-49281] [SC-174782][SQL] Optimze parquet bináris getBytes és getBytesUnsafe a másolási költségek elkerülése érdekében
- [SPARK-49113] [SC-174734] Ne érvényesítse a fordítási hibákat – csendben nyelje el a kivételt
- [SPARK-49098] [SC-173253][SQL] Írási beállítások hozzáadása INSERT
- [SPARK-48638] [SC-174694][KÖVETÉS][CONNECT] A ExecutionInfo dokumentációjának javítása
- [SPARK-49250] [ES-1222826][SQL] A Beágyazott FeloldatlanWindowExpression hibajelzésének javítása a CheckAnalysisben
- [SPARK-48755] [SC-174258][SS][PYTHON] transformWithState pyspark base implementáció és ValueState-támogatás
- [SPARK-48966] [SC-174329][SQL] A hibaüzenet javítása érvénytelen, megoldatlan oszlophivatkozással az UDTF-hívásban
- [SPARK-46590] [SC-154115][SQL] A coalesce javítása váratlan partícióhibákkal meghiúsult
- [SPARK-49235] [SC-174159][SQL] ResolveInlineTables szabály újrabontása, hogy ne lépje át az egész fát
- [SPARK-49060] [SC-173107][CONNECT] Mima-szabályok törlése az SQL-Connect bináris kompatibilitási ellenőrzéséhez
- [SPARK-48762] [SC-172525][SQL] A ClusterBy DataFrameWriter API bemutatása Pythonhoz
- [SPARK-49207] [SC-173852][SQL] Egy-a-többhöz esetleképezés javítása a SplitPart és a StringSplitSQL-ben
- [SPARK-49204] [SC-173850][SQL] Helyettesítő párok kezelésének javítása a StringInstr és a StringLocate alkalmazásban
- [SPARK-36680] [SC-170640][SQL] Támogatja a Spark SQL dinamikus táblázatbeállításainak használatát
- [SPARK-49204] [SC-173849][SQL] Helyettesítő párok kezelésének javítása a SubstringIndexben
- [SPARK-49204] [SC-173848][SQL] Helyettesítő párok kezelése a StringTrimben
- [SPARK-48967] [SC-173993]A SparkConfigOwnershipSuite-teszt javítása a OPTIMIZE_INSERT_INTO_VALUES_PARSER
- [SPARK-49204] [SC-173851][SQL] Helyettesítő párok kezelésének javítása a StringReplace-ben
- [SPARK-48967] [SC-173993][SQL][16.x] A "INSERT INTO ... VALUES" Nyilatkozatok
- [SPARK-49099] Revert “[SC-173229][SQL] CatalogManager.setCurrent…
- [SPARK-48347] [SC-173812][SQL] A WHILE utasítás támogatása
- [SPARK-49128] [SC-173344][CORE] Egyéni előzmények kiszolgálói felhasználói felületének támogatása
- [SPARK-49146] [SC-173825][SS] A hozzáfűző módú streamelési lekérdezésekben hiányzó vízjelekkel kapcsolatos helyességi hibák áthelyezése a hibakeretbe
- [SPARK-45787] [SC-172197][SQL] A Catalog.listColumns támogatása oszlopok fürtözésekor
- [SPARK-49099] [SC-173229][SQL] A CatalogManager.setCurrentNamespace-nek tiszteletben kell tartania az egyéni munkamenet-katalógust
- [SPARK-49138] [SC-173483][SQL] Több kifejezés CollationTypeCasts elemének javítása
- [SPARK-49163] [SC-173666][SQL] A hibás parquet partícióadatokon alapuló tábla létrehozásakor a felhasználó által észlelt hibát kell visszaadni
-
[SPARK-49201] [SC-173793][PS][PYTHON][CONNECT] Ábrázolás újrailledése
hist
a Spark SQL-vel - [SPARK-49188] [SC-173682][SQL] Belső hiba concat_ws sztringtömbök tömbjén
-
[SPARK-49137] [SC-173677][SQL] Ha a logikai feltétel
if statement
érvénytelen, kivételt kell kivenni - [SPARK-49193] [SC-173672][SQL] A RowSetUtils.toColumnBasedSet teljesítményének javítása
- [SPARK-49078] [SC-173078][SQL] Oszlopszintaxis megjelenítése a v2-táblában
- [SPARK-49141] [SC-173388][SQL] A variant megjelölése hive inkompatibilis adattípusként
-
[SPARK-49059] [Cseresznye-Pick][15.x][SC-172528][CONNECT] Ugrás
SessionHolder.forTesting(...)
a tesztcsomagra - [SPARK-49111] [SC-173661][SQL] Áthelyezés aProjectAndFilterrel a DataSourceV2Strategy társobjektumára
-
[SPARK-49185] [SC-173688][PS][PYTHON][CONNECT] Ábrázolás újrailledése
kde
a Spark SQL-vel -
[SPARK-49178] [SC-173673][SQL] A Teljesítmény optimalizálása
Row#getSeq
a Spark 3.5 És a Scala 2.12 használata esetén - [SPARK-49093] [SC-172958][SQL] GROUP BY a MapType komplex típusba ágyazva
- [SPARK-49142] [SC-173469][CONNECT][PYTHON] Alacsonyabb Spark Connect-ügyfélnapló-szint hibakereséshez
- [SPARK-48761] [SC-172048][SQL] A ClusterBy DataFrameWriter API bemutatása a Scalához
- [SPARK-48346] [SC-173083][SQL] IF ELSE utasítások támogatása SQL-szkriptekben
- [SPARK-48338] [SC-173112][SQL] Az elemző/értelmező által kidobott kivételek javítása
- [SPARK-48658] [SC-169474][SQL] A kódolási/dekódolási függvények nem használható karaktereket tartalmazó mojibake helyett kódolási hibákat jelentenek
- [SPARK-49071] [SC-172954][SQL] ArraySortLike tulajdonság eltávolítása
-
[SPARK-49107] A "[SC-173103][SQL]
ROUTINE_ALREADY_EXISTS
támogatja a Rutintípust". - [SPARK-49070] [SC-172907][SS][SQL] A TransformWithStateExec.initialState helytelenül van újraírva érvénytelen lekérdezési terv létrehozásához
- [SPARK-49114] [SC-173217] Az alkategorizálás nem tudja betölteni az állapottároló hibáit
-
[SPARK-49107] "[SC-173103][SQL]
ROUTINE_ALREADY_EXISTS
támogatja a Rutintípust" - [SPARK-49048] [SC-173223][SS] Támogatás hozzáadása a releváns operátor metaadatainak olvasásához adott kötegazonosítónál
- [SPARK-49094] [SC-173049][SQL] Az ignoreCorruptFiles nem működik a hive orc impl with mergeSchema off
-
[SPARK-49108] [SC-173102][PÉLDA] REST API-példa hozzáadása
submit_pi.sh
-
[SPARK-49107] [SC-173103][SQL]
ROUTINE_ALREADY_EXISTS
támogatja a Rutintípust - [SPARK-48997] [SC-172484][SS] Egyéni eltávolítások implementálása a karbantartási szálkészlet szálhibáihoz
- [SPARK-49063] [SC-173094][SQL] Javítás a ScalarSubqueries használatával
- [SPARK-45891] [SC-172305][SQL][PYTHON][VARIANT] Intervallumtípusok támogatásának hozzáadása a Variant Specben
-
[SPARK-49074] [VISELKEDÉS-110][SC-172815][SQL] A variáns javítása a
df.cache()
- [SPARK-49003] [SC-172613][SQL] Kijavítottuk az értelmezett kódútvonal-kivonatolást, hogy a rendezés tudatos legyen
- [SPARK-48740] [SC-172430][SQL] A hiányzó ablak specifikációs hibájának korai észlelése
- [SPARK-48999] [SC-172245][SS] PythonStreamingDataSourceSimpleSuite felosztása
- [SPARK-49031] [SC-172602] Az érvényesítés implementálása a TransformWithStateExec operátorhoz az OperatorStateMetadataV2 használatával
- [SPARK-49053] [SC-172494][PYTHON][ML] Modellmentési/betöltési segédfüggvények elfogadása Spark-munkamenetben
- [SPARK-49032] [Backport][15.x][SS] Sémaútvonal hozzáadása metaadattábla-bejegyzésben, a várt verzió ellenőrzése és operátori metaadatokkal kapcsolatos teszt hozzáadása a v2 operátori metaadat-formátumhoz
-
[SPARK-49034] [SC-172306][CORE] Kiszolgálóoldali
sparkProperties
csere támogatása a REST Submission API-ban - [SPARK-48931] [SC-171895][SS] A Cloud Store List API költségeinek csökkentése az állapottár karbantartási feladatához
- [SPARK-48849] [SC-172068][SS]OperatorStateMetadataV2 létrehozása a TransformWithStateExec operátorhoz
- [SPARK-49013] [SC-172322] Kulcs módosítása a rendezésben Térkép- és tömbtípusok leképezése a scalában
-
[SPARK-48414] [SC-171884][PYTHON] A Python kompatibilitástörő változásának javítása
fromJson
- [SPARK-48910] [SC-171001][SQL] A HashSet/HashMap használatával elkerülheti a lineáris kereséseket a PreprocessTableCreation alkalmazásban
-
[SPARK-49007] [SC-172204][CORE] Fejlesztés
MasterPage
az egyéni cím támogatásához - [SPARK-49009] [SC-172263][SQL][PYTHON] Oszlop API-k és függvények elfogadása enumerálásokkal
-
[SPARK-49033] [SC-172303][CORE] Kiszolgálóoldali
environmentVariables
csere támogatása a REST Submission API-ban -
[SPARK-48363] [SC-166470][SQL] Redundáns kódok törlése a következő helyen:
from_xml
- [SPARK-46743] [SC-170867][SQL][VISELKEDÉS-84] Count bug after ScalarSubqery is folded, ha üres relációja van
-
[SPARK-49040] [SC-172351][SQL] Dokumentum javítása
sql-ref-syntax-aux-exec-imm.md
- [SPARK-48998] [SC-172212][ML] Metaalgoritmusok mentési/betöltési modellje a SparkSession használatával
-
[SPARK-48959] [SC-171708][SQL] Kibővítés
NoSuchNamespaceException
NoSuchDatabaseException
a kivételkezelés visszaállításához - [SPARK-48996] [SC-172130][SQL][PYTHON] A csupasz literálok engedélyezése oszlophoz ésoszlophoz
- [SPARK-48990] [SC-171936] #101759 nyomon követése – tesztjavítás
- [SPARK-48338] [SC-171912][SQL] Változódeklarációk ellenőrzése
- [SPARK-48990] [SC-171936][SQL] Egyesített változóhoz kapcsolódó SQL-szintaxis kulcsszavak
-
[SPARK-48988] [SC-171915][ML]
DefaultParamsReader/Writer
Metaadatok kezelése Spark-munkamenettel -
[SPARK-48974] [SC-171978][SQL][SS][ML][MLLIB] Használat
SparkSession.implicits
helyettSQLContext.implicits
- [SPARK-48760] [SC-170870][SQL] A CatalogV2Util.applyClusterByChanges javítása
- [SPARK-48928] [SC-171956] Naplóriasztás a .unpersist() helyileg ellenőrzőponttal beállított RDD-k hívásához
- [SPARK-48760] [SC-170139][SQL] Bevezetés ALTER TABLE ... CLUSTER BY SQL-szintaxis a fürtöző oszlopok módosításához
- [SPARK-48844] "[SC-170669][SQL] A INVALID_EMPTY_LOCATION használata UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY helyett, ha az elérési út üres"
-
[SPARK-48833] [SC-171914][SQL][VARIANT] Támogatási változat a következőben:
InMemoryTableScan
-
[SPARK-48975] [SC-171894][PROTOBUF] Szükségtelen
ScalaReflectionLock
definíció eltávolítása aprotobuf
- [SPARK-48970] [SC-171800][PYTHON][ML] Kerülje a SparkSession.getActiveSession használatát a Spark ML-olvasóban/íróban
- [SPARK-48844] [SC-170669][SQL] INVALID_EMPTY_LOCATION használata UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY helyett, ha az elérési út üres
- [SPARK-48714] [SC-170136] Sikertelen df.mergeInto-tesztek javítása a PySparkban és az UC-ban
- [SPARK-48957] [SC-171797][SS] Alosztályozott hibaosztály visszaadása a hdfs és a rocksdb szolgáltató állapottárolói terhelésén
- [SPARK-48891] [Backport][15x][SC-171677][SS] A StateSchemaCompatibilityChecker újrabontása az összes állapotsémaformátum egységesítéséhez
- [SPARK-48972] [SC-171795][PYTHON] A függvények literális sztringkezelésének egyesítése
- [SPARK-48388] [SC-171337][SQL] Az SQL-szkriptek SET utasítási viselkedésének javítása
- [SPARK-48743] [SC-170552][SQL][SS] A MergingSessionIteratornak jobban kell kezelnie, ha a getStruct null értéket ad vissza
- [SPARK-48623] [15.x][SC-171322][CORE] FileAppender-naplók migrálása strukturált naplózásba
- [SPARK-36680] [DBRRM-1123] "[SC-170640][SQL] Támogatja a Spark SQL dinamikus táblázatbeállításainak használatát"
-
[SPARK-48841] [SC-170868][VISELKEDÉS-83][SQL] Belefoglalás
collationName
a következőbe:sql()
Collate
- [SPARK-48941] [SC-171703][PYTHON][ML] Az RDD olvasási/írási API-hívásának cseréje Dataframe olvasási/írási API-ra
- [SPARK-48938] [SC-171577][PYTHON] Hibaüzenetek javítása a Python UDTF-ek regisztrálásakor
- [SPARK-48350] [SC-171040][SQL] Az SQL-szkriptek egyéni kivételeinek bemutatása
-
[SPARK-48907] [SC-171158][SQL] Az érték
explicitTypes
javítása a következőben:COLLATION_MISMATCH.EXPLICIT
-
[SPARK-48945] [SC-171658][PYTHON] Regex-függvények egyszerűsítése
lit
- [SPARK-48944] [SC-171576][CONNECT] A JSON formátumú sémakezelés egységesítése a Connect Serverben
- [SPARK-48836] [SC-171569] SQL-séma integrálása állapotsémával/metaadatokkal
- [SPARK-48946] [SC-171504][SQL] NPE a redact metódusban, ha a munkamenet null értékű
- [SPARK-48921] [SC-171412][SQL] A ScalaUDF-kódolókat a mergeInto esetében fel kell oldani
- [SPARK-45155] [SC-171048][CONNECT] API Docs hozzáadása Spark Connect JVM-hez/Scala-ügyfélhez
-
[SPARK-48900] [SC-171319] Mező hozzáadása
reason
éscancelJobGroup
cancelJobsWithTag
- [SPARK-48865] [SC-171154][SQL] Try_url_decode függvény hozzáadása
-
[SPARK-48851] [SC-170767][SQL] A következő érték
SCHEMA_NOT_FOUND
namespace
módosítása:catalog.namespace
-
[SPARK-48510] [SC-170893][2/2] Az UDAF
toColumn
API támogatása a Spark Connectben -
[SPARK-45190] [SC-171055][SPARK-48897][PYTHON][CONNECT] Támogatási StructType-séma létrehozása
from_xml
-
[SPARK-48930] [SC-171304][CORE] Redact
awsAccessKeyId
by includingaccesskey
pattern - [SPARK-48909] [SC-171080][ML][MLLIB] SparkContext-alapú SparkSession használata metaadatok írásakor
- [SPARK-48883] [SC-171133][ML][R] Az RDD olvasási/írási API-hívásának cseréje Dataframe olvasási/írási API-ra
-
[SPARK-48924] [SC-171313][PS] Pandas-szerű
make_interval
segédfüggvény hozzáadása -
[SPARK-48884] [SC-171051][PYTHON] A nem használt segédfüggvény eltávolítása
PythonSQLUtils.makeInterval
- [SPARK-48817] [SC-170636][SQL] Az egyesítő több parancsok lelkes végrehajtása együtt
- [SPARK-48896] [SC-171079][ML][MLLIB] A metaadatok írásakor kerülje az újraparticionálást
-
[SPARK-48892] [SC-171127][ML] Soronkénti param beolvasásának elkerülése
Tokenizer
-
[SPARK-48927] [SC-171227][CORE] A gyorsítótárazott RDD-k számának megjelenítése
StoragePage
- [SPARK-48886] [15.x][Backport][SC-171039][SS] Verzióadatok hozzáadása a 2. verziójú változásnaplóhoz a könnyebb fejlődés érdekében
- [SPARK-48903] [SC-171136][SS] A RocksDB utolsó pillanatkép-verziójának helyes beállítása távoli terhelés esetén
- [SPARK-48742] [SC-170538][SS] Virtual Column Family for RocksDB
- [SPARK-48726] [15.x][SC-170753][SS] Hozza létre a StateSchemaV3 fájlformátumot, és írja ki ezt a TransformWithStateExec operátor számára
- [SPARK-48794] [SC-170882][CONNECT][15.x] df.mergeInto támogatás a Spark Connecthez (Scala és Python)
-
[SPARK-48714] [SC-170136][PYTHON] Implementálás
DataFrame.mergeInto
a PySparkban - [SPARK-48772] [SC-170642][SS][SQL] Állapotadatforrás változáscsatorna-olvasó üzemmódja
- [SPARK-48666] [SC-170887][SQL] Ne nyomja le a szűrőt, ha PythonUDF-eket tartalmaz
- [SPARK-48845] [SC-170889][SQL] ÁltalánosUDF fogási kivételek a gyermekektől
- [SPARK-48880] [SC-170974][CORE] Kerülje a NullPointerException elvetését, ha az illesztőprogram beépülő modulja nem inicializálható
- [SPARK-48888] [Backport][15x][SC-170973][SS] Pillanatkép-létrehozás eltávolítása a changelog ops méret alapján
- [SPARK-48871] [SC-170876] INVALID_NON_DETERMINISTIC_EXPRESSIONS érvényesítése javítása a következőben:
- [SPARK-48883] [SC-170894][ML][R] Az RDD olvasási/írási API-hívásának cseréje Dataframe olvasási/írási API-ra
- [SPARK-36680] [SC-170640][SQL] Támogatja a Spark SQL dinamikus táblázatbeállításainak használatát
- [SPARK-48804] [SC-170558][SQL] ClassIsLoadable & OutputCommitter.isAssignableFrom check for output committer class configrations
- [SPARK-46738] [SC-170791][PYTHON] Dokumentumtesztek egy csoportjának újraküldése
-
[SPARK-48858] [SC-170756][PYTHON]
setDaemon
Elavult metódushívásThread
eltávolításalog_communication.py
- [SPARK-48639] [SC-169801][CONNECT][PYTHON] Forrás hozzáadása a RelationCommonhoz
- [SPARK-48863] [SC-170770][ES-1133940][SQL] A ClassCastException kijavítása a JSON-fájl "spark.sql.json.enablePartialResults" engedélyezésével történő elemzésekor
- [SPARK-48343] [SC-170450][SQL] Az SQL Scripting-értelmező bemutatása
- [SPARK-48529] [SC-170755][SQL] Címkék bemutatása az SQL Scriptingben
- [SPARK-45292] "[SC-151609][SQL][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből"
- [SPARK-48037] [SC-165330][CORE][3.5] A SortShuffleWriter javítása nem tartalmaz az írással kapcsolatos metrikákat, ami potenciálisan pontatlan adatokat eredményez
-
[SPARK-48720] [SC-170551][SQL] A parancs
ALTER TABLE ... UNSET TBLPROPERTIES ...
igazítása az 1. és a 2. verzióban - [SPARK-48485] [SC-167825][CONNECT][SS] Megszakításcímke és megszakítás támogatásaAll in streaming lekérdezések
- [SPARK-45292] [SC-151609][SQL][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből
- [SPARK-48668] [SC-169815][SQL] Alter NAMESPACE támogatása ... UNSET PROPERTIES in v2
- [SPARK-47914] [SC-165313][SQL] Ne jelenítse meg a felosztási paramétert a tartományban
- [SPARK-48807] [SC-170643][SQL] Bináris támogatás a CSV-adatforráshoz
- [SPARK-48220] [SC-167592][PYTHON][15.X] PyArrow-tábla átadásának engedélyezéseDataFrame() létrehozásához
- [SPARK-48545] [SC-169543][SQL] To_avro és from_avro SQL-függvények létrehozása a DataFrame-ekvivalenseknek megfelelően
- [SPARK-47577] [SC-168875][SPARK-47579] A naplókulcs félrevezető használatának javítása TASK_ID
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 24.04.1 LTS
- Java: Zulu17.50+19-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
széljegyzetes típusok | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | fekete | 24.4.2 |
villogó | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | minősítés | 2024.6.2 | cffi | 1.16.0 |
karakterkészlet | 4.0.0 | charset-normalizer | 2.0.4 | kattintás | 8.1.7 |
cloudpickle | 2.2.1 | Comm | 0.2.1 | contourpy | 1.2.0 |
kriptográfia | 42.0.5 | biciklista | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | hibakeresés | 1.6.7 |
lakberendező | 5.1.1 | Elavult | 1.2.14 | distlib | 0.3.8 |
docstring-to-markdown | 0,11 | belépési pontok | 0,4 | Végrehajtó | 0.8.3 |
aspektusok áttekintése | 1.1.1 | filelock | 3.15.4 | betűtípusok | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-hitelesítés | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
ragoz | 7.3.1 | ipyflow-core | 0.0.198 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-szemantic-conventions | 0,48b0 |
csomagolás | 24.1 | pandas | 1.5.3 | parso | 0.8.3 |
pathspec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
párna | 10.3.0 | mag | 24.2 | platformdirs | 3.10.0 |
ábrázolás | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.52 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
kérelmek | 2.32.2 | kötél | 1.12.0 | Rsa | 4.9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
tengeri | 0.13.2 | setuptools | 74.0.0 | Hat | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5,11 |
veremadatok | 0.2.0 | statsmodels | 0.14.2 | Kitartás | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádó | 6.4.1 | árulók | 5.14.3 | typeguard | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
6-os típusok | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | kerék | 0.43.0 | wrapt | 1.14.1 |
yapf | 0.33.0 | zipp | 3.17.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Csomagkezelő CRAN-pillanatképből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.5.0 | alap | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-8 | blob | 1.2.4 | indítás | 1.3-30 |
főz | 1.0-10 | Brio | 1.1.5 | seprű | 1.0.6 |
bslib | 0.8.0 | gyorsítótár | 1.1.0 | hívó | 3.7.6 |
kalap | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
osztály | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
óra | 0.7.1 | fürt | 2.1.6 | kódtoolok | 0.2-20 |
színtér | 2.1-1 | commonmark | 1.9.1 | fordítóprogram | 4.4.0 |
config | 0.3.2 | Ütközött | 1.2.0 | cpp11 | 0.4.7 |
zsírkréta | 1.5.3 | Megbízólevél | 2.0.1 | csavarodik | 5.2.1 |
Adattábla | 1.15.4 | adatkészletek | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | Desc | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | emészt | 0.6.36 |
levilágított | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | három pont | 0.3.2 | evaluate | 0.24.0 |
fani | 1.0.6 | farver | 2.1.2 | gyorstérkép | 1.2.0 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
külföldi | 0.8-86 | kovácsol | 0.2.0 | Fs | 1.6.4 |
jövő | 1.34.0 | future.apply | 1.11.2 | gargarizál | 1.5.2 |
Generikus | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globális | 0.16.3 | ragasztó | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.4.0 | grDevices | 4.4.0 | rács | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0,7 | Gt | 0.11.0 |
gtable | 0.3.5 | hardhat | 1.4.0 | kikötő | 2.5.4 |
highr | 0,11 | Hms | 1.1.3 | htmltoolok | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | Azonosítók | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | izoband | 0.2.7 | iterátorok | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1.48 | címkézés | 0.4.3 |
később | 1.3.2 | rács | 0.22-5 | láva | 1.8.0 |
életciklus | 1.0.4 | figyelő | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | TÖMEG | 7.3-60.0.1 |
Mátrix | 1.6-5 | memoise | 2.0.1 | metódusok | 4.4.0 |
mgcv | 1.9-1 | MIME | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
párhuzamosan | 1.38.0 | pillér | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | rétegelt | 1.8.9 | dicséret | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | haladás | 1.2.3 |
progressr | 0.14.0 | Ígér | 1.3.0 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktív | 0.4.4 |
reactR | 0.6.0 | olvasó | 2.1.5 | readxl | 1.4.3 |
receptek | 1.1.0 | Visszavágót | 2.0.0 | visszavágó2 | 2.1.2 |
Távirányító | 2.5.0 | reprex | 2.1.1 | újraformázás2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
mérleg | 1.3.0 | választó | 0.4-2 | sessioninfo | 1.2.2 |
alak | 1.4.6.1 | Fényes | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | térbeli | 7.3-17 | splines | 4.4.0 |
sqldf | 0.4-11 | NÉGYZET | 2021.1 | statisztika | 4.4.0 |
statisztikák4 | 4.4.0 | stringi | 1.8.4 | sztring | 1.5.1 |
túlélés | 3.6-4 | swagger | 5.17.14.1 | sys | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
szövegformázás | 0.4.0 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,52 | eszközök | 4.4.0 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 3.0.0 |
utf8 | 1.2.4 | eszközök | 4.4.0 | uuid | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | bajusz | 0.4.1 |
withr | 3.0.1 | xfun | 0,46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | fütyülés | 2.3.1 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natívok |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natívok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Csellengő | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | Profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.27 |
io.delta | delta-sharing-client_2.12 | 1.2.0 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrikamag | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-zokni | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | nyílformátum | 15.0.0 |
org.apache.arrow | nyíl-memóriamag | 15.0.0 |
org.apache.arrow | nyíl-memória-netty | 15.0.0 |
org.apache.arrow | nyíl-vektor | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.9.2 |
org.apache.zookeeper | zookeeper-juta | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | móló-folytatás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | móló plusz | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Alátéteket | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | három-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
stax | stax-api | 1.0.1 |