Databricks Runtime 14.3 LTS
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 14.3 LTS-ről nyújtanak információkat.
A Databricks 2024 februárjában adta ki ezt a verziót.
Feljegyzés
Az LTS azt jelenti, hogy ez a verzió hosszú távú támogatás alatt áll. Lásd: Databricks Runtime LTS-verzió életciklusa.
Tipp.
A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Új funkciók és fejlesztések
- Munkaterület fájlrendszerének támogatása a PySpark-ban User-Defined függvények (UDF-ek) standard hozzáférési módú klasztereken (korábban megosztott hozzáférési mód)
-
A foton nélküli törlési vektoroptimalizálások
MERGE
támogatása - Spark-katalógus API-k mostantól teljes mértékben támogatottak standard hozzáférési módban
- Általánosan elérhető a Delta UniForm
- Új SQL-függvény EXECUTE IMMEDIATE
- A Delta-táblák adatkihagyási statisztikáinak újrakomponálása
- Állapotinformációk lekérdezése állapotalapú streamelési lekérdezésekhez
- A Microsoft Entra ID használata a Kafka-hitelesítéshez standard fürtök esetén
- Fájlok és partíciók metszésének támogatása a lekérdezési teljesítmény javítása érdekében
- Ideiglenes változók deklarálása SQL-munkamenetben
- Thriftserver-frissítések a nem használt funkciók eltávolításához
- Truststore- és keystore-fájlok használata Unity Catalog-kötetekben
- Natív XML-fájlformátum támogatása (nyilvános előzetes verzió)
- A Cloudflare R2 storage támogatása (nyilvános előzetes verzió)
- a Spark és a dbutils a munkaterületfájlokhoz való hozzáférését támogatja a standard hozzáférésű Unity Catalog-fürtökön
- Init-szkriptek és fürttárak támogatása standard hozzáférésű Unity Catalog-fürtökön
Munkaterület fájlrendszerének támogatása a PySpark User-Defined Functionsben (UDF-ekben) standard hozzáférési módú fürtökön (korábban megosztott hozzáférési mód)
A standard fürtökön lévő PySpark UDF-ek mostantól importálhatják a Python-modulokat Git-mappákból, munkaterületfájlokbólvagy UC-kötetekből.
A Modulok Git-mappákban vagy munkaterületfájlokban való használatával kapcsolatos további információkért lásd : Python- és R-modulok használata.
A foton nélküli törlési vektoroptimalizálások MERGE
támogatása
A fotonra már nincs szükség a MERGE
törlési vektorok optimalizálása érdekében végzett műveletekhez. Lásd: Mik azok a törlési vektorok?.
A Spark-katalógus API-k már teljes mértékben támogatottak standard hozzáférési módban
Mostantól a spark.catalog
API összes függvényét használhatja a Pythonban és a Scalában a standard hozzáférési móddal konfigurált számítási feladatokon.
Általánosan elérhető a Delta UniForm
Az UniForm mostantól általánosan elérhető, és a IcebergCompatV2
tábla funkciót használja. Mostantól engedélyezheti vagy frissítheti az UniFormot a meglévő táblákon. Lásd: Delta-táblák olvasása Iceberg-ügyfelekkel.
Új SQL-függvény EXECUTE IMMEDIATE
Mostantól a EXECUTE IMMEDIATE szintaxissal támogathatja a paraméteres lekérdezéseket az SQL-ben. Lásd: EXECUTE IMMEDIATE.
A Delta-táblák adatkihagyási statisztikáinak újrakomponálása
Már újraszámolhatja a Delta-naplóban tárolt statisztikákat, miután módosította az adatkihagyáshoz használt oszlopokat. Lásd: Deltastatisztikai oszlopok megadása.
Állapotinformációk lekérdezése állapotalapú streamelési lekérdezésekhez
Mostantól lekérdezheti a strukturált streamelési állapot adatait és metaadatait. Lásd: Strukturált streamelési állapotinformációk olvasása.
A Microsoft Entra ID használata a Kafka-hitelesítéshez standard fürtökön
Mostantól az Event Hubs szolgáltatásokat az OAuth használatával hitelesítheti, a Standard hozzáférési móddal konfigurált számítási erőforrásokon a Microsoft Entra ID-n keresztül. Lásd: Szolgáltatásnév-képviselő hitelesítés a Microsoft Entra-azonosítóval és az Azure Event Hubs-szal.
Fájl- és partíciómetszés támogatása hozzáadva a lekérdezési teljesítmény javítása érdekében.
Az JOIN feltételek nulltűrő egyenlőségére támaszkodó lekérdezések felgyorsítása érdekében mostantól támogatjuk DynamicFilePruning
és DynamicPartitionPruning
a JOIN-ekben lévő EqualNullSafe
operátor számára.
Ideiglenes változók deklarálása SQL-munkamenetben
Ez a kiadás lehetővé teszi az ideiglenes változók deklarálását egy munkamenetben, amely beállítható, majd a lekérdezéseken belülről hivatkozható. Lásd: Változók.
Thriftserver-frissítések a nem használt funkciók eltávolításához
A Thriftserver-kód frissült az elavult funkciók kódjának eltávolításához. A módosítások miatt a következő konfigurációk már nem támogatottak:
- A
hive.aux.jars.path
tulajdonság használatával konfigurált Hive kiegészítő JAR-ek már nem támogatják ahive-thriftserver
kapcsolódásokat. - A Hive globális init-fájl (
.hiverc
), amelynek helye ahive.server2.global.init.file.location
tulajdonság vagy aHIVE_CONF_DIR
környezeti változó használatával van konfigurálva, a kapcsolatok esetébenhive-thriftserver
már nem támogatott.
Truststore- és keystore-fájlok használata Unity Catalog-kötetekben
Mostantól a Unity-katalógus köteteiben lévő truststore- és keystore-fájlok használatával hitelesítheti magát a Confluent sémaregisztrációs adatbázisában az avro- vagy protokollpufferadatokhoz. Tekintse meg az avro- vagy protokollpufferek dokumentációját.
Natív XML-fájlformátum támogatása (nyilvános előzetes verzió)
A natív XML-fájlformátum támogatása mostantól nyilvános előzetes verzióban érhető el. Az XML-fájlformátum támogatása lehetővé teszi az XML-adatok kötegelt feldolgozáshoz vagy streameléshez való betöltését, lekérdezését és elemzését. Képes automatikusan sémákat és adattípusokat kikövetkeztetni és fejleszteni, támogatja az OLYAN SQL-kifejezéseket, mint például from_xml
az XML-dokumentumok létrehozása. Nem igényel külső jar fájlokat, és zökkenőmentesen működik az Auto Loaderrel, read_files
-val, COPY INTO
-gyel és DLT-vel. Lásd: XML-fájlok olvasása és írása.
A Cloudflare R2 storage támogatása (nyilvános előzetes verzió)
Mostantól a Cloudflare R2-t használhatja felhőbeli tárolóként a Unity Katalógusban regisztrált adatokhoz. A Cloudflare R2 elsősorban Delta Sharing használati esetekre szolgál, amelyekben el szeretné kerülni a felhőszolgáltatók által felszámított adatforgalmi díjakat, amikor az adatok régiók között mozognak. Az R2 Storage az AWS S3, az Azure Data Lake Storage Gen2 és a Google Cloud Storage által támogatott összes Databricks-adatot és AI-eszközt támogatja. Lásd: Cloudflare R2-replikák használata vagy tároló áttelepítése R2-be , és tároló hitelesítő adatainak létrehozása a Cloudflare R2-hez való csatlakozáshoz.
A Spark és a dbutils munkaterületi fájlokhoz való hozzáférés támogatja a standard hozzáférésű Unity Catalog-fürtöket.
A Spark és dbutils
a munkaterület fájljaihoz való olvasási és írási hozzáférés mostantól támogatott a Unity Catalog-fürtökön standard hozzáférési módban. Lásd: Munkaterületfájlok kezelése.
Init-szkriptek és fürt könyvtárak támogatása standard hozzáférésű Unity Catalog-fürtök esetén
Általánosan elérhető a fürt hatókörű init-szkriptek és Python- és JAR-kódtárak telepítése Unity-katalógusfürtökön standard hozzáférési módban, beleértve a fürtszabályzatokhasználatával történő telepítést is. A Databricks azt javasolja, hogy telepítsen init szkripteket és kódtárakat a Unity Catalog-kötetekből.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- fastjsonschema 2.19.0 és 2.19.1 között
- filelock 3.12.4 és 3.13.1 között
- googleapis-common-protos 1.61.0 és 1.62.0 között
- csomagolás 22.0–23.2
- Frissített R-kódtárak:
- idegen 0,8–82 és 0,8–85 között
- nlme 3.1-162-ről 3.1-163-ra
- rpart 4.1.19-től 4.1.21-ig
- Frissített Java-kódtárak:
- com.databricks.databricks-sdk-java 0.7.0 és 0.13.0 között
- org.apache.orc.orc-core 1.9.1-shaded-protobuf-ról 1.9.2-shaded-protobuf-ra
- org.apache.orc.orc-mapreduce 1.9.1-shaded-protobuf verzióról 1.9.2-shaded-protobuf verzióra
- org.apache.orc.orc-shims 1.9.1-ről 1.9.2-re
- org.scala-lang.modules.scala-collection-compat_2.12 verziója 2.9.0-tól 2.11.0-ra
Apache Spark
A Databricks Runtime 14.3 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 14.2 -ben (EoS) található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-46541] [SC-153546][sql][CONNECT] A nem egyértelmű oszlophivatkozás javítása önálló illesztés esetén
- [SPARK-45433] „[SC-145163][sql] A CSV/JSON-séma következtetésének javításának visszavonása...
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Tegye lehetővé, hogy az AddArtifact újrapróbálható legyen
- [SPARK-46660] [SC-153391][connect] A ReattachExecute kérések frissítik a munkamenetkezelő életben maradását.
- [SPARK-46670] [SC-153273][python][SQL] A DataSourceManager saját klónozási képessé tétele statikus és futtatókörnyezeti Python-adatforrások elkülönítésével
- [SPARK-46720] [SC-153410][sql][PYTHON] A Python-adatforrás újrabontása más beépített DSv2-adatforrásokkal való összhangban
- [SPARK-46684] [SC-153275][python][CONNECT] A CoGroup.applyInPandas/Arrow javítása az argumentumok megfelelő átadásához
- [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Hiba dobása több XML-adatforrásnál
- [SPARK-46382] [SC-151881][sql]XML: Az ignoreSurroundingSpaces alapértelmezése igazra állítva
-
[SPARK-46382] [SC-153178][sql] XML: Dokumentáció frissítése
ignoreSurroundingSpaces
- [SPARK-45292] "[SC-151609][sql][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből"
- [SPARK-45292] [SC-151609][sql][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből
-
[SPARK-46311] [SC-150137][core] Naplózza az illesztőprogramok végső állapotát
Master.removeDriver
- [SPARK-46413] [SC-151052][python] A Arrow Python UDF returnType-jának ellenőrzése
- [SPARK-46633] [WARMFIX][sc-153092][SQL] Az Avro-olvasó javítása nulla hosszúságú blokkok kezeléséhez
- [SPARK-46537] [SC-151286][sql] Az NPE és az állítások konvertálása, valamint a parancsok belső hibákká alakítása
- [SPARK-46179] [SC-151678][sql] CrossDbmsQueryTestSuites hozzáadása, amely más DBMS-eket futtat arany fájlokon más DBMS-ekkel, a Postgrestől kezdve
- [SPARK-44001] [SC-151413][protobuf] Opcionális lehetőség biztosítása a jól ismert protobuf burkolótípusok kicsomagolására
- [SPARK-40876] [SC-151786][sql] A nagyobb precizitású decimális típusok bővítése a Parquet-olvasókban
-
[SPARK-46605] [SC-151769][connect]
lit/typedLit
függvény létrehozása a csatlakozás modul támogatásis.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005][sql] a literálok ellenőrzése nem részletezheti a null mezőket
-
[SPARK-37039] [SC-153094][ps] A hiányzó érték megfelelő működéséhez
Series.astype
javítása -
[SPARK-46312] [SC-150163][core]
lower_camel_case
használatastore_types.proto
- [SPARK-46630] [SC-153084][sql] XML: XML-elem nevének ellenőrzése íráskor
- [SPARK-46627] [SC-152981][ss][UI] Idővonal elemleírásának javítása streamelési felhasználói felületen
- [SPARK-46248] [SC-151774][sql] XML: IgnoreCorruptFiles és ignoreMissingFiles beállítások támogatása
- [SPARK-46386] [SC-150766][python] A megfigyelés állításainak javítása (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][core] Kommentár frissítése az isZero esetében az AccumulatorV2-ben.
- [SPARK-46601] [SC-151785] [CORE] Naplóhiba javítása a handleStatusMessage szolgáltatásban
- [SPARK-46568] [SC-151685][python] A Python adatforrás-beállításainak kis- és nagybetűkre érzéketlen szótárként való használata
- [SPARK-46611] [SC-151783][core] A ThreadLocal eltávolítása a SimpleDateFormat DateTimeFormatter-re cserélésével
-
[SPARK-46604] [SC-151768][sql] A
Literal.apply
támogatásának létrehozásas.c.immuable.ArraySeq
számára - [SPARK-46324] [SC-150223][sql][PYTHON] A pyspark.sql.functions.user és session_user kimeneti nevének javítása
- [SPARK-46621] [SC-151794][python] Megoldás a null érték kezelésére a Kivétel.getMessage használatakor a Py4J által rögzített kivétel esetén
- [SPARK-46598] [SC-151767][sql] Az OrcColumnarBatchReadernek tiszteletben kell tartania a memória módot, amikor oszlopvektorokat hoz létre a hiányzó oszlophoz
- [SPARK-46613] [SC-151778][sql][PYTHON] A teljes kivétel naplózása, amikor a Python-adatforrások keresése sikertelen
-
[SPARK-46559] [SC-151364][mllib] Csomagolja be a
export
a csomag nevére háttértitkokkal - [SPARK-46522] [SC-151784][python] A Python-adatforrások regisztrációját letilthatja névütközésekkel
- [SPARK-45580] [SC-149956][sql] Olyan eset kezelése, amelyben egy beágyazott allekérdezés létcsatlakozássá válik
- [SPARK-46609] [SC-151714][sql] Az exponenciális robbanás elkerülése a PartitioningPreservingUnaryExecNode-ban
- [SPARK-46535] [SC-151288][sql] Kijavítottuk az NPE-t a bővített oszlop colstats nélküli leírásakor
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML: A TypeCoercion.findTightestCommonType használata kompatibilitás-ellenőrzéshez
- [SPARK-40876] [SC-151129][sql] A Parquet-olvasókban a típus-előléptetések bővítése
- [SPARK-46179] [SC-151069][sql] Kód lekérése újrafelhasználható függvényekbe az SQLQueryTestSuite-ben
-
[SPARK-46586] [SC-151679][sql] Támogassa a
s.c.immutable.ArraySeq
mintcustomCollectionCls
aMapObjects
-ban -
[SPARK-46585] [SC-151622][core] A
metricPeaks
közvetlenül, mintimmutable.ArraySeq
, amutable.ArraySeq.toSeq
használata helyettExecutor
. - [SPARK-46488] [SC-151173][sql] A trimAll hívás kihagyása időbélyeg-elemzés során
-
[SPARK-46231] [SC-149724][python] Migrálja az összes fennmaradó
NotImplementedError
&TypeError
a PySpark hibakeretébe -
[SPARK-46348] [SC-150281][core] Támogatás
spark.deploy.recoveryTimeout
-
[SPARK-46313] [SC-150164][core] Napló
Spark HA
helyreállítási időtartam -
[SPARK-46358] [SC-150307][connect] Egyszerűsítse a feltételellenőrzést a
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][sql]Cserélje le az aktuális időt/dátumot a beágyazott táblakifejezések kiértékelése előtt.
- [SPARK-46563] [SC-151441][sql] A simpleString megtekintése nem követi a conf spark.sql.debug.maxToStringFields fájlt
- [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] A veremmélység csökkentése lecseréléssel (string|array).size with (string|array).length
- [SPARK-46539] [SC-151469][sql] SELECT * A KIVÉTEL (a szerkezet összes mezője) helyességi hibát eredményez
- [SPARK-46565] [SC-151414][python] Hibaosztályok és hibaüzenetek pontosítása Python-adatforrásokhoz
- [SPARK-46576] [SC-151614][sql] A nem támogatott adatforrás-mentési mód hibaüzeneteinek javítása
- [SPARK-46540] [SC-151355][python] Tisztelje az oszlopneveket, amikor a Python adatforrás olvasási függvénye sorobjektumoknak nevezett kimenetet ad ki
- [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite kiszivárogtatja a hive SessionState-ját
-
[SPARK-44556] [SC-151562][sql] Használja újra a
OrcTail
, amikor engedélyezve van a vektorizált olvasó - [SPARK-46587] [SC-151618][sql] XML: XSD nagy egész szám konvertálásának javítása
- [SPARK-46382] [SC-151297][sql] XML: Elemek közötti értékek rögzítése
- [SPARK-46567] [SC-151447][core] Távolítsa el a ThreadLocal-t a ReadAheadInputStream esetében
- [SPARK-45917] [SC-151269][python][SQL] A Python-adatforrás automatikus regisztrálása indításkor
- [SPARK-28386] [SC-151014][sql] Nem lehet feloldani a GROUP BY és HAVING paraméterekkel rendelkező ORDER BY oszlopokat.
- [SPARK-46524] [SC-151446][sql] Az érvénytelen mentési mód hibaüzeneteinek javítása
- [SPARK-46294] [SC-150672][sql] Az init és nulla érték szemantikájának törlése
-
[SPARK-46301] [SC-150100][core] Támogatás
spark.worker.(initial|max)RegistrationRetries
-
[SPARK-46542] [SC-151324][sql] Távolítsa el a
c>=0
ellenőrzését aExternalCatalogUtils#needsEscaping
-ból, mert mindig igaz. -
[SPARK-46553] [SC-151360][ps]
FutureWarning
objektumtípusúinterpolate
esetén - [SPARK-45914] [SC-151312][python] Támogatás az API véglegesítéshez és megszakításhoz a Python adatforrások írásánál
-
[SPARK-46543] [SC-151350][python][CONNECT] A PySparkValueError
json_tuple
dobása üres mezőkhöz - [SPARK-46520] [SC-151227][python] Python-adatforrás felülírási módjának támogatása íráskor
- [SPARK-46502] [SC-151235][sql] Támogatási időbélyeg-típusok a UnwrapCastInBinaryComparison alkalmazásban
-
[SPARK-46532] [SC-151279][connect] Üzenetparaméterek átadása a
ErrorInfo
metaadataiban -
[SPARK-46397] Fordítsa vissza az “[SC-151311][python][CONNECT] Függvény
sha2
PySparkValueError
érvénytelennumBits
” - [SPARK-46170] [SC-149472][sql] Támogatás a SparkSessionExtensions számára az adaptív lekérdezés utáni stratégiai szabályok beépítéséhez.
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable nem töltheti be a táblát
-
[SPARK-46397] [SC-151311][python][CONNECT] A függvénynek
sha2
érvénytelennumBits
eseténPySparkValueError
kell emelnie - [SPARK-46145] [SC-149471][sql] spark.catalog.listTables nem okoz kivételt, ha a tábla vagy nézet nem található
- [SPARK-46272] [SC-151012][sql] CTAS támogatása DSv2-források használatával
- [SPARK-46480] [SC-151127][core][SQL] NPE javítása a táblagyorsítótár-feladat megkísérlésekor
- [SPARK-46100] [SC-149051][core][PYTHON] A veremmélység csökkentése a (string|array).size cseréjével a (string|array).length-re
- [SPARK-45795] [SC-150764][sql] A DS V2 támogatja a leküldéses módot
- [SPARK-46485] [SC-151133][sql] V1Write nem adhat hozzá rendezést, ha nincs szükség rá
- [SPARK-46468] [SC-151121] [SQL] A COUNT hiba kezelése EXISTS típusú allekérdezéseknél összesítéssel, csoportosítási kulcsok nélkül
- [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE SQL-támogatás
-
[SPARK-46498] [SC-151199][core]
shuffleServiceEnabled
eltávolítása ao.a.spark.util.Utils#getConfiguredLocalDirs
-
[SPARK-46440] [SC-150807][sql] Alapértelmezés szerint állítsa be az újrabázis-konfigurációkat a
CORRECTED
módba - [SPARK-45525] [SC-151120][sql][PYTHON] Python-adatforrások DSv2 használatával történő írásának támogatása
-
[SPARK-46505] [SC-151187][connect] A bájtok küszöbértékének konfigurálhatóvá tétele
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][sql] Távolítsa el az örökölt datetime sql-konfigurációkat
- [SPARK-46443] [SC-151123][sql] A decimális pontosságot és a skálázást a H2 dialektusnak kell eldöntenie.
- [SPARK-46384] [SC-150694][spark-46404][SS][ui] Javítás: Művelet időtartamának veremdiagramja a strukturált streamelési oldalon
- [SPARK-46207] [SC-151068][sql] A MergeInto támogatása a DataFrameWriterV2-ben
- [SPARK-46452] [SC-151018][sql] Új API hozzáadása a DataWriterben rekordok iterátorának megírásához
- [SPARK-46273] [SC-150313][sql] DSv2-forrásokkal INSERT INTO/OVERWRITE támogatása
- [SPARK-46344] [SC-150267][core] Megfelelően figyelmeztet, ha egy illesztőprogram sikeresen létezik, de a főkiszolgáló leválasztva van
-
[SPARK-46284] [SC-149944][python][CONNECT]
session_user
függvény hozzáadása a Pythonhoz - [SPARK-46043] [SC-149786][sql] Tábla létrehozása DSv2-forrásokkal
- [SPARK-46323] [SC-150191][python] A pyspark.sql.functions.now kimeneti nevének javítása
-
[SPARK-46465] [SC-151059][python][CONNECT]
Column.isNaN
hozzáadása a PySparkban -
[SPARK-46456] [SC-151050][core]
spark.ui.jettyStopTimeout
hozzáadása a Jetty-kiszolgáló leállási időtúllépésének beállításához a SparkContext leállásának feloldásához - [SPARK-43427] [SC-150356][protobuf] spark protobuf: az aláíratlan egész szám típusok feljebb konvertálásának engedélyezése
- [SPARK-46399] [SC-151013][14.x][Core] Kilépési állapot hozzáadása az Application End eseményhez a Spark-figyelő használatához
- [SPARK-46423] [SC-150752][python][SQL] A Python Adatforrás-példány létrehozása a DataSource.lookupDataSourceV2 webhelyen
- [SPARK-46424] [SC-150765][python][SQL] Python-metrikák támogatása a Python-adatforrásban
- [SPARK-46330] [SC-151015] Spark felhasználói felületi blokkok betöltése hosszú ideig, amikor a HybridStore engedélyezve van
- [SPARK-46378] [SC-150397][sql] Az Összesítés projektté konvertálása után is eltávolítja a rendezést
- [SPARK-45506] [SC-146959][connect] Ivy URI-támogatás hozzáadása a SparkConnect addArtifact funkcióhoz
- [SPARK-45814] [SC-147871][connect][SQL] Az ArrowConverters.createEmptyArrowBatch záró call és a close() függvény meghívása a memória szivárgás elkerülése érdekében.
- [SPARK-46427] [SC-150759][python][SQL] A Python-adatforrás leírásának feldíszítése az átláthatóbb magyarázat érdekében.
- [SPARK-45597] [SC-150730][python][SQL] Tábla létrehozásának támogatása Python-adatforrás használatával az SQL-ben (DSv2 exec)
- [SPARK-46402] [SC-150700][python] GetMessageParameters és getQueryContext támogatás hozzáadása
-
[SPARK-46453] [SC-150897][connect] Kivételt dob
internalError()
SessionHolder
-ban - [SPARK-45758] [SC-147454][sql] A Hadoop-tömörítési kodekek leképezésének bemutatása
-
[SPARK-46213] [PYTHON] Bevezetés
PySparkImportError
a hiba-keretrendszerbe -
[SPARK-46230] [SC-149960][python] A
RetriesExceeded
migrálása a PySpark hibába - [SPARK-45035] [SC-145887][sql] Az ignoreCorruptFiles/ignoreMissingFiles és a többsoros CSV/JSON hibajelentése
- [SPARK-46289] [SC-150846][sql] Az UDT-k sorrendbe állításának támogatása értelmezett módban
- [SPARK-46229] [SC-150798][python][CONNECT] Az applyInArrow hozzáadása a groupBy és cogroup funkciókhoz a Spark Connectben
- [SPARK-46420] [SC-150847][sql] A SparkSQLCLIDriver nem használt átvitelének eltávolítása
- [SPARK-46226] [PYTHON] Az összes fennmaradó elem migrálása a PySpark hiba keretrendszerébe
- [SPARK-45796] [SC-150613][sql] Support MODE() WITHIN GROUP (ORDER BY col)
- [SPARK-40559] [SC-149686][python][14.X] Add függvény hozzáadása az applyInArrow-hoz a groupBy és cogroup használatával
- [SPARK-46069] [SC-149672][sql] Támogatás az időbélyeg típus átalakítására dátum típusúvá
- [SPARK-46406] [SC-150770][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss]
IllegalStateException
konvertálásainternalError
-ra a munkamenet iterátorokban - [SPARK-45807] [SC-150751][sql] A ViewCatalog API továbbfejlesztése
- [SPARK-46009] [SC-149771][sql][CONNECT] Egyesítse a PercentileCont és a PercentileDisc elemzési szabályát a FunctionCall függvénybe
- [SPARK-46403] [SC-150756][sql] Parquet bináris kódolása getBytesUnsafe metódussal
-
[SPARK-46389] [SC-150779][core] Manuálisan zárja be a
RocksDB/LevelDB
példányt, ha acheckVersion
kivételt vált ki -
[SPARK-46360] [SC-150376][python] A hibaüzenetek hibakeresésének javítása új
getMessage
API-val -
[SPARK-46233] [SC-149766][python] Migrálja az összes fennmaradó
AttributeError
a PySpark hibakeretébe -
[SPARK-46394] [SC-150599][sql] A spark.catalog.listDatabases() hibáinak kijavítása speciális karakterekkel rendelkező sémákon, ha
spark.sql.legacy.keepCommandOutputSchema
igazra van állítva - [SPARK-45964] [SC-148484][sql] Az XML- és JSON-csomagban lévő privát SQL-tartozék eltávolítása a katalizátorcsomag alatt
- [SPARK-45856] [SC-148691] ArtifactManager áthelyezése a Spark Connectből a SparkSessionbe (sql/core)
- [SPARK-46409] [SC-150714][connect] Spark-connect-scala-client launch script javítása
-
[SPARK-46416] [SC-150699][core]
@tailrec
hozzáadásaHadoopFSUtils#shouldFilterOutPath
-
[SPARK-46115] [SC-149154][sql] A karakterkészletek korlátozása
encode()
- [SPARK-46253] [SC-150416][python] Python-adatforrások beolvasásának tervezése a MapInArrow használatával
- [SPARK-46339] [SC-150266][ss] A kötegszám nevét tartalmazó címtárat nem szabad metaadatnaplóként kezelni
-
[SPARK-46353] [SC-150396][core] Refactor a
RegisterWorker
egységteszt lefedettségének javítása érdekében - [SPARK-45826] [SC-149061][sql] Adjon hozzá egy SQL-konfigurációt a DataFrame lekérdezési környezet veremkövetéseihez
- [SPARK-45649] [SC-150300][sql] Az OffsetWindowFunctionFrame előkészítő keretrendszerének egységesítése
-
[SPARK-46346] [SC-150282][core] A főkiszolgáló javítása a feldolgozó
UNKNOWN
-rólALIVE
RegisterWorker
msg-n való frissítéséhez -
[SPARK-46388] [SC-150496][sql] A HiveAnalysis nem veszi észre a
query.resolved
mintavédőt -
[SPARK-46401] [SC-150609][core] A
!isEmpty()
használata aRoaringBitmap
-ongetCardinality() > 0
helyettRemoteBlockPushResolver
-ben - [SPARK-46393] [SC-150603][sql] Kivételek osztályozása a JDBC táblakatalógusában
- [SPARK-45798] [SC-150513][connect] Követés: serverSessionId hozzáadása a SessionHolderInfo-hoz
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML: TimestampNTZType támogatás hozzáadása
- [SPARK-46075] [SC-150393][connect] Újítások a SparkConnectSessionManager-ben
- [SPARK-46357] [SC-150596] A setConf helytelen dokumentációjának cseréje conf.setre
- [SPARK-46202] [SC-150420][connect] Új ArtifactManager API-k közzététele egyéni célkönyvtárak támogatásához
-
[SPARK-45824] [SC-147648][sql] A hibaosztály alkalmazása a
ParseException
-re - [SPARK-45845] [SC-148163][ss][UI] A kitelepített állapotsorok számának hozzáadása a streamelési felhasználói felülethez
-
[SPARK-46316] [SC-150181][core]
buf-lint-action
engedélyezésecore
modulon -
[SPARK-45816] [SC-147656][sql] Return
NULL
, amikor túlcsordulás történik az időbélyegből egész számra történő öntés során -
[SPARK-46333] [SC-150263][sql] Cserélje le
IllegalStateException
SparkException.internalError
a katalizátorban - [SPARK-45762] [SC-148486][core] A felhasználói jarokban definiált shuffle-kezelők támogatása az indítási sorrend módosításával
-
[SPARK-46239] [SC-149752][core]
Jetty
adatainak elrejtése -
[SPARK-45886] [SC-148089][sql] A teljes veremkövetést jelenítse meg a DataFrame-környezet
callSite
-ben. - [SPARK-46290] [SC-150059][python] A SaveMode módosítása logikai jelzőre a DataSourceWriter esetében
- [SPARK-45899] [SC-148097][connect] Állítsa be az errorClass értékét az errorInfoToThrowable-ban
-
[SPARK-45841] [SC-147657][sql] A verem nyomkövetésének felfedése
DataFrameQueryContext
-
[SPARK-45843] [SC-147721][core] A REST Submission API
killall
támogatásának támogatása -
[SPARK-46234] [SC-149711][python] A PySpark hibakeretének
PySparkKeyError
bemutatása - [SPARK-45606] [SC-147655][sql] Kiadási korlátozások többrétegű futtatókörnyezet-szűrőn
- [SPARK-45725] [SC-147006][sql] Távolítsa el a nem alapértelmezett IN subquery futtatókörnyezet szűrőt
-
[SPARK-45694] [SC-147314][spark-45695][SQL] Az elavult API használatának megtisztítása a
View.force
ésScalaNumberProxy.signum
szempontjából. -
[SPARK-45805] [SC-147488][sql] Általánosabb
withOrigin
- [SPARK-46292] [SC-150086][core][UI] A MasterPage-ben dolgozók összegzésének megjelenítése
-
[SPARK-45685] [SC-146881][core][SQL]
LazyList
használataStream
helyett - [SPARK-45888] [SC-149945][ss] Hibaosztály-keretrendszer alkalmazása state (metadata) adatforrásra
-
[SPARK-46261] [SC-150111][connect]
DataFrame.withColumnsRenamed
meg kell tartani a szótár/leképezés sorrendjét. -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui]
SeqOps.view
ésArrayOps.view
átalakítások törlése -
[SPARK-46029] [SC-149255][sql] Az egyszeres idézőjel menekítése, valamint a
_
és%
kezelése a DS V2 lekérdezés-továbbításhoz - [SPARK-46275] [SC-150189] Protobuf: Null értéket ad vissza megengedő módban, ha a deszerializálás sikertelen.
-
[SPARK-46320] [SC-150187][core] Támogatás
spark.master.rest.host
- [SPARK-46092] [SC-149658][sql] Ne nyomja le a túlcsorduló Parquet sorcsoportszűrőket
- [SPARK-46300] [SC-150097][python][CONNECT] Az oszlopban lévő kisebb viselkedések egyeztetése teljes tesztelési lefedettséggel
- [SPARK-46298] [SC-150092][python][CONNECT] A Catalog.createExternalTable elavultsági figyelmeztetése, tesztesete és hibája
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Törölje a
StringContext/StringOps/RightProjection/LeftProjection/Either
és aBufferedIterator/CanBuildFrom/Traversable
típushasználatával kapcsolatos elavult API-használatot - [SPARK-33393] [SC-148407][sql] Támogatás SHOW TABLE EXTENDED v2-ben
-
[SPARK-45737] [SC-147011][sql] Távolítsa el a szükségtelen
.toArray[InternalRow]
a(z)SparkPlan#executeTake
-ból/-ből - [SPARK-46249] [SC-149797][ss] Példányzárolás megkövetelése a RocksDB-metrikák beszerzéséhez a háttérben futó verseny megakadályozása érdekében
-
[SPARK-46260] [SC-149940][python][SQL]
DataFrame.withColumnsRenamed
tiszteletben kell tartania a diktálási sorrendet - [SPARK-46274] [SC-150043] [SQL] A tartomány operátor computeStats() javítása a hosszú érvényesség ellenőrzéséhez konvertálás előtt
- [SPARK-46040] [SC-149767][sql][Python] Az UDTF API frissítése, hogy az "elemezze" particionáló/rendezési oszlopokat az általános kifejezések támogatására.
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmpty
minden adattípussal működnie kell - [SPARK-45678] [SC-146825][core] Cover BufferReleasingInputStream.available/reset under tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][core][SQL][connect] Törölje a
IterableOnceExtensionMethods
kapcsolatos elavult API-használatot. -
[SPARK-43980] [SC-148992][sql]
select * except
szintaxist vezet be - [SPARK-46269] [SC-149816][ps] További NumPy kompatibilitási függvénytesztek engedélyezése
- [SPARK-45807] [SC-149851][sql] Adjunk hozzá createOrReplaceView(..) / replaceView(..) a ViewCataloghoz
-
[SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] A Scala Array implicit függvényének bevezetése
immutable.ArraySeq
. -
[SPARK-46205] [SC-149655][core] Javítsa a
PersistenceEngine
teljesítményét aKryoSerializer
segítségével - [SPARK-45746] [SC-149359][python] Adott hibaüzeneteket ad vissza, ha az UDTF "analyze" vagy "eval" metódus helytelen értékeket fogad el vagy ad vissza
- [SPARK-46186] [SC-149707][connect] Helytelen állapotváltás javítása, amikor az ExecuteThreadRunner megszakad, mielőtt elindulna
-
[SPARK-46262] [SC-149803][ps] A Pandas-on-Spark objektum
np.left_shift
tesztelésének engedélyezése. - [SPARK-45093] [SC-149679][connect][PYTHON] Az AddArtifactHandler hibakezelésének és konvertálásának megfelelő támogatása
- [SPARK-46188] [SC-149571][doc][3.5] A Spark-dokumentum által létrehozott táblák CSS-jének javítása
- [SPARK-45940] [SC-149549][python] Adjon hozzá InputPartition-t a DataSourceReader interfészhez
- [SPARK-43393] [SC-148301][sql] Címütemezési kifejezés túlcsordulási hibája.
- [SPARK-46144] [SC-149466][sql] Fail INSERT INTO ... REPLACE utasítás, ha a feltétel részkikérdezéseket tartalmaz
-
[SPARK-46118] [SC-149096][sql][SS][connect]
SparkSession.sessionState.conf
használataSQLContext.conf
helyett, és aSQLContext.conf
megjelölése elavultként - [SPARK-45760] [SC-147550][sql] Add With kifejezés hozzáadása az ismétlődő kifejezések elkerülése érdekében.
- [SPARK-43228] [SC-149670][sql] Az illesztési kulcsok megfelelnek a PartitioningCollection parancsnak a CoalesceBucketsInJoin alkalmazásban
- [SPARK-46223] [SC-149691][ps] A SparkPandasNotImplementedError tesztelése a nem használt kód tisztításával
-
[SPARK-46119] [SC-149205][sql] Felülbírál
toString
metódustUnresolvedAlias
- [SPARK-46206] [SC-149674][ps] Szűkebb hatókörkivétel használata SQL-processzorhoz
-
[SPARK-46191] [SC-149565][core] Javítsa
FileSystemPersistenceEngine.persist
hibajelzést a meglévő fájl esetében - [SPARK-46036] [SC-149356][sql] Hibaosztály eltávolítása raise_error függvényből
- [SPARK-46055] [SC-149254][sql] Katalógusadatbázis API-k implementációja újraírása
- [SPARK-46152] [SC-149454][sql] XML: Decimális típus támogatása az XML-séma következtetésében
- [SPARK-45943] [SC-149452][sql] A DetermineTableStats áthelyezése feloldási szabályokba
-
[SPARK-45887] [SC-148994][sql] A
Encode
kodenének és nem codegen implementációjának igazítása - [SPARK-45022] [SC-147158][sql] Adja meg az adathalmaz API-hibáinak kontextusát
-
[SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Cserélje ki a(z)
toIterator
iterator
-raIterableOnce
érdekében - [SPARK-46141] [SC-149357][sql] Állítsuk a spark.sql.legacy.ctePrecedencePolicy alapértelmezett értékét CORRECTED-re
-
[SPARK-45663] [SC-146617][core][MLLIB] Cserélje le
IterableOnceOps#aggregate
IterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][sql] Literal objektumok ismételt használata a ComputeCurrentTime szabályban
-
[SPARK-45803] [SC-147489][core] Távolítsa el a már nem használt
RpcAbortException
- [SPARK-46148] [SC-149350][ps] Pyspark.pandas.mlflow.load_model teszt javítása (Python 3.12)
- [SPARK-46110] [SC-149090][python] Hibaosztályok használata katalógusban, conf, connect, observation, pandas modulokban
- [SPARK-45827] [SC-149203][sql] A kodgennel és vektorizált olvasóval kapcsolatos változatjavítások le vannak tiltva
- [SPARK-46080] "[SC-149012][python] A Cloudpickle frissítése 3.0.0-ra"
-
[SPARK-45460] [SC-144852][sql] Cserélje le
scala.collection.convert.ImplicitConversions
scala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][sql] Távolítsa el a feloldatlannamespace speciális felbontását bizonyos parancsok esetén
- [SPARK-45600] [SC-148976][python] Python-adatforrás-regisztrációs munkamenet szintjének beállítása
- [SPARK-46074] [SC-149063][connect][SCALA] Az UDF-hiba hibaüzenetének nem megfelelő részletei
- [SPARK-46114] [SC-149076][python] PySparkIndexError hozzáadása hiba keretrendszerhez
-
[SPARK-46120] [SC-149083][connect][PYTHON] A segédfüggvény eltávolítása
DataFrame.withPlan
- [SPARK-45927] [SC-148660][python] Python-adatforrás elérési útkezelésének frissítése
- [SPARK-46062] [14.x][sc-148991][SQL] Szinkronizálja az isStreaming jelzőt a CTE-definíció és a hivatkozás között
-
[SPARK-45698] [SC-146736][core][SQL][ss] A
Buffer
-hez kapcsolódó elavult API-használat törlése - [SPARK-46064] [SC-148984][sql][SS] Helyezze át az EliminateEventTimeWatermark-ot az elemzőbe, és módosítsa úgy, hogy csak a megoldott gyermek elemre legyen hatással.
- [SPARK-45922] [SC-149038][connect][CLIENT] Kisebb újrabontások (több szabályzat követése)
- [SPARK-45851] [SC-148419][connect][SCALA] Több szabályzat támogatása a Scala-ügyfélben
- [SPARK-45974] [SC-149062][sql] Adjon hozzá scan.filterAttributes nem-üres ellenőrzést a RowLevelOperationRuntimeGroupFiltering-hez.
- [SPARK-46085] [SC-149049][connect] Dataset.groupingSets a Scala Spark Connect-ügyfélben
- [SPARK-45136] [SC-146607][connect] A ClosureCleaner továbbfejlesztése Ammonite támogatással
- [SPARK-46084] [SC-149020][ps] A kategorikus típus adattípusának átalakítási műveleteinek átdolgozása.
- [SPARK-46083] [SC-149018][python] A SparkNoSuchElementException mint kanonikus hiba API létrehozása
- [SPARK-46048] [SC-148982][python][CONNECT] DataFrame.groupingSets támogatása a Python Spark Connectben
- [SPARK-46080] [SC-149012][python] A Cloudpickle frissítése 3.0.0-ra
- [SPARK-46082] [SC-149015][python][CONNECT] A Pandas Functions API protobuf sztring-ábrázolásának javítása a Spark Connecttel
-
[SPARK-46065] [SC-148985][ps] Átalakítás
(DataFrame|Series).factorize()
, hogycreate_map
használja. - [SPARK-46070] [SC-148993][sql] Regex-minta fordítása a SparkDateTimeUtils.getZoneId-ben a gyorshurkon kívül
- [SPARK-46063] [SC-148981][python][CONNECT] Az argumentumtípusokkal kapcsolatos hibaüzenetek javítása a "cute", "rollup", "groupby" és "pivot" funkciókban.
- [SPARK-44442] [SC-144120][mesos] Mesos-támogatás eltávolítása
- [SPARK-45555] [SC-147620][python] Hibakereső objektumot tartalmaz sikertelen állítás esetén
- [SPARK-46048] [SC-148871][python][SQL] A DataFrame.groupingSets támogatása a PySparkban
- [SPARK-45768] [SC-147304][sql][PYTHON] Állítsa be a hibakezelőt futtatókörnyezet-konfigurációvá a Python SQL-ben történő végrehajtásához
- [SPARK-45996] [SC-148586][python][CONNECT] A Spark Connect megfelelő függőségi követelményüzeneteinek megjelenítése
- [SPARK-45681] [SC-146893][ui] Az UIUtils.errorMessageCell js-verziójának klónozása a felhasználói felületen történő konzisztens hibamegjelenítés érdekében
-
[SPARK-45767] [SC-147225][core]
TimeStampedHashMap
és a hozzá tartozó UT törlése - [SPARK-45696] [SC-148864][core] Javítva: a Promise traitben lévő tryCompleteWith metódus elavultnak minősített
- [SPARK-45503] [SC-146338][ss] Konfiguráció hozzáadása a RocksDB-tömörítés beállításához
-
[SPARK-45338] [SC-143934][core][SQL] Cserélje le
scala.collection.JavaConverters
scala.jdk.CollectionConverters
-
[SPARK-44973] [SC-148804][sql] a
ArrayIndexOutOfBoundsException
kijavítása aconv()
-ban - [SPARK-45912] [SC-144982][sc-148467][SQL] Az XSDToSchema API fejlesztése: Váltás a HDFS API-ra a felhőalapú tárolás akadálymentességéhez
-
[SPARK-45819] [SC-147570][core] Támogatás a REST Submission API
clear
esetében -
[SPARK-45552] [14.x][sc-146874][PS] Rugalmas paraméterek bevezetése
assertDataFrameEqual
-
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Adjon interfészt más streamelési forrásoknak
_metadata
oszlopok hozzáadásához - [SPARK-45929] [SC-148692][sql] Támogatás a groupingSets művelethez a dataframe API-ban
- [SPARK-46012] [SC-148693][core] Az EventLogFileReader nem olvassa be a működés közbeni naplókat, ha hiányzik az alkalmazás állapotfájlja
- [SPARK-45965] [SC-148575][sql] DSv2 particionálási kifejezések áthelyezése a functions.partitioning szolgáltatásba
-
[SPARK-45971] [SC-148541][core][SQL] Helyesbítse a
SparkCollectionUtils
csomag nevétorg.apache.spark.util
-ra -
[SPARK-45688] [SC-147356][spark-45693][CORE] Tisztítsa fel az elavult API használatát a
MapOps
& Hibajavításmethod += in trait Growable is deprecated
-
[SPARK-45962] [SC-144645][sc-148497][SQL] Távolítsa el a
treatEmptyValuesAsNulls
, és használjanullValue
beállítást xml helyett -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] A Python 3.11+
list
GenericAlias kezelésére használható típushiba javítása -
[SPARK-45999] [SC-148595][ps] Dedikált
PandasProduct
használatacumprod
-
[SPARK-45986] [SC-148583][ml][PYTHON]
pyspark.ml.torch.tests.test_distributor
javítása a Python 3.11-ben -
[SPARK-45994] [SC-148581][python]
description-file
módosításadescription_file
- [SPARK-45575] [SC-146713][sql] A df read API időutazási lehetőségeinek támogatása
- [SPARK-45747] [SC-148404][ss] Az előtagkulcs adatainak használata az állapot metaadataiban a munkamenetablak-összesítés olvasási állapotának kezeléséhez
- [SPARK-45898] [SC-148213][sql] A katalógustábla API-k újraírása megoldatlan logikai terv használatára
- [SPARK-45828] [SC-147663][sql] Elavult metódus eltávolítása a dsl-ben
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Frissítse a
protobuf
4.25.1-re aPython 3.11
támogatásához - [SPARK-45911] [SC-148226][core] A TLS1.3 legyen az alapértelmezett RPC SSL
- [SPARK-45955] [SC-148429][ui] A Flamegraph és a szálképdump részletek összecsukható támogatása rendszeren belül
-
[SPARK-45936] [SC-148392][ps] Optimalizálja
Index.symmetric_difference
- [SPARK-45389] [SC-144834][sql][3.5] A partíciós metaadatok lekérésére vonatkozó MetaException egyeztetési szabály helyesbítése
- [SPARK-45655] [SC-148085][sql][SS] Nem determinisztikus kifejezések engedélyezése az AggregateFunctionsben a CollectMetricsben
- [SPARK-45946] [SC-148448][ss] Az elavult FileUtils-írás használatának javítása alapértelmezett karakterkészlet átadásához a RocksDBSuite-ban
- [SPARK-45511] [SC-148285][ss] Állapotadat-forrás – Olvasó
-
[SPARK-45918] [SC-148293][ps] Optimalizálja
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][connect][PYTHON] A megfigyelt metrikák visszaadása parancsokból
-
[SPARK-45867] [SC-147916][core] Támogatás
spark.worker.idPattern
-
[SPARK-45945] [SC-148418][connect] Segédfüggvény hozzáadása
parser
- [SPARK-45930] [SC-148399][sql] Nem determinisztikus UDF-ek támogatása a MapInPandas/MapInArrow alkalmazásban
- [SPARK-45810] [SC-148356][python] Python UDTF API létrehozása a bemeneti tábla sorainak használatának leállításához
-
[SPARK-45731] [SC-147929][sql] A partícióstatisztikák frissítése
ANALYZE TABLE
paranccsal -
[SPARK-45868] [SC-148355][connect] Győződjön meg arról, hogy
spark.table
ugyanazt az elemzőt használja a vanília sparkkal - [SPARK-45882] [SC-148161][sql] A BroadcastHashJoinExec particionálásának figyelembe kell venni a CoalescedHashPartitioninget.
- [SPARK-45710] [SC-147428][sql] Nevek hozzárendelése _LEGACY_ERROR_TEMP_21 hibakódhoz[59 60 61 62]
-
[SPARK-45915] [SC-148306][sql] A decimal(x, 0)-t úgy kezeljük, mint az IntegralType-t
PromoteStrings
- [SPARK-45786] [SC-147552][sql] A pontatlan decimális szorzási és osztási eredmények javítása
-
[SPARK-45871] [SC-148084][connect] A
connect
modulok.toBuffer
kapcsolatos optimalizálási gyűjteményátalakítása - [SPARK-45822] [SC-147546][connect] A SparkConnectSessionManager megkereshet egy leállított SparkContextet
- [SPARK-45913] [SC-148289][python] A belső attribútumok titkossá tétele PySpark-hibákból.
- [SPARK-45827] [SC-148201][sql] Variant-adattípus hozzáadása a Sparkban.
- [SPARK-44886] [SC-147876][sql] A CREATE/REPLACE TABLECLUSTER BY záradékának bevezetése
-
[SPARK-45756] [SC-147959][core] Támogatás
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][connect] Kiszolgálóoldali munkamenet-azonosító érvényesítése
-
[SPARK-45896] [SC-148091][sql]
ValidateExternalType
létrehozása a megfelelő várt típussal -
[SPARK-45902] [SC-148123][sql] Távolítsa el a nem használt függvényeket
resolvePartitionColumns
aDataSource
-
[SPARK-45909] [SC-148137][sql] Távolítsa el a
NumericType
cast műveletet, ha biztonságosan fel lehet skálázniIsNotNull
- [SPARK-42821] [SC-147715][sql] A splitFiles metódusok nem használt paramétereinek eltávolítása
-
[SPARK-45875] [SC-148088][core]
MissingStageTableRowData
eltávolításacore
modulból - [SPARK-45783] [SC-148120][python][CONNECT] Javítsa a hibaüzeneteket, ha a Spark Connect mód engedélyezve van, de a távoli URL-cím nincs beállítva
- [SPARK-45804] [SC-147529][ui] Spark.ui.threadDump.flamegraphEnabled konfiguráció hozzáadása a lánggráf be- és kikapcsolásához
- [SPARK-45664] [SC-146878][sql] Az ORC-tömörítési kodekek leképezésének bemutatása
- [SPARK-45481] [SC-146715][sql] A parquet tömörítési kodekek leképezésének bemutatása
- [SPARK-45752] [SC-148005][sql] Egyszerűsítse a kódot a nem hivatkozott CTE-kapcsolatok ellenőrzéséhez
- [SPARK-44752] [SC-146262][sql] XML: Spark Docs frissítése
- [SPARK-45752] [SC-147869][sql] A nem hivatkozott CTE-t a CheckAnalysis0-nek kell ellenőriznie
- [SPARK-45842] [SC-147853][sql] Refaktorálja a Katalógus Függvény API-kat az elemző használatához
- [SPARK-45639] [SC-147676][sql][PYTHON] Python-adatforrások betöltése a DataFrameReaderben
- [SPARK-45592] [SC-146977][sql] Az AQE és az InMemoryTableScanExec helyességi problémája
- [SPARK-45794] [SC-147646][ss] Az állapot metaadatforrásának bemutatása a streamelési állapot metaadatainak lekérdezéséhez
- [SPARK-45739] [SC-147059][python] Az IOException-t az EOFExceptionnel együtt fogja el a hibakezelő számára
- [SPARK-45677] [SC-146700] Jobb hibanaplózás a Observation API-hoz
- [SPARK-45544] [SC-146873][core] Ssl-támogatás integrálása a TransportContextbe
- [SPARK-45654] [SC-147152][python] Python-adatforrás írási API hozzáadása
-
[SPARK-45771] [SC-147270][core] Alapértelmezés szerint engedélyezi a
spark.eventLog.rolling.enabled
- [SPARK-45713] [SC-146986][python] Python-adatforrások regisztrálásának támogatása
- [SPARK-45656] [SC-146488][sql] A különböző adathalmazokon azonos nevű elnevezett megfigyelések megfigyelésének javítása
- [SPARK-45808] [SC-147571][connect][PYTHON] Jobb hibakezelés SQL-kivételek esetén
-
[SPARK-45774] [SC-147353][core][UI] Támogatás
spark.master.ui.historyServerUrl
ApplicationPage
-
[SPARK-45776] [SC-147327][core] Távolítsa el a védelmi null ellenőrzést, amelyet a SPARK-39553-ban adtak hozzá
MapOutputTrackerMaster#unregisterShuffle
számára. - [SPARK-45780] [SC-147410][connect] Propagálja az összes Spark Connect ügyfélszálhoz tartozó helyi változót az InheritableThread-ben
-
[SPARK-45785] [SC-147419][core] Támogatás
spark.deploy.appNumberModulo
az alkalmazás számának elforgatásához - [SPARK-45793] [SC-147456][core] A beépített tömörítési kodekek javítása
- [SPARK-45757] [SC-147282][ml] Kerülje az NNZ újraszámítását a Binarizerben
- [SPARK-45209] [SC-146490][core][UI] Flame Graph-támogatás végrehajtói szálképoldalhoz
-
[SPARK-45777] [SC-147319][core] Támogatás
spark.test.appId
-benLocalSchedulerBackend
- [SPARK-45523] [SC-146331][python] A null-ellenőrzés átszervezése rövidítésekkel
- [SPARK-45711] [SC-146854][sql] Új leképező bevezetése az Avro-tömörítési kodekekhez
- [SPARK-45523] [SC-146077][python] Hasznos hibaüzenetet ad vissza, ha az UDTF a None értéket adja vissza a nem null értékű oszlopokhoz
- [SPARK-45614] [SC-146729][sql] Neveket hozzárendelni a _LEGACY_ERROR_TEMP_215[6,7,8] hibához
-
[SPARK-45755] [SC-147164][sql] A
Dataset.isEmpty()
javítása globális korlát alkalmazásával1
- [SPARK-45569] [SC-145915][sql] Rendeljen nevet a hibának _LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][core][WEBUI] Javítás
Spark History Server
Duration
oszlop helyes rendezéséhez -
[SPARK-45754] [SC-147169][core] Támogatási
spark.deploy.appIdPattern
-
[SPARK-45707] [SC-146880][sql] Egyszerűsítse le a
DataFrameStatFunctions.countMinSketch
-t aCountMinSketchAgg
-mal -
[SPARK-45753] [SC-147167][core] Támogatás
spark.deploy.driverIdPattern
-
[SPARK-45763] [SC-147177][core][UI] A
MasterPage
úgy lesz fejlesztve, hogy aResource
oszlop csak akkor jelenjen meg, ha létezik. - [SPARK-45112] [SC-143259][sql] UnresolvedFunction-alapú felbontás használata AZ SQL Dataset függvényekben
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Karbantartási frissítések
Lásd a Databricks Runtime 14.3 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 22.04.3 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.1.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attribútumok | 22.1.0 | backcall (visszahívás) | 0.2.0 |
beautifulsoup4 | 4.11.1 | fekete | 22.6.0 | fehérítő | 4.1.0 |
villogó | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
tanúsítás | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kattintás | 8.0.4 | Közösség | 0.1.2 |
contourpy | 1.0.5 | kriptográfia | 39.0.1 | biciklista | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | lakberendező | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring markdown-vá alakítása | 0,11 | belépési pontok | 0,4 |
Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastjsonschema | 2.19.1 |
fájlzár | 3.13.1 | betűtípusok | 4.25.0 | googleapis-common-protos | 1.62.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kulcstartó | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
rosszra hangol | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
jegyzetfüzet | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | csomagolás | 23.2 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | útvonal specifikáció (pathspec) | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Párna | 9.4.0 | szignál | 22.3.1 | platformdirs | 2.5.2 |
ábrázolás | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0,5 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
kérelmek | 2.28.1 | kötél | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | tengeri | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
Hat | 1.16.0 | sniffio | 1.2.0 | levesszűrő | 2.3.2.post1 |
ssh-import-id | 5,11 | veremadatok | 0.2.0 | statsmodels | 0.13.5 |
Kitartás | 8.1.0 | befejezve | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádó | 6.1 | tulajdonságok | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webkódolások | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
kerék | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
Telepített R-kódtárak
Az R könyvtárak a Posit Package Manager CRAN-pillanatképéből lettek telepítve 2023.07.13-án : https://packagemanager.posit.co/cran/2023-07-13/
.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 12.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
visszamenőleges portolások | 1.4.1 | alap | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
indítás | 1.3-28 | sörfőzés | 1.0-8 | Brio | 1.1.3 |
seprű | 1.0.5 | bslib | 0.5.0 | gyorsítótár | 1.0.8 |
hívó | 3.7.3 | kalap | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | osztály | 7.3-22 | Cli | 3.6.1 |
clipr | 0.8.0 | óra | 0.7.0 | klaszter | 2.1.4 |
kódeszközök | 0.2-19 | színtér | 2.1-0 | commonmark | 1.9.0 |
fordítóprogram | 4.3.1 | konfiguráció | 0.3.1 | ellentmondásos | 1.2.0 |
cpp11 | 0.4.4 | zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 |
csavarodik | 5.0.1 | data.table | 1.14.8 | adatkészletek | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | Leírás | 1.4.2 |
devtools | 2.4.5 | diagram | 1.6.5 | diffobj | 0.3.5 |
összefoglaló | 0.6.33 | lefelé világított | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | három pont | 0.3.2 |
értékel | 0.21 | rajongók | 1.0.4 | színek | 2.1.1 |
gyorstérkép | 1.1.1 | fontawesome | 0.5.1 | macskák | 1.0.0 |
foreach | 1.5.2 | külföldi | 0.8-85 | kovácsol | 0.2.0 |
fs | 1.6.2 | jövő | 1.33.0 | future.apply | 1.11.0 |
gargarizál | 1.5.1 | Generikus | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globális | 0.16.2 | ragasztó | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.1 | grDevices | 4.3.1 | rács | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
védősisak | 1.3.0 | kikötő | 2.5.3 | magasabb | 0.10 |
hms | 1.1.3 | htmltools | 0.5.5 | HTML-widgetek | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
izoband | 0.2.7 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
címkézés | 0.4.2 | később | 1.3.1 | rács | 0.21-8 |
láva | 1.7.2.1 | életciklus | 1.0.3 | figyelő | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1,7 |
TÖMEG | 7.3-60 | Mátrix | 1.5-4.1 | memoise | 2.0.1 |
módszerek | 4.3.1 | mgcv | 1.8-42 | pantomim | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
párhuzamosan | 1.36.0 | pillér | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | lejátszó | 1.8.8 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | haladás | 1.2.2 |
progressr | 0.13.0 | Ígéretek | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | P.S. | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.4 | readxl | 1.4.3 | receptek | 1.0.6 |
Visszavágó | 1.0.1 | visszavágó2 | 2.1.2 | Távirányítók | 2.4.2 |
reprodukálható példa | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.6 | mérleg | 1.2.1 |
selectr | 0.4-2 | munkamenet-információ | 1.2.2 | alak | 1.4.6 |
Fényes | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
térbeli | 7.3-15 | görbék | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | statisztika | 4.3.1 | statisztikák4 | 4.3.1 |
stringi | 1.7.12 | stringr | 1.5.0 | túlélés | 3.5-5 |
sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | szövegformázás | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
időváltozás | 0.2.0 | időDátum | 4022.108 | tinytex | 0,45 |
eszközök | 4.3.1 | tzdb | 0.4.0 | URL-ellenőrző | 1.0.1 |
használd ezt | 2.2.2 | utf8 | 1.2.3 | segédprogramok | 4.3.1 |
uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
brumm | 1.6.3 | Waldo | 0.5.1 | bajusz | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
fütyülés | 2.3.0 |
Telepített Java és Scala könyvtárak (Scala 2.12 klászer verzió)
Csoportazonosító | Artefakt azonosító | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotációk | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-anyanyelvűek |
com.github.fommil.netlib | natív_rendszer-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-őslakosok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natív személyek |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-bennszülöttek |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Csellengő | 1.9.0 |
com.google.errorprone | hibára hajlamos annotációk | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | gujáva | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profilkészítő | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfiguráció | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | LAPACK | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | légkompresszor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.3 |
io.dropwizard.metrics | metrikák jelölése | 4.2.19 |
io.dropwizard.metrics | metrika mag | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrikák-állapotellenőrzések | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-zokni | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | savanyúság | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | karakterlánc-sablon | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | nyílformátum | 12.0.1 |
org.apache.arrow | nyíl-memóriamag | 12.0.1 |
org.apache.arrow | nyíl-memória-netty | 12.0.1 |
org.apache.arrow | nyíl-vektor | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurált receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derbi | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyánkő | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | közönség-feljegyzések | 0.13.0 |
org.apache.zookeeper | állatgondozó | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-folytatás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | Mole-bővítmény | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | móló-biztonság | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket szerver | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | Hézagoló lemezek | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | ThreeTen-Extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |