Megosztás a következőn keresztül:


Databricks Runtime 14.3 LTS

Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 14.3 LTS-ről nyújtanak információkat.

A Databricks 2024 februárjában adta ki ezt a verziót.

Feljegyzés

Az LTS azt jelenti, hogy ez a verzió hosszú távú támogatás alatt áll. Lásd: Databricks Runtime LTS-verzió életciklusa.

Tipp.

A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.

Új funkciók és fejlesztések

Munkaterület fájlrendszerének támogatása a PySpark User-Defined Functionsben (UDF-ekben) standard hozzáférési módú fürtökön (korábban megosztott hozzáférési mód)

A standard fürtökön lévő PySpark UDF-ek mostantól importálhatják a Python-modulokat Git-mappákból, munkaterületfájlokbólvagy UC-kötetekből.

A Modulok Git-mappákban vagy munkaterületfájlokban való használatával kapcsolatos további információkért lásd : Python- és R-modulok használata.

A foton nélküli törlési vektoroptimalizálások MERGE támogatása

A fotonra már nincs szükség a MERGE törlési vektorok optimalizálása érdekében végzett műveletekhez. Lásd: Mik azok a törlési vektorok?.

A Spark-katalógus API-k már teljes mértékben támogatottak standard hozzáférési módban

Mostantól a spark.catalog API összes függvényét használhatja a Pythonban és a Scalában a standard hozzáférési móddal konfigurált számítási feladatokon.

Általánosan elérhető a Delta UniForm

Az UniForm mostantól általánosan elérhető, és a IcebergCompatV2 tábla funkciót használja. Mostantól engedélyezheti vagy frissítheti az UniFormot a meglévő táblákon. Lásd: Delta-táblák olvasása Iceberg-ügyfelekkel.

Új SQL-függvény EXECUTE IMMEDIATE

Mostantól a EXECUTE IMMEDIATE szintaxissal támogathatja a paraméteres lekérdezéseket az SQL-ben. Lásd: EXECUTE IMMEDIATE.

A Delta-táblák adatkihagyási statisztikáinak újrakomponálása

Már újraszámolhatja a Delta-naplóban tárolt statisztikákat, miután módosította az adatkihagyáshoz használt oszlopokat. Lásd: Deltastatisztikai oszlopok megadása.

Állapotinformációk lekérdezése állapotalapú streamelési lekérdezésekhez

Mostantól lekérdezheti a strukturált streamelési állapot adatait és metaadatait. Lásd: Strukturált streamelési állapotinformációk olvasása.

A Microsoft Entra ID használata a Kafka-hitelesítéshez standard fürtökön

Mostantól az Event Hubs szolgáltatásokat az OAuth használatával hitelesítheti, a Standard hozzáférési móddal konfigurált számítási erőforrásokon a Microsoft Entra ID-n keresztül. Lásd: Szolgáltatásnév-képviselő hitelesítés a Microsoft Entra-azonosítóval és az Azure Event Hubs-szal.

Fájl- és partíciómetszés támogatása hozzáadva a lekérdezési teljesítmény javítása érdekében.

Az JOIN feltételek nulltűrő egyenlőségére támaszkodó lekérdezések felgyorsítása érdekében mostantól támogatjuk DynamicFilePruning és DynamicPartitionPruning a JOIN-ekben lévő EqualNullSafe operátor számára.

Ideiglenes változók deklarálása SQL-munkamenetben

Ez a kiadás lehetővé teszi az ideiglenes változók deklarálását egy munkamenetben, amely beállítható, majd a lekérdezéseken belülről hivatkozható. Lásd: Változók.

Thriftserver-frissítések a nem használt funkciók eltávolításához

A Thriftserver-kód frissült az elavult funkciók kódjának eltávolításához. A módosítások miatt a következő konfigurációk már nem támogatottak:

  • A hive.aux.jars.path tulajdonság használatával konfigurált Hive kiegészítő JAR-ek már nem támogatják a hive-thriftserver kapcsolódásokat.
  • A Hive globális init-fájl (.hiverc), amelynek helye a hive.server2.global.init.file.location tulajdonság vagy a HIVE_CONF_DIR környezeti változó használatával van konfigurálva, a kapcsolatok esetében hive-thriftserver már nem támogatott.

Truststore- és keystore-fájlok használata Unity Catalog-kötetekben

Mostantól a Unity-katalógus köteteiben lévő truststore- és keystore-fájlok használatával hitelesítheti magát a Confluent sémaregisztrációs adatbázisában az avro- vagy protokollpufferadatokhoz. Tekintse meg az avro- vagy protokollpufferek dokumentációját.

Natív XML-fájlformátum támogatása (nyilvános előzetes verzió)

A natív XML-fájlformátum támogatása mostantól nyilvános előzetes verzióban érhető el. Az XML-fájlformátum támogatása lehetővé teszi az XML-adatok kötegelt feldolgozáshoz vagy streameléshez való betöltését, lekérdezését és elemzését. Képes automatikusan sémákat és adattípusokat kikövetkeztetni és fejleszteni, támogatja az OLYAN SQL-kifejezéseket, mint például from_xmlaz XML-dokumentumok létrehozása. Nem igényel külső jar fájlokat, és zökkenőmentesen működik az Auto Loaderrel, read_files-val, COPY INTO-gyel és DLT-vel. Lásd: XML-fájlok olvasása és írása.

A Cloudflare R2 storage támogatása (nyilvános előzetes verzió)

Mostantól a Cloudflare R2-t használhatja felhőbeli tárolóként a Unity Katalógusban regisztrált adatokhoz. A Cloudflare R2 elsősorban Delta Sharing használati esetekre szolgál, amelyekben el szeretné kerülni a felhőszolgáltatók által felszámított adatforgalmi díjakat, amikor az adatok régiók között mozognak. Az R2 Storage az AWS S3, az Azure Data Lake Storage Gen2 és a Google Cloud Storage által támogatott összes Databricks-adatot és AI-eszközt támogatja. Lásd: Cloudflare R2-replikák használata vagy tároló áttelepítése R2-be , és tároló hitelesítő adatainak létrehozása a Cloudflare R2-hez való csatlakozáshoz.

A Spark és a dbutils munkaterületi fájlokhoz való hozzáférés támogatja a standard hozzáférésű Unity Catalog-fürtöket.

A Spark és dbutils a munkaterület fájljaihoz való olvasási és írási hozzáférés mostantól támogatott a Unity Catalog-fürtökön standard hozzáférési módban. Lásd: Munkaterületfájlok kezelése.

Init-szkriptek és fürt könyvtárak támogatása standard hozzáférésű Unity Catalog-fürtök esetén

Általánosan elérhető a fürt hatókörű init-szkriptek és Python- és JAR-kódtárak telepítése Unity-katalógusfürtökön standard hozzáférési módban, beleértve a fürtszabályzatokhasználatával történő telepítést is. A Databricks azt javasolja, hogy telepítsen init szkripteket és kódtárakat a Unity Catalog-kötetekből.

Könyvtárfrissítések

  • Frissített Python-kódtárak:
    • fastjsonschema 2.19.0 és 2.19.1 között
    • filelock 3.12.4 és 3.13.1 között
    • googleapis-common-protos 1.61.0 és 1.62.0 között
    • csomagolás 22.0–23.2
  • Frissített R-kódtárak:
    • idegen 0,8–82 és 0,8–85 között
    • nlme 3.1-162-ről 3.1-163-ra
    • rpart 4.1.19-től 4.1.21-ig
  • Frissített Java-kódtárak:
    • com.databricks.databricks-sdk-java 0.7.0 és 0.13.0 között
    • org.apache.orc.orc-core 1.9.1-shaded-protobuf-ról 1.9.2-shaded-protobuf-ra
    • org.apache.orc.orc-mapreduce 1.9.1-shaded-protobuf verzióról 1.9.2-shaded-protobuf verzióra
    • org.apache.orc.orc-shims 1.9.1-ről 1.9.2-re
    • org.scala-lang.modules.scala-collection-compat_2.12 verziója 2.9.0-tól 2.11.0-ra

Apache Spark

A Databricks Runtime 14.3 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 14.2 -ben (EoS) található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:

  • [SPARK-46541] [SC-153546][sql][CONNECT] A nem egyértelmű oszlophivatkozás javítása önálló illesztés esetén
  • [SPARK-45433] „[SC-145163][sql] A CSV/JSON-séma következtetésének javításának visszavonása...
  • [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Tegye lehetővé, hogy az AddArtifact újrapróbálható legyen
  • [SPARK-46660] [SC-153391][connect] A ReattachExecute kérések frissítik a munkamenetkezelő életben maradását.
  • [SPARK-46670] [SC-153273][python][SQL] A DataSourceManager saját klónozási képessé tétele statikus és futtatókörnyezeti Python-adatforrások elkülönítésével
  • [SPARK-46720] [SC-153410][sql][PYTHON] A Python-adatforrás újrabontása más beépített DSv2-adatforrásokkal való összhangban
  • [SPARK-46684] [SC-153275][python][CONNECT] A CoGroup.applyInPandas/Arrow javítása az argumentumok megfelelő átadásához
  • [SPARK-46667] [SC-153271][sc-153263][SQL] XML: Hiba dobása több XML-adatforrásnál
  • [SPARK-46382] [SC-151881][sql]XML: Az ignoreSurroundingSpaces alapértelmezése igazra állítva
  • [SPARK-46382] [SC-153178][sql] XML: Dokumentáció frissítése ignoreSurroundingSpaces
  • [SPARK-45292] "[SC-151609][sql][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből"
  • [SPARK-45292] [SC-151609][sql][HIVE] Guava eltávolítása a megosztott osztályokból az IsolatedClientLoaderből
  • [SPARK-46311] [SC-150137][core] Naplózza az illesztőprogramok végső állapotát Master.removeDriver
  • [SPARK-46413] [SC-151052][python] A Arrow Python UDF returnType-jának ellenőrzése
  • [SPARK-46633] [WARMFIX][sc-153092][SQL] Az Avro-olvasó javítása nulla hosszúságú blokkok kezeléséhez
  • [SPARK-46537] [SC-151286][sql] Az NPE és az állítások konvertálása, valamint a parancsok belső hibákká alakítása
  • [SPARK-46179] [SC-151678][sql] CrossDbmsQueryTestSuites hozzáadása, amely más DBMS-eket futtat arany fájlokon más DBMS-ekkel, a Postgrestől kezdve
  • [SPARK-44001] [SC-151413][protobuf] Opcionális lehetőség biztosítása a jól ismert protobuf burkolótípusok kicsomagolására
  • [SPARK-40876] [SC-151786][sql] A nagyobb precizitású decimális típusok bővítése a Parquet-olvasókban
  • [SPARK-46605] [SC-151769][connect] lit/typedLit függvény létrehozása a csatlakozás modul támogatási s.c.immutable.ArraySeq
  • [SPARK-46634] [SC-153005][sql] a literálok ellenőrzése nem részletezheti a null mezőket
  • [SPARK-37039] [SC-153094][ps] A hiányzó érték megfelelő működéséhez Series.astype javítása
  • [SPARK-46312] [SC-150163][core] lower_camel_case használata store_types.proto
  • [SPARK-46630] [SC-153084][sql] XML: XML-elem nevének ellenőrzése íráskor
  • [SPARK-46627] [SC-152981][ss][UI] Idővonal elemleírásának javítása streamelési felhasználói felületen
  • [SPARK-46248] [SC-151774][sql] XML: IgnoreCorruptFiles és ignoreMissingFiles beállítások támogatása
  • [SPARK-46386] [SC-150766][python] A megfigyelés állításainak javítása (pyspark.sql.observation)
  • [SPARK-46581] [SC-151789][core] Kommentár frissítése az isZero esetében az AccumulatorV2-ben.
  • [SPARK-46601] [SC-151785] [CORE] Naplóhiba javítása a handleStatusMessage szolgáltatásban
  • [SPARK-46568] [SC-151685][python] A Python adatforrás-beállításainak kis- és nagybetűkre érzéketlen szótárként való használata
  • [SPARK-46611] [SC-151783][core] A ThreadLocal eltávolítása a SimpleDateFormat DateTimeFormatter-re cserélésével
  • [SPARK-46604] [SC-151768][sql] A Literal.apply támogatásának létrehozása s.c.immuable.ArraySeq számára
  • [SPARK-46324] [SC-150223][sql][PYTHON] A pyspark.sql.functions.user és session_user kimeneti nevének javítása
  • [SPARK-46621] [SC-151794][python] Megoldás a null érték kezelésére a Kivétel.getMessage használatakor a Py4J által rögzített kivétel esetén
  • [SPARK-46598] [SC-151767][sql] Az OrcColumnarBatchReadernek tiszteletben kell tartania a memória módot, amikor oszlopvektorokat hoz létre a hiányzó oszlophoz
  • [SPARK-46613] [SC-151778][sql][PYTHON] A teljes kivétel naplózása, amikor a Python-adatforrások keresése sikertelen
  • [SPARK-46559] [SC-151364][mllib] Csomagolja be a export a csomag nevére háttértitkokkal
  • [SPARK-46522] [SC-151784][python] A Python-adatforrások regisztrációját letilthatja névütközésekkel
  • [SPARK-45580] [SC-149956][sql] Olyan eset kezelése, amelyben egy beágyazott allekérdezés létcsatlakozássá válik
  • [SPARK-46609] [SC-151714][sql] Az exponenciális robbanás elkerülése a PartitioningPreservingUnaryExecNode-ban
  • [SPARK-46535] [SC-151288][sql] Kijavítottuk az NPE-t a bővített oszlop colstats nélküli leírásakor
  • [SPARK-46599] [SC-147661][sc-151770][SQL] XML: A TypeCoercion.findTightestCommonType használata kompatibilitás-ellenőrzéshez
  • [SPARK-40876] [SC-151129][sql] A Parquet-olvasókban a típus-előléptetések bővítése
  • [SPARK-46179] [SC-151069][sql] Kód lekérése újrafelhasználható függvényekbe az SQLQueryTestSuite-ben
  • [SPARK-46586] [SC-151679][sql] Támogassa a s.c.immutable.ArraySeq mint customCollectionCls a MapObjects-ban
  • [SPARK-46585] [SC-151622][core] A metricPeaks közvetlenül, mint immutable.ArraySeq, a mutable.ArraySeq.toSeq használata helyett Executor.
  • [SPARK-46488] [SC-151173][sql] A trimAll hívás kihagyása időbélyeg-elemzés során
  • [SPARK-46231] [SC-149724][python] Migrálja az összes fennmaradó NotImplementedError & TypeError a PySpark hibakeretébe
  • [SPARK-46348] [SC-150281][core] Támogatás spark.deploy.recoveryTimeout
  • [SPARK-46313] [SC-150164][core] Napló Spark HA helyreállítási időtartam
  • [SPARK-46358] [SC-150307][connect] Egyszerűsítse a feltételellenőrzést a ResponseValidator#verifyResponse
  • [SPARK-46380] [SC-151078][sql]Cserélje le az aktuális időt/dátumot a beágyazott táblakifejezések kiértékelése előtt.
  • [SPARK-46563] [SC-151441][sql] A simpleString megtekintése nem követi a conf spark.sql.debug.maxToStringFields fájlt
  • [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] A veremmélység csökkentése lecseréléssel (string|array).size with (string|array).length
  • [SPARK-46539] [SC-151469][sql] SELECT * A KIVÉTEL (a szerkezet összes mezője) helyességi hibát eredményez
  • [SPARK-46565] [SC-151414][python] Hibaosztályok és hibaüzenetek pontosítása Python-adatforrásokhoz
  • [SPARK-46576] [SC-151614][sql] A nem támogatott adatforrás-mentési mód hibaüzeneteinek javítása
  • [SPARK-46540] [SC-151355][python] Tisztelje az oszlopneveket, amikor a Python adatforrás olvasási függvénye sorobjektumoknak nevezett kimenetet ad ki
  • [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite kiszivárogtatja a hive SessionState-ját
  • [SPARK-44556] [SC-151562][sql] Használja újra a OrcTail, amikor engedélyezve van a vektorizált olvasó
  • [SPARK-46587] [SC-151618][sql] XML: XSD nagy egész szám konvertálásának javítása
  • [SPARK-46382] [SC-151297][sql] XML: Elemek közötti értékek rögzítése
  • [SPARK-46567] [SC-151447][core] Távolítsa el a ThreadLocal-t a ReadAheadInputStream esetében
  • [SPARK-45917] [SC-151269][python][SQL] A Python-adatforrás automatikus regisztrálása indításkor
  • [SPARK-28386] [SC-151014][sql] Nem lehet feloldani a GROUP BY és HAVING paraméterekkel rendelkező ORDER BY oszlopokat.
  • [SPARK-46524] [SC-151446][sql] Az érvénytelen mentési mód hibaüzeneteinek javítása
  • [SPARK-46294] [SC-150672][sql] Az init és nulla érték szemantikájának törlése
  • [SPARK-46301] [SC-150100][core] Támogatás spark.worker.(initial|max)RegistrationRetries
  • [SPARK-46542] [SC-151324][sql] Távolítsa el a c>=0 ellenőrzését a ExternalCatalogUtils#needsEscaping-ból, mert mindig igaz.
  • [SPARK-46553] [SC-151360][ps] FutureWarning objektumtípusú interpolate esetén
  • [SPARK-45914] [SC-151312][python] Támogatás az API véglegesítéshez és megszakításhoz a Python adatforrások írásánál
  • [SPARK-46543] [SC-151350][python][CONNECT] A PySparkValueError json_tuple dobása üres mezőkhöz
  • [SPARK-46520] [SC-151227][python] Python-adatforrás felülírási módjának támogatása íráskor
  • [SPARK-46502] [SC-151235][sql] Támogatási időbélyeg-típusok a UnwrapCastInBinaryComparison alkalmazásban
  • [SPARK-46532] [SC-151279][connect] Üzenetparaméterek átadása a ErrorInfo metaadataiban
  • [SPARK-46397] Fordítsa vissza az “[SC-151311][python][CONNECT] Függvény sha2PySparkValueError érvénytelen numBits
  • [SPARK-46170] [SC-149472][sql] Támogatás a SparkSessionExtensions számára az adaptív lekérdezés utáni stratégiai szabályok beépítéséhez.
  • [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable nem töltheti be a táblát
  • [SPARK-46397] [SC-151311][python][CONNECT] A függvénynek sha2 érvénytelen numBits esetén PySparkValueError kell emelnie
  • [SPARK-46145] [SC-149471][sql] spark.catalog.listTables nem okoz kivételt, ha a tábla vagy nézet nem található
  • [SPARK-46272] [SC-151012][sql] CTAS támogatása DSv2-források használatával
  • [SPARK-46480] [SC-151127][core][SQL] NPE javítása a táblagyorsítótár-feladat megkísérlésekor
  • [SPARK-46100] [SC-149051][core][PYTHON] A veremmélység csökkentése a (string|array).size cseréjével a (string|array).length-re
  • [SPARK-45795] [SC-150764][sql] A DS V2 támogatja a leküldéses módot
  • [SPARK-46485] [SC-151133][sql] V1Write nem adhat hozzá rendezést, ha nincs szükség rá
  • [SPARK-46468] [SC-151121] [SQL] A COUNT hiba kezelése EXISTS típusú allekérdezéseknél összesítéssel, csoportosítási kulcsok nélkül
  • [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE SQL-támogatás
  • [SPARK-46498] [SC-151199][core] shuffleServiceEnabled eltávolítása a o.a.spark.util.Utils#getConfiguredLocalDirs
  • [SPARK-46440] [SC-150807][sql] Alapértelmezés szerint állítsa be az újrabázis-konfigurációkat a CORRECTED módba
  • [SPARK-45525] [SC-151120][sql][PYTHON] Python-adatforrások DSv2 használatával történő írásának támogatása
  • [SPARK-46505] [SC-151187][connect] A bájtok küszöbértékének konfigurálhatóvá tétele ProtoUtils.abbreviate
  • [SPARK-46447] [SC-151025][sql] Távolítsa el az örökölt datetime sql-konfigurációkat
  • [SPARK-46443] [SC-151123][sql] A decimális pontosságot és a skálázást a H2 dialektusnak kell eldöntenie.
  • [SPARK-46384] [SC-150694][spark-46404][SS][ui] Javítás: Művelet időtartamának veremdiagramja a strukturált streamelési oldalon
  • [SPARK-46207] [SC-151068][sql] A MergeInto támogatása a DataFrameWriterV2-ben
  • [SPARK-46452] [SC-151018][sql] Új API hozzáadása a DataWriterben rekordok iterátorának megírásához
  • [SPARK-46273] [SC-150313][sql] DSv2-forrásokkal INSERT INTO/OVERWRITE támogatása
  • [SPARK-46344] [SC-150267][core] Megfelelően figyelmeztet, ha egy illesztőprogram sikeresen létezik, de a főkiszolgáló leválasztva van
  • [SPARK-46284] [SC-149944][python][CONNECT] session_user függvény hozzáadása a Pythonhoz
  • [SPARK-46043] [SC-149786][sql] Tábla létrehozása DSv2-forrásokkal
  • [SPARK-46323] [SC-150191][python] A pyspark.sql.functions.now kimeneti nevének javítása
  • [SPARK-46465] [SC-151059][python][CONNECT] Column.isNaN hozzáadása a PySparkban
  • [SPARK-46456] [SC-151050][core] spark.ui.jettyStopTimeout hozzáadása a Jetty-kiszolgáló leállási időtúllépésének beállításához a SparkContext leállásának feloldásához
  • [SPARK-43427] [SC-150356][protobuf] spark protobuf: az aláíratlan egész szám típusok feljebb konvertálásának engedélyezése
  • [SPARK-46399] [SC-151013][14.x][Core] Kilépési állapot hozzáadása az Application End eseményhez a Spark-figyelő használatához
  • [SPARK-46423] [SC-150752][python][SQL] A Python Adatforrás-példány létrehozása a DataSource.lookupDataSourceV2 webhelyen
  • [SPARK-46424] [SC-150765][python][SQL] Python-metrikák támogatása a Python-adatforrásban
  • [SPARK-46330] [SC-151015] Spark felhasználói felületi blokkok betöltése hosszú ideig, amikor a HybridStore engedélyezve van
  • [SPARK-46378] [SC-150397][sql] Az Összesítés projektté konvertálása után is eltávolítja a rendezést
  • [SPARK-45506] [SC-146959][connect] Ivy URI-támogatás hozzáadása a SparkConnect addArtifact funkcióhoz
  • [SPARK-45814] [SC-147871][connect][SQL] Az ArrowConverters.createEmptyArrowBatch záró call és a close() függvény meghívása a memória szivárgás elkerülése érdekében.
  • [SPARK-46427] [SC-150759][python][SQL] A Python-adatforrás leírásának feldíszítése az átláthatóbb magyarázat érdekében.
  • [SPARK-45597] [SC-150730][python][SQL] Tábla létrehozásának támogatása Python-adatforrás használatával az SQL-ben (DSv2 exec)
  • [SPARK-46402] [SC-150700][python] GetMessageParameters és getQueryContext támogatás hozzáadása
  • [SPARK-46453] [SC-150897][connect] Kivételt dob internalError()SessionHolder-ban
  • [SPARK-45758] [SC-147454][sql] A Hadoop-tömörítési kodekek leképezésének bemutatása
  • [SPARK-46213] [PYTHON] Bevezetés PySparkImportError a hiba-keretrendszerbe
  • [SPARK-46230] [SC-149960][python] A RetriesExceeded migrálása a PySpark hibába
  • [SPARK-45035] [SC-145887][sql] Az ignoreCorruptFiles/ignoreMissingFiles és a többsoros CSV/JSON hibajelentése
  • [SPARK-46289] [SC-150846][sql] Az UDT-k sorrendbe állításának támogatása értelmezett módban
  • [SPARK-46229] [SC-150798][python][CONNECT] Az applyInArrow hozzáadása a groupBy és cogroup funkciókhoz a Spark Connectben
  • [SPARK-46420] [SC-150847][sql] A SparkSQLCLIDriver nem használt átvitelének eltávolítása
  • [SPARK-46226] [PYTHON] Az összes fennmaradó elem migrálása a PySpark hiba keretrendszerébe
  • [SPARK-45796] [SC-150613][sql] Support MODE() WITHIN GROUP (ORDER BY col)
  • [SPARK-40559] [SC-149686][python][14.X] Add függvény hozzáadása az applyInArrow-hoz a groupBy és cogroup használatával
  • [SPARK-46069] [SC-149672][sql] Támogatás az időbélyeg típus átalakítására dátum típusúvá
  • [SPARK-46406] [SC-150770][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1023
  • [SPARK-46431] [SC-150782][ss] IllegalStateException konvertálása internalError-ra a munkamenet iterátorokban
  • [SPARK-45807] [SC-150751][sql] A ViewCatalog API továbbfejlesztése
  • [SPARK-46009] [SC-149771][sql][CONNECT] Egyesítse a PercentileCont és a PercentileDisc elemzési szabályát a FunctionCall függvénybe
  • [SPARK-46403] [SC-150756][sql] Parquet bináris kódolása getBytesUnsafe metódussal
  • [SPARK-46389] [SC-150779][core] Manuálisan zárja be a RocksDB/LevelDB példányt, ha a checkVersion kivételt vált ki
  • [SPARK-46360] [SC-150376][python] A hibaüzenetek hibakeresésének javítása új getMessage API-val
  • [SPARK-46233] [SC-149766][python] Migrálja az összes fennmaradó AttributeError a PySpark hibakeretébe
  • [SPARK-46394] [SC-150599][sql] A spark.catalog.listDatabases() hibáinak kijavítása speciális karakterekkel rendelkező sémákon, ha spark.sql.legacy.keepCommandOutputSchema igazra van állítva
  • [SPARK-45964] [SC-148484][sql] Az XML- és JSON-csomagban lévő privát SQL-tartozék eltávolítása a katalizátorcsomag alatt
  • [SPARK-45856] [SC-148691] ArtifactManager áthelyezése a Spark Connectből a SparkSessionbe (sql/core)
  • [SPARK-46409] [SC-150714][connect] Spark-connect-scala-client launch script javítása
  • [SPARK-46416] [SC-150699][core] @tailrec hozzáadása HadoopFSUtils#shouldFilterOutPath
  • [SPARK-46115] [SC-149154][sql] A karakterkészletek korlátozása encode()
  • [SPARK-46253] [SC-150416][python] Python-adatforrások beolvasásának tervezése a MapInArrow használatával
  • [SPARK-46339] [SC-150266][ss] A kötegszám nevét tartalmazó címtárat nem szabad metaadatnaplóként kezelni
  • [SPARK-46353] [SC-150396][core] Refactor a RegisterWorker egységteszt lefedettségének javítása érdekében
  • [SPARK-45826] [SC-149061][sql] Adjon hozzá egy SQL-konfigurációt a DataFrame lekérdezési környezet veremkövetéseihez
  • [SPARK-45649] [SC-150300][sql] Az OffsetWindowFunctionFrame előkészítő keretrendszerének egységesítése
  • [SPARK-46346] [SC-150282][core] A főkiszolgáló javítása a feldolgozó UNKNOWN-ról ALIVERegisterWorker msg-n való frissítéséhez
  • [SPARK-46388] [SC-150496][sql] A HiveAnalysis nem veszi észre a query.resolved mintavédőt
  • [SPARK-46401] [SC-150609][core] A !isEmpty() használata a RoaringBitmap-on getCardinality() > 0 helyett RemoteBlockPushResolver-ben
  • [SPARK-46393] [SC-150603][sql] Kivételek osztályozása a JDBC táblakatalógusában
  • [SPARK-45798] [SC-150513][connect] Követés: serverSessionId hozzáadása a SessionHolderInfo-hoz
  • [SPARK-46153] [SC-146564][sc-150508][SQL] XML: TimestampNTZType támogatás hozzáadása
  • [SPARK-46075] [SC-150393][connect] Újítások a SparkConnectSessionManager-ben
  • [SPARK-46357] [SC-150596] A setConf helytelen dokumentációjának cseréje conf.setre
  • [SPARK-46202] [SC-150420][connect] Új ArtifactManager API-k közzététele egyéni célkönyvtárak támogatásához
  • [SPARK-45824] [SC-147648][sql] A hibaosztály alkalmazása a ParseException-re
  • [SPARK-45845] [SC-148163][ss][UI] A kitelepített állapotsorok számának hozzáadása a streamelési felhasználói felülethez
  • [SPARK-46316] [SC-150181][core] buf-lint-action engedélyezése core modulon
  • [SPARK-45816] [SC-147656][sql] Return NULL, amikor túlcsordulás történik az időbélyegből egész számra történő öntés során
  • [SPARK-46333] [SC-150263][sql] Cserélje le IllegalStateExceptionSparkException.internalError a katalizátorban
  • [SPARK-45762] [SC-148486][core] A felhasználói jarokban definiált shuffle-kezelők támogatása az indítási sorrend módosításával
  • [SPARK-46239] [SC-149752][core] Jetty adatainak elrejtése
  • [SPARK-45886] [SC-148089][sql] A teljes veremkövetést jelenítse meg a DataFrame-környezet callSite-ben.
  • [SPARK-46290] [SC-150059][python] A SaveMode módosítása logikai jelzőre a DataSourceWriter esetében
  • [SPARK-45899] [SC-148097][connect] Állítsa be az errorClass értékét az errorInfoToThrowable-ban
  • [SPARK-45841] [SC-147657][sql] A verem nyomkövetésének felfedése DataFrameQueryContext
  • [SPARK-45843] [SC-147721][core] A REST Submission API killall támogatásának támogatása
  • [SPARK-46234] [SC-149711][python] A PySpark hibakeretének PySparkKeyError bemutatása
  • [SPARK-45606] [SC-147655][sql] Kiadási korlátozások többrétegű futtatókörnyezet-szűrőn
  • [SPARK-45725] [SC-147006][sql] Távolítsa el a nem alapértelmezett IN subquery futtatókörnyezet szűrőt
  • [SPARK-45694] [SC-147314][spark-45695][SQL] Az elavult API használatának megtisztítása a View.force és ScalaNumberProxy.signum szempontjából.
  • [SPARK-45805] [SC-147488][sql] Általánosabb withOrigin
  • [SPARK-46292] [SC-150086][core][UI] A MasterPage-ben dolgozók összegzésének megjelenítése
  • [SPARK-45685] [SC-146881][core][SQL] LazyList használata Stream helyett
  • [SPARK-45888] [SC-149945][ss] Hibaosztály-keretrendszer alkalmazása state (metadata) adatforrásra
  • [SPARK-46261] [SC-150111][connect] DataFrame.withColumnsRenamed meg kell tartani a szótár/leképezés sorrendjét.
  • [SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] SeqOps.view és ArrayOps.view átalakítások törlése
  • [SPARK-46029] [SC-149255][sql] Az egyszeres idézőjel menekítése, valamint a _ és % kezelése a DS V2 lekérdezés-továbbításhoz
  • [SPARK-46275] [SC-150189] Protobuf: Null értéket ad vissza megengedő módban, ha a deszerializálás sikertelen.
  • [SPARK-46320] [SC-150187][core] Támogatás spark.master.rest.host
  • [SPARK-46092] [SC-149658][sql] Ne nyomja le a túlcsorduló Parquet sorcsoportszűrőket
  • [SPARK-46300] [SC-150097][python][CONNECT] Az oszlopban lévő kisebb viselkedések egyeztetése teljes tesztelési lefedettséggel
  • [SPARK-46298] [SC-150092][python][CONNECT] A Catalog.createExternalTable elavultsági figyelmeztetése, tesztesete és hibája
  • [SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Törölje a StringContext/StringOps/RightProjection/LeftProjection/Either és a BufferedIterator/CanBuildFrom/Traversable típushasználatával kapcsolatos elavult API-használatot
  • [SPARK-33393] [SC-148407][sql] Támogatás SHOW TABLE EXTENDED v2-ben
  • [SPARK-45737] [SC-147011][sql] Távolítsa el a szükségtelen .toArray[InternalRow] a(z) SparkPlan#executeTake-ból/-ből
  • [SPARK-46249] [SC-149797][ss] Példányzárolás megkövetelése a RocksDB-metrikák beszerzéséhez a háttérben futó verseny megakadályozása érdekében
  • [SPARK-46260] [SC-149940][python][SQL] DataFrame.withColumnsRenamed tiszteletben kell tartania a diktálási sorrendet
  • [SPARK-46274] [SC-150043] [SQL] A tartomány operátor computeStats() javítása a hosszú érvényesség ellenőrzéséhez konvertálás előtt
  • [SPARK-46040] [SC-149767][sql][Python] Az UDTF API frissítése, hogy az "elemezze" particionáló/rendezési oszlopokat az általános kifejezések támogatására.
  • [SPARK-46287] [SC-149949][python][CONNECT] DataFrame.isEmpty minden adattípussal működnie kell
  • [SPARK-45678] [SC-146825][core] Cover BufferReleasingInputStream.available/reset under tryOrFetchFailedException
  • [SPARK-45667] [SC-146716][core][SQL][connect] Törölje a IterableOnceExtensionMethodskapcsolatos elavult API-használatot.
  • [SPARK-43980] [SC-148992][sql] select * except szintaxist vezet be
  • [SPARK-46269] [SC-149816][ps] További NumPy kompatibilitási függvénytesztek engedélyezése
  • [SPARK-45807] [SC-149851][sql] Adjunk hozzá createOrReplaceView(..) / replaceView(..) a ViewCataloghoz
  • [SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] A Scala Array implicit függvényének bevezetése immutable.ArraySeq.
  • [SPARK-46205] [SC-149655][core] Javítsa a PersistenceEngine teljesítményét a KryoSerializer segítségével
  • [SPARK-45746] [SC-149359][python] Adott hibaüzeneteket ad vissza, ha az UDTF "analyze" vagy "eval" metódus helytelen értékeket fogad el vagy ad vissza
  • [SPARK-46186] [SC-149707][connect] Helytelen állapotváltás javítása, amikor az ExecuteThreadRunner megszakad, mielőtt elindulna
  • [SPARK-46262] [SC-149803][ps] A Pandas-on-Spark objektum np.left_shift tesztelésének engedélyezése.
  • [SPARK-45093] [SC-149679][connect][PYTHON] Az AddArtifactHandler hibakezelésének és konvertálásának megfelelő támogatása
  • [SPARK-46188] [SC-149571][doc][3.5] A Spark-dokumentum által létrehozott táblák CSS-jének javítása
  • [SPARK-45940] [SC-149549][python] Adjon hozzá InputPartition-t a DataSourceReader interfészhez
  • [SPARK-43393] [SC-148301][sql] Címütemezési kifejezés túlcsordulási hibája.
  • [SPARK-46144] [SC-149466][sql] Fail INSERT INTO ... REPLACE utasítás, ha a feltétel részkikérdezéseket tartalmaz
  • [SPARK-46118] [SC-149096][sql][SS][connect] SparkSession.sessionState.conf használata SQLContext.conf helyett, és a SQLContext.conf megjelölése elavultként
  • [SPARK-45760] [SC-147550][sql] Add With kifejezés hozzáadása az ismétlődő kifejezések elkerülése érdekében.
  • [SPARK-43228] [SC-149670][sql] Az illesztési kulcsok megfelelnek a PartitioningCollection parancsnak a CoalesceBucketsInJoin alkalmazásban
  • [SPARK-46223] [SC-149691][ps] A SparkPandasNotImplementedError tesztelése a nem használt kód tisztításával
  • [SPARK-46119] [SC-149205][sql] Felülbírál toString metódust UnresolvedAlias
  • [SPARK-46206] [SC-149674][ps] Szűkebb hatókörkivétel használata SQL-processzorhoz
  • [SPARK-46191] [SC-149565][core] Javítsa FileSystemPersistenceEngine.persist hibajelzést a meglévő fájl esetében
  • [SPARK-46036] [SC-149356][sql] Hibaosztály eltávolítása raise_error függvényből
  • [SPARK-46055] [SC-149254][sql] Katalógusadatbázis API-k implementációja újraírása
  • [SPARK-46152] [SC-149454][sql] XML: Decimális típus támogatása az XML-séma következtetésében
  • [SPARK-45943] [SC-149452][sql] A DetermineTableStats áthelyezése feloldási szabályokba
  • [SPARK-45887] [SC-148994][sql] A Encode kodenének és nem codegen implementációjának igazítása
  • [SPARK-45022] [SC-147158][sql] Adja meg az adathalmaz API-hibáinak kontextusát
  • [SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Cserélje ki a(z) toIteratoriterator-ra IterableOnce érdekében
  • [SPARK-46141] [SC-149357][sql] Állítsuk a spark.sql.legacy.ctePrecedencePolicy alapértelmezett értékét CORRECTED-re
  • [SPARK-45663] [SC-146617][core][MLLIB] Cserélje le IterableOnceOps#aggregateIterableOnceOps#foldLeft
  • [SPARK-45660] [SC-146493][sql] Literal objektumok ismételt használata a ComputeCurrentTime szabályban
  • [SPARK-45803] [SC-147489][core] Távolítsa el a már nem használt RpcAbortException
  • [SPARK-46148] [SC-149350][ps] Pyspark.pandas.mlflow.load_model teszt javítása (Python 3.12)
  • [SPARK-46110] [SC-149090][python] Hibaosztályok használata katalógusban, conf, connect, observation, pandas modulokban
  • [SPARK-45827] [SC-149203][sql] A kodgennel és vektorizált olvasóval kapcsolatos változatjavítások le vannak tiltva
  • [SPARK-46080] "[SC-149012][python] A Cloudpickle frissítése 3.0.0-ra"
  • [SPARK-45460] [SC-144852][sql] Cserélje le scala.collection.convert.ImplicitConversionsscala.jdk.CollectionConverters
  • [SPARK-46073] [SC-149019][sql] Távolítsa el a feloldatlannamespace speciális felbontását bizonyos parancsok esetén
  • [SPARK-45600] [SC-148976][python] Python-adatforrás-regisztrációs munkamenet szintjének beállítása
  • [SPARK-46074] [SC-149063][connect][SCALA] Az UDF-hiba hibaüzenetének nem megfelelő részletei
  • [SPARK-46114] [SC-149076][python] PySparkIndexError hozzáadása hiba keretrendszerhez
  • [SPARK-46120] [SC-149083][connect][PYTHON] A segédfüggvény eltávolítása DataFrame.withPlan
  • [SPARK-45927] [SC-148660][python] Python-adatforrás elérési útkezelésének frissítése
  • [SPARK-46062] [14.x][sc-148991][SQL] Szinkronizálja az isStreaming jelzőt a CTE-definíció és a hivatkozás között
  • [SPARK-45698] [SC-146736][core][SQL][ss] A Buffer-hez kapcsolódó elavult API-használat törlése
  • [SPARK-46064] [SC-148984][sql][SS] Helyezze át az EliminateEventTimeWatermark-ot az elemzőbe, és módosítsa úgy, hogy csak a megoldott gyermek elemre legyen hatással.
  • [SPARK-45922] [SC-149038][connect][CLIENT] Kisebb újrabontások (több szabályzat követése)
  • [SPARK-45851] [SC-148419][connect][SCALA] Több szabályzat támogatása a Scala-ügyfélben
  • [SPARK-45974] [SC-149062][sql] Adjon hozzá scan.filterAttributes nem-üres ellenőrzést a RowLevelOperationRuntimeGroupFiltering-hez.
  • [SPARK-46085] [SC-149049][connect] Dataset.groupingSets a Scala Spark Connect-ügyfélben
  • [SPARK-45136] [SC-146607][connect] A ClosureCleaner továbbfejlesztése Ammonite támogatással
  • [SPARK-46084] [SC-149020][ps] A kategorikus típus adattípusának átalakítási műveleteinek átdolgozása.
  • [SPARK-46083] [SC-149018][python] A SparkNoSuchElementException mint kanonikus hiba API létrehozása
  • [SPARK-46048] [SC-148982][python][CONNECT] DataFrame.groupingSets támogatása a Python Spark Connectben
  • [SPARK-46080] [SC-149012][python] A Cloudpickle frissítése 3.0.0-ra
  • [SPARK-46082] [SC-149015][python][CONNECT] A Pandas Functions API protobuf sztring-ábrázolásának javítása a Spark Connecttel
  • [SPARK-46065] [SC-148985][ps] Átalakítás (DataFrame|Series).factorize(), hogy create_maphasználja.
  • [SPARK-46070] [SC-148993][sql] Regex-minta fordítása a SparkDateTimeUtils.getZoneId-ben a gyorshurkon kívül
  • [SPARK-46063] [SC-148981][python][CONNECT] Az argumentumtípusokkal kapcsolatos hibaüzenetek javítása a "cute", "rollup", "groupby" és "pivot" funkciókban.
  • [SPARK-44442] [SC-144120][mesos] Mesos-támogatás eltávolítása
  • [SPARK-45555] [SC-147620][python] Hibakereső objektumot tartalmaz sikertelen állítás esetén
  • [SPARK-46048] [SC-148871][python][SQL] A DataFrame.groupingSets támogatása a PySparkban
  • [SPARK-45768] [SC-147304][sql][PYTHON] Állítsa be a hibakezelőt futtatókörnyezet-konfigurációvá a Python SQL-ben történő végrehajtásához
  • [SPARK-45996] [SC-148586][python][CONNECT] A Spark Connect megfelelő függőségi követelményüzeneteinek megjelenítése
  • [SPARK-45681] [SC-146893][ui] Az UIUtils.errorMessageCell js-verziójának klónozása a felhasználói felületen történő konzisztens hibamegjelenítés érdekében
  • [SPARK-45767] [SC-147225][core] TimeStampedHashMap és a hozzá tartozó UT törlése
  • [SPARK-45696] [SC-148864][core] Javítva: a Promise traitben lévő tryCompleteWith metódus elavultnak minősített
  • [SPARK-45503] [SC-146338][ss] Konfiguráció hozzáadása a RocksDB-tömörítés beállításához
  • [SPARK-45338] [SC-143934][core][SQL] Cserélje le scala.collection.JavaConvertersscala.jdk.CollectionConverters
  • [SPARK-44973] [SC-148804][sql] a ArrayIndexOutOfBoundsException kijavítása a conv()-ban
  • [SPARK-45912] [SC-144982][sc-148467][SQL] Az XSDToSchema API fejlesztése: Váltás a HDFS API-ra a felhőalapú tárolás akadálymentességéhez
  • [SPARK-45819] [SC-147570][core] Támogatás a REST Submission API clear esetében
  • [SPARK-45552] [14.x][sc-146874][PS] Rugalmas paraméterek bevezetése assertDataFrameEqual
  • [SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Adjon interfészt más streamelési forrásoknak _metadata oszlopok hozzáadásához
  • [SPARK-45929] [SC-148692][sql] Támogatás a groupingSets művelethez a dataframe API-ban
  • [SPARK-46012] [SC-148693][core] Az EventLogFileReader nem olvassa be a működés közbeni naplókat, ha hiányzik az alkalmazás állapotfájlja
  • [SPARK-45965] [SC-148575][sql] DSv2 particionálási kifejezések áthelyezése a functions.partitioning szolgáltatásba
  • [SPARK-45971] [SC-148541][core][SQL] Helyesbítse a SparkCollectionUtils csomag nevét org.apache.spark.util-ra
  • [SPARK-45688] [SC-147356][spark-45693][CORE] Tisztítsa fel az elavult API használatát a MapOps & Hibajavítás method += in trait Growable is deprecated
  • [SPARK-45962] [SC-144645][sc-148497][SQL] Távolítsa el a treatEmptyValuesAsNulls, és használja nullValue beállítást xml helyett
  • [SPARK-45988] [SC-148580][spark-45989][PYTHON] A Python 3.11+ list GenericAlias kezelésére használható típushiba javítása
  • [SPARK-45999] [SC-148595][ps] Dedikált PandasProduct használata cumprod
  • [SPARK-45986] [SC-148583][ml][PYTHON] pyspark.ml.torch.tests.test_distributor javítása a Python 3.11-ben
  • [SPARK-45994] [SC-148581][python] description-file módosítása description_file
  • [SPARK-45575] [SC-146713][sql] A df read API időutazási lehetőségeinek támogatása
  • [SPARK-45747] [SC-148404][ss] Az előtagkulcs adatainak használata az állapot metaadataiban a munkamenetablak-összesítés olvasási állapotának kezeléséhez
  • [SPARK-45898] [SC-148213][sql] A katalógustábla API-k újraírása megoldatlan logikai terv használatára
  • [SPARK-45828] [SC-147663][sql] Elavult metódus eltávolítása a dsl-ben
  • [SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Frissítse a protobuf 4.25.1-re a Python 3.11 támogatásához
  • [SPARK-45911] [SC-148226][core] A TLS1.3 legyen az alapértelmezett RPC SSL
  • [SPARK-45955] [SC-148429][ui] A Flamegraph és a szálképdump részletek összecsukható támogatása rendszeren belül
  • [SPARK-45936] [SC-148392][ps] Optimalizálja Index.symmetric_difference
  • [SPARK-45389] [SC-144834][sql][3.5] A partíciós metaadatok lekérésére vonatkozó MetaException egyeztetési szabály helyesbítése
  • [SPARK-45655] [SC-148085][sql][SS] Nem determinisztikus kifejezések engedélyezése az AggregateFunctionsben a CollectMetricsben
  • [SPARK-45946] [SC-148448][ss] Az elavult FileUtils-írás használatának javítása alapértelmezett karakterkészlet átadásához a RocksDBSuite-ban
  • [SPARK-45511] [SC-148285][ss] Állapotadat-forrás – Olvasó
  • [SPARK-45918] [SC-148293][ps] Optimalizálja MultiIndex.symmetric_difference
  • [SPARK-45813] [SC-148288][connect][PYTHON] A megfigyelt metrikák visszaadása parancsokból
  • [SPARK-45867] [SC-147916][core] Támogatás spark.worker.idPattern
  • [SPARK-45945] [SC-148418][connect] Segédfüggvény hozzáadása parser
  • [SPARK-45930] [SC-148399][sql] Nem determinisztikus UDF-ek támogatása a MapInPandas/MapInArrow alkalmazásban
  • [SPARK-45810] [SC-148356][python] Python UDTF API létrehozása a bemeneti tábla sorainak használatának leállításához
  • [SPARK-45731] [SC-147929][sql] A partícióstatisztikák frissítése ANALYZE TABLE paranccsal
  • [SPARK-45868] [SC-148355][connect] Győződjön meg arról, hogy spark.table ugyanazt az elemzőt használja a vanília sparkkal
  • [SPARK-45882] [SC-148161][sql] A BroadcastHashJoinExec particionálásának figyelembe kell venni a CoalescedHashPartitioninget.
  • [SPARK-45710] [SC-147428][sql] Nevek hozzárendelése _LEGACY_ERROR_TEMP_21 hibakódhoz[59 60 61 62]
  • [SPARK-45915] [SC-148306][sql] A decimal(x, 0)-t úgy kezeljük, mint az IntegralType-t PromoteStrings
  • [SPARK-45786] [SC-147552][sql] A pontatlan decimális szorzási és osztási eredmények javítása
  • [SPARK-45871] [SC-148084][connect] A connect modulok .toBuffer kapcsolatos optimalizálási gyűjteményátalakítása
  • [SPARK-45822] [SC-147546][connect] A SparkConnectSessionManager megkereshet egy leállított SparkContextet
  • [SPARK-45913] [SC-148289][python] A belső attribútumok titkossá tétele PySpark-hibákból.
  • [SPARK-45827] [SC-148201][sql] Variant-adattípus hozzáadása a Sparkban.
  • [SPARK-44886] [SC-147876][sql] A CREATE/REPLACE TABLECLUSTER BY záradékának bevezetése
  • [SPARK-45756] [SC-147959][core] Támogatás spark.master.useAppNameAsAppId.enabled
  • [SPARK-45798] [SC-147956][connect] Kiszolgálóoldali munkamenet-azonosító érvényesítése
  • [SPARK-45896] [SC-148091][sql] ValidateExternalType létrehozása a megfelelő várt típussal
  • [SPARK-45902] [SC-148123][sql] Távolítsa el a nem használt függvényeket resolvePartitionColumns a DataSource
  • [SPARK-45909] [SC-148137][sql] Távolítsa el a NumericType cast műveletet, ha biztonságosan fel lehet skálázni IsNotNull
  • [SPARK-42821] [SC-147715][sql] A splitFiles metódusok nem használt paramétereinek eltávolítása
  • [SPARK-45875] [SC-148088][core] MissingStageTableRowData eltávolítása core modulból
  • [SPARK-45783] [SC-148120][python][CONNECT] Javítsa a hibaüzeneteket, ha a Spark Connect mód engedélyezve van, de a távoli URL-cím nincs beállítva
  • [SPARK-45804] [SC-147529][ui] Spark.ui.threadDump.flamegraphEnabled konfiguráció hozzáadása a lánggráf be- és kikapcsolásához
  • [SPARK-45664] [SC-146878][sql] Az ORC-tömörítési kodekek leképezésének bemutatása
  • [SPARK-45481] [SC-146715][sql] A parquet tömörítési kodekek leképezésének bemutatása
  • [SPARK-45752] [SC-148005][sql] Egyszerűsítse a kódot a nem hivatkozott CTE-kapcsolatok ellenőrzéséhez
  • [SPARK-44752] [SC-146262][sql] XML: Spark Docs frissítése
  • [SPARK-45752] [SC-147869][sql] A nem hivatkozott CTE-t a CheckAnalysis0-nek kell ellenőriznie
  • [SPARK-45842] [SC-147853][sql] Refaktorálja a Katalógus Függvény API-kat az elemző használatához
  • [SPARK-45639] [SC-147676][sql][PYTHON] Python-adatforrások betöltése a DataFrameReaderben
  • [SPARK-45592] [SC-146977][sql] Az AQE és az InMemoryTableScanExec helyességi problémája
  • [SPARK-45794] [SC-147646][ss] Az állapot metaadatforrásának bemutatása a streamelési állapot metaadatainak lekérdezéséhez
  • [SPARK-45739] [SC-147059][python] Az IOException-t az EOFExceptionnel együtt fogja el a hibakezelő számára
  • [SPARK-45677] [SC-146700] Jobb hibanaplózás a Observation API-hoz
  • [SPARK-45544] [SC-146873][core] Ssl-támogatás integrálása a TransportContextbe
  • [SPARK-45654] [SC-147152][python] Python-adatforrás írási API hozzáadása
  • [SPARK-45771] [SC-147270][core] Alapértelmezés szerint engedélyezi a spark.eventLog.rolling.enabled
  • [SPARK-45713] [SC-146986][python] Python-adatforrások regisztrálásának támogatása
  • [SPARK-45656] [SC-146488][sql] A különböző adathalmazokon azonos nevű elnevezett megfigyelések megfigyelésének javítása
  • [SPARK-45808] [SC-147571][connect][PYTHON] Jobb hibakezelés SQL-kivételek esetén
  • [SPARK-45774] [SC-147353][core][UI] Támogatás spark.master.ui.historyServerUrlApplicationPage
  • [SPARK-45776] [SC-147327][core] Távolítsa el a védelmi null ellenőrzést, amelyet a SPARK-39553-ban adtak hozzá MapOutputTrackerMaster#unregisterShuffle számára.
  • [SPARK-45780] [SC-147410][connect] Propagálja az összes Spark Connect ügyfélszálhoz tartozó helyi változót az InheritableThread-ben
  • [SPARK-45785] [SC-147419][core] Támogatás spark.deploy.appNumberModulo az alkalmazás számának elforgatásához
  • [SPARK-45793] [SC-147456][core] A beépített tömörítési kodekek javítása
  • [SPARK-45757] [SC-147282][ml] Kerülje az NNZ újraszámítását a Binarizerben
  • [SPARK-45209] [SC-146490][core][UI] Flame Graph-támogatás végrehajtói szálképoldalhoz
  • [SPARK-45777] [SC-147319][core] Támogatás spark.test.appId-ben LocalSchedulerBackend
  • [SPARK-45523] [SC-146331][python] A null-ellenőrzés átszervezése rövidítésekkel
  • [SPARK-45711] [SC-146854][sql] Új leképező bevezetése az Avro-tömörítési kodekekhez
  • [SPARK-45523] [SC-146077][python] Hasznos hibaüzenetet ad vissza, ha az UDTF a None értéket adja vissza a nem null értékű oszlopokhoz
  • [SPARK-45614] [SC-146729][sql] Neveket hozzárendelni a _LEGACY_ERROR_TEMP_215[6,7,8] hibához
  • [SPARK-45755] [SC-147164][sql] A Dataset.isEmpty() javítása globális korlát alkalmazásával 1
  • [SPARK-45569] [SC-145915][sql] Rendeljen nevet a hibának _LEGACY_ERROR_TEMP_2153
  • [SPARK-45749] [SC-147153][core][WEBUI] Javítás Spark History ServerDuration oszlop helyes rendezéséhez
  • [SPARK-45754] [SC-147169][core] Támogatási spark.deploy.appIdPattern
  • [SPARK-45707] [SC-146880][sql] Egyszerűsítse le a DataFrameStatFunctions.countMinSketch-t a CountMinSketchAgg-mal
  • [SPARK-45753] [SC-147167][core] Támogatás spark.deploy.driverIdPattern
  • [SPARK-45763] [SC-147177][core][UI] A MasterPage úgy lesz fejlesztve, hogy a Resource oszlop csak akkor jelenjen meg, ha létezik.
  • [SPARK-45112] [SC-143259][sql] UnresolvedFunction-alapú felbontás használata AZ SQL Dataset függvényekben

Databricks ODBC/JDBC illesztőprogram támogatása

A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).

Karbantartási frissítések

Lásd a Databricks Runtime 14.3 karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 22.04.3 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.1.0

Telepített Python-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 attribútumok 22.1.0 backcall (visszahívás) 0.2.0
beautifulsoup4 4.11.1 fekete 22.6.0 fehérítő 4.1.0
villogó 1.4 boto3 1.24.28 botocore 1.27.96
tanúsítás 2022.12.7 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 kattintás 8.0.4 Közösség 0.1.2
contourpy 1.0.5 kriptográfia 39.0.1 biciklista 0.11.0
Cython 0.29.32 databricks-sdk 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 lakberendező 5.1.1 defusedxml 0.7.1
distlib 0.3.7 docstring markdown-vá alakítása 0,11 belépési pontok 0,4
Végrehajtó 0.8.3 aspektusok áttekintése 1.1.1 fastjsonschema 2.19.1
fájlzár 3.13.1 betűtípusok 4.25.0 googleapis-common-protos 1.62.0
grpcio 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jeepney 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
jupyter-client 7.3.4 jupyter-server 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kulcstartó 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 Mccabe 0.7.0
rosszra hangol 0.8.4 more-itertools 8.10.0 mypy-extensions 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
jegyzetfüzet 6.5.2 notebook_shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 csomagolás 23.2 pandas 1.5.3
pandocfilters 1.5.0 parso 0.8.3 útvonal specifikáció (pathspec) 0.10.3
Patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Párna 9.4.0 szignál 22.3.1 platformdirs 2.5.2
ábrázolás 5.9.0 pluggy 1.0.0 prometheus-client 0.14.1
prompt-toolkit 3.0.36 protobuf 4.24.0 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 8.0.0 pyarrow-hotfix 0,5 pycparser 2.21
pydantic 1.10.6 pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 pyright 1.1.294 pyrsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 python-lsp-server 1.8.0
pytoolconfig 1.2.5 pytz 2022.7 pyzmq 23.2.0
kérelmek 2.28.1 kötél 1.7.0 s3transfer 0.6.2
scikit-learn 1.1.1 scipy 1.10.0 tengeri 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 setuptools 65.6.3
Hat 1.16.0 sniffio 1.2.0 levesszűrő 2.3.2.post1
ssh-import-id 5,11 veremadatok 0.2.0 statsmodels 0.13.5
Kitartás 8.1.0 befejezve 0.17.1 threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
tornádó 6.1 tulajdonságok 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 felügyelet nélküli frissítések 0,1 urllib3 1.26.14
virtualenv 20.16.7 wadllib 1.3.6 wcwidth 0.2.5
webkódolások 0.5.1 websocket-client 0.58.0 whatthepatch 1.0.2
kerék 0.38.4 widgetsnbextension 3.6.1 yapf 0.33.0
zipp 1.0.0

Telepített R-kódtárak

Az R könyvtárak a Posit Package Manager CRAN-pillanatképéből lettek telepítve 2023.07.13-án : https://packagemanager.posit.co/cran/2023-07-13/.

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
nyíl 12.0.1 askpass 1,1 assertthat 0.2.1
visszamenőleges portolások 1.4.1 alap 4.3.1 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.4
indítás 1.3-28 sörfőzés 1.0-8 Brio 1.1.3
seprű 1.0.5 bslib 0.5.0 gyorsítótár 1.0.8
hívó 3.7.3 kalap 6.0-94 cellranger 1.1.0
chron 2.3-61 osztály 7.3-22 Cli 3.6.1
clipr 0.8.0 óra 0.7.0 klaszter 2.1.4
kódeszközök 0.2-19 színtér 2.1-0 commonmark 1.9.0
fordítóprogram 4.3.1 konfiguráció 0.3.1 ellentmondásos 1.2.0
cpp11 0.4.4 zsírkréta 1.5.2 hitelesítő adatok 1.3.2
csavarodik 5.0.1 data.table 1.14.8 adatkészletek 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Leírás 1.4.2
devtools 2.4.5 diagram 1.6.5 diffobj 0.3.5
összefoglaló 0.6.33 lefelé világított 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 három pont 0.3.2
értékel 0.21 rajongók 1.0.4 színek 2.1.1
gyorstérkép 1.1.1 fontawesome 0.5.1 macskák 1.0.0
foreach 1.5.2 külföldi 0.8-85 kovácsol 0.2.0
fs 1.6.2 jövő 1.33.0 future.apply 1.11.0
gargarizál 1.5.1 Generikus 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 globális 0.16.2 ragasztó 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafika 4.3.1 grDevices 4.3.1 rács 4.3.1
gridExtra 2.3 gsubfn 0,7 gtable 0.3.3
védősisak 1.3.0 kikötő 2.5.3 magasabb 0.10
hms 1.1.3 htmltools 0.5.5 HTML-widgetek 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Azonosítók 1.0.1 ini 0.3.1 ipred 0.9-14
izoband 0.2.7 iterátorok 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 knitr 1,43
címkézés 0.4.2 később 1.3.1 rács 0.21-8
láva 1.7.2.1 életciklus 1.0.3 figyelő 0.9.0
lubridate 1.9.2 magrittr 2.0.3 markdown 1,7
TÖMEG 7.3-60 Mátrix 1.5-4.1 memoise 2.0.1
módszerek 4.3.1 mgcv 1.8-42 pantomim 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modellező 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 parallel 4.3.1
párhuzamosan 1.36.0 pillér 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
plogr 0.2.0 lejátszó 1.8.8 dicséret 1.0.0
prettyunits 1.1.1 pROC 1.18.4 processx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 haladás 1.2.2
progressr 0.13.0 Ígéretek 1.2.0.1 Proto 1.0.0
helyettes 0.4-27 P.S. 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
olvasó 2.1.4 readxl 1.4.3 receptek 1.0.6
Visszavágó 1.0.1 visszavágó2 2.1.2 Távirányítók 2.4.2
reprodukálható példa 2.0.2 újraformázás2 1.4.4 rlang 1.1.1
rmarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.21 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 Sass 0.4.6 mérleg 1.2.1
selectr 0.4-2 munkamenet-információ 1.2.2 alak 1.4.6
Fényes 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
térbeli 7.3-15 görbék 4.3.1 sqldf 0.4-11
SQUAREM 2021.1 statisztika 4.3.1 statisztikák4 4.3.1
stringi 1.7.12 stringr 1.5.0 túlélés 3.5-5
sys 3.4.2 systemfonts 1.0.4 tcltk 4.3.1
testthat 3.1.10 szövegformázás 0.3.6 tibble 3.2.1
tidyr 1.3.0 tidyselect 1.2.0 tidyverse 2.0.0
időváltozás 0.2.0 időDátum 4022.108 tinytex 0,45
eszközök 4.3.1 tzdb 0.4.0 URL-ellenőrző 1.0.1
használd ezt 2.2.2 utf8 1.2.3 segédprogramok 4.3.1
uuid 1.1-0 vctrs 0.6.3 viridisLite 0.4.2
brumm 1.6.3 Waldo 0.5.1 bajusz 0.4.1
withr 2.5.0 xfun 0,39 xml2 1.3.5
xopen 1.0.0 xtable 1.8-4 yaml 2.3.7
fütyülés 2.3.0

Telepített Java és Scala könyvtárak (Scala 2.12 klászer verzió)

Csoportazonosító Artefakt azonosító Verzió
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics patak 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.13.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.3.4
com.fasterxml.jackson.core jackson-annotációk 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.koffein koffein 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-anyanyelvűek
com.github.fommil.netlib natív_rendszer-java 1,1
com.github.fommil.netlib native_system-java 1.1-őslakosok
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natív személyek
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-bennszülöttek
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Csellengő 1.9.0
com.google.errorprone hibára hajlamos annotációk 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava gujáva 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profilkészítő 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfiguráció 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-naplózás commons-naplózás 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib LAPACK 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift légkompresszor 0,25
io.delta delta-sharing-client_2.12 1.0.3
io.dropwizard.metrics metrikák jelölése 4.2.19
io.dropwizard.metrics metrika mag 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrikák-állapotellenőrzések 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-zokni 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx gyűjtő 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine savanyúság 1.3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr karakterlánc-sablon 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow nyílformátum 12.0.1
org.apache.arrow nyíl-memóriamag 12.0.1
org.apache.arrow nyíl-memória-netty 12.0.1
org.apache.arrow nyíl-vektor 12.0.1
org.apache.avro avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurátor-ügyfél 2.13.0
org.apache.curator kurátor-keretrendszer 2.13.0
org.apache.curator kurált receptek 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy borostyánkő 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus közönség-feljegyzések 0.13.0
org.apache.zookeeper állatgondozó 3.6.3
org.apache.zookeeper zookeeper-juta 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty Jetty-folytatás 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Mole-bővítmény 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty móló-biztonság 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket szerver 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Széljegyzetek 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Hézagoló lemezek 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-kompatibilis 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten ThreeTen-Extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2,0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1