Megosztás a következőn keresztül:


Databricks Runtime 11.3 LTS

Az alábbi kibocsátási megjegyzések az Apache Spark 3.3.0 által működtetett Databricks Runtime 11.3 LTS-ről nyújtanak információkat. A Databricks 2022 októberében adta ki ezt a verziót.

Feljegyzés

Az LTS azt jelenti, hogy ez a verzió hosszú távú támogatás alatt áll. Lásd: Databricks Runtime LTS-verzió életciklusa.

Tipp.

A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.

Működésbeli változások

[Kompatibilitástörő változás] Az új Python-verzióhoz a Databricks Connect V1 Python-ügyfelek frissítése szükséges

Feljegyzés

Egy későbbi frissítés a Databricks Runtime 11.3 LTS Python-verzióját a 3.9.21-es verzióra helyezi át. A 3.9.21-es verzió nem vezet be viselkedési változásokat.

A szükséges biztonsági javítások alkalmazásához a Databricks Runtime 11.3 LTS Python-verziója 3.9.5-ről 3.9.19-esre frissül. Mivel ezek a módosítások hibákhoz vezethetnek az adott PySpark-függvényeket használó ügyfeleknél, a Databricks Connect V1 for Pythont a Databricks Runtime 11.3 LTS-sel használó ügyfeleket Python 3.9.7-s vagy újabb verzióra kell frissíteni.

Új funkciók és fejlesztések

A Python 3.9.19-ről 3.9.21-re frissült

A Databricks Runtime 11.3 LTS Python-verziója 3.9.19-ről 3.9.21-es verzióra frissül.

A strukturált streamelési eseményindító egyszer elavult

A Trigger.Once beállítás elavult. A Databricks a használatát Trigger.AvailableNowjavasolja. Lásd: Strukturált streamelési eseményindítók időközeinek konfigurálása.

Az automatikus betöltő forrásútvonalának módosítása

Mostantól anélkül módosíthatja az automatikus betöltő könyvtárbemeneti elérési útját, hogy új ellenőrzőpont-könyvtárat kellene választania. Lásd: Az automatikus betöltő forrásútvonalának módosítása.

A Databricks Kinesis-összekötő mostantól támogatja a Kinesis-adatfolyamok olvasását EFO módban

Mostantól a Databricks Kinesis strukturált streamforrást használhatja a Databricks Runtime 11.3 LTS-ben a Kinesis-adatfolyamokból beolvasott lekérdezések továbbfejlesztett kisugárzó módban való futtatásához. Ez lehetővé teszi a dedikált átviteli sebességet szegmensenként, fogyasztónként és a leküldéses módban történő rekordkézbesítést.

Új H3 térinformatikai függvények és foton-támogatás az összes H3 függvényhez

4 új H3 függvény, h3_maxchild, h3_minchildés h3_pointash3h3_pointash3string. Ezek a függvények az SQL, a Scala és a Python alkalmazásban érhetők el. A Photon mostantól minden H3-kifejezést támogat. Lásd: H3 térinformatikai függvények.

A prediktív I/O új funkciói

A Photon a keretek futtatásához támogatja a tartomány módot a RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon is támogatja a tartomány mód növekvő keretek használatával RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

A kezdeti partíciók növelése szelektív lekérdezések kereséséhez

A vizsgálandó kezdeti partíciók értéke 10-re nőtt a szelektív lekérdezések take/tail/limit esetében a Photon-kompatibilis fürtökben és LIMIT a Databricks SQL-ben. 10 partícióval elkerülheti a több kisebb feladat elindításának és a lassú felskálázásnak a többletterhelését. Ezt konfigurálhatja a használatával spark.sql.limit.selectiveInitialNumPartitionsis.

Új AQE-csomagverziók vizualizációja

Az AQE-csomagverziók bemutatása, amelyek lehetővé teszik a futtatókörnyezeti terv frissítésének megjelenítését az adaptív lekérdezések végrehajtásából (AQE).

Új aszinkron folyamatkövetési és naplótisztítási módok

A strukturált streamelési módokat aszinkron folyamatkövetésnek és aszinkron naplótisztításnak nevezzük. Az aszinkron naplótisztítási mód csökkenti a streamelési lekérdezések késését azáltal, hogy eltávolítja a háttérben a folyamatkövetéshez használt naplókat.

A Unity Catalog strukturált streamelése mostantól támogatja display()

Mostantól használhatja display() a Strukturált streamelést a Unity Katalógusban regisztrált táblák használatához.

A folyamatesemények most JSON formátumban vannak naplózva

Az Azure Databricks most JSON formátumban írja a folyamateseményeket az illesztőnaplóba. Bár minden esemény JSON-elemezhető lesz, előfordulhat, hogy a nagy események nem tartalmazzák az összes mezőt, vagy a mezők csonkolódhatnak. A rendszer minden eseményt egyetlen sorban naplóz az előtaggal Event received: . Az alábbiakban egy példaesemény látható.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Tetszőleges állapotalapú feldolgozás strukturált streamelésben Pythonnal

Bemutatja azt a applyInPandasWithState függvényt, amely tetszőleges állapotalapú feldolgozáshoz használható a PySparkban. Ez egyenértékű a flatMapGroupsWithState Java API függvényével.

Dátumkövetkeztetés CSV-fájlokban

Továbbfejlesztett következtetést vezet be a CSV-fájlok dátumtípus-oszlopaiból. Ha a dátumformátum egy oszlop rekordjaiban konzisztens, ezek az oszlopok a következőként DateTypekövetkeztethetők: . A dátumformátumok különböző oszlopokban is használhatók. Az Azure Databricks automatikusan ki tudja következtetni az egyes oszlopok dátumformátumát. A Databricks Runtime 11.3 LTS előtti CSV-fájlok dátumoszlopai megmaradnak.StringType

Apache Parquet- és Apache Iceberg-táblák klónozási támogatása (nyilvános előzetes verzió)

A klón mostantól használható apache parquet- és Apache Iceberg-táblákat tükröző Delta-táblák létrehozására és növekményes frissítésére. Frissítheti a forrás Parquet-táblát, és növekményesen alkalmazhatja a módosításokat a klónozott Delta-táblára a klónozási paranccsal. Tekintsd meg a Parquet- és Iceberg-táblák fokozatos klónozását a Delta Lake-nál, lásd .

Az SQL használatával séma- és katalógusszintű tárolási helyeket adhat meg a Unity Catalog által felügyelt táblákhoz

Mostantól a MANAGED LOCATION SQL-paranccsal megadhatja a felügyelt táblák felhőbeli tárolási helyét a katalógus és a séma szintjén. Lásd: CREATE CATALOG és CREATE SCHEMA.

Viselkedésbeli változások

Databricks Connect 11.3.2

A Databricks Connect 11.3.2-s ügyfélfrissítése mostantól támogatott. Lásd a Databricks Connect és a Databricks Connect kibocsátási megjegyzéseit.

Frissített Azure Databricks Snowflake-összekötő

Az Azure Databricks Snowflake-összekötő az Apache Sparkhoz készült Snowflake-adatforrás nyílt forráskódú adattárból származó kód legújabb verziójára lett frissítve. Most már teljes mértékben kompatibilis a Databricks Runtime 11.3 LTS-vel, beleértve a predikátum leküldését és a belső lekérdezésterv leküldését, miközben fenntartja a nyílt forráskódú verzió összes funkcióját.

Az S3A Hadoop-gyorsítótára mostantól le van tiltva

Az S3A-hoz készült Hadoop-gyorsítótár (FileSystem Apache Hadoop Main 3.3.4 API) le van tiltva. Ez a más felhőalapú tároló-összekötőkkel való összhangban van. A fájlrendszer gyorsítótárazására támaszkodó számítási feladatok esetében győződjön meg arról, hogy az újonnan létrehozott fájlrendszerek a megfelelő Hadoop-konfigurációkkal vannak ellátva, beleértve a hitelesítőadat-szolgáltatókat is.

A Delta Lake stats-gyűjteményséma most már megfelel a táblaséma definíciójában szereplő oszlopsorrendnek

Ez a módosítás a Delta Lake protokoll azon hibáját oldja meg, amely miatt a DataFrame és a táblaoszlopok sorrendje nem egyezik az oszlopok statisztikáival. Bizonyos esetekben előfordulhat, hogy a korábban nem nyomon követett mezők statisztikáinak gyűjtése miatt romlik az írási teljesítmény. Lásd: A Delta Lake adatkihagyása.

az applyInPandasWithState hibát jelez, ha a lekérdezés az operátor után shuffle

Az operátor applyInPandasWithState hibát jelez, ha a lekérdezés az operátor után található shuffle . Ez akkor fordul elő, ha a felhasználó a művelet után hozzáad shuffle , vagy az optimalizáló vagy a fogadó implicit módon adja hozzá shuffle .

Könyvtárfrissítések

  • Frissített Python-kódtárak:
    • eloszlás 0,3,5-ről 0,3,6-ra
  • Frissített R-kódtárak:
    • seprű 1.0.0 és 1.0.1 között
    • hívó 3.7.1 és 3.7.2 között
    • dplyr 1.0.9 és 1.0.10 között
    • dtplyr 1.2.1-től 1.2.2-esig
    • forcats 0.5.1 és 0.5.2 között
    • 1.27.0-tól 1.28.0-ra
    • future.apply from 1.9.0 to 1.9.1
    • gert 1.7.0-tól 1.8.0-ra
    • 0.16.0 és 0.16.1 közötti globális
    • 0.3.0-tól 0.3.1-ig
    • 2.5.0 és 2.5.1 között
    • 1.1.1 és 1.1.2 közötti hms
    • httr 1.4.3–1.4.4
    • knitr 1,39-től 1,40-ig
    • modellező 0.1.8 és 0.1.9 között
    • oszlop 1.8.0 és 1.8.1 között
    • progressr 0.10.1-től 0.11.0-ra
    • readxl 1.4.0 és 1.4.1 között
    • reprex 2.0.1 és 2.0.2 között
    • rlang 1.0.4-től 1.0.5-ig
    • rmarkdown 2.14-től 2.16-ig
    • RSQLite 2.2.15-től 2.2.16-osig
    • rstudioapi 0,13 és 0,14 között
    • 2.1.1 és 2.1.2 közötti átirányítások
    • rvest 1.0.2-től 1.0.3-ra
    • skálázás 1.2.0-ról 1.2.1-re
    • sparklyr 1.7.7-től 1.7.8-ra
    • sztring 1.4.0 és 1.4.1 között
    • túlélés 3,2-13-ról 3,4-0-ra
    • tinytex 0,40 és 0,41 között
    • viridisLite 0.4.0 és 0.4.1 között
  • Frissített Java-kódtárak:
    • com.fasterxml.jackson.core.jackson-annotations from 2.13.3 to 2.13.4
    • com.fasterxml.jackson.core.jackson-core 2.13.3 és 2.13.4 között
    • com.fasterxml.jackson.core.jackson-databind 2.13.3 és 2.13.4 között
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor from 2.13.3 to 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda 2.13.3 és 2.13.4 között
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 2.13.3 és 2.13.4 között
    • com.fasterxml.jackson.module.jackson-module-paranamer 2.13.3-2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 2.13.3 és 2.13.4 között
    • org.apache.hadoop.hadoop-client-api a 3.3.2-databrickstől a 3.3.4-databricksig
    • org.apache.hadoop.hadoop-client-runtime 3.3.2 és 3.3.4 között
    • org.apache.orc.orc-core 1.7.5-től 1.7.6-osig
    • org.apache.orc.orc-mapreduce 1.7.5-től 1.7.6-osig
    • org.apache.orc.orc-shims 1.7.5-től 1.7.6-osig
    • org.apache.parquet.parquet-column from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-common from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet 2,34-2,36
    • org.glassfish.jersey.containers.jersey-container-servlet-core 2,34-2,36
    • org.glassfish.jersey.core.jersey-client 2,34-2,36
    • org.glassfish.jersey.core.jersey-common 2,34-2,36
    • org.glassfish.jersey.core.jersey-server 2.34-2.36
    • org.glassfish.jersey.inject.jersey-hk2 2,34-2,36

Apache Spark

A Databricks Runtime 11.3 LTS tartalmazza az Apache Spark 3.3.0-t. Ez a kiadás tartalmazza a Databricks Runtime 11.2 -ben (EoS) található összes Spark-javítást és fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:

  • [SPARK-39957] [WARMFIX][sc-111425][CORE] Késleltetés az illesztőprogramnak az ExecutorExitCode fogadásához való engedélyezéséhez
  • [SPARK-39955] [WARMFIX][sc-111424][CORE] A LaunchTask folyamat javítása a LaunchTask-üzenetek sikertelen küldése által okozott szakaszhibák elkerülése érdekében
  • [SPARK-40474] [SC-106248][cherry-pick] A CSV-séma következtetési viselkedésének javítása a datetime oszlopok esetében, és automatikus észlelés bevezetése a Dátum mezőkhöz
  • [SPARK-40535] [SC-111243][sql] Kijavítottuk a hibát, amely miatt az AggregatingAccumulator puffere nem jött létre, ha a bemeneti sorok üresek voltak.
  • [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][PYTHON] Implementálja az applyInPandasWithState-t a PySparkban
  • [SPARK-40460] [SC-110832][ss] A streamelési metrikák javítása a _metadata kiválasztásakor
  • [SPARK-40324] [SC-109943][sql] Adja meg a ParseException lekérdezési környezetét
  • [SPARK-40466] [SC-110899][ss] Javítsa a hibaüzenetet, ha a DSv2 le van tiltva, miközben a DSv1 nem érhető el
  • [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext-nek olcsónak kell lennie a többszöri híváshoz
  • [SPARK-40169] [SC-110772][sql] Ne nyomja le a Parquet-szűrőket adatséma nélkül
  • [SPARK-40467] [SC-110759][ss] FlatMapGroupsWithState felosztása több tesztcsomagra
  • [SPARK-40468] [SC-110813][sql] Az oszlopmetszet javítása CSV-ben, ha _corrupt_record van kiválasztva
  • [SPARK-40291] [SC-110085][sql] A „nem szerepel a GROUP BY záradékban” hibaüzenet javítása oszlophoz
  • [SPARK-40398] [SC-110762][core][SQL] A Arrays.stream api helyett használjon hurkot
  • [SPARK-40433] [SC-110684][ss][PYTHON] Adjunk hozzá 'toJVMRow' a PythonSQLUtils-hez, hogy a pickle-ben tárolt PySpark Row-t átalakítsuk JVM Row-vá.
  • [SPARK-40414] [SC-110568][sql][PYTHON] A PythonArrowInput és a PythonArrowOutput általánosabb típusa
  • [SPARK-40352] [SC-109945][sql] Függvény aliasainak hozzáadása: len, datepart, dateadd, date_diff és curdate
  • [SPARK-40470] [SC-110761][sql] A GetArrayStructFields és a GetMapValue kezelése a "arrays_zip" függvényben
  • [SPARK-40387] [SC-110685][sql] A Spark Decimális implementációjának javítása
  • [SPARK-40429] [SC-110675][sql] Csak akkor állítsa be a KeyGroupedPartitioninget, ha a hivatkozott oszlop a kimenetben van
  • [SPARK-40432] [SC-110716][ss][PYTHON] A GroupStateImpl és a GroupStateTimeout bevezetése a PySparkban
  • [SPARK-39915] [SC-110496][sql] Győződjön meg arról, hogy a kimeneti particionálás felhasználó által megadott az AQE-ben
  • [SPARK-29260] [SQL] Támogatás ALTER DATABASE SET LOCATION , ha a HMS támogatja
  • [SPARK-40185] [SC-110056][sql] Eltávolítja az oszlopjavaslatot, ha a jelöltlista üres
  • [SPARK-40362] [SC-110401][sql] A BinaryComparison kanonizáció javítása
  • [SPARK-40411] [SC-110381][ss] Refactorálja a FlatMapGroupsWithStateExec-et, hogy legyen egy szülői trait-je
  • [SPARK-40293] [SC-110084][sql] A V2-tábla hibaüzenetének érthetőbbé tétele
  • [SPARK-38734] [SC-110383][sql] Távolítsa el a hibaosztályt INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][sql] Az oszlopnevek javítása a "arrays_zip" függvényben, ha a tömbök beágyazott szerkezetekből vannak hivatkozva
  • [SPARK-40276] [SC-109674][core] Csökkentse az RDD.takeOrdered eredményméretét
  • [SPARK-40197] [SC-109176][sql] Cserélje le a lekérdezési tervet a MULTI_VALUE_SUBQUERY_ERROR környezetéhez.
  • [SPARK-40300] [SC-109942][sql] Migrálás a DATATYPE_MISMATCH hibaosztályba
  • [SPARK-40149] [SC-110055][sql] Metaadatoszlopok propagálása a Projecten keresztül
  • [SPARK-40280] [SC-110146][sql] Támogatás hozzáadása a Parquet leküldéséhez annotációkkal ellátott int és long esetén
  • [SPARK-40220] [SC-110143][sc-109175][SQL] Ne adja ki a hibaüzenet paramétereinek üres térképét
  • [SPARK-40295] [SC-110070][sql] V2 függvények engedélyezése literális argumentumokkal az írási eloszlásban/rendezésben
  • [SPARK-40156] [SC-109264][sql] url_decode() hibaosztály visszaadása esetén
  • [SPARK-39195] [SQL] A Spark OutputCommitCoordinatornak megszakítja a fázist, ha a véglegesített fájl nem összhangban van a tevékenység állapotával
  • [SPARK-40260] [SC-109424][sql] Hibaosztályok használata egy pozíció GROUP BY fordítási hibáiban
  • [SPARK-40205] [SC-110144][sc-109082][SQL] Adja meg ELEMENT_AT_BY_INDEX_ZERO lekérdezési környezetét
  • [SPARK-40112] [SC-109676][sql] A TO_BINARY() függvény javítása
  • [SPARK-40209] [SC-109081][sql] Hiba esetén ne módosítsa a decimális intervallumértéket changePrecision()
  • [SPARK-40319] [SC-109873][sql] A PARSE_DATETIME_BY_NEW_PARSER ismétlődő lekérdezés-végrehajtási hibametódusának eltávolítása
  • [SPARK-40222] [SC-109209][sql] A numerikus try_add/try_divide/try_subtract/try_multiply hibát kell jelezniük gyermekeiktől
  • [SPARK-40183] [SC-108907][sql] A NUMERIC_VALUE_OUT_OF_RANGE hibaosztály használata decimális konverzió túlcsordulás esetén
  • [SPARK-40180] [SC-109069][sql] Hibaüzenetek formázása spark-sql
  • [SPARK-40153] [SC-109165][sql] Az értelmezési függvények és a táblázatértékű függvények egységesítése
  • [SPARK-40308] [SC-109880][sql] Nem összecsukható elválasztó argumentumok engedélyezése str_to_map függvényhez
  • [SPARK-40219] [SC-110052][sc-109663][SQL] A feloldott nézet logikai tervének a sémát kell tárolnia a redundáns keresés elkerülése érdekében
  • [SPARK-40098] [SC-109939][sc-108693][SQL] Hibaüzenetek formázása a Thrift Serverben
  • [SPARK-39917] [SC-109038][sql] Különböző hibaosztályok használata numerikus/intervallum-aritmetikai túlcsorduláshoz
  • [SPARK-40033] [SC-109875][sql] Beágyazott sémarészletezés támogatása az element_at segítségével
  • [SPARK-40194] [SC-109660][sql] A SPLIT függvénynek üres reguláris kifejezésen kell csonkítania a végén lévő üres karakterláncot.
  • [SPARK-40228] [SC-109835][sql] Ne egyszerűsítse a multiLiket, ha a gyermek nem olcsó kifejezés
  • [SPARK-40039] [SC-109896][sc-109260][SS] A Hadoop Abortable felületén alapuló streamelési ellenőrzőpont-fájlkezelő bemutatása
  • [SPARK-40285] [SC-109679][sql] Egyszerűsítse a roundTo[Numeric]-t a Spark Decimal-hez.
  • [SPARK-39896] [SC-109658][sql] A UnwrapCastInBinaryComparison függvénynek akkor kell működnie, ha az In/InSet downcast literálja meghiúsult
  • [SPARK-40040] [SC-109662][sql] Helyi korlát leküldése mindkét oldalra, ha az illesztés feltétele üres
  • [SPARK-40055] [SC-109075][sql] A listCatalogs-nak akkor is vissza kell adnia a spark_catalog-ot, ha a spark_catalog implementáció az alapértelmezettSessionCatalog.
  • [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) nem hozhat létre N partíciókat nem AQE-részként
  • [SPARK-40207] [SC-109401][sql] Adja meg az oszlop nevét, ha az adatforrás nem támogatja az adattípust
  • [SPARK-40245] [SC-109295][sql] Kijavítottuk a FileScan egyenlőségi ellenőrzését, ha a partíció- vagy adatszűrőoszlopok nem olvashatók
  • [SPARK-40113] [SC-109405][sql] Reactor ParquetScanBuilder DataSourceV2 interfész implementációi
  • [SPARK-40211] [SC-109226][core][SQL] Lehetővé teszi a kezdeti partíciók számának testreszabását a take() viselkedésben
  • [SPARK-40252] [SC-109379][sql] Cserélje le Stream.collect(Collectors.joining)StringJoiner Api-ra
  • [SPARK-40247] [SC-109272][sql] BitSet-egyenlőségi ellenőrzés javítása
  • [SPARK-40067] [SQL] A Tábla#név() használata a Scan#name() helyett a tábla nevének feltöltéséhez a SparkUI BatchScan csomópontjában
  • [SPARK-39966] [SQL] V2-szűrő használata a SupportsDelete-ben
  • [SPARK-39607] [SC-109268][sql][DSV2] A V2-t támogató függvények elosztása és sorrendbe helyezése írásban
  • [SPARK-40224] [SC-109271][sql] Az ObjectHashAggregateExec gyorsan felszabadítja a memóriát, amikor visszaáll a rendezésalapú módszerre.
  • [SPARK-40013] [SQL] A DS V2-kifejezéseknek alapértelmezettnek kell lennie toString
  • [SPARK-40214] [SC-109079][python][SQL] adja hozzá a "get" függvényt
  • [SPARK-40192] [SC-109089][sql][ML] Redundáns csoport eltávolítása
  • [SPARK-40146] [SC-108694][sql] Egyszerűen a leképezési érték lekérésének kódneve
  • [SPARK-40109] [SQL] Új SQL-függvény: get()
  • [SPARK-39929] [SQL] A DS V2 támogatja a sztringfüggvények leküldését (nem ANSI)
  • [SPARK-39819] [SQL] A DS V2 aggregátum leküldése használható a Top N vagy a Paging használatával (kifejezésekkel való rendezés)
  • [SPARK-40213] [SC-109077][sql] Támogatja az ASCII értékátalakítást latin-1 karakter esetén
  • [SPARK-39887] [SQL] A RemoveRedundantAliases-nek meg kell őriznie azokat az aliasokat, amelyek egyedivé teszik a vetítési csomópontok kimenetét
  • [SPARK-39764] [SQL] A PhysicalOperation ugyanaz, mint a ScanOperation
  • [SPARK-39964] [SQL] A DS V2 leküldéses leküldésének egyesítenie kell a fordítási útvonalat
  • [SPARK-39528] [SQL] V2-szűrő használata a SupportsRuntimeFilteringben
  • [SPARK-40066] [SQL] ANSI mód: mindig null értéket ad vissza a térképoszlophoz való érvénytelen hozzáféréskor
  • [SPARK-39912] [SPARK-39828][sql] CatalogImpl finomítása
  • [SPARK-39833] [SC-108736][sql] Tiltsa le a parquet oszlopindexet a DSv1-ben az átfedésben lévő partíciók és adatoszlopok hibajavításához
  • [SPARK-39880] [SQL] V2 SHOW FUNCTIONS parancsnak minősített függvénynevet kell nyomtatnia, például v1
  • [SPARK-39767] [SQL] Távolítsa el a UnresolvedDBObjectName nevet, és adja hozzá a UnresolvedIdentifiert
  • [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Térkép)
  • [SPARK-40136] [SQL] Az SQL-lekérdezési környezetek töredékének javítása
  • [SPARK-40107] [SC-108689][sql] Üres-2-null átalakítás eltávolítása a FileFormatWriterből
  • [SPARK-40121] [PYTHON][sql] A Python UDF-hez használt kivetítés inicializálása
  • [SPARK-40128] [SQL] A VectorizedColumnReader felismerése DELTA_LENGTH_BYTE_ARRAY önálló oszlopkódolásként
  • [SPARK-40132] [ML] Restore rawPredictionCol to MultilayerPerceptronClassifier.setParams
  • [SPARK-40050] [SC-108696][sql] EliminateSorts továbbfejlesztése a sortrendezések eltávolításának támogatására LocalLimit
  • [SPARK-39629] [SQL] Támogatás v2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][sql] Array_sort(oszlop, összehasonlító) túlterhelés hozzáadása DataFrame-műveletekhez
  • [SPARK-40117] [PYTHON][sql] Állapot konvertálása Java-ra a DataFrameWriterV2.overwrite-ban
  • [SPARK-40105] [SQL] Az újraparticionálás javítása a ReplaceCTERefWithRepartition alkalmazásban
  • [SPARK-39503] [SQL] Munkamenet-katalógus nevének hozzáadása az 1. verziójú adatbázistáblához és -függvényhez
  • [SPARK-39889] [SQL] Különböző hibaosztályok használata numerikus/intervallum 0-tal osztva
  • [SPARK-39741] [SQL] Az URL-kódolás/dekódolás támogatása beépített függvényként, valamint az URL-hez kapcsolódó függvények rendezettsége
  • [SPARK-40102] [SQL] SparkException használata IllegalStateException helyett a SparkPlanban
  • [SPARK-40014] [SQL] Decimális osztás támogatása ANSI-intervallumokra
  • [SPARK-39776] [SQL][kövesse] A PlanStabilitySuite UT frissítése ANSI módban
  • [SPARK-39963] [SQL] Egyszerűsít SimplifyCasts.isWiderCast

Karbantartási frissítések

Lásd a Databricks Runtime 11.3 karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.21
  • R: 4.1.3
  • Delta Lake: 2.1.0

Telepített Python-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
argon2-cffi 20.1.0 aszinkron generátor 1.10 attrs 21.2.0
backcall 0.2.0 backports.entry-points-selectable 1.1.1 fekete 22.3.0
fehérítő 4.0.0 boto3 1.21.18 botocore 1.24.18
minősítés 2021.10.8 cffi 1.14.6 karakterkészlet 4.0.0
charset-normalizer 2.0.4 kattintás 8.0.3 kriptográfia 3.4.8
biciklista 0.10.0 Cython 0.29.24 dbus-python 1.2.16
hibakeresés 1.4.1 lakberendező 5.1.0 defusedxml 0.7.1
distlib 0.3.6 belépési pontok 0.3 aspektusok áttekintése 1.0.0
filelock 3.8.0 idna 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets 7.7.0
jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 jupyter-client 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgetek 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-inline 0.1.2 mistune 0.8.4 mypy-extensions 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 jegyzetfüzet 6.4.5 numpy 1.20.3
csomagolás 21,0 pandas 1.3.4 pandocfilters 1.4.3
parso 0.8.2 pathspec 0.9.0 Patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Párna 8.4.0
mag 21.2.4 platformdirs 2.5.2 ábrázolás 5.9.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-dateutil 2.8.2 pytz 2021.3
pyzmq 22.2.1 kérelmek 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
tengeri 0.11.2 Send2Trash 1.8.0 setuptools 58.0.4
Hat 1.16.0 ssh-import-id 5.10 statsmodels 0.12.2
Kitartás 8.0.1 terminado 0.9.4 testpath 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádó 6.1 árulók 5.1.0 gépelés-bővítmények 3.10.0.2
felügyelet nélküli frissítések 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 kerék 0.37.0
widgetsnbextension 3.6.0

Telepített R-kódtárak

Az R-kódtárak a Microsoft CRAN-pillanatképből vannak telepítve 2022-09-08-án. A pillanatkép már nem érhető el.

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
askpass 1,1 assertthat 0.2.1 backports 1.4.1
alap 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 indítás 1.3-28
főz 1.0-7 Brio 1.1.3 seprű 1.0.1
bslib 0.4.0 gyorsítótár 1.0.6 hívó 3.7.2
kalap 6.0-93 cellranger 1.1.0 chron 2.3-57
osztály 7.3-20 Cli 3.3.0 clipr 0.8.0
fürt 2.1.3 kódtoolok 0.2-18 színtér 2.0-3
commonmark 1.8.0 fordítóprogram 4.1.3 config 0.3.1
cpp11 0.4.2 zsírkréta 1.5.1 Megbízólevél 1.3.2
csavarodik 4.3.2 Adattábla 1.14.2 adatkészletek 4.1.3
DBI 1.1.3 dbplyr 2.2.1 Desc 1.4.1
devtools 2.4.4 diffobj 0.3.5 emészt 0.6.29
levilágított 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 három pont 0.3.2 evaluate 0,16
fani 1.0.3 farver 2.1.1 gyorstérkép 1.1.0
fontawesome 0.3.0 forcats 0.5.2 foreach 1.5.2
külföldi 0.8-82 kovácsol 0.2.0 Fs 1.5.2
jövő 1.28.0 future.apply 1.9.1 gargarizál 1.2.0
Generikus 0.1.3 Gert 1.8.0 ggplot2 3.3.6
Gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globális 0.16.1 ragasztó 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 Gower 1.0.0 grafika 4.1.3
grDevices 4.1.3 rács 4.1.3 gridExtra 2.3
gsubfn 0,7 gtable 0.3.1 hardhat 1.2.0
kikötő 2.5.1 highr 0,9 Hms 1.1.2
htmltoolok 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 Azonosítók 1.0.1 ini 0.3.1
ipred 0.9-13 izoband 0.2.5 iterátorok 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1,40 címkézés 0.4.2 később 1.3.0
rács 0.20-45 láva 1.6.10 életciklus 1.0.1
figyelő 0.8.0 lubridate 1.8.0 magrittr 2.0.3
markdown 1,1 TÖMEG 7.3-56 Mátrix 1.4-1
memoise 2.0.1 metódusok 4.1.3 mgcv 1.8-40
MIME 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modellező 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
parallel 4.1.3 párhuzamosan 1.32.1 pillér 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 rétegelt 1.8.7
dicséret 1.0.0 prettyunits 1.1.1 Proc 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
haladás 1.2.2 progressr 0.11.0 Ígér 1.2.0.1
Proto 1.0.0 helyettes 0.4-27 Ps 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 olvasó 2.1.2 readxl 1.4.1
receptek 1.0.1 Visszavágót 1.0.1 visszavágó2 2.1.2
Távirányító 2.4.2 reprex 2.0.2 újraformázás2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0,14
rversions 2.1.2 rvest 1.0.3 Sass 0.4.2
mérleg 1.2.1 választó 0.4-2 sessioninfo 1.2.2
alak 1.4.6 Fényes 1.7.2 sourcetools 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 térbeli 7.3-11
splines 4.1.3 sqldf 0.4-11 NÉGYZET 2021.1
statisztika 4.1.3 statisztikák4 4.1.3 stringi 1.7.8
sztring 1.4.1 túlélés 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
szövegformázás 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 timeDate 4021.104
tinytex 0.41 eszközök 4.1.3 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
eszközök 4.1.3 uuid 1.1-0 vctrs 0.4.1
viridisLite 0.4.1 vroom 1.5.7 Waldo 0.4.0
bajusz 0,4 withr 2.5.0 xfun 0.32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 fütyülés 2.2.0

Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)

Csoportazonosító Összetevő azonosítója Verzió
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics patak 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.koffein koffein 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natívok 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natívok 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Csellengő 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava gujávafa 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-naplózás commons-naplózás 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics metrikamag 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx gyűjtő 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pác 1,2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow nyílformátum 7.0.0
org.apache.arrow nyíl-memóriamag 7.0.0
org.apache.arrow nyíl-memória-netty 7.0.0
org.apache.arrow nyíl-vektor 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1,9
org.apache.curator kurátor-ügyfél 2.13.0
org.apache.curator kurátor-keretrendszer 2.13.0
org.apache.curator kurátor-receptek 2.13.0
org.apache.derby keménykalap 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy borostyán 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parketta-oszlop 1.12.0-databricks-0007
org.apache.parquet parquet-common 1.12.0-databricks-0007
org.apache.parquet parquet-kódolás 1.12.0-databricks-0007
org.apache.parquet parquet-format-structures 1.12.0-databricks-0007
org.apache.parquet parquet-hadoop 1.12.0-databricks-0007
org.apache.parquet parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus célközönség-széljegyzetek 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-juta 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty móló-folytatás 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty móló plusz 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Végleges
org.jdbi jdbi 2.63.1
org.jetbrains Széljegyzetek 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Alátéteket 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark Használatlan 1.0.0
org.threeten három-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel makró-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1