Megosztás a következőn keresztül:


Databricks Runtime 16.1

Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0 által működtetett Databricks Runtime 16.1-ről nyújtanak információkat.

A Databricks 2024 decemberében adta ki ezt a verziót.

Borravaló

Ha szeretné látni azoknak a Databricks Runtime-verzióknak a kiadási megjegyzéseit, amelyek elérték a támogatás megszűnését (EoS), tekintse meg a Támogatás megszűnéséhez kapcsolódó Databricks Runtime kiadási megjegyzéseit. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.

Viselkedési változások

Kompatibilitástörő változás: A photon reguláris kifejezéskezelés most már konzisztens az Apache Sparkkal

A Databricks Runtime 15.4-ben és újabb verzióiban a Photonben a reguláris kifejezéskezelés az Apache Spark normál kifejezéskezelésének megfelelően frissül. Korábban a Photon által futtatott reguláris kifejezésfüggvények( például split() és regexp_extract()) elfogadtak néhány, a Spark-elemző által elutasított reguláris kifejezést. Az Apache Sparkkal való konzisztenciának fenntartása érdekében a Photon-lekérdezések nem fognak működni a Spark által érvénytelennek ítélt reguláris kifejezések esetében.

A módosítás miatt hibákat tapasztalhat, ha a Spark-kód érvénytelen reguláris kifejezéseket tartalmaz. A split(str_col, '{')kifejezés például, amely egy nem egyező zárójelet tartalmaz, és amelyet a Photon korábban elfogadott, most meghiúsul. A kifejezés kijavításához a következő kapcsos zárójeljelet kell feloldania: split(str_col, '\\{').

A foton és a Spark viselkedése abban is eltért, ahogyan a nem ASCII-karaktereket kezelik a normál kifejezések illesztésében. Ez is frissül, így a Photon megegyezik az Apache Spark viselkedésével.

A VARIANT adattípus már nem használható összehasonlítást igénylő műveletekkel

A Databricks Runtime 16.1-es vagy újabb verziójában nem használhatja a következő záradékokat vagy operátorokat olyan lekérdezésekben, amelyek VARIANT adattípust tartalmaznak:

  • DISTINCT
  • INTERSECT
  • EXCEPT
  • UNION
  • DISTRIBUTE BY

Ezenkívül nem használhatja ezeket a DataFrame-függvényeket:

  • df.dropDuplicates()
  • df.repartition()

Ezek a műveletek összehasonlítást végeznek, és a VARIANT adattípust használó összehasonlítások nem definiált eredményeket eredményeznek, és a Databricks nem támogatja őket. Ha az Azure Databricks számítási feladataiban vagy tábláiban a VARIANT típust használja, a Databricks a következő módosításokat javasolja:

  • Frissítse a lekérdezéseket vagy kifejezéseket úgy, hogy a VARIANT értékeket kifejezetten átalakítsa aVARIANT adattípusokra.
  • Ha olyan mezőkkel rendelkezik, amelyeket a fenti műveletek bármelyikével együtt kell használnia, bontsa ki ezeket a mezőket a VARIANT adattípusból, és neVARIANT adattípusokkal tárolja őket.

További információ: Lekérdezésvariáns adatok.

Új funkciók és fejlesztések

Az Apache Sparkban az összehasonlítások támogatása nyilvános előzetes verzióban van.

Mostantól nyelvérzéketlen, kis- és nagybetűkre érzéketlen és hozzáférésre érzéketlen rendezéseket rendelhet STRING oszlopokhoz és kifejezésekhez. Ezeket a kollációkat karakterlánc-összehasonlításokban, rendezési, csoportosítási műveletekben és több karakterláncfüggvényben használják. Lásd a rendezés-je.

Delta Lake-beli összehasonlítások támogatása nyilvános előzetes verzió állapotban érhető el.

A Delta-tábla létrehozásakor vagy módosításakor most már megadhatja az oszlopok rendezéseit. Lásd a Delta Lake betűrendbe rendezési támogatást.

LITE vákuum mód nyilvános előzetes verzióban érhető el

Mostantól a VACUUM table_name LITE használatával kisebb súlyú vákuumműveletet hajthat végre, amely a Delta tranzakciónapló metaadatait használja. Lásd: Teljes vs. könnyű mód és VACUUM.

A USE CATALOG with IDENTIFIER záradék paraméterezésének támogatása

A Databricks Runtime 16.1-ben és újabb verziókban a IDENTIFIER záradék támogatott a USE CATALOG utasításhoz. Ezzel a támogatással paraméterezheti az aktuális katalógust egy sztringváltozó vagy paraméterjelölő alapján.

COMMENT ON COLUMN táblák és nézetek támogatása

A Databricks Runtime 16.1 és újabb verziókban a COMMENT ON utasítás támogatja a nézet- és táblázatoszlopok megjegyzéseinek módosítását.

Új SQL-függvények

A Databricks Runtime 16.1-ben és újabb verziókban a következő új beépített SQL-függvények érhetők el:

  • dayname(expr) a hét napjának hárombetűs angol betűszóját adja vissza az adott dátumhoz.
  • uniform(expr1, expr2 [,seed]) egy véletlenszerű értéket ad vissza független és azonos eloszlású értékekkel a megadott számtartományon belül.
  • randstr(hossz) véletlenszerű karaktersorozatot ad vissza length alfa-numerikus karakterekből.

Elnevezett paraméter meghívása további függvényekhez

A Databricks Runtime 16.1-ben és újabb verziókban az alábbi függvények támogatják elnevezett paraméterhívási:

Az SYNC METADATA parancs REPAIR TABLE paramétere a Hive metaadattárban támogatott

A Databricks Runtime 16.1-ben és újabb verzióiban a SYNC METADATA paramétert a REPAIR TABLE paranccsal frissítheti a Hive metaadattár által felügyelt táblák metaadatait. Lásd: REPAIR TABLE.

Továbbfejlesztett adatintegritás tömörített Apache Arrow-kötegekhez

A Databricks Runtime 16.1-ben és újabb verziókban az adatsérülések elleni további védelem érdekében minden LZ4 tömörített Arrow csomag tartalmazza a LZ4 tartalmat és a blokk ellenőrzőösszegeket. Lásd: LZ4 keretformátum leírása.

Scala-metódusok támogatása a Unity Catalog megosztott hozzáférési módú számítási szolgáltatásában

A Databricks Runtime 16.1-ben és újabb verziókban a Unity Catalog megosztott hozzáférési módú számításán a következő Scala-metódusok támogatottak: Dataset.flatMapGroups(), Dataset.mapGroups()és DataStreamWriter.foreach().

Beépített Teradata JDBC-illesztő

A Databricks Runtime 16.1-ben és újabb verziókban a Teradata JDBC-illesztő az Azure Databricksbe van beépítve. Ha ügyfél által feltöltött JDBC-illesztő JAR-t használ DriverManagerkeresztül, át kell írnia szkripteket az egyéni JAR explicit használatához. Ellenkező esetben a beépített illesztőprogramot használja a rendszer. Ez az illesztőprogram csak a Lakehouse Federationt támogatja. Egyéb használati esetekben saját illesztőprogramot kell megadnia.

StreamingQueryListener-támogatás a Scalához

Mostantól használhatja a StreamingQueryListener a Scalában a megosztott hozzáférési móddal konfigurált számításon.

Beépített Oracle JDBC-illesztő

A Databricks Runtime 16.1 és újabb verziókban az Oracle JDBC-illesztőprogram az Azure Databricksbe van beépítve. Ha ügyfél által feltöltött JDBC-illesztő JAR-t használ DriverManagerkeresztül, át kell írnia szkripteket az egyéni JAR explicit használatához. Ellenkező esetben a beépített illesztőprogramot használja a rendszer. Ez az illesztőprogram csak a Lakehouse Federationt támogatja. Egyéb használati esetekben saját illesztőprogramot kell megadnia.

A fájlútvonalakkal elérhető Delta-táblák részletes hibái

Új hibaüzenet-élmény érhető el a Delta-táblákhoz, amelyeket útvonalak használatával értek el. A rendszer minden kivételt továbbít a felhasználónak. A kivétel DELTA_MISSING_DELTA_TABLE akkor van fenntartva, ha a mögöttes fájlok nem olvashatók Delta-táblaként.

Egyéb módosítások

Átnevezett hibakódok a cloudFiles strukturált stream forráshoz

Ez a kiadás a következő hibakódok átnevezésére vonatkozó módosítást tartalmaz:

  • _LEGACY_ERROR_TEMP_DBR_0143 átnevezve CF_INCORRECT_STREAM_USAGE.
  • _LEGACY_ERROR_TEMP_DBR_0260 átnevezve CF_INCORRECT_BATCH_USAGE .

Hibajavítások

A beágyazott típusok mostantól megfelelően fogadják el a NULL-korlátozásokat

Ez a kiadás kijavít egy hibát, amely a beágyazott típusok egyes Delta által létrehozott oszlopait érinti, például STRUCT. Ezek az oszlopok néha helytelenül utasítják el a kifejezéseket a beágyazott mezők NULL vagy NOT NULL korlátozásai alapján. Ezt kijavítottuk.

Könyvtárfrissítések

  • Frissített Python-kódtárak:
    • ipyflow-core 0.0.198 és 0.0.201 között
    • pyccolo 0.0.52 és 0.0.65 között
  • Frissített R-kódtárak:
  • Frissített Java-kódtárak:
    • io.delta.delta-sharing-client_2.12 1.2.1 és 1.2.2 között
    • org.lz4.lz4-java 1.8.0-1.8.0-databricks-1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64 2.4.1-linux-x86_64

Apache Spark

A Databricks Runtime 16.1 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 16.0összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:

  • [SPARK-50482] [SC-182879][CORE] Elavultnak ítélt no-op spark.shuffle.spill konfiguráció
  • [SPARK-50032] [SC-182706][SQL][16.x] Teljes karakterkészlet neve használatának engedélyezése
  • [SPARK-50467] [SC-182823][PYTHON] __all__ hozzáadása beépített függvényekhez
  • [SPARK-48898] [SC-182828][SQL] A Variant aprítási hibájának javítása
  • [SPARK-50441] [SC-182668][SQL] A nem működő parametrikaazonosítók javítása a CTE-k hivatkozásakor
  • [SPARK-50446] [SC-182639][PYTHON] Párhuzamossági szint az Arrow-optimalizált Python UDF-ben
  • [SPARK-50430] [SC-182536][CORE] Manuális klón helyett használja a standard Properties.clone parancsot
  • [SPARK-50471] [SC-182790][PYTHON] A nyílalapú Python-adatforrás-író támogatása
  • [SPARK-50466] [SC-182791][PYTHON] Szövegfüggvények docstringjének finomítása – 1. rész
  • [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] A New Timer API és az Initial State API integrálása az Időzítővel
  • [SPARK-50437] [SC-182586][SS] Csökkenti a deszerializálók létrehozásának többletterhelését a TransformWithStateExecben
  • [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Támogatás hozzáadása láncoláshoz o...
  • [SPARK-49294] [SC-182730][UI] Adja hozzá a szélesség tulajdonságot a shuffle-write-time jelölőnégyzethez.
  • [SPARK-50426] [SC-182540][PYTHON] A statikus Python-adatforrások keresésének elkerülése beépített vagy Java-adatforrások használatakor
  • [SPARK-48356] [SC-182603][SQL] FOR utasítás támogatása
  • [SPARK-50333] [SC-182136][SQL] A CsvToStructs codegen-támogatása (a RuntimeReplaceable meghívásával &)
  • [SPARK-50285] [SC-182575] Metrikák a StagedTable-példányok véglegesítéséhez
  • [SPARK-50081] [SC-182344][SQL] A XPath*kodek támogatása (a & RuntimeReplaceable meghívásával)
  • [SPARK-50440] [SC-182592] [SQL] Átszervezés: AttributeSeq.resolveCandidates
  • [SPARK-50067] [SC-179648][SQL] Kódgenerálás támogatása a SchemaOfCsv számára (RuntimeReplaceable megadásával &)
  • [SPARK-49873] [SC-178577][SQL] kijavította az egyesítés utáni hibát hibateszteléskor
  • [SPARK-50118] [SC-181259][CONNET] Az elkülönített állapot gyorsítótárának alaphelyzetbe állítása a tevékenységek futtatásakor
  • [SPARK-49873] [SC-178577][SQL] A megfelelő hibaosztály hozzárendelése _LEGACY_ERROR_TEMP_1325
  • [SPARK-50381] [SC-182197][CORE] Támogatás spark.master.rest.maxThreads
  • [SPARK-46725] [SC-182448][SQL] DAYNAME függvény hozzáadása
  • [SPARK-50270] [SC-181179][SS][PYTHON] Egyéni állapotmetrikákat adott hozzá a TransformWithStateInPandashoz
  • [SPARK-50118] Visszaállítás “[SC-181259][CONNECT] Az izolált állapotgyorsítótár visszaállítása a feladatok futása közben”
  • [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] DataFrame API-k hozzáadása táblaértékű függvényekhez
  • [SPARK-49470] [SC-175736][UI] DataTables stíluslapok és javascriptek frissítése 1.13.5-ről 1.13.11-esre
  • [SPARK-50235] Revertálás: „[SC-180786][SQL] A ColumnVector erőforrások eltávolítása a ColumnarToRowExec összes sorának feldolgozása után”
  • [SPARK-50324] [SC-182278][PYTHON][CONNECT] createDataFrame eseményindítót Config RPC-t egyszerre
  • [SPARK-50387] [SC-182441][SS] Az időzítő lejáratának és a vonatkozó tesztnek a frissítési feltétele
  • [SPARK-50287] [SC-182400][SQL] A tábla és a kapcsolat egyesítése a WriteBuilder fájltáblában való létrehozásakor
  • [SPARK-50066] [SC-181484][SQL] Kódgenerálási támogatás a SchemaOfXml-hez (a & RuntimeReplaceable meghívásával)
  • [SPARK-50092] [SC-181568][SQL] A PostgreSQL-összekötő viselkedésének javítása többdimenziós tömbök esetén
  • [SPARK-50318] [SC-181641][SQL] Az IntervalUtils.makeYearMonthInterval használatával a kód deduplikálása az értelmezett és a kódgenerálás közötti részeknél
  • [SPARK-50312] [SC-181646][SQL] SparkThriftServer createServer paraméter átadási hibája, ha a kerberos igaz
  • [SPARK-50246] [SC-181468][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_2167: INVALID_JSON_RECORD_TYPE
  • [SPARK-50214] [SC-180692][SQL] A json/xml fájlból nem módosíthatja a rendezéseket az adott sémában
  • [SPARK-50250] [SC-181466][SQL] Rendeljen hozzá megfelelő hibafeltételt _LEGACY_ERROR_TEMP_2075: UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
  • [SPARK-50248] [SC-181467][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_2058: INVALID_PARTITION_VALUE
  • [SPARK-50118] [SC-181259][CONNET] Az elkülönített állapot gyorsítótárának alaphelyzetbe állítása a tevékenységek futtatásakor
  • [SPARK-50235] [SC-180786][SQL] A ColumnVector-erőforrás törlése a ColumnarToRowExec összes sorának feldolgozása után
  • [SPARK-50156] [SC-180781][SQL] Integrálja _LEGACY_ERROR_TEMP_2113 a UNRECOGNIZED_STATISTIC-ba
  • [SPARK-50069] [SC-180163][SQL] Integrálja _LEGACY_ERROR_TEMP_0028 a UNSUPPORTED_FROM_TO_EXPRESSION
  • [SPARK-50154] [SC-180663][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_0043: INVALID_RESET_COMMAND_FORMAT
  • [SPARK-49967] [SC-179534][SQL] Codegen support for StructsToJson(to_json)
  • [SPARK-50055] [SC-180978][SQL] TryMakeInterval alternatíva hozzáadása
  • [SPARK-50397] [SC-182367][CORE] Távolítsa el az elavult --ip és -i argumentumokat Master/Worker
  • [SPARK-50238] [SC-181434][PYTHON] Variáns támogatás hozzáadása a PySpark UDF-ekhez/UDTF-ekhez/UDAF-ekhez és a Python UC UDF-ekhez
  • [SPARK-50079] [SC-179830][SQL] Rendeljen hozzá megfelelő hibafeltételeket _LEGACY_ERROR_TEMP_2013: NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
  • [SPARK-50182] [SC-180346][PÉLDA] submit-sql.sh REST API-példa hozzáadása
  • [SPARK-49966] [SC-179501][SQL] Invoke használata JsonToStructsimplementálásához (from_json)
  • [SPARK-50302] [SC-182518][SS] Győződjön meg arról, hogy a másodlagos indexek mérete megegyezik a TransformWithState állapotalapú változók elsődleges indexméreteivel TTL-vel
  • [SPARK-50301] [SC-182241][SS][16.x] A TransformWithState metrikák az intuitív jelentésüket tükrözik
  • [SPARK-50175] [SC-182140][SQL] A rendezés elsőbbsége számításának módosítása
  • [SPARK-50148] [SC-180292][SQL] A StaticInvoke a kivételt dobó metódussal való kompatibilitásának biztosítása
  • [SPARK-50280] [SC-181214][PYTHON] Az eredmények rendezésének újraszervezése és az üres rekeszek kitöltése a compute_hist-ben
  • [SPARK-50190] [SC-182458][PYTHON] A Numpy közvetlen függőségének eltávolítása a hisztogramból
  • [SPARK-50382] [SC-182368][CONNECT] Az alkalmazásfejlesztéssel és a Spark Connect kiterjesztésével kapcsolatos általános információk dokumentációjának hozzáadása
  • [SPARK-50296] [SC-181464][PYTHON][CONNECT] A Python Connect-ügyfél szálkészletében ne használjon osztálytulajdonságot
  • [SPARK-49566] [SC-182239][SQL] SQL-cső szintaxisának hozzáadása az EXTEND operátorhoz
  • [SPARK-50036] [SC-179533][CORE][PYTHON] SPARK_LOG_SCHEMA belefoglalása a REPL-rendszerhéj környezetbe
  • [SPARK-49859] [SC-178259][CONNECT] Cserélje le a többprocesszoros elemet. ThreadPool és ThreadPoolExecutor
  • [SPARK-50141] [SC-182378][PYTHON] A lpad és rpad elfogadja az oszloptípusú argumentumokat.
  • [SPARK-50379] [SC-182142][SQL] A DayTimeIntevalType kezelésének javítása a WindowExecBase-ben
  • [SPARK-49954] [SC-179110][SQL] Codegen support for SchemaOfJson (by Invoke & RuntimeReplaceable)
  • [SPARK-50398] [SC-182341][CORE] Az ExitCode 0 használata a Spark-szkriptek --help használatára
  • [SPARK-50377] [SC-182238][SQL] Lehetővé teszi az összecsukható RuntimeReplaceable kiértékelését
  • [SPARK-50241] [SC-181444][SQL] A NullIntolerant Mixint cserélje le az Expression.nullIntolerant metódusra
  • [SPARK-50084] [SC-179672][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_3168: MISSING_TIMEOUT_CONFIGURATION
  • [SPARK-50078] [SC-179649][SQL] Rendelje hozzá a megfelelő hibafeltételt _LEGACY_ERROR_TEMP_0038: DUPLICATED_CTE_NAMES
  • [SPARK-50057] [SC-179573][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_1049: INVALID_ATTRIBUTE_NAME_SYNTAX
  • [SPARK-50070] [SC-179579][SQL] Integrálja _LEGACY_ERROR_TEMP_0039 a UNSUPPORTED_SQL_STATEMENT-ba
  • [SPARK-50378] [SC-182235][SS] Egyéni metrika hozzáadása a transformWithState-ben a végrehajtás kezdeti állapotánál eltöltött idő nyomon követésére.
  • [SPARK-50029] [SC-179531][SQL] A StaticInvoke kompatibilissé tétele a Any-t visszaadó módszerrel
  • [SPARK-49990] [SC-179497][SQL] A randStr teljesítményének javítása
  • [SPARK-50048] [SC-179528][SQL] Rendelje hozzá a _LEGACY_ERROR_TEMP_2114megfelelő hibafeltételét: UNRECOGNIZED_STATISTIC
  • [SPARK-50053] [SC-179532][SQL] A _LEGACY_ERROR_TEMP_2104 átalakítása INTERNAL_ERROR
  • [SPARK-49665] [SC-180054][SQL] Levágási és rendezési támogatás sztringfüggvényekhez
  • [SPARK-48549] [SC-176472][SQL][PYTHON] Az SQL-függvény sentences javítása
  • [SPARK-50022] [SC-179503][CORE][UI] Kijavítottuk a MasterPage, hogy elrejtse az alkalmazás felhasználói felületére mutató hivatkozásokat, ha a felhasználói felület le van tiltva
  • [SPARK-50087] [SC-182152] Logikai kifejezések robusztus kezelése a CASE WHEN for MsSqlServer és a jövőbeli összekötők esetében
  • [SPARK-49991] [SC-179481][SQL] Tegye a HadoopMapReduceCommitProtocol tiszteletet a "mapreduce.output.basename" értékre a fájlnevek létrehozásához
  • [SPARK-50038] [SC-179521][SQL] Rendeljék hozzá a megfelelő hibafeltételt _LEGACY_ERROR_TEMP_0008: MERGE_WITHOUT_WHEN
  • [SPARK-50236] [SC-181671][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_1156: COLUMN_NOT_DEFINED_IN_TABLE
  • [SPARK-50021] [SC-179500][CORE][UI] Javítás ApplicationPage az alkalmazás felhasználói felületére mutató hivatkozások elrejtéséhez, ha a felhasználói felület le van tiltva
  • [SPARK-49911] [SC-179111][SQL] A bináris egyenlőség támogatásának szemantikai javítása
  • [SPARK-50025] [SC-179496][SQL] Integrálja _LEGACY_ERROR_TEMP_1253-t EXPECT_VIEW_NOT_TABLE-ba
  • [SPARK-49829] [SC-179480][SS] Kijavítottuk az optimalizálási hibát a stream-stream illesztésben lévő állapottároló bemenetének hozzáadásakor
  • [SPARK-50004] [SC-179499][SQL] Integrálja a _LEGACY_ERROR_TEMP_3327-t a FIELD_NOT_FOUND-ba
  • [SPARK-50380] [SC-182210][SQL] ReorderAssociativeOperatornak tiszteletben kell tartania a szerződést a ConstantFoldingben
  • [SPARK-50340] [SC-181859][SQL] Csomagolja ki a UDT-t a INSERT bemeneti lekérdezésben
  • [SPARK-50237] [SC-181660][SQL] Rendeljen hozzá megfelelő hibafeltételt a _LEGACY_ERROR_TEMP_2138-9-höz: CIRCULAR_CLASS_REFERENCE
  • [SPARK-50258] [SC-181993][SQL] Az AQE optimalizálása után módosított kimeneti oszlopsorrend javítása
  • [SPARK-49773] [SC-178369][SQL] Helytelen időzónával rendelkező kezeletlen Java-kivétel make_timestamp() esetén
  • [SPARK-49977] [SC-179265][SQL] Veremalapú iteratív számítások használatával elkerülheti, hogy sok Scala List objektumot hozzon létre mélykifejezés-fákhoz
  • [SPARK-50153] [SC-181591][SQL] name hozzáadása a RuleExecutor a QueryExecutionMetricsnaplóinak egyértelműbbé tétele érdekében
  • [SPARK-50320] [SC-181668][CORE] Tegye --remote hivatalos opcióvá a experimental figyelmeztetés eltávolításával
  • [SPARK-49909] [SC-179492]Visszavonás „[SQL] Néhány kifejezés szép nevének javítása”
  • [SPARK-50330] [SC-180720][SC-181764][SQL] Tippek hozzáadása rendezési és ablakcsomópontokhoz
  • [SPARK-50364] [SC-182003][SQL] A LocalDateTime típus szerializálásának implementálása a Row.jsonValue-ban
  • [SPARK-50016] [SC-182139][SQL] A megfelelő hibafeltétel hozzárendelése a _LEGACY_ERROR_TEMP_2067-hez: UNSUPPORTED_PARTITION_TRANSFORM
  • [SPARK-49899] [SC-181175][PYTHON][SS] Támogatás a TransformWithStateInPandas számára a töröld_ha_létezik alkalmazásához
  • [SPARK-49757] [SC-177824][SQL] Támogat IDENTIFIER kifejezést a SETCATALOG utasításban
  • [SPARK-50315] [SC-181886][SQL] Egyéni metrikák támogatása V1Fallback-írásokhoz
  • [SPARK-42838] [SC-181509][SQL] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_2000
  • [SPARK-50353] [SC-181985][SQL] Refactor ResolveSQLOnFile
  • [SPARK-48344] [SC-181967][SQL] SQL Scripting előkészítése a végrehajtási keretrendszer hozzáadásához
  • [SPARK-49345] [SC-174786][CONNECT] Győződjön meg arról, hogy az aktuálisan futó Spark-munkamenetet használja
  • [SPARK-49925] [SC-178882][SQL] Rendezés tesztjeinek hozzáadása csoportosított sztringekkel
  • [SPARK-50167] [SC-181199][PYTHON][CONNECT] A PySpark hibaüzenetek és importálások ábrázolásának javítása
  • [SPARK-49368] [SC-174999][CONNECT] Kerülje a protobuf lite osztályok közvetlen elérését
  • [SPARK-50056] [SC-181378][SQL] Kódgenerálási támogatás a ParseUrl számára (az Invoke & RuntimeReplaceable által)
  • [SPARK-49601] [SC-180770][SS][PYTHON] A TransformWithStateInPandas kezdeti állapotkezelésének támogatása
  • [SPARK-49908] [SC-178768][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_0044
  • [SPARK-50144] [SC-180307][SS] A metrikaszámítás korlátozásának kezelése DSv1 streamelési forrásokkal
  • [SPARK-49874] [SC-178303][SQL] Távolítsa el a levágási és ltrim kollációs jelölőket.
  • [SPARK-49513] [SC-180339][SS] Időzítő támogatása az transformWithStateInPandas API-ban
  • [SPARK-49119] [SC-175607][SQL] Az 1. és 2. v2 közötti szintaxis show columns inkonzisztencia javítása
  • [SPARK-49206] [SC-173704][CORE][UI] Environment Variables tábla hozzáadása a master EnvironmentPage
  • [SPARK-49934] [SC-179581][SQL] A rendezett térkép literállal való eléréséhez implicit cast hozzáadása
  • [SPARK-50049] [SC-181659][SQL] Egyéni illesztőprogram-metrikák támogatása a v2-táblába való írás során
  • [SPARK-50171] [SC-180295][PYTHON] A numpy megadása nem kötelező a KDE-diagramhoz
  • [SPARK-49962] [SC-179320][SQL] Az AbstractStringTypes osztályhierarchiájának egyszerűsítése
  • [SPARK-50226] [SC-181483][SQL] Helyes MakeDTInterval és MakeYMInterval a Java-kivételek elfogásához
  • [SPARK-48775] [SC-170801][SQL][STS] Cserélje le az SQLContextet SparkSession-ra az STS-ben
  • [SPARK-49015] [SC-175688][CORE] A Connect kiszolgálónak tiszteletben kell tartania spark.log.structuredLogging.enabled
  • [SPARK-50327] [SC-181667][SQL][16.x] A függvényfeloldás különválasztása az egyáteresztő elemzőben való újrafelhasználás érdekében
  • [SPARK-49995] [SC-180762][SQL] Elnevezett argumentum támogatásának hozzáadása további TVF-ekhez
  • [SPARK-49268] [SC-174903][CORE] Naplózza az I/O-kivételeket az SHS előzmény-szolgáltatóban
  • [SPARK-48123] [SC-164989][Core] Konstans táblaséma biztosítása strukturált naplók lekérdezéséhez
  • [SPARK-49217] [SC-174904][CORE] Különálló pufferméret-konfiguráció támogatása a UnsafeShuffleWriterben
  • [SPARK-50325] [SC-181664][SQL][16.x] Az alias feloldását különválasztjuk az egylépéses elemzőben történő újrahasznosítás céljából.
  • [SPARK-50322] [SC-181665][SQL] Paraméteres azonosító javítása al-lekérdezésben
  • [SPARK-48400] [SC-175283][CORE] PrometheusServlet előléptetése DeveloperApi-vá
  • [SPARK-50118] Visszaállítás “[SC-181259][CONNECT] Az izolált állapotgyorsítótár visszaállítása a feladatok futása közben”
  • [SPARK-50306] [SC-181564][PYTHON][CONNECT] A Python 3.13 támogatása a Spark Connectben
  • [SPARK-50152] [SC-181264][SS] A handleInitialState támogatása állapot adatforrás olvasóval
  • [SPARK-50260] [SC-181271][CONNECT] Újrabontás és a Spark C optimalizálása...
  • [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: LogInfo migrálása változókkal strukturált naplózási keretrendszerbe
  • [SPARK-49312] [SC-174672][PYTHON] Javítsa a hibajelzést a assertSchemaEqual számára
  • [SPARK-49439] [SC-175236][SQL] A FromProtobuf & ToProtobuf kifejezés szép nevének javítása
  • [SPARK-50092] [ES-1258521] A PostgreSQL-összekötő viselkedésének javítása többdimenziós tömbök esetén
  • [SPARK-49913] [SC-181565][SQL] Egyedi címkenevek ellenőrzésének hozzáadása beágyazott címkés hatókörökben
  • [SPARK-49563] [SC-181465][SQL] Sql-cső szintaxisának hozzáadása az WINDOW operátorhoz
  • [SPARK-49661] [SC-179021][SQL] Metszet-rendezési kivonatolás és összehasonlítás implementálása.
  • [SPARK-38912] [SC-181543][PYTHON] Távolítsa el a classmethod és a tulajdonság megjegyzését
  • [SPARK-49770] [16.x][SC-179802][SC-179270][SS][RocksDB Hardening] A RocksDB SST-fájlleképezés kezelésének javítása, valamint az ugyanazon verzió meglévő pillanatképtel való újratöltésével kapcsolatos probléma megoldása
  • [SPARK-49002] Visszavonás: “[SC-172846][SQL] A WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY érvénytelen helyeinek következetes kezelése
  • [SPARK-49668] [SC-178268][SQL] Rendezési kulcs támogatása a vágási művelethez
  • [SPARK-50262] [SC-181193][SQL] A rendezés módosítása során tiltsa be a specifikáció összetett típusait
  • [SPARK-48898] [SC-181435][SQL] Variant-aprító függvények hozzáadása
  • [SPARK-48273] [SC-181381]"[SQL] A PlanWithUnresolvedIdentifier késői átírásának visszaállítása"
  • [SPARK-50222] [SC-180706][CORE] Támogatás spark.submit.appName
  • [SPARK-50208] [SC-180662][CORE] Támogatás spark.master.useDriverIdAsAppName.enabled
  • [SPARK-50224] [SC-180689][SQL] Az IsValidUTF8, ValidateUTF8, TryValidateUTF8 és a MakeValidUTF8 cseréjének NullIntolerant-nak kell lennie.
  • [SPARK-50247] [SC-180962][CORE] BLOCK_MANAGER_REREGISTRATION_FAILED definiálása ExecutorExitCode
  • [SPARK-50282] [SC-181221][ML] Egyszerűsítse TargetEncoderModel.transform
  • [SPARK-50112] [SC-180763][SQL] Lehetővé teszi, hogy a TransformWithState operátor Avro kódolást használjon
  • [SPARK-50267] [SC-181180][ML] TargetEncoder.fit fejlesztése DataFrame API-kkal
  • [SPARK-37178] [SC-180939][ML] Célkódolás hozzáadása az ml.feature-hez
  • [SPARK-50118] [SC-181259][CONNET] Az elkülönített állapot gyorsítótárának alaphelyzetbe állítása a tevékenységek futtatásakor
  • [SPARK-50085] [VISELKEDÉS-176][SC-179809][PYTHON] Tegye a lit(ndarray) np.int8-at a numpy adattípusnak megfelelővé.
  • [SPARK-50256] [SC-181048][SQL] Egyszerűsített ellenőrzéssel ellenőrizheti, hogy egy logikai terv megoldatlanná válik-e minden optimalizáló szabály után
  • [SPARK-50196] [SC-180932][CONNECT] Javítsuk ki a Python hibakörnyezetet hogy megfelelő környezetet használjunk
  • [SPARK-50274] [SC-181181][CORE] Védelem a DirectByteBufferOutputStream használat utáni bezárása ellen
  • [SPARK-49999] [SC-180063][PYTHON][CONNECT] Támogatja az opcionális "oszlop" paramétert a mezőben, a kde és a hisztdiagramokban
  • [SPARK-50273] [SC-181178][SS] A RocksDB-zárolások beszerzésére/kiadására vonatkozó esetek naplózásának javítása
  • [SPARK-50033] [SC-180720][SC-180659][SQL] Adjunk hozzá egy javaslatot a logikus Összesítő() csomóponthoz
  • [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Kijavítottuk a RocksDB extra acquireLock kiadását a befejezési figyelő miatt
  • [SPARK-50253] [SC-180969][SS] Stream-Stream Csatlakozás nem kéri le az ellenőrzőpont-azonosítót, ha nem támogatott.
  • [SPARK-50255] [SC-180964][PYTHON] Kerülje a szükségtelen öntést a compute_hist
  • [SPARK-50228] [SC-180780][SQL] A RewriteCollationJoin szabály áthelyezése FinishAnalysis
  • [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] Állítsa be a "pontosságot" úgy, hogy a dobozdiagramokhoz tartozó kwargs része legyen
  • [SPARK-49637] [SC-180160][SQL] Az INVALID_FRACTION_OF_SECOND hibaüzenet módosítva lett.
  • [SPARK-49530] [SC-180658][PYTHON] Aktív munkamenet lekérése adatkeretekből
  • [SPARK-50195] [SC-180654][CORE] Kijavítottuk a StandaloneRestServer-t, hogy a spark.app.name megfelelően legyen propagálva a SparkSubmit számára.
  • [SPARK-50229] [SC-180773] A logikai tervezés során létrehozott AttributeReference objektumok élettartamának csökkentésével csökkentheti az illesztőprogram memóriahasználatát a széles sémákhoz.
  • [SPARK-50231] [SC-180815][PYTHON] Függvény létrehozása instr oszlop substring elfogadása
  • [SPARK-49854] [SC-179812][16.x][SQL] Az összetevő-kezelő klónozása a munkamenet-klónozás során
  • [SPARK-50219] [SC-180694][SQL] ApplyCharTypePadding újraszervezése, hogy a segédmetódusok egykörös feloldóban is használhatók legyenek
  • [SPARK-50077] [SC-179827][SQL] A LogicRelation új mintaobjektumának bevezetése az alapértelmezett teljes params minta elkerüléséhez
  • [SPARK-50128] [Backport][16x][SC-180677][SS] Állapotalapú processzorkezelő API-k hozzáadása implicit kódolókkal a Scalában
  • [SPARK-50061] [SC-179961][SQL] Csoportosított oszlopok elemzési táblázatának engedélyezése
  • [SPARK-49993] [SC-180084][SQL] Az összeg és az átlag hibaüzeneteinek javítása
  • [SPARK-49638] [SC-179665][SQL] Távolítsa el az ANSI konfigurációs javaslatot az INVALID_URL üzenetben.
  • [SPARK-50204] [SC-180660][SQL] Vegye figyelembe HiveTableRelation olvasási útvonal felbontását
  • [SPARK-50193] [SC-180651][SS] Kivételkezelés javítása az időmódok érvényesítéséhez
  • [SPARK-50179] [SC-180342][CORE] A REST API-ban spark.app.name tulajdonság megadása nem kötelező
  • [SPARK-50068] [SC-180300][SQL] Refaktorálás TypeCoercion és AnsiTypeCoercion különálló csomóponti transzformációkra.
  • [SPARK-49411] [SC-179483][SS] Az állapottár ellenőrzőpont-azonosítójának közlése az illesztőprogram és az állapotalapú operátorok között
  • [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET meg kell tartania az adatrendezést
  • [SPARK-49506] [SC-180165][SQL] Az ArrayBinarySearch optimalizálása összecsukható tömbhöz
  • [SPARK-50097] [SC-179908][SQL] Rendelje hozzá a _LEGACY_ERROR_TEMP_1248megfelelő hibafeltételét: ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
  • [SPARK-50071] [SC-180159][SQL][PYTHON] Try_make_timestamp(_ltz és _ntz) hozzáadása és a kapcsolódó tesztek
  • [SPARK-50054] [SC-180228][PYTHON][CONNECT] Hisztogramdiagramok támogatása
  • [SPARK-50015] [SC-179964][SQL] A megfelelő hibafeltétel hozzárendelése _LEGACY_ERROR_TEMP_1125: MISSING_DATABASE_FOR_V1_SESSION_CATALOG
  • [SPARK-50155] [SC-180240][3.5] Scala- és Java-fájlok áthelyezése az alapértelmezett mappákba
  • [SPARK-49980] [SC-180353][CORE][SQL] A megszakított tevékenységek megszakítása által okozott lehetséges fájlstream-szivárgások javítása
  • [SPARK-49010] [SC-172304][SQL][XML] Egységtesztek hozzáadása az XML-séma kis- és nagybetűérzékeny következtetéséhez
  • [SPARK-49562] [SC-180211][SQL] SQL-cső szintaxisának hozzáadása az összesítéshez
  • [SPARK-49663] [SC-180239][SQL] RTRIM-javaslatok engedélyezése rendezési kifejezésekben
  • [SPARK-48965] [SC-175926][SQL] Használja a megfelelő sémát a Dataset#toJSON-ben
  • [SPARK-48493] [SC-175893][PYTHON] A Jobb teljesítmény érdekében növelje a Python-adatforrás-olvasót közvetlen Arrow Batch-támogatással
  • [SPARK-49734] [SC-180226][PYTHON] hozzáadása seed argumentumnak shuffle
  • [SPARK-50174] [16.x][SC-180253][SQL] Kihosszát az UnresolvedCatalogRelation megoldása
  • [SPARK-49989] [SC-179512][PYTHON][CONNECT] A kde/sűrűségdiagramok támogatása
  • [SPARK-49805] [SC-180218][SQL][ML] Privát[xxx] függvények eltávolítása function.scala
  • [SPARK-49808] [SC-179490][SQL] Kijavítottunk egy holtpontot az al-lekérdezés végrehajtásában lusta változók miatt
  • [SPARK-49929] [SC-180144][PYTHON][CONNECT] Támogatási dobozdiagramok
  • [SPARK-50008] [SC-179290][PS][CONNECT] Kerülje a szükségtelen műveleteket attach_distributed_sequence_column
  • [SPARK-49767] [SC-180161][PS][CONNECT] A belső függvény meghívásának újrabontása
  • [SPARK-49683] [SC-178341][SQL] Blokkvágási rendezés
  • [SPARK-49939] [SC-178941][SQL] A json_object_keys codegen-támogatása (a & RuntimeReplaceable meghívásával)
  • [SPARK-50031] [SC-179582][SQL] Adja hozzá a TryParseUrl kifejezést
  • [SPARK-49766] [SC-178933][SQL] Codegen támogatás json_array_length számára (készítette: Invoke & RuntimeReplaceable)
  • [SPARK-50046] [SC-180026][SS] Az EventTimeWatermark csomópont stabil sorrendjének használata a vízjel kiszámításához
  • [SPARK-49540] [SC-180145][PS] A distributed_sequence_id használatának egységesítése
  • [SPARK-50060] [SC-179965][SQL] Letiltott átalakítás a TypeCoercion és az AnsiTypeCoercion különböző csoportosított típusai között
  • [SPARK-49004] [SC-173244][CONNECT] A belső oszlop API-függvényekhez használjon külön regisztert.
  • [SPARK-49811] [SC-1778888][SQL]Rename StringTypeAnyCollation
  • [SPARK-49202] [SC-180059][PS] Alkalmazza a ArrayBinarySearch-t a hisztogramhoz
  • [SPARK-49203] [SC-175734][SQL] Kifejezés hozzáadása java.util.Arrays.binarySearch
  • [SPARK-50034] [SC-179816][CORE] A végzetes hibák téves jelentése, mint kezdetlen kivételek javítása SparkUncaughtExceptionHandler
  • [SPARK-50093] [SC-179836][SQL] Az ICU-t használó rendezéseknek rendelkezniük kell a használt ICU-kódtár verziójával
  • [SPARK-49985] [SC-179644][SQL] Az intervallumtípusok támogatásának eltávolítása a Variant-ban
  • [SPARK-49103] [SC-173066][CORE] Támogatás spark.master.rest.filters
  • [SPARK-50090] [SC-179819] Refactorálja a ResolveBinaryArithmetic-et különálló egycsomópontos transzformációra
  • [SPARK-49902] [SC-179650][SQL] Az alapul szolgáló futtatókörnyezeti hibák elkapása a RegExpReplace
  • [SPARK-49126] [SC-173342][CORE] a spark.history.ui.maxApplications konfigurációs definíció áthelyezése History.scala
  • [SPARK-50094] [SC-179820][PYTHON][CONNECT] Jobb hibaüzenet, ha a memóriaprofilozót vonalszám nélküli szerkesztőkben használja
  • [SPARK-50062] [SC-179835][SQL] A nyelvi rendezések támogatása InSet
  • [SPARK-50035] [Backport][16x][SC-179530][SS] Támogatás hozzáadása az állapotalapú processzor explicit handleExpiredTimer függvényéhez
  • [SPARK-49982] [SC-179814][SQL] Az InMemoryRelation negatív gyorsítótárazásának javítása
  • [SPARK-49082] [SC-173350][SQL] Típusok szélesítése előléptetések során AvroDeserializer
  • [SPARK-50088] [SC-179680][SQL] Refaktorálás UnresolvedStarBase.expand
  • [SPARK-49802] [SC-179482][SS] Az állapotalapú processzorokban használt térkép- és listatípusok olvasási változáscsatornájának támogatása
  • [SPARK-49846] [SC-179506][SS] numUpdatedStateRows és numRemovedStateRows metrikák hozzáadása transformWithState operátorral való használatra
  • [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] Tegye lehetővé, hogy a lit elfogadja az str és bool típusú numpy ndarray-t
  • [SPARK-49821] [SC-179527][SS][PYTHON] A MapState és a TTL támogatása a TransformWithStateInPandashoz
  • [SPARK-49558] [SC-179485][SQL] Sql-cső szintaxisának hozzáadása LIMIT/OFFSET és ORDER/SORT/CLUSTER/DISTRIBUTE BY
  • [SPARK-48144] [SC-165725][LC-4080][SQL] A shuffle join tippek tiszteletben tartását szolgáló módosítás canPlanAsBroadcastHashJoin-n
  • [SPARK-50051] [SC-179571][PYTHON][CONNECT] Tegye kompatibilissá a lit-t üres numpy ndarray-val
  • [SPARK-50018] [SC-179488][SQL] Az AbstractStringType szerializálhatóvá tétele
  • [SPARK-50016] [SC-179491][SQL] Az explicit rendezési eltérési hiba javítása
  • [SPARK-50010] [SC-179487][SQL] Implicit kollációs eltérési hiba részletezése
  • [SPARK-48749] [SC-170116][SQL] Egyszerűsítse az unaryPositive-t, és szüntesse meg a katalizátorszabályokat a RuntimeReplaceable használatával
  • [SPARK-49857] [SC-178576][SQL] StorageLevel hozzáadása a Dataset localCheckpoint API-hoz
  • [SPARK-50058] [SC-179538][SQL] A terv normalizálási funkcióinak kiszervezése a későbbi, egyátfutású analizátor teszteléseknél való használatra
  • [SPARK-50052] [SC-179535][PYTHON][16.X] A NumpyArrayConverter támogatása legyen az üres str típusú ndarray számára.
  • [SPARK-47261] [SC-173665][SQL] Jobb nevet rendeljen a hibákhoz _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 és _LEGACY_ERROR_TEMP_1174
  • [SPARK-49147] [SC-173471][CORE] Jelölje meg a DeveloperApi interfésszel KryoRegistrator-t
  • [SPARK-48949] [SC-173070][SQL] SPJ: Futtatókörnyezeti partíciószűrés
  • [SPARK-50044] [SC-179523][PYTHON] Több matematikai függvény docstringjének finomítása
  • [SPARK-48757] [SC-170113][CORE] Tegye a IndexShuffleBlockResolver-t explicit konstruktorokkal rendelkezővé
  • [SPARK-50037] [SQL] Az AttributeSeq.resolve(...) újrastrukturálása
  • [SPARK-48782] [SC-177056][SQL] Az eljárások katalógusokban való végrehajtásának támogatása
  • [SPARK-49057] [SC-173081][SQL] Ne tiltsa le az AQE-hurkot a lekérdezési szakaszok beküldésekor
  • [SPARK-48824] [SC-176772][VISELKEDÉS-167][SQL] Identitásoszlop SQL-szintaxisának hozzáadása
  • [SPARK-48773] [SC-170773] A „spark.default.parallelism” konfiguráció dokumentálása a konfigurációs építőkeretrendszer segítségével
  • [SPARK-48735] [SC-169810][SQL] BIN függvény teljesítménybeli javulása
  • [SPARK-48900] [SC-172433] reason mező hozzáadása a feladat/szakasz lemondására irányuló összes belső híváshoz
  • [SPARK-48488] [SC-167605][CORE] A log[info|warning|error] javítása a SparkSubmit
  • [SPARK-48708] [SC-169809][CORE] Három szükségtelen típusregisztráció eltávolítása KryoSerializer
  • [SPARK-49958] [SC-179312][PYTHON] sztringérvényesítési függvények Python API-ja
  • [SPARK-49979] [SC-179264][SQL] Kijavítottuk az AQE megakadási problémáját, amikor kétszer próbálunk gyűjteni egy sikertelen tervre.
  • [SPARK-48729] [SC-169795][SQL] UserDefinedFunction interfész hozzáadása SQL-függvények megjelenítéséhez
  • [SPARK-49997] [SC-179279][SQL] Integrálja _LEGACY_ERROR_TEMP_2165MALFORMED_RECORD_IN_PARSING-ba
  • [SPARK-49259] [SC-179271][SS]Méretalapú partíció létrehozása a kafka olvasása során
  • [SPARK-48129] [SC-165006][PYTHON] Konstans táblaséma biztosítása a PySparkban strukturált naplók lekérdezéséhez
  • [SPARK-49951] [SC-179259][SQL] A megfelelő hibafeltétel hozzárendelése LEGACY_ERROR_TEMP(1099|3085)
  • [SPARK-49971] [SC-179278][SQL] Rendeljen megfelelő hibafeltételt a _LEGACY_ERROR_TEMP_1097-hez
  • [SPARK-49998] [SC-179277][SQL] Integrálja a _LEGACY_ERROR_TEMP_1252-t a EXPECT_TABLE_NOT_VIEW-ba
  • [SPARK-49876] [SC-179262][CONNECT] A Spark Connect szolgáltatásból származó globális zárolások eltávolítását
  • [SPARK-49957] [SC-179202][SQL] Scala API sztringérvényesítési függvényekhez
  • [SPARK-48480] [SC-173055][SS][CONNECT] A StreamQueryListenert nem érinti a spark.interrupt()
  • [SPARK-49643] [SC-179239][SQL] _LEGACY_ERROR_TEMP_2042 összevonása az ARITHMETIC_OVERFLOW-val
  • [SPARK-49959] [SC-179109][SQL] A ColumnarArray.copy() javítása null értékek beolvasásához a megfelelő eltolásból
  • [SPARK-49956] A "[SC-179070] Letiltott kollekciók a collect_set kifejezéssel" módosítás visszavonása
  • [SPARK-49987] [SC-179180][SQL] Kijavítottuk a hibaüzenetet, ha seedExpression nem összecsukható a randstr
  • [SPARK-49948] [SC-179158][PS][CONNECT] Paraméter "precision" hozzáadása a pandas on Spark box plot-hoz.
  • [SPARK-49970] [SC-179167][SQL] Helyes hibafeltétel hozzárendelése az _LEGACY_ERROR_TEMP_2069-hez
  • [SPARK-49916] [SC-179108][SQL] Adja meg a megfelelő kivételt a ColumnType és az adattípus közötti típuseltérés esetén egyes sorokban
  • [SPARK-49956] [SC-179070] Letiltott összehasonlítások collect_set kifejezéssel
  • [SPARK-49974] [16.x][SC-179071][SQL] A resolveRelations(...) áthelyezése az Analyzer.scala-ból
  • [SPARK-47259] [SC-176437][SQL] Nevek hozzárendelése az intervallumhibák hibafeltételeihez
  • [SPARK-47430] [SC-173679][SQL] Csoport átdolgozása térképtípus szerint a kötési referencia kivételének kijavítása érdekében
  • [SPARK-49067] [SC-172616][SQL] Az utf-8 literál áthelyezése az UrlCodec osztály belső metódusaiba
  • [SPARK-49955] [SC-178989][SQL] null érték nem jelent sérült fájlt jSON-sztring RDD elemzésekor
  • [SPARK-49393] [SC-175212][SQL] Alapértelmezés szerint meghiúsul az elavult katalógus beépülő modul API-jában
  • [SPARK-49952] [SC-178985][SQL] Helyes hibafeltétel hozzárendelése a _LEGACY_ERROR_TEMP_1142 részére.
  • [SPARK-49405] [SC-175224][SQL] A JsonOptions karakterkészleteinek korlátozása
  • [SPARK-49892] [SC-178975][SQL] Rendeljen hozzá megfelelő hibaosztályt _LEGACY_ERROR_TEMP_1136
  • [SPARK-49904] [SC-178973][SQL] A megfelelő hibafeltétel hozzárendelése a(z) _LEGACY_ERROR_TEMP_2140 számára.
  • [SPARK-47257] [SC-174244][SQL] Nevek hozzárendelése hibaosztályokhoz _LEGACY_ERROR_TEMP_105[3-4] és _LEGACY_ERROR_TEMP_1331
  • [SPARK-49915] [SC-178869][SQL] Nullák és egyesek kezelése a ReorderAssociativeOperatorban
  • [SPARK-49891] [SC-178970][SQL] A megfelelő hibafeltétel hozzárendelése a _LEGACY_ERROR_TEMP_2271 számára
  • [SPARK-49918] [SC-178748][CORE] Írásvédett hozzáférés használata a SparkContext adott esetben történő konföderációhoz
  • [SPARK-49666] [SC-177891][SQL] Funkciójelölő hozzáadása a vágási rendezési funkcióhoz
  • [SPARK-48885] [SC-171050][SQL] A RuntimeReplaceable felülbírálás néhány alosztályának létrehozása lusta val értékre
  • [SPARK-49932] [SC-178931][CORE] A memóriavesztés elkerülése érdekében tryWithResource kiadási JsonUtils#toJsonString erőforrásokat használjon
  • [SPARK-49949] [SC-178978][PS] Kerülje a szükségtelen elemzési feladatokat a attach_sequence_column
  • [SPARK-49924] [SC-178935][SQL] containsNull megőrzése ArrayCompact csere után
  • [SPARK-49121] [SC-174787][SQL] Sql-függvények from_protobuf és to_protobuf támogatása
  • [SPARK-47496] [SC-160529][SQL] Java SPI-támogatás dinamikus JDBC-dialektus-regisztrációhoz
  • [SPARK-49359] [SC-174895][SQL] Lehetővé teszi a StagedTableCatalog implementációk számára, hogy visszaálljanak nem atomi írásra
  • [SPARK-49895] [SC-178543][SQL][ES-1270338] Javítsa a hibát SELECT záradék záró vesszője esetén
  • [SPARK-47945] [SC-163457][SQL] MsSQLServer: Dokumentálja a Spark SQL adattípusok hozzárendelését a Microsoft SQL Serverből, és adja hozzá a teszteket.
  • [SPARK-46037] [SC-175495][SQL] A Shuffled Hash Join build helyességi javítása, amely kódgenerálás nélkül maradt
  • [SPARK-47813] [SC-162615][SQL] A getArrayDimension helyére az updateExtraColumnMeta kerül
  • [SPARK-49542] [SC-178765][SQL] Partícióátalakítás kivétele kiértékeli a hibát
  • [SPARK-47172] [SC-169537][CORE] Támogatás hozzáadása AES-GCM-hez az RPC-titkosításhoz
  • [SPARK-47666] [SC-161476][SQL] Az NPE javítása a mysql-bittömb LongType-ként való olvasásakor
  • [SPARK-48947] [SC-174239][SQL] A charset.forName fájlban hiányzó gyorsítótár csökkentéséhez használjon kisbetűs karakterkészletnevet
  • [SPARK-49909] [SC-178552][SQL] Néhány kifejezés szép nevének javítása
  • [SPARK-47647] [SC-161377][SQL] A MySQL-adatforrást képessé teszi a bit(n>1) BinaryType-ként történő olvasására, hasonlóan a PostgreSQL-hez.
  • [SPARK-46622] [SC-153004][CORE] Metódus felülbírálat toStringo.a.s.network.shuffledb.StoreVersion
  • [SPARK-48961] [SC-171910][PYTHON] A PySparkException paraméterelnevezésének összhangban kell lennie a JVM-sel
  • [SPARK-49889] [SC-178474][PYTHON] Argumentum hozzáadása trim függvényekheztrim/ltrim/rtrim
  • [SPARK-47537] [SC-160747][SQL] Hibaadattípus-leképezés javítása a MySQL-összekötőn/J-n
  • [SPARK-47628] [SC-161257][SQL] Kijavítottuk a Postgres bittömb "Nem adható át logikai értékre" problémáját
  • [SPARK-49843] [SC-178084][ES-1268164][SQL] A karakter/varchar oszlopok módosítási megjegyzésének javítása
  • [SPARK-49549] [SC-178764][SQL] Rendeljen nevet a _LEGACY_ERROR_TEMP_3055 hibafeltételekhez, 3146
  • [SPARK-49791] [SC-177730][SQL] Bővíthetőbbé teheti a DelegatingCatalogExtensiont
  • [SPARK-49559] [SC-178551][SQL] Sql-cső szintaxisának hozzáadása a beállítási műveletekhez
  • [SPARK-49906] [SC-178536][SQL] CONFLICTING_DIRECTORY_STRUCTURES hiba bevezetése és használata a PartitioningUtils esetében
  • [SPARK-49877] [SC-178392][SQL] A classifyException függvény szignatúrájának megváltoztatása: isRuntime argumentum hozzáadása
  • [SPARK-47501] [SC-160532][SQL] Adjunk hozzá convertDateToDate-t a meglévő convertTimestampToTimestamp-hoz a JdbcDialect számára.
  • [SPARK-49044] [SC-175746][SQL] A ValidateExternalType hiba esetén a leszármazottat adja vissza
  • [SPARK-47462] [SC-160460][SQL] Más aláíratlan numerikus típusok leképezéseinek igazítása a TINYINT-hez a MySQLDialectben
  • [SPARK-47435] [SC-160129][SQL] A Spark-45561 által okozott MySQL UNSIGNED TINYINT túlcsordulási problémájának javítása
  • [SPARK-49398] [SC-176377][SQL] Javítsa a CACHE TABLE és CREATE VIEW lekérdezésében szereplő paraméterek hibáit
  • [SPARK-47263] [SC-177012][SQL] Nevezze el a régi feltételeket _LEGACY_ERROR_TEMP_13[44-46]
  • [SPARK-49605] [SC-176605][SQL] Javítsa ki a ascendingOrderDataTypeMismatchSortArray esetén megjelenő promptot.
  • [SPARK-49806] [SC-178304][SQL][CONNECT] A redundáns blank space eltávolítása show és Scala ügyfelek Connect után
  • [SPARK-47258] [SC-175032][SQL] Nevek hozzárendelése hibaosztályokhoz _LEGACY_ERROR_TEMP_127[0-5]
  • [SPARK-49564] [SC-178461][SQL] Sql-cső szintaxisának hozzáadása a JOIN operátorhoz
  • [SPARK-49836] [SC-178339][SQL][SS] A lekérdezés javítása, ami akkor válhat hibássá, ha az ablakot megadják az ablak/session_window fn-nek.
  • [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] A Postgres és a MySQL SQL időbélyegeinek leképezése
  • [SPARK-49776] [SC-177818][PYTHON][CONNECT] A kördiagramok támogatása
  • [SPARK-49824] [SC-178251][SS][CONNECT] A SparkConnectStreamingQueryCache naplózásának javítása
  • [SPARK-49894] [SC-178460][PYTHON][CONNECT] Az oszlopmezőműveletek sztringképének finomítása
  • [SPARK-49764] [SC-177491][PYTHON][CONNECT] Támogatási területdiagramok
  • [SPARK-49694] [SC-177376][PYTHON][CONNECT] Pontdiagramok támogatása
  • [SPARK-49744] [SC-178363][SS][PYTHON] TTL-támogatás implementálása a ListState-hez a TransformWithStateInPandasban
  • [SPARK-49879] [SC-178334][CORE] Helyezze át a TransportCipherUtil egy külön fájlba a Java fordítási figyelmeztetéseinek kiküszöbölése érdekében
  • [SPARK-49866] [SC-178353][SQL] A partícióoszlopokkal rendelkező táblázat leírására vonatkozó hibaüzenet javítása
  • [SPARK-49867] [SC-178302][ES-1260570][SQL] Javítsa a hibaüzenetet, ha az index túllépi a határokat a GetColumnByOrdinal hívásakor
  • [SPARK-49607] [SC-177373][PYTHON] A mintavételezési módszer frissítése mintavételezett alapú diagramokhoz
  • [SPARK-49626] [SC-177276][PYTHON][CONNECT] Vízszintes és függőleges sávdiagramok támogatása
  • [SPARK-49531] [SC-177770][PYTHON][CONNECT] Vonaldiagram támogatása a Plotly háttérrendszerrel
  • [SPARK-49444] [SC-177692][ES-1203248][SQL] Módosította az UnivocityParsert, hogy a tömbindexOutOfBounds által okozott futtatókörnyezeti kivételeket több felhasználóközpontú üzenettel dobja ki
  • [SPARK-49870] [SC-178262][PYTHON] Python 3.13-támogatás hozzáadása a Klasszikus Sparkban
  • [SPARK-49560] [SC-178121][SQL] Sql-cső szintaxisának hozzáadása a TABLESAMPLE operátorhoz
  • [SPARK-49864] [SC-178305][SQL] A BINARY_ARITHMETIC_OVERFLOW üzenetének javítása
  • [SPARK-48780] [SC-170274][SQL] Hibák elhárítása a NamedParametersSupport generic fájlban a függvények és eljárások kezeléséhez
  • [SPARK-49358] [SC-178158][SQL] Módkifejezés csoportosított sztringekkel rendelkező térképtípusokhoz
  • [SPARK-47341] [SC-178157][SQL] A RuntimeConfig#get pontatlan dokumentációjának javítása
  • [SPARK-48357] [SC-178153][SQL] LOOP utasítás támogatása
  • [SPARK-49845] [SC-178059][CORE] A REST API-ban appArgs és environmentVariables választhatóvá tétele
  • [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable jelzi, hogy írásra van-e
  • [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Ügyféloldali figyelő támogatása a Scalához
  • [SPARK-48700] [SC-177978][SQL] Módkifejezés összetett típusokhoz (minden rendezés)
  • [SPARK-48196] [SC-177899][SQL] A QueryExecution lazy val-tervek lazyTry-vé alakítása
  • [SPARK-49749] [16.x][SC-177877][CORE] A naplózási szint hibakeresési módra állítása a BlockManagerInfo-ban
  • [SPARK-49561] [SC-177897][SQL] Sql-cső szintaxisának hozzáadása a PIVOT és UNPIVOT operátorokhoz
  • [SPARK-49823] [SC-177885][SS] Kerülje az öblítést a rocksdb közeli útvonal leállítása során
  • [SPARK-49820] [SC-177855] [PYTHON] raise IOError változtatása raise OSError
  • [SPARK-49653] [SC-177266][SQL] Egyetlen illesztés korrelált skaláris alhálózatokhoz
  • [SPARK-49552] [SC-177477][PYTHON] DataFrame API-támogatás hozzáadása új "randstr" és "egységes" SQL-függvényekhez
  • [SPARK-48303] [16.x][SC-166251][CORE] LogKeys átrendezése
  • [SPARK-49656] [16x][Backport][SS] Támogatás hozzáadása az állapotváltozókhoz értékállapot-gyűjteménytípusokkal és olvasási változáscsatorna-beállításokkal
  • [SPARK-48112] [SC-165129][CONNECT] Tegye elérhetővé a munkamenetet a SparkConnectPlanner-ben a beépülő modulok számára
  • [SPARK-48126] [16.x][SC-165309][Core] A spark.log.structuredLogging.enabled hatékonysá tétele
  • [SPARK-49505] [SC-176873][SQL] Új "randstr" és "uniform" SQL-függvények létrehozása véletlenszerű sztringek vagy számok tartományon belüli létrehozásához
  • [SPARK-49463] [SC-177474] ListState támogatása a TransformWithStateInPandas számára
  • [SPARK-48131] [SC-165007][Core] Unify MDC key mdc.taskName és task_name
  • [SPARK-49557] [SC-177227][SQL] Sql-cső szintaxisának hozzáadása az WHERE operátorhoz
  • [SPARK-49323] [16.x][SC-174689][CONNECT] A MockObserver áthelyezése a Spark Connect Server tesztmappájából a kiszolgáló főmappájába
  • [SPARK-49745] [SC-177501][SS] Módosítás hozzáadása a regisztrált időzítők olvasásához állapotadat-forráson keresztül
  • [SPARK-49772] [16.x][SC-177478][SC-177214][SS] ColumnFamilyOptions eltávolítása és konfigurációk hozzáadása közvetlenül a dbOptionshoz a RocksDB-ben

Databricks ODBC/JDBC illesztőprogram támogatása

A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat, és frissítsen (töltse le az ODBC, töltse le a JDBC).

Lásd Databricks Runtime 16.1 karbantartási frissítések.

Rendszerkörnyezet

  • operációs rendszer: Ubuntu 24.04.1 LTS
  • Java: Zulu17.54+21-CA
  • Scala: 2.12.18
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.2.1

Telepített Python-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
széljegyzetes típusok 0.7.0 asttokens 2.0.5 astunparse 1.6.3
automatikus parancs 2.2.2 azure-core 1.31.0 Azure tárolás - blokk fájl 12.23.0
azure-storage-file-datalake 12.17.0 backports.tarfile 1.2.0 fekete 24.4.2
villogó 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools 5.3.3 tanúsítvány 2024.6.2 cffi 1.16.0
chardet 4.0.0 charset-normalizer 2.0.4 kattint 8.1.7
cloudpickle könyvtár 2.2.1 komm 0.2.1 contourpy 1.2.0
kriptográfia 42.0.5 biciklista 0.11.0 Cython 3.0.11
databricks-sdk 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
lakberendező 5.1.1 Elavult 1.2.14 distlib 0.3.8
docstring-to-markdown 0.11 belépési pontok 0.4 Végrehajtó 0.8.3
aspektusok áttekintése 1.1.1 fájlzár 3.15.4 betűtípusok 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
google-hitelesítés 2.35.0 google-cloud-core 2.4.1 google-cloud-storage 2.18.2
google-crc32c 1.6.0 google-resumable-media 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
ragoz 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
Mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-szemantic-conventions 0,48b0
csomagolás 24.1 Pandák 1.5.3 parso 0.8.3
pathspec 0.10.3 Patsy 0.5.6 pexpect 4.8.0
párna 10.3.0 mag 24.2 platformdirs 3.10.0
ábrázolás 5.22.0 pluggy 1.0.0 prompt-toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.65 pycparser 2.21 pydantic 2.8.2
pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing 3.0.9 pyright 1.1.294 python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6
pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
Kérelmek 2.32.2 kötél 1.12.0 Rsa 4.9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1
tengeri 0.13.2 setuptools 74.0.0 Hat 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
veremadatok 0.2.0 statsmodels 0.14.2 Kitartás 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornádó 6.4.1 árulók 5.14.3 típusőrző 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 típusok-kérelmek 2.31.0.0 types-setuptools 68.0.0.0
6-os típusok 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 felügyelet nélküli frissítések 0.1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5
whatthepatch 1.0.2 kerék 0.43.0 becsomagolt 1.14.1
yapf 0.33.0 cipzár 3.17.0

telepített R-könyvtárak

Az R-kódtárak a 2024.08.04-iPosit Package Manager CRAN-pillanatképéből vannak telepítve.

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
nyíl 16.1.0 jelszókérés 1.2.0 assertthat 0.2.1
visszaportolások 1.5.0 alap 4.4.0 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-8 Blob 1.2.4 rendszerindítás 1.3-30
főz 1.0-10 Brio 1.1.5 seprű 1.0.6
bslib 0.8.0 gyorsítótár 1.1.0 hívó 3.7.6
kalap 6.0-94 cellranger 1.1.0 kronométer 2.3-61
osztály 7.3-22 CLI 3.6.3 clipr 0.8.0
óra 0.7.1 klaszter 2.1.6 kódeszközök 0.2-20
színtér 2.1-1 commonmark 1.9.1 fordítóprogram 4.4.0
konfig 0.3.2 Belső ellentmondásban van 1.2.0 cpp11 0.4.7
zsírkréta 1.5.3 Megbízólevél 2.0.1 csavarodik 5.2.1
data.table 1.15.4 Adatkészletek 4.4.0 DBI 1.2.3
dbplyr 2.5.0 Leírás 1.4.3 devtools 2.4.5
diagram 1.6.5 diffobj 0.3.5 kivonat 0.6.36
lefelé irányított fény 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 három pont 0.3.2 kiértékel 0.24.0
fani 1.0.6 színek 2.1.2 gyorstérkép 1.2.0
fontawesome 0.5.2 macskáknak 1.0.0 foreach 1.5.2
külföldi 0.8-86 kovácsol 0.2.0 Fs 1.6.4
jövő 1.34.0 future.apply 1.11.2 gargarizál 1.5.2
Általánosságok 0.1.3 Gert 2.1.0 ggplot2 3.5.1
gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 ** globálisok 0.16.3 ragasztó 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Góer 1.0.1
grafika 4.4.0 grDevices 4.4.0 rács 4.4.0
gridExtra 2.3 gsubfn 0.7 Gt 0.11.0
gtable 0.3.5 védősisak 1.4.0 kikötő 2.5.4
highr 0.11 HMS 1.1.3 HTML-eszközök 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 Azonosítók 1.0.1 ini 0.3.1
ipred 0.9-15 izoband 0.2.7 iterátorok 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1.48 címkézés 0.4.3
később 1.3.2 rács 0.22-5 láva 1.8.0
életciklus 1.0.4 figyelő 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.13 TÖMEG 7.3-60.0.1
Mátrix 1.6-5 memoise 2.0.1 Módszerek 4.4.0
mgcv 1.9-1 pantomim 0.12 miniUI 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modellező 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 párhuzamos 4.4.0
párhuzamosan 1.38.0 pillér 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 rétegelt 1.8.9 dicséret 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 haladás 1.2.3
progressr 0.14.0 Ígéretek 1.3.0 Proto 1.0.0
helyettes 0.4-27 Ps 1.7.7 purrr 1.0.2
R6 2.5.1 ragg 1.3.2 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reaktív 0.4.4
reactR 0.6.0 olvasó 2.1.5 readxl 1.4.3
Receptek 1.1.0 Visszavágó 2.0.0 visszavágó2 2.1.2
Távirányítók 2.5.0 reprodukálható példa 2.1.1 újraformázás2 1.4.4
rlang 1.1.4 rmarkdown 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 Sass 0.4.9
skálák 1.3.0 selectr 0.4-2 munkamenet információ 1.2.2
alak 1.4.6.1 Fényes 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 térbeli 7.3-17 görbék 4.4.0
sqldf 0.4-11 SQUAREM 2021.1 statisztika 4.4.0
statisztikák4 4.4.0 stringi 1.8.4 stringr 1.5.1
túlélés 3.6-4 magabiztos fellépés 5.17.14.1 sys 3.4.2
systemfonts 1.1.0 tcltk (programozási nyelv és eszköztár) 4.4.0 testthat 3.2.1.1
szövegformázás 0.4.0 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.1 tidyverse 2.0.0 időváltozás 0.3.0
időDátum 4032.109 tinytex 0.52 Eszközök 4.4.0
tzdb 0.4.0 url-ellenőrző 1.0.1 használja ezt 3.0.0
utf8 1.2.4 segédprogramok 4.4.0 uuid 1.2-1
V8 4.4.2 vctrs 0.6.5 viridisLite 0.4.2
brumm 1.6.5 Waldo 0.5.2 bajusz 0.4.1
withr 3.0.1 xfun 0.46 xml2 1.3.6
xopen 1.0.1 xtable 1.8-4 YAML adatjelölő nyelv 2.3.10
zeallot 0.1.0 cipzár 2.3.1

Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)

Csoportazonosító Artefaktum azonosítója Verzió
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf könyvtárak 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics patak 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware Kryo-árnyékolt 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.koffein koffein 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-bennszülöttek
com.github.fommil.netlib natív_rendszer-Java 1.1
com.github.fommil.netlib natív_rendszer-Java 1.1-bennszülöttek
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-bennszülöttek
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-bennszülöttek
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Csellengő 1.9.0
com.google.errorprone hibára hajlamos megjegyzések 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guáva 15.0
com.google.protobuf protobuf-java 3.25.1
com.helger profilozó 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfig 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
közös-fájl feltöltés közös-fájl feltöltés 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-naplózás commons-naplózás 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift légkompresszor 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics metrikák megjelölése 4.2.19
io.dropwizard.metrics metrics-core fordítóprogram vagy könyvtár 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrikák-egészségügyi ellenőrzések 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.108.Final
io.netty netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-zokni 4.1.108.Final
io.netty netty-common 4.1.108.Final
io.netty netty-handler 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty netty-resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx gyűjtő 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine savanyúság 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant hangya 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow nyílformátum 15.0.0
org.apache.arrow nyíl-memóriamag 15.0.0
org.apache.arrow Arrow-Memória-Netty 15.0.0
org.apache.arrow nyíl-vektor 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurátor-ügyfél 2.13.0
org.apache.curator kurátor-keretrendszer 2.13.0
org.apache.curator kurátor-receptek 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop-kliens-futási környezet 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy borostyánkő 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus közönség-megjegyzések 0.13.0
org.apache.zookeeper állatkerti gondozó 3.9.2
org.apache.zookeeper zookeeper-jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-folytonosság 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty móló-plusz 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-szerver 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-erőforrás-kereső 1.0.3
org.glassfish.hk2.external aopalliance-újracsomagolt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core Jersey kiszolgáló 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator (a Hibernate hitelesítő) 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Végleges
org.jdbi jdbi 2.63.1
org.jetbrains Széljegyzetek 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Hézagoló lemezek 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-kompatibilis 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
stax stax-api 1.0.1