Databricks Runtime 14.2 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.5.0-s verziójával működő Databricks Runtime 14.2-ről nyújtanak információkat.
A Databricks 2023 novemberében adta ki ezt a verziót.
Tipp.
A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Új funkciók és fejlesztések
-
CACHE SELECT
a rendszer most figyelmen kívül hagyja - Továbbfejlesztett gyorsítótárazási viselkedés
- Kijavítottuk a sérült fájlkezelést a DML-parancsokban
- Sémaregisztrációs adatbázis támogatása a megosztott fürtök protobuf- és Avro-függvényeihez
-
foreachBatch
ésStreamingListener
támogatás - A sorszintű egyidejűség általánosan elérhető és alapértelmezés szerint be van kapcsolva
- Változásmegosztás: A címzettek kötegelt, CDF- és streamelési lekérdezéseket hajthatnak végre törlési vektorokkal rendelkező megosztott táblákon (nyilvános előzetes verzió)
- Sekély klón a Unity Catalog külső tábláihoz (nyilvános előzetes verzió)
- Új lemez gyorsítótárazási hozzárendelési algoritmusa
-
from_avro
a sémaregisztrációs adatbázis-összekötővel támogatja a sémafejlődést - Gyorsabb többszálas statisztikai adatgyűjtés
- Leküldéses szűrők a DeltaSource-ban Delta-fájlokon
- Scala skaláris, felhasználó által definiált függvények támogatása megosztott fürtökön (nyilvános előzetes verzió)
CACHE SELECT
a rendszer most figyelmen kívül hagyja
Az SQL-parancs CACHE SELECT
mostantól figyelmen kívül lesz hagyva egy továbbfejlesztett gyorsítótárazási algoritmus mellett. Lásd: Teljesítmény optimalizálása gyorsítótárazással az Azure Databricksben.
Továbbfejlesztett gyorsítótárazási viselkedés
A Spark-ütemező DiskCache-elhelyezése gyorsabb partíció-hozzárendeléssel, a fürt automatikus skálázása során jobb kiegyensúlyozással és konzisztensebb lekérdezés-végrehajtással rendelkezik.
Kijavítottuk a sérült fájlkezelést a DML-parancsokban
A DML parancsok DELETE
, UPDATE
és MERGE INTO
a továbbiakban nem tartják tiszteletben az olvasási beállításokat ignoreCorruptFiles
és ignoreMissingFiles
. Ha olvashatatlan fájlba ütközik egy táblában, ezek a parancsok akkor is sikertelenek lesznek, ha ezek a beállítások meg vannak adva.
Sémaregisztrációs adatbázis támogatása a megosztott fürtök protobuf- és Avro-függvényeihez
Mostantól használhatja a from_avro
, to_avro
, from_protobuf
és to_protobuf
Python függvényt a sémaregisztrációs adatbázissal megosztott fürtökben.
foreachBatch
és StreamingListener
támogatás
Mostantól megosztott fürtökben is használhatja a strukturált streamelést és foreachBatch()
az StreamingListener
API-kat. Lásd: A foreachBatch használata tetszőleges adatgyűjtőkbe való íráshoz és strukturált streamelési lekérdezések monitorozásához az Azure Databricksen.
A sorszintű egyidejűség általánosan elérhető és alapértelmezés szerint be van kapcsolva
A sorszintű egyidejűség a sorszintű módosítások észlelésével csökkenti az egyidejű írási műveletek közötti ütközéseket. A sorszintű egyidejűség csak particionálás nélküli táblákon támogatott, beleértve a folyékony fürtözésű táblákat is. A sorszintű egyidejűség alapértelmezés szerint engedélyezve van a deltatáblákon, és engedélyezve van a törlési vektorok. Lásd: Írási ütközések sorszintű egyidejűséggel.
Változásmegosztás: A címzettek kötegelt, CDF- és streamelési lekérdezéseket hajthatnak végre törlési vektorokkal rendelkező megosztott táblákon (nyilvános előzetes verzió)
A deltamegosztás címzettjei mostantól kötegelt, CDF- és streamelési lekérdezéseket hajthatnak végre törlési vektorokat használó megosztott táblákon. A Databricks Runtime 14.1-ben csak kötegelt lekérdezéseket hajthatnak végre. Lásd: Táblák hozzáadása törlési vektorokkal vagy oszlopleképezéssel egy megosztáshoz, a táblák olvasása engedélyezett törlési vektorokkal vagy oszlopleképezéssel, valamint az olvasási táblák törlési vektorokkal vagy oszlopleképezéssel.
Sekély klón a Unity Catalog külső tábláihoz (nyilvános előzetes verzió)
Most már használhatja a sekély klónt a Unity Catalog külső tábláival. Lásd: Shallow clone for Unity Catalog tables.
Új lemez gyorsítótárazási hozzárendelési algoritmusa
A Spark-ütemező mostantól egy új lemez-gyorsítótárazási algoritmust használ. Az algoritmus javítja a lemezhasználatot és a partíció-hozzárendelést a csomópontok között, és gyorsabb hozzárendelést eredményez mind kezdetben, mind a fürt skálázási eseményei után. A Stickier cache-hozzárendelés javítja a futtatások konzisztenciáját, és csökkenti az újraegyensúlyozási műveletek során áthelyezett adatokat.
from_avro
a sémaregisztrációs adatbázis-összekötővel támogatja a sémafejlődést
Mostantól engedélyezheti, hogy a folyamatok újrainduljanak a kifejlett rekordok észlelésekor. Korábban, ha a séma fejlődése az from_avro
összekötővel történt, az új oszlopok visszatérnek null
. Lásd a streamelt Avro-adatok olvasását és írását.
Gyorsabb többszálas statisztikai adatgyűjtés
A statisztikai adatgyűjtés kis fürtökön akár 10-szer gyorsabb, ha CONVERT TO DELTA-t futtatunk, vagy Iceberg és Parquet táblákból klónozunk. Lásd: Konvertálás Delta Lake - és Clone Parquet- és Iceberg-táblákká.
Leküldéses szűrők a DeltaSource-ban Delta-fájlokon
A jobb kihasználtság érdekében a Delta-táblák streamelési lekérdezéseinek partíciószűrői le lesznek küldve a Delta-ba a sebességkorlátozás előtt.
Scala skaláris, felhasználó által definiált függvények támogatása megosztott fürtökön (nyilvános előzetes verzió)
Mostantól használhatja a Scala skaláris, felhasználó által definiált függvényeit a unitykatalógus-kompatibilis, megosztott hozzáférési móddal konfigurált fürtökön. Lásd: Felhasználó által definiált skaláris függvények – Scala.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- fastjsonschema 2.18.0 és 2.19.0 között
- filelock 3.12.3-tól 3.12.4-hez
- googleapis-common-protos 1.60.0 és 1.61.0 között
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
Apache Spark
A Databricks Runtime 14.2 tartalmazza az Apache Spark 3.5.0-t. Ez a kiadás tartalmazza a Databricks Runtime 14.1-ben található összes Spark-javítást és -fejlesztést, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-45592] [DBRRM-624] "[SC-146977][SQL] AQE-beli helyességi probléma az InMemoryTableScanExec használatával"
- [SPARK-45524] [DBRRM-625] "[SC-146319][PYTHON][SQL] Kezdeti támogatás f...
- [SPARK-45433] [DBRRM-621] "[SC-145163][SQL] A CSV/JSON séma következtetésének javítása...
- [SPARK-45592] [SC-146977][SQL] Az AQE helyességi problémája az InMemoryTableScanExec használatával
- [SPARK-45354] "[SC-143991][SQL] Függvények feloldása alulról felfelé"
- [SPARK-45680] [CSAK TESZT][SASP-2347][CONNECT] Tesztek javítása
- [SPARK-45680] [CONNECT] Kiadási munkamenet
- [SPARK-43380] [SC-146726][ES-897115][SQL] Lassulás javítása az Avro olvasásában
-
[SPARK-45649] [SC-146742][SQL] A felkészülési keretrendszer egységesítése
OffsetWindowFunctionFrame
- [SPARK-40820] [SC-146727][PYTHON][SQL] StructType létrehozása Json-ból
- [SPARK-45620] [SC-146225][PYTHON] A Python UDTF-hez kapcsolódó felhasználói API-k javítása a camelCase használatához
- [SPARK-45727] [SC-146978][SS] A nem használt térkép eltávolítása a vízjel propagálási szimulációjában
- [SPARK-45723] [SC-146890][PYTHON][CONNECT] A katalógus metódusai elkerülik a pandas konvertálását
- [SPARK-45574] [SC-146106][SQL] Hozzáadás :: szintaxis rövidítésként az öntéshez
-
[SPARK-45670] [SC-146725][CORE][3.5] A SparkSubmit nem támogatja
--total-executor-cores
a K8-on való üzembe helyezést - [SPARK-45661] [SC-146594][SQL][PYTHON] Add toNullable in StructType, MapType and ArrayType
- [SPARK-45524] [SC-146319][PYTHON][SQL] Python-adatforrás olvasási API kezdeti támogatása
-
[SPARK-45542] [SC-145892][CORE] Csere erre
setSafeMode(HdfsConstants.SafeModeAction, boolean)
:setSafeMode(SafeModeAction, boolean)
- [SPARK-45652] [SC-146641][SQL] SPJ: Üres bemeneti partíciók kezelése dinamikus szűrés után
- [SPARK-45454] [SC-144846][SQL] A tábla alapértelmezett tulajdonosának beállítása current_user
-
[SPARK-45554] [SC-146875][PYTHON] Rugalmas paraméter bevezetése
assertSchemaEqual
- [SPARK-45242] [SC-143410][SQL] DataFrame-azonosító használata a CollectMetrics szemantikai ellenőrzéséhez
- [SPARK-45674] [SC-146862][CONNECT][PYTHON] A JVM-függő attribútumok hibaüzenetének javítása a Spark Connecten.
- [SPARK-45646] [SC-146276][SQL] A Hive 2.0 előtti keménykódolási idő változóinak eltávolítása
- [SPARK-43380] [SC-146726][ES-897115][SQL] Lassulás javítása az Avro olvasásában
- [SPARK-45545] [SC-146484][CORE] SSLOptions továbbítása bárhol, ahol létrehozunk egy SparkTransportConfot
- [SPARK-45641] [SC-146260][Felhasználói felület] Az alkalmazás kezdési idejének megjelenítése az AllJobsPage-ben
- [SPARK-40154] [SC-146491][Python][Docs] A Dataframe.cache-dokumentáció tárolási szintjének javítása
- [SPARK-45626] [SC-146259][SQL] _LEGACY_ERROR_TEMP_1055 átalakítása REQUIRES_SINGLE_PART_NAMESPACE
- [SPARK-45507] [SC-145900][SQL] A count aggregátumokkal rendelkező beágyazott korrelált skaláris al lekérdezések helyességi javítása
- [SPARK-45619] [SC-146226][CONNECT][PYTHON] A megfigyelt metrikák alkalmazása a Megfigyelési objektumra
- [SPARK-45588] [SC-145909][PROTOBUF][CONNECT][AL] Scaladoc-fejlesztés a StreamingForeachBatchHelperhez
- [SPARK-45616] [SC-146120][CORE] Kerülje a ParVectort, amely nem propagálja a ThreadLocals-t vagy a SparkSession-t
- [SPARK-45604] [SC-146105][SQL] LogicalType-ellenőrzés hozzáadása az INT64-en –> DateTime-átalakítás parquet vektoros olvasón
- [SPARK-44649] [SC-145891][SQL] A futtatókörnyezet szűrője támogatja az egyenértékű létrehozási oldalkifejezések átadását
- [SPARK-41674] [SC-128408][SQL] A futásidejű szűrőnek a többszintű shuffle join oldalt kell támogatnia szűrőlétrehozási oldalként
- [SPARK-45547] [SC-146228][ML] Vektorok ellenőrzése beépített függvénnyel
- [SPARK-45558] [SC-145890][SS] Metaadatfájl bemutatása állapotalapú streamelési operátorhoz
- [SPARK-45618] [SC-146252][CORE] BaseErrorHandler eltávolítása
- [SPARK-45638] [SC-146251][SQL][Avro] A decimális konverzió tesztelési lefedettségének javítása
- [SPARK-44837] [SC-146020][SQL] ALTER TABLE ALTER PARTITION oszlop hibaüzenetének módosítása
- [SPARK-45561] [SC-146264][SQL] A TINYINT megfelelő konverzióinak hozzáadása a MySQLDialectben
- [SPARK-45632] [SC-146255][SQL] Az AQE engedélyezésekor a táblagyorsítótárnak kerülnie kell a szükségtelen ColumnarToRow-t
- [SPARK-45569] [SC-145932][SQL] Név hozzárendelése a hiba _LEGACY_ERROR_TEMP_2152
- [SPARK-44784] [SC-141015][CONNECT] SBT-teszt hermetikussá tétele.
-
[SPARK-45452] [SC-144836][SQL] Fejlesztés
InMemoryFileIndex
az API használatáhozFileSystem.listFiles
- [SPARK-44735] [SC-146186][SQL] Figyelmeztető msg hozzáadása, ha azonos nevű oszlopokat szúr be olyan sorok szerint, amelyek nem egyeznek meg
-
[SPARK-45351] [SC-144791][CORE] Alapértelmezett érték módosítása
spark.shuffle.service.db.backend
ROCKSDB értékre -
[SPARK-45553] [SC-145906][PS] Elítél
assertPandasOnSparkEqual
- [SPARK-45613] [SC-146022][CORE] DeterministicLevel használata DeveloperApi-ként
-
[SPARK-45549] [SC-145895][CORE] Használaton kívüli eltávolítása a következőben:
numExistingExecutors
CoarseGrainedSchedulerBackend
- [SPARK-45609] [SC-146030][CONNECT] SqlState belefoglalása a SparkThrowable proto üzenetbe
- [SPARK-45595] [SC-146037] sqlstate-t tesz elérhetővé hibaüzenetben
-
[SPARK-45628] [SC-146123][ML] Fejlesztés
vector_to_array
a következőhöz:.mllib.linalg.SparseVector
- [SPARK-45009] [SC-145884][SQL][NYOMON KÖVETÉS] A dekorreláció kikapcsolása az AQE InSubquery-teszt illesztési feltételeiben
- [SPARK-45576] [SC-145883][CORE] Felesleges hibakeresési naplók eltávolítása a ReloadingX509TrustManagerSuite alkalmazásban
- [SPARK-45485] [SC-145719][CONNECT] Felhasználói ügynök fejlesztései: SPARK_CONNECT_USER_AGENT változó használata és környezetspecifikus attribútumok belefoglalása
- [SPARK-45508] [SC-145513][CORE] "–add-opens=java.base/jdk.internal.ref=ALL-UNNAMED" hozzáadása, hogy a platform hozzáférhessen a Cleanerhez a Java 9+ rendszeren
- [SPARK-45595] "[SC-146037] Az SQLSTATE megjelenítése hibaüzenetben" visszaállítása
- [SPARK-45595] [SC-146037] AZ SQLSTATE megjelenítése hibaüzenetben
- [SPARK-45112] "[SC-143259][SQL] A nem oldottfunction ba...
-
[SPARK-45257] [SC-143411][CORE] Engedélyezés
spark.eventLog.compress
alapértelmezés szerint - [SPARK-45586] [SC-145899][SQL] A nagy kifejezésfákkal rendelkező csomagok fordítási késésének csökkentése
- [SPARK-45517] [SC-145691][CONNECT][14.x] További kivételkonstruktorok kibontása a hibakeret paramétereinek támogatásához
- [SPARK-45581] [SC-145896] Tegye kötelezővé az SQLSTATE-t.
- [SPARK-45427] [SC-145590][CORE] RPC SSL-beállítások hozzáadása az SSLOptionshoz és a SparkTransportConfhoz
-
[SPARK-45261] [SC-143357][CORE] Javítás
EventLogFileWriters
kodekként való kezelésheznone
- [SPARK-45582] [SC-145897][SS] Győződjön meg arról, hogy a tárpéldány nincs használatban a véglegesítés kimeneti módú streamelési összesítésen belüli meghívása után
- [SPARK-45562] [SC-145720][SC-144650][SQL] XML: A "rowTag" kötelező beállítássá tétele
-
[SPARK-45392] [SC-144362][CORE][SQL][SS] Csere erre
Class.newInstance()
:Class.getDeclaredConstructor().newInstance()
- [SPARK-45433] [SC-145163][SQL] CsV/JSON-sémakövetkeztetés javítása, ha az időbélyegek nem felelnek meg a megadott időbélyegformának
- [SPARK-45458] [SC-145011][SQL] IllegalArgumentException konvertálása SparkIllegalArgumentException értékre bitwiseExpressions formátumban
- [SPARK-45564] [SC-145735][SQL] Egyszerűsítse le a "DataFrameStatFunctions.bloomFilter" kifejezést a "BloomFilterAggregate" kifejezéssel
- [SPARK-45566] [SC-145777][PS] Pandas-szerű tesztelési eszközök támogatása a Pandas API-hoz a Sparkon
- [SPARK-45498] [SC-145509][CORE] Következő lépés: A tevékenység befejezésének figyelmen kívül hagyása a régi...
- [SPARK-45483] [SC-145152][CONNECT] A connect.functions függvénycsoportjainak javítása
- [SPARK-45577] [SC-145781][PYTHON] A UserDefinedPythonTableFunctionAnalyzeRunner javítása az elnevezett argumentumokból származó összecsukott értékek átadásához
- [SPARK-45009] [SC-138223][NYOMON KÖVETÉS] A dekorreláció kikapcsolása az AetherSQLQuerySuite illesztési feltételeiben
- [SPARK-45415] [SC-145344] A "fallocate" szelektív letiltásának engedélyezése a RocksDB statestore-ban
- [SPARK-45500] [SC-145134][CORE][WEBUI] A rendellenesen befejezett illesztőprogramok számának megjelenítése a MasterPage-ben
- [SPARK-44120] [SC-144349][PYTHON] A Python 3.12 támogatása
- [SPARK-45439] [SC-145589][SQL][Felhasználói felület] A LiveStageMetrics.accumIdsToMetricType memóriahasználatának csökkentése
- [SPARK-45565] [SC-145717][Felhasználói felület] Szükségtelen JSON.stringify és JSON.parse hurok a feladatlistához a szakasz részleteiben
- [SPARK-45567] [SC-145718][CONNECT] Redundáns eltávolítása org.apache.spark.sql.connect.execution.ExecuteGrpcResponseSender#run
- [SPARK-45112] [SC-143259][SQL] UnresolvedFunction-alapú felbontás használata az SQL Dataset-függvényekben
- [SPARK-45486] [SASP-2457][SC-145612][CONNECT] Idempotens kérés add_artifact
- [SPARK-44913] [SC-144326][SQL] A DS V2 támogatja a V2 UDF leküldését, amely mágikus módszerrel rendelkezik
- [SPARK-45538] [SC-145635][PYTHON][CONNECT]pyspark connect overwrite_partitions hiba
- [SPARK-45491] [SC-145622] Hiányzó SQLSTATES 2/2 hozzáadása
- [SPARK-45009] [SC-145620][SC-138223][SQL] Predikátum-al lekérdezések dekorrelálása illesztés feltételben
- [SPARK-45377] [SC-144377][CORE] InputStream kezelése a NettyLoggerben
- [SPARK-45248] [SC-143759][CORE]A Spark felhasználói felület kiszolgálójának időtúllépésének beállítása
- [SPARK-44594] [SC-145611][SS] Redundáns metódusparaméter eltávolítása a Kafka-összekötőben
- [SPARK-45539] [SC-145621][SS] Adjon hozzá egy feltételt és naplót, amely jelzi, hogy a vízjel definíciója szükséges a hozzáfűző módban történő streamelési összesítési lekérdezésekhez
-
[SPARK-44262] [SC-145639][SQL] JdbcDialect hozzáadása és
dropTable
hozzáadásagetInsertStatement
- [SPARK-45516] [SC-145480][CONNECT] QueryContext belefoglalása a SparkThrowable proto üzenetbe
- [SPARK-45310] [SC-145127][CORE] A jelentés shuffle blokkállapotának tiszteletben kell tartania az shuffle szolgáltatást a leszerelési migrálás során
-
[SPARK-45521] [SC-145487][ML] Kerülje az nnz újraszámítását a következőben:
VectorAssembler
- [SPARK-45418] [SC-145485][SQL][PYTHON][CONNECT] Current_database() oszlop aliasának módosítása current_schema()
-
[SPARK-45116] [SC-145142][SQL] Megjegyzés hozzáadása a JdbcDialect paramjához
createTable
- [SPARK-45495] [SC-145529][core] A k8s-fürt támogatási szakaszszintű tevékenységerőforrás-profilja, ha a dinamikus lefoglalás le van tiltva
- [SPARK-45487] [SC-145559] SQLSTATES- és temp-hibák javítása
- [SPARK-45505] [SC-145550][PYTHON] Újrabontás az AnalyzeInPythonnal, hogy újrahasználható legyen
- [SPARK-45132] [SC-145425][SQL] IDENTIFIER javítása függvényhíváshoz
- [SPARK-45213] [SC-145020][SQL] Név hozzárendelése a hiba _LEGACY_ERROR_TEMP_2151
- [SPARK-45416] [SC-145126][CONNECT] A nyíleredmények sanity check konzisztenciája
- [SPARK-45163] [SC-143386][SQL] Egyesíteni UNSUPPORTED_VIEW_OPERATION &UNSUPPORTED_TABLE_OPERATION > kijavítani néhány problémát
- [SPARK-45421] [SC-144814][SQL] Catch AnalysisException over InlineCTE
-
[SPARK-43664] [SC-145404][CONNECT][PS] Kivételt emel ki a
ps.sql
Spark Connecten található Pandas-on-Spark objektummal kapcsolatban. - [SPARK-45402] [SC-145371][SQL][PYTHON] Adjon hozzá UDTF API-t az "eval" és a "terminate" metódusokhoz a korábbi "elemzési" eredmények felhasználásához
- [SPARK-36112] [SC-67885] [SQL] A korrelált EXISTS és IN al lekérdezések támogatása a DecorrelateInnerQuery keretrendszer használatával
- [SPARK-45383] [SC-144929][SQL] Nem létező táblával végzett időutazásra vonatkozó hibaüzenet javítása
- [SPARK-43254] [SC-143318][SQL] Név hozzárendelése a hiba _LEGACY_ERROR_TEMP_2018
- [SPARK-45204] [SC-145167][CONNECT] Opcionális ExecuteHolder hozzáadása a SparkConnectPlannerhez
- [SPARK-45451] [SC-145144][SQL] Az adathalmaz-gyorsítótár alapértelmezett tárolási szintjének konfigurálhatóvá tétele
- [SPARK-45192] [SC-143194][Felhasználói felület] A graphviz edge lejárt lineInterpolate paraméterének javítása
-
[SPARK-45467] [SC-145146][CORE] Csere erre
Proxy.getProxyClass()
:Proxy.newProxyInstance().getClass
- [SPARK-45397] [SC-145139][ML][CONNECT] Tömbösszeszerelő funkcióátalakító hozzáadása
- [SPARK-44855] [SC-145226][CONNECT] Kis finomhangolások az ExecuteGrpcResponseSender és az ExecuteResponseObserver csatlakoztatásához
-
[SPARK-45398] [SC-144796][SQL] A kifejezés hozzáfűzése
ESCAPE
sql()
Like
- [SPARK-45494] [SC-145129][CORE][PYTHON] Util-függvények bevezetése a PythonWorkerUtils bájttömbjeinek olvasásához/írásához
- [SPARK-45464] [SC-145125][CORE] Hálózatifonal-elosztási build javítása
- [SPARK-45461] [SC-144851][CORE][SQL][MLLIB] Mapper bemutatása a StorageLevelhez
- [SPARK-45450] [SC-145009][PYTHON] Import javítása a PEP8 szerint: pyspark.pandas és pyspark (core)
- [SPARK-45475] [SC-145018][SQL] A DataFrame.foreachPartition-t használja RDD.foreachPartition helyett a JdbcUtilsben
- [SPARK-45271] [SC-143778][SQL] _LEGACY_ERROR_TEMP_1113 egyesítése TABLE_OPERATION > a QueryCompilationErrors nem használt metódusának törlése
- [SPARK-45449] [SC-145013][SQL] Gyorsítótár érvénytelenítésével kapcsolatos probléma a JDBC-táblával
- [SPARK-45473] [SC-145017][SQL] A RoundBase helytelen hibaüzenetének javítása
- [SPARK-43299] [SC-145022][SS][CONNECT] StreamingQueryException konvertálása a Scala-ügyfélben
- [SPARK-45474] [SC-145014][CORE][WEBUI] Felső szintű szűrés támogatása a MasterPage JSON API-ban
- [SPARK-45205] [SC-145012][SQL] CommandResultExec az iterátor metódusok felülbírálásához, hogy ne aktiváljon több feladatot.
- [SPARK-45472] [SC-145004][SS] A RocksDB State Store-nak nem kell újra ellenőriznie az ellenőrzőpont elérési útját
- [SPARK-45470] [SC-145010][SQL] Kerülje a hive orc tömörítési típusú sztringérték beillesztését
- [SPARK-45448] [SC-144829][PYTHON] Import javítása a PEP8 szerint: pyspark.testing, pyspark.mllib, pyspark.resource és pyspark.streaming
- [SPARK-45446] [SC-144828][PYTHON] Import javítása a PEP8 szerint: pyspark.errors és pyspark.ml
- [SPARK-45239] [SC-144832][CONNECT] Az alapértelmezett spark.connect.jvmStacktrace.maxSize csökkentése
- [SPARK-45436] [SC-144831][PYTHON][CONNECT] A DataFrame metódusok ugyanazt a munkamenetet ellenőrzik
- [SPARK-45413] [SC-144847][CORE] Figyelmeztetés hozzáadása a drop LevelDB támogatásának előkészítéséhez
-
[SPARK-45462] [SC-144848][CORE][WEBUI] Megjelenítés
Duration
ApplicationPage
- [SPARK-44527] [SC-144855][SQL] Cserélje le a ScalarSubqueryt null értékre, ha a maxRows értéke 0
-
[SPARK-45401] [SC-144854][PYTHON] Új metódus
cleanup
hozzáadása az UDTF-felületen -
[SPARK-43704] [SC-144849][CONNECT][PS] Támogatás a következőhöz
MultiIndex
:to_series()
- [SPARK-45424] [SC-144888][SQL] A TimestampFormatter javítása nem kötelező elemzési eredményeket ad vissza, ha csak az előtag egyezik
- [SPARK-45441] [SC-144833][PYTHON] További util függvények bevezetése a PythonWorkerUtilshez
-
[SPARK-45412] [SC-144803][PYTHON][CONNECT] A terv és a munkamenet ellenőrzése
DataFrame.__init__
- [SPARK-45408] [SC-144810][CORE] RPC SSL-beállítások hozzáadása a TransportConfhoz
-
[SPARK-45432] [SC-144818][CORE] Elavult Hadoop-2
LocatedFileStatus
konstruktor eltávolítása - [SPARK-45434] [SC-144819][ML][CONNECT] A LogisticRegression ellenőrzi a betanítási címkéket
- [SPARK-45420] [SC-144808][SQL][PYTHON][CONNECT] DataType.fromDDL hozzáadása a PySparkhoz
-
[SPARK-45406] [SC-144793][PYTHON][CONNECT] Törlés
schema
a DataFrame-konstruktorból -
[SPARK-45404] [SC-144799][CORE] Támogatási
AWS_ENDPOINT_URL
envv változó - [SPARK-43620] [SC-144792][CONNECT][PS] A Pandas API-k javítása a nem támogatott funkcióktól függ
- [SPARK-45354] [SC-143991][SQL] Függvények feloldása alulról felfelé
- [SPARK-45394] [SASP-1480][SC-144712][PYTHON][CONNECT] Újrapróbálkozás hozzáadása az artifact API-hoz. A hibakezelés javítása (a [SPARK-45093] nyomon követése).
- [SPARK-45120] [SC-142780][SPARK-45150][Felhasználói felület] Frissítse a d3-at a v3-ról a 7.8.5-ös verzióra, és alkalmazza az API-módosításokat a felhasználói felületen
- [SPARK-44838] [SC-143983][SQL] raise_error fejlesztése
- [SPARK-45312] [SC-143754][SQL][Felhasználói felület] Támogatás váltása a terv svg megjelenítésére/elrejtésére a végrehajtási oldalon
- [SPARK-45378] [SC-144448][CORE] ConvertToNettyForSsl hozzáadása ManagedBufferhez
- [SPARK-44762] [SC-144338][CONNECT][CORE] A SparkConnect.addJobTag és a SparkSession.addTag csatlakoztatása dokumentuma
- [SPARK-45383] A megoldatlan RelationTimeTravel kezelése kecsesen
- [SPARK-45347] [SC-144512][SQL][CONNECT] A SparkThrowable belefoglalása a FetchErrorDetailsResponse-be
- [SPARK-45012] [SC-141512][SQL] A CheckAnalysisnak beágyazott tervet kell használnia az AnalysisExceptionben
-
[SPARK-45359] [SC-144336][PYTHON][CONNECT]
DataFrame.{columns, colRegex, explain}
kivételeket kell emelnie, ha a terv érvénytelen - [SPARK-45227] [SC-144233][CORE] Finom szálbiztonsági probléma megoldása a CoarseGrainedExecutorBackend használatával
- [SPARK-45266] [SC-144171][PYTHON] A ResolveFunctions elemzőszabály újrabontása az oldalirányú illesztés késleltetéséhez táblaargumentumok használatakor
- [SPARK-45266] Visszaállítás "[SC-144171][PYTHON] Refactor ResolveFunctions analyzer rule to delay making lateral join when table arguments are used" ([SC-144171][PYTHON] Refactor ResolveFunctions analyzer rule to delay making lateral join when table arguments are used"
- [SPARK-45371] [SC-144389][CONNECT] Árnyékolási problémák megoldása a Spark Connect Scala-ügyfélben
- [SPARK-45057] [SC-144214][CORE] Ne szerezze be az olvasási zárolást, ha a KeepReadLock hamis
-
[SPARK-45385] [SC-144357][SQL] Elítél
spark.sql.parser.escapedStringLiterals
-
[SPARK-45340] [SC-143917][SQL] Az SQL-konfiguráció eltávolítása
spark.sql.hive.verifyPartitionPath
- [SPARK-45266] [SC-144171][PYTHON] A ResolveFunctions elemzőszabály újrabontása az oldalirányú illesztés késleltetéséhez táblaargumentumok használatakor
- [SPARK-45362] [SC-144198][PYTHON] PARTITION BY-kifejezéseket vetít ki, mielőtt a Python UDTF "eval" metódusa felhasználná őket
- [SPARK-45346] [SC-143925][SQL] A parquet-séma következtetésének figyelembe kell vennie a kis- és nagybetűk megkülönböztetését jelzőt a séma egyesítésekor
-
[SPARK-45341] [SC-143933][CORE] Javítsa ki a címszintet a KVStore.java megjegyzéseiben a Java 17 sikeres futtatásához
sbt doc
- [SPARK-45334] [SC-143914][SQL] Félrevezető megjegyzés eltávolítása a parquetSchemaConverterben
-
[SPARK-45337] [SC-143932][CORE] Újrabontás
AbstractCommandBuilder#getScalaVersion
a Scala 2.12 ellenőrzésének eltávolításához - [SPARK-45329] [SC-143918][PYTHON][CONNECT] DataFrame-metódusok kihagyják a pandas konvertálását
- [SPARK-43662] [SC-143923][PS][CONNECT] Támogatási merge_asof a Spark Connectben
- [SPARK-44126] [SC-143751][CORE] A célvégrevezető leszerelésekor az shuffle migrálási hibák száma nem növekedhet
-
[SPARK-44550] [SC-119768][SQL] Hibajavítások engedélyezése az
null IN (empty list)
ANSI-ben -
[SPARK-45316] [SC-143783][CORE][SQL] Új paraméterek
ignoreCorruptFiles
/ignoreMissingFiles
hozzáadása aHadoopRDD
NewHadoopRDD
- [SPARK-45093] [SC-143414][CONNECT][PYTHON] Hibajelentés addArtifacts-lekérdezéshez
- [SPARK-44756] [SC-143787][CORE] A végrehajtó lefagy, ha a RetryingBlockTransferor nem kezdeményez újrapróbálkozást
- [SPARK-45333] [SC-143768][CORE] A spark.eventLog.buffer.kb egységhiba kijavítása
- [SPARK-45317] [SC-143750][SQL][CONNECT] Null fájlnév kezelése a kivételek halmozott nyomkövetésében
- [SPARK-45191] [SC-143407][SQL] Az InMemoryTableScanExec simpleStringWithNodeId oszlopos adatokat ad hozzá
-
[SPARK-45235] [SC-143314][CONNECT][PYTHON] Térkép- és tömbparaméterek támogatása a következő szerint:
sql()
- [SPARK-45138] [SC-143309][SS] Adjon meg egy új hibaosztályt, és alkalmazza azt, ha az elosztott fájlrendszerbeli ellenőrzőpont-állapot meghiúsul
- [SPARK-45297] [SC-143644][SQL] A SPARK-31827-ben hozzáadott dateformatter kerülő megoldásának eltávolítása
-
[SPARK-44345] [SC-143593][CORE] Alacsonyabb
unknown shuffle map output
naplószint a WARN értékre, ha engedélyezve van a shuffle migrálás - [SPARK-44463] [SC-143251][SS][CONNECT] Hibakezelés javítása a Connect gőzölésű Python-feldolgozó esetében
- [SPARK-45207] [SC-143603][SQL][CONNECT] Hibanövelés implementálása a Scala-ügyfélhez
- [SPARK-45240] [SC-143602][SQL][CONNECT] Hibanövelés implementálása Python-ügyfélhez
- [SPARK-45216] [SC-143288][SQL] Nem determinisztikus magolt adathalmaz API-k javítása
- [SPARK-45251] [SC-143419][CONNECT] Client_type mező hozzáadása a FetchErrorDetailshez
-
[SPARK-45137] [SC-143001][CONNECT] Térkép-/tömbparaméterek támogatása paraméteres környezetben
sql()
-
[SPARK-45224] [SC-143257][PYTHON] Példák hozzáadása w/ map and array as parameters
sql()
- [SPARK-44622] [SC-143205][SQL][CONNECT] FetchErrorDetails RPC implementálása
- [SPARK-45178] [SC-136089] Visszalépés a Trigger.AvailableNow egyetlen kötegének végrehajtásához nem támogatott forrásokkal a burkoló használata helyett
- [SPARK-44823] [14.x][SC-142979][PYTHON] Frissítse a feketét a 23.9.1-re, és javítsa a hibajavítást
-
[SPARK-45078] [SC-142954][SQL] Az
array_insert
ImplicitCastInputTypes nem működik - [SPARK-44579] [SC-138428][SQL] Megszakítás megszakítása az SQLExecutionban
-
[SPARK-45252] [SC-143371][CORE] A sikeres végrehajtáshoz
sbt doc
meneküljön a megjegyzésekben szereplő szimbólumoknál nagyobb/kisebb szimbólumok elől - [SPARK-45189] [SC-142973][SQL] A TableIdentifierből történő feloldatlan összefűzésnek tartalmaznia kell a katalógusmezőt
- [SPARK-45229] [SC-143254][CORE][Felhasználói felület] A BEKÜLDÖTT állapotban várakozó illesztőprogramok számának megjelenítése a MasterPage-ben
-
[SPARK-43453] Visszaállítás "[SC-143135][PS] A"-hez tartozó
names
időMultiIndex
figyelmen kívül hagyásaaxis=1
concat
Databricks ODBC/JDBC illesztőprogram támogatása
A Databricks támogatja az elmúlt 2 évben kiadott ODBC/JDBC-illesztőprogramokat. Töltse le a nemrég kiadott illesztőprogramokat és frissítsen (töltse le az ODBC-t, töltse le a JDBC-t).
Lásd a Databricks Runtime 14.2 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | fekete | 22.6.0 | fehérítő | 4.1.0 |
villogó | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
minősítés | 2022.12.7 | cffi | 1.15.1 | karakterkészlet | 4.0.0 |
charset-normalizer | 2.0.4 | kattintás | 8.0.4 | Comm | 0.1.2 |
contourpy | 1.0.5 | kriptográfia | 39.0.1 | biciklista | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
hibakeresés | 1.6.7 | lakberendező | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0,11 | belépési pontok | 0,4 |
Végrehajtó | 0.8.3 | aspektusok áttekintése | 1.1.1 | fastjsonschema | 2.19.0 |
filelock | 3.12.4 | betűtípusok | 4.25.0 | googleapis-common-protos | 1.61.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 | kulcstartó | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
mistune | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
jegyzetfüzet | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | csomagolás | 22,0 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Párna | 9.4.0 | mag | 22.3.1 | platformdirs | 2.5.2 |
ábrázolás | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0,4 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
kérelmek | 2.28.1 | kötél | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | tengeri | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
Hat | 1.16.0 | sniffio | 1.2.0 | levessieve | 2.3.2.post1 |
ssh-import-id | 5,11 | veremadatok | 0.2.0 | statsmodels | 0.13.5 |
Kitartás | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádó | 6.1 | árulók | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
kerék | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
Telepített R-kódtárak
Az R-kódtárak a Posit Csomagkezelő CRAN-pillanatképből vannak telepítve 2023-02-10-én.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 12.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
backports | 1.4.1 | alap | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
indítás | 1.3-28 | főz | 1.0-8 | Brio | 1.1.3 |
seprű | 1.0.5 | bslib | 0.5.0 | gyorsítótár | 1.0.8 |
hívó | 3.7.3 | kalap | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | osztály | 7.3-22 | Cli | 3.6.1 |
clipr | 0.8.0 | óra | 0.7.0 | fürt | 2.1.4 |
kódtoolok | 0.2-19 | színtér | 2.1-0 | commonmark | 1.9.0 |
fordítóprogram | 4.3.1 | config | 0.3.1 | Ütközött | 1.2.0 |
cpp11 | 0.4.4 | zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 |
csavarodik | 5.0.1 | data.table | 1.14.8 | adatkészletek | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | Desc | 1.4.2 |
devtools | 2.4.5 | diagram | 1.6.5 | diffobj | 0.3.5 |
emészt | 0.6.33 | levilágított | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | három pont | 0.3.2 |
evaluate | 0.21 | fani | 1.0.4 | farver | 2.1.1 |
gyorstérkép | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | külföldi | 0.8-82 | kovácsol | 0.2.0 |
Fs | 1.6.2 | jövő | 1.33.0 | future.apply | 1.11.0 |
gargarizál | 1.5.1 | Generikus | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globális | 0.16.2 | ragasztó | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.1 | grDevices | 4.3.1 | rács | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | kikötő | 2.5.3 | highr | 0.10 |
Hms | 1.1.3 | htmltoolok | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
izoband | 0.2.7 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
címkézés | 0.4.2 | később | 1.3.1 | rács | 0.21-8 |
láva | 1.7.2.1 | életciklus | 1.0.3 | figyelő | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1,7 |
TÖMEG | 7.3-60 | Mátrix | 1.5-4.1 | memoise | 2.0.1 |
metódusok | 4.3.1 | mgcv | 1.8-42 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
párhuzamosan | 1.36.0 | pillér | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | rétegelt | 1.8.8 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | haladás | 1.2.2 |
progressr | 0.13.0 | Ígér | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.4 | readxl | 1.4.3 | receptek | 1.0.6 |
Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 | Távirányító | 2.4.2 |
reprex | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.6 | mérleg | 1.2.1 |
választó | 0.4-2 | sessioninfo | 1.2.2 | alak | 1.4.6 |
Fényes | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
térbeli | 7.3-15 | splines | 4.3.1 | sqldf | 0.4-11 |
NÉGYZET | 2021.1 | statisztika | 4.3.1 | statisztikák4 | 4.3.1 |
stringi | 1.7.12 | sztring | 1.5.0 | túlélés | 3.5-5 |
sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | szövegformázás | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
timechange | 0.2.0 | timeDate | 4022.108 | tinytex | 0,45 |
eszközök | 4.3.1 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
usethis | 2.2.2 | utf8 | 1.2.3 | eszközök | 4.3.1 |
uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | Waldo | 0.5.1 | bajusz | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
fütyülés | 2.3.0 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.7.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.koffein | koffein | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natívok |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natívok |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natívok |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natívok |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Csellengő | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.2 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrikamag | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-zokni | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pác | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | nyílformátum | 12.0.1 |
org.apache.arrow | nyíl-memóriamag | 12.0.1 |
org.apache.arrow | nyíl-memória-netty | 12.0.1 |
org.apache.arrow | nyíl-vektor | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | borostyán | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | célközönség-széljegyzetek | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | móló-folytatás | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | móló plusz | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | Alátéteket | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-kompatibilis | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.threeten | három-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2,0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |