Databricks Runtime 12.1 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verzió megtalálható a Databricks Runtime kiadási megjegyzéseiben: verziók és kompatibilitás.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.3.1 által működtetett Databricks Runtime 12.1-ről nyújtanak információkat.
A Databricks 2023 januárjában adta ki ezt a verziót.
Új funkciók és fejlesztések
- Protokollkezeléshez támogatott Delta Lake-táblafunkciók
- A frissítések prediktív I/O-je nyilvános előzetes verzióban érhető el
- A Katalóguskezelő mostantól minden személy számára elérhető
- Több állapotalapú operátor támogatása egyetlen streamelési lekérdezésben
- A protokollpufferek támogatása nyilvános előzetes verzióban érhető el
- A Confluent-sémaregisztrációs adatbázis hitelesítésének támogatása
- A táblaelőzmények deltamegosztásokkal való megosztásának támogatása
- Streamelés támogatása Delta-megosztásokkal
- A katalógusokban lévő Delta-megosztási táblák esetében mostantól támogatott az időbélyeget használó táblaverzió
- Támogatás a 'WHEN NOT MATCHED BY SOURCE' kifejezéshez a MERGE INTO számára
- optimalizált statisztikagyűjtés CONVERT TO DELTA
- A Unity Catalog támogatása a táblák visszaállítására
Protokollkezeléshez támogatott Delta Lake-táblafunkciók
Az Azure Databricks bevezette a Delta Lake-táblafunkciók támogatását, amelyek részletes jelzőket vezetnek be, amelyek meghatározzák, hogy az adott tábla mely funkciókat támogatja. Lásd: Hogyan kezeli az Azure Databricks a Delta Lake funkció kompatibilitását?.
A frissítések prediktív I/O-je nyilvános előzetes verzióban érhető el
A prediktív I/O mostantól felgyorsítja a DELETE
, MERGE
, és UPDATE
műveleteket a Delta-táblákon a Photon-kompatibilis számításon engedélyezett törlési vektorokkal. Lásd Mi a prediktív I/O?.
A Katalóguskezelő mostantól minden személy számára elérhető
A Catalog Explorer mostantól minden Azure Databricks-személy számára elérhető a Databricks Runtime 7.3 LTS és újabb verziók használatakor.
Több állapotalapú operátor támogatása egyetlen streamelési lekérdezésben
A felhasználók mostantól összefűzési móddal láncra kapcsolhatják az állapotalapú operátorokat a streamelési lekérdezésben. Nem minden operátor támogatott teljes mértékben. Stream-stream időintervallum-illesztés, és flatMapGroupsWithState
nem engedélyezi más állapotalapú operátorok láncolt használatát.
A protokollpufferek támogatása nyilvános előzetes verzióban érhető el
Az from_protobuf
és to_protobuf
függvények segítségével adatcserét végezhet bináris és strukturált típusok között. Lásd: Olvasási és írási protokollpufferek.
A Confluent-sémaregisztrációs adatbázis hitelesítésének támogatása
Az Azure Databricks és a Confluent Sémaregisztrációs adatbázis integrációja mostantól támogatja a külső sémaregisztrációs adatbázis-címeket hitelesítéssel. Ez a funkció a from_avro
, to_avro
, from_protobuf
, és to_protobuf
függvényeknél érhető el. Lásd: Protobuf vagy Avro.
A táblaelőzmények megosztásának támogatása a Delta Sharing használatával
Mostantól teljes előzményekkel rendelkező táblázatokat oszthat meg a Delta Sharing használatával, így a címzettek időutazási lekérdezéseket hajthatnak végre, és lekérdezhetik a táblát a Spark Strukturált streamelés használatával.
WITH HISTORY
helyett ajánlott CHANGE DATA FEED
, bár az utóbbi továbbra is támogatott. Lásd a ALTER SHARE és bejegyzésekben a táblák hozzáadása a megosztáshoz.
Streamelés támogatása Delta-megosztásokkal
A Spark strukturált streamelés mostantól a deltasharing
formátummal működik egy olyan forrás Delta Sharing táblán, amelyet WITH HISTORY
használatával osztottak meg.
A katalógusokban lévő Delta-megosztási táblák esetében mostantól támogatott az időbélyeget használó táblaverzió
Mostantól az SQL-szintaxissal TIMESTAMP AS OF
megadhatja a SELECT
utasításokban a katalógusban csatlakoztatott Delta Sharing-tábla verzióját. A táblákat meg kell osztani a következővel WITH HISTORY
: .
A MERGE INTO FORRÁS SZERINT NEM EGYEZŐ ÁLLAPOTának támogatása
Most már hozzáadhat WHEN NOT MATCHED BY SOURCE
záradékokat a kiválasztott tábla azon sorainak frissítéséhez MERGE INTO
vagy törléséhez, amelyek nem rendelkeznek egyezésekkel a forrástáblában az egyesítési feltétel alapján. Az új záradék sql, Python, Scala és Java nyelven érhető el. Lásd a(z) MERGE INTO.
Optimalizált statisztikai gyűjtemény CONVERT TO DELTA
A művelet statisztikáinak CONVERT TO DELTA
gyűjtése most már sokkal gyorsabb. Ez csökkenti a hatékonyság érdekében használható NO STATISTICS
számítási feladatok számát.
A Unity Catalog támogatása lefedő táblákhoz
Ez a funkció kezdetben nyilvános előzetes verzióban jelent meg. 2023. október 25-én általánosan elérhető.
Az elvetett felügyelt vagy külső táblákat az elvetéstől számított hét napon belül visszaállíthatja egy meglévő sémában. Lásd: UNDROP és SHOW TABLES DROPPED.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- filelock 3.8.0-ról 3.8.2-re
- platformdirs 2.5.4-ről 2.6.0-ra
- setuptools 58.0.4-től 61.2.0-ra
- Frissített R-kódtárak:
- Frissített Java-kódtárak:
- io.delta.delta-sharing-spark_2.12 0.5.2 és 0.6.2 között
- org.apache.hive.hive-storage-api 2.7.2-től 2.8.1-esig
- org.apache.parquet.parquet-column from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-common 1.12.3-databricks-0001-ről 1.12.3-databricks-0002-ra
- org.apache.parquet.parquet-encoding from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures verziója 1.12.3-databricks-0001-ről 1.12.3-databricks-0002-re
- org.apache.parquet.parquet-hadoop verziófrissítése 1.12.3-databricks-0001-ről 1.12.3-databricks-0002-ra.
- org.apache.parquet.parquet-jackson from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.tukaani.xz 1,8 és 1,9 között
Apache Spark
A Databricks Runtime 12.1 tartalmazza az Apache Spark 3.3.1-et. Ez a kiadás tartalmazza a Databricks Runtime 12.0 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-41405] [SC-119769][12.1.0] Vonja vissza a(z) "[SC-119411][sql] Az oszlopfeloldási logika központosítása" és "[SC-117170][spark-41338][SQL] Külső hivatkozások és normál oszlopok feloldása ugyanabban az elemző kötegben" változtatásokat.
- [SPARK-41405] [SC-119411][sql] Az oszlopfeloldási logika központosítása
- [SPARK-41859] [SC-119514][sql] A CreateHiveTableAsSelectCommand parancsnak megfelelően kell beállítania a felülírás jelzőt
- [SPARK-41659] [SC-119526][connect][12.X] Dokumentumtesztek engedélyezése a pyspark.sql.connect.readwriter alkalmazásban
- [SPARK-41858] [SC-119427][sql] Az ORC-olvasó perf regresszióját javította az ALAPÉRTELMEZETT érték funkció miatt
- [SPARK-41807] [SC-119399][core] Távolítsa el a nem létező hibaosztályt: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] Adjon nevet az _LEGACY_ERROR_TEMP_2141 fájlnak
- [SPARK-41571] [SC-119362][sql] Név hozzárendelése a _LEGACY_ERROR_TEMP_2310-hez
- [SPARK-41810] [SC-119373][connect] A SparkSession.createDataFrame szótárainak listájából származó nevek következtetése
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] A Spark Connect dokumentációjának és szkriptének áthelyezése dev/ és Python-dokumentációba
- [SPARK-41534] [SC-119456][connect][SQL][12.x] A Spark Connect kezdeti ügyfélmoduljának beállítása
- [SPARK-41365] [SC-118498][ui][3.3] A fázisok felhasználói felületének oldala nem töltődik be proxy használata esetén meghatározott yarn környezetben.
-
[SPARK-41481] [SC-118150][core][SQL]
INVALID_TYPED_LITERAL
újrafelhasználása_LEGACY_ERROR_TEMP_0020
helyett - [SPARK-41049] [SC-119305][sql] Állapotalapú kifejezéskezelés felülvizsgálata
-
[SPARK-41726] [SC-119248][sql]
OptimizedCreateHiveTableAsSelectCommand
eltávolítása -
[SPARK-41271] [SC-118648][sc-118348][SQL] A paraméteres SQL-lekérdezések támogatása
sql()
-
[SPARK-41066] [SC-119344][connect][PYTHON]
DataFrame.sampleBy
ésDataFrame.stat.sampleBy
implementálása - [SPARK-41407] [SC-119402][sc-119012][SQL][minden teszt] A v1 írás kiemelése a WriteFiles-ba
-
[SPARK-41565] [SC-118868][sql] Adja hozzá a hibaosztályt
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][sql] A DECODE függvény hibás eredményt ad vissza, ha null értéket ad át
- [SPARK-41554] [SC-119274] javítsa a decimális skála módosítását, amikor a skála csökken m...
-
[SPARK-41065] [SC-119324][connect][PYTHON] Implementál
DataFrame.freqItems
ésDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Dokumentációs tesztek újraengedélyezése és a count() függvény hiányzó oszlopaliasának hozzáadása.
-
[SPARK-41069] [SC-119310][connect][PYTHON]
DataFrame.approxQuantile
ésDataFrame.stat.approxQuantile
végrehajtása -
[SPARK-41809] [SC-119367][connect][PYTHON] Tegye lehetővé a függvényt
from_json
a DataType-séma támogatásához -
[SPARK-41804] [SC-119382][sql] Válassza ki a megfelelő elemméretet az
InterpretedUnsafeProjection
UDT-tömbhöz - [SPARK-41786] [SC-119308][connect][PYTHON] Segédfüggvények deduplikálása
-
[SPARK-41745] [SC-119378][spark-41789][12.X]
createDataFrame
sorok támogatási listájának létrehozása - [SPARK-41344] [SC-119217][sql] Hiba egyértelműbbé tétele, ha a tábla nem található a SupportsCatalogOptions katalógusban
-
[SPARK-41803] [SC-119380][connect][PYTHON] Hiányzó függvény hozzáadása
log(arg1, arg2)
- [SPARK-41808] [SC-119356][connect][PYTHON] JSON-függvények támogatási beállításainak megadása
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Tegye lehetővé
__getitem__
támogatását a szűréshez és a kiválasztáshoz - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Oszlop op támogatása Null érték
- [SPARK-41440] [SC-119279][connect][PYTHON] Kerülje a Sample általános gyorsítótár-operátorának használatát.
-
[SPARK-41785] [SC-119290][connect][PYTHON]
GroupedData.mean
implementálása - [SPARK-41629] [SC-119276][connect] Protokollbővítmények támogatása a relációban és a kifejezésben
-
[SPARK-41417] [SC-118000][core][SQL] Nevezze át
_LEGACY_ERROR_TEMP_0019
INVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][connect][12.X] A Spark Connect Server/-ügyfél megfelelő hibakezelése
- [SPARK-41292] [SC-119357][connect][12.X] Támogatási ablak a pyspark.sql.window névtérben
- [SPARK-41493] [SC-119339][connect][PYTHON] Csv-függvények támogatási beállításainak megadása
- [SPARK-39591] [SC-118675][ss] Aszinkron haladáskövetés
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x]
Column.{withField, dropFields}
implementálása -
[SPARK-41068] [SC-119268][connect][PYTHON] Megvalósítás
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][connect][12.X] Dokumentumtesztek engedélyezése a pyspark.sql.connect.columnban
- [SPARK-41738] [SC-119170][connect] Keverje a ClientId-t a SparkSession gyorsítótárban
-
[SPARK-41354] [SC-119194][connect] A
RepartitionByExpression
hozzáadása a protohoz -
[SPARK-41784] [SC-119289][connect][PYTHON] Hiányzó
__rmod__
hozzáadása oszlopban - [SPARK-41778] [SC-119262][sql] Alias "reduce" hozzáadása ArrayAggregate-hez
-
[SPARK-41067] [SC-119171][connect][PYTHON] Implementálás
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][connect][PYTHON] A belső karakterlánc műveleti nevének konzisztenssé tétele a FunctionRegistryvel
- [SPARK-41734] [SC-119160][connect] Szülőüzenet hozzáadása a katalógushoz
- [SPARK-41742] [SC-119263] Támogatás: df.groupBy().agg({"*":"count"})
-
[SPARK-41761] [SC-119213][connect][PYTHON] Aritmetikai műveletek javítása:
__neg__
,__pow__
,__rpow__
-
[SPARK-41062] [SC-118182][sql] Nevezze át
UNSUPPORTED_CORRELATED_REFERENCE
CORRELATED_REFERENCE
-
[SPARK-41751] [SC-119211][connect][PYTHON]
Column.{isNull, isNotNull, eqNullSafe}
javítása -
[SPARK-41728] [SC-119164][connect][PYTHON][12.x]
unwrap_udt
függvény implementálása -
[SPARK-41333] [SC-119195][spark-41737] Implementál
GroupedData.{min, max, avg, sum}
-
[SPARK-41751] [SC-119206][connect][PYTHON]
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
javítása - [SPARK-41631] [SC-101081][sql] Implicit oldaloszlop-aliasfeloldás támogatása összesítéskor
- [SPARK-41529] [SC-119207][connect][12.X] SparkSession.stop implementálása
-
[SPARK-41729] [SC-119205][core][SQL][12.x] Nevezze át
_LEGACY_ERROR_TEMP_0011
-rőlUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
-ra - [SPARK-41717] [SC-119078][connect][12.X] Deduplikálja a nyomtatást és repr_html a LogicalPlanban
-
[SPARK-41740] [SC-119169][connect][PYTHON] Implementálás
Column.name
- [SPARK-41733] [SC-119163][sql][SS] Famintás alapú metszés alkalmazása a ResolveWindowTime szabályhoz
- [SPARK-41732] [SC-119157][sql][SS] Famintázat alapú metszés alkalmazása a SessionWindowing szabályhoz
- [SPARK-41498] [SC-119018] Metaadatok propagálása az Unionon keresztül
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Az oszlop tartozékának implementálása
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_types
támogatjaArrayType
-
[SPARK-41473] [SC-119092][connect][PYTHON] Implementál
format_number
függvényt - [SPARK-41707] [SC-119141][connect][12.X] Catalog API implementálása a Spark Connectben
-
[SPARK-41710] [SC-119062][connect][PYTHON] Implementálásra kerül
Column.between
- [SPARK-41235] [SC-119088][sql][PYTHON]High-order függvény: array_compact implementáció
-
[SPARK-41518] [SC-118453][sql] Rendeljen nevet a hibaosztályhoz
_LEGACY_ERROR_TEMP_2422
-
[SPARK-41723] [SC-119091][connect][PYTHON]
sequence
függvény implementálása - [SPARK-41703] [SC-119060][connect][PYTHON] NullType és typed_null egyesítése literálban
- [SPARK-41722] [SC-119090][connect][PYTHON] 3 hiányzó időablak-függvény implementálása
- [SPARK-41503] [SC-119043][connect][PYTHON] Partícióátalakítási függvények implementálása
- [SPARK-41413] [SC-118968][sql] Kerülje a Storage-Partitioned illesztést, ha a partíciókulcsok nem egyeznek, de az illesztési kifejezések kompatibilisek
-
[SPARK-41700] [SC-119046][connect][PYTHON]
FunctionBuilder
eltávolítandó -
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_types
támogatjaMapType
- [SPARK-41702] [SC-119049][connect][PYTHON] Érvénytelen oszlop műveletek hozzáadása
- [SPARK-41660] [SC-1188666][sql] Csak akkor propagálja a metaadatoszlopokat, ha használják őket
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] Gyűjtő implementálása a leképezősorok számmetrikáinak gyűjtéséhez
- [SPARK-41647] [SC-119064][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.functions függvényekben
-
[SPARK-41701] [SC-119048][connect][PYTHON] Oszlopművelet támogatás
decimal
-
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementálja
rollup
,cube
éspivot
- [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.dataframe-ben
- [SPARK-41688] [SC-118951][connect][PYTHON] A kifejezéseket az expressions.py fájlba helyezzük át
- [SPARK-41687] [SC-118949][connect] Deduplikálja a dokustringeket a pyspark.sql.connect.group fájlban
- [SPARK-41649] [SC-118950][connect] Deduplikálja a dokumentumokat a pyspark.sql.connect.window fájlban
- [SPARK-41681] [SC-118939][connect] CsoportosítottAdatok kiemelése a group.py fájlba
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x]
Window
függvények implementálása -
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Oszlopos műveletek támogatása
datetime
- [SPARK-41672] [SC-118929][connect][PYTHON] Az elavult függvények engedélyezése
-
[SPARK-41673] [SC-118932][connect][PYTHON] Implementál
Column.astype
-
[SPARK-41364] [SC-118865][connect][PYTHON] A
broadcast
függvény megvalósítása - [SPARK-41648] [SC-118914][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.readwriter alkalmazásban
- [SPARK-41646] [SC-118915][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.session-ben
- [SPARK-41643] [SC-118862][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.columnban
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] A Lambda többi függvényének implementálása
- [SPARK-41441] [SC-118557][sql] Támogatás a külső hivatkozások kezelésére gyermek kimenet szükségessége nélkül
- [SPARK-41669] [SC-118923][sql] A canCollapseExpressions korai metszése során
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : ScalaReflectionLock eltávolítása a SchemaConvertersből
-
[SPARK-41464] [SC-118861][connect][PYTHON] Implementálás
DataFrame.to
-
[SPARK-41434] [SC-118857][connect][PYTHON] Kezdeti
LambdaFunction
implementáció - [SPARK-41539] [SC-118802][sql] A LogicRDD logikai tervében szereplő kimenet statisztikáinak és korlátainak újraképezettsége
- [SPARK-41396] [SC-118786][sql][PROTOBUF] OneOf mező támogatása és rekurziós ellenőrzések
- [SPARK-41528] [SC-118769][connect][12.X] A Spark Connect és a PySpark API névterének egyesítése
- [SPARK-41568] [SC-118715][sql] Adjon nevet a _LEGACY_ERROR_TEMP_1236-nak
-
[SPARK-41440] [SC-118788][connect][PYTHON] Implementálás
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Spark Connect és protobuf hozzáadása setup.py függőségek megadásával
- [SPARK-27561] [SC-101081][12.x][SQL] Implicit oldaloszlop-aliasfeloldás támogatása a Projectben
-
[SPARK-41535] [SC-118645][sql] A
InterpretedUnsafeProjection
ésInterpretedMutableProjection
naptárintervallum-mezőinek null értékű beállítása - [SPARK-40687] [SC-118439][sql] A beépített "mask" függvény adatmaszkolásának támogatása
- [SPARK-41520] [SC-118440][sql] Az AND_OR TreePattern felosztása az AND és OR TreePattern-ek különválasztására
- [SPARK-41349] [SC-118668][connect][PYTHON] DataFrame.hint implementálása
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_types
támogatnia kell a StructType-ot. -
[SPARK-41334] [SC-118549][connect][PYTHON]
SortOrder
proto áthelyezése kapcsolatokról kifejezésekre - [SPARK-41387] [SC-118450][ss] A Trigger.AvailableNow Kafka-adatforrásának aktuális végeltolásának beállítása
-
[SPARK-41508] [SC-118445][core][SQL] Nevezze át
_LEGACY_ERROR_TEMP_1180
UNEXPECTED_INPUT_TYPE
és távolítsa el_LEGACY_ERROR_TEMP_1179
-
[SPARK-41319] [SC-118441][connect][PYTHON] Implement Column.{when, otherwise} és függvény
when
withUnresolvedFunction
- [SPARK-41541] [SC-118460][sql] Helytelen gyermekmetódus hívásának javítása az SQLShuffleWriteMetricsReporter.decRecordsWritten() alkalmazásban
-
[SPARK-41453] [SC-118458][connect][PYTHON] Implementálás
DataFrame.subtract
- [SPARK-41248] [SC-118436][sc-118303][SQL] Adja hozzá a "spark.sql.json.enablePartialResults" értéket a JSON részleges eredményeinek engedélyezéséhez/letiltásához
- [SPARK-41437] "Visszavonás: “[SC-117601][sql] Ne optimalizálja kétszer az inputqueryt v1-es írási tartalékhoz”
- [SPARK-41472] [SC-118352][connect][PYTHON] A többi sztring/bináris függvény implementálása
-
[SPARK-41526] [SC-118355][connect][PYTHON] Implementálás
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Javítsa a spekulációt a fázisfeladat-metrikákon keresztül.
- [SPARK-41524] [SC-118399][ss] Az SQLConf és az extraOptions megkülönböztetése a StateStoreConfban a RocksDBConf-ban való használathoz
- [SPARK-41465] [SC-118381][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] LongToUnsafeRowMap funkció figyelmen kívül hagyja a duplikált kulcsokat
-
[SPARK-41409] [SC-118302][core][SQL] Nevezze át
_LEGACY_ERROR_TEMP_1043
erre:WRONG_NUM_ARGS.WITHOUT_SUGGESTION
-
[SPARK-41438] [SC-118344][connect][PYTHON] Megvalósítása a
DataFrame.colRegex
- [SPARK-41437] [SC-117601][sql] Ne optimalizálja kétszer a bemeneti lekérdezést a v1-es írási visszaeséshez
-
[SPARK-41314] [SC-117172][sql] Rendeljen nevet a hibaosztályhoz
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression a DataType támogatásához
- [SPARK-41448] [SC-118046] Konzisztens MR-feladatazonosítók létrehozása a FileBatchWriter és a FileFormatWriter alkalmazásban
- [SPARK-41456] [SC-117970][sql] A try_cast teljesítményének javítása
-
[SPARK-41495] [SC-118125][connect][PYTHON]
collection
függvények implementálása: P~Z - [SPARK-41478] [SC-118167][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] A
NUM_COLUMNS_MISMATCH
újrabontási hibaüzenete általánosabbá tétele érdekében -
[SPARK-41404] [SC-118016][sql] A(z)
ColumnVectorUtils#toBatch
refaktorálása, hogy a(z)ColumnarBatchSuite#testRandomRows
teszt primitívebb adattípust használjon - [SPARK-41468] [SC-118044][sql] A PlanExpression kezelés javítása a EquivalentExpressionsben
- [SPARK-40775] [SC-118045][sql] A V2-fájlvizsgálatok ismétlődő leírási bejegyzéseinek javítása
- [SPARK-41492] [SC-118042][connect][PYTHON] MISC-függvények implementálása
- [SPARK-41459] [SC-118005][sql] javítás a thrift kiszolgáló műveleti naplójának üres kimenetére
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjection
setDecimal
használatával állítsa be a nem biztonságos sorban lévő decimális értékek null értékeit - [SPARK-41376] [SC-117840][core][3.3] Javítsa ki a Netty preferDirectBufs ellenőrzési logikáját a végrehajtó indításakor
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x]
collection
függvények implementálása: E~M -
[SPARK-41389] [SC-117426][core][SQL]
WRONG_NUM_ARGS
újrafelhasználása_LEGACY_ERROR_TEMP_1044
helyett - [SPARK-41462] [SC-117920][sql] A dátum- és időbélyeg típus konvertálható TimestampNTZ típusra
-
[SPARK-41435] [SC-117810][sql] A
curdate()
invalidFunctionArgumentsError
hívásának módosítása, haexpressions
nem üres - [SPARK-41187] [SC-118030][core] LiveExecutor memória szivárgás az AppStatusListenerben, amikor ExecutorLost bekövetkezik
- [SPARK-41360] [SC-118083][core] Kerülje a BlockManager újbóli regisztrációját, ha a végrehajtó elveszett
- [SPARK-41378] [SC-117686][sql] Az oszlopstatisztikák támogatása a DS v2-ben
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] A StringDecode prettyName felülbírálása
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Dátum-/időbélyegző függvények implementálása
- [SPARK-41329] [SC-117975][connect] Körkörös importálás feloldása a Spark Connectben
- [SPARK-41477] [SC-118025][connect][PYTHON] A literális egész számok adattípusának helyes következtetése
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x]
createDataFrame
támogatási séma és több bemeneti adatkészlet-típus létrehozása - [SPARK-41475] [SC-117997][connect] A lint-scala parancs hibájának és elírásának javítása
- [SPARK-38277] [SC-117799][ss] Írási köteg törlése a RocksDB állapottároló véglegesítése után
- [SPARK-41375] [SC-117801][ss] Az üres legújabb KafkaSourceOffset elkerülése
-
[SPARK-41412] [SC-118015][connect] Implementálás
Column.cast
-
[SPARK-41439] [SC-117893][connect][PYTHON] Implementálja a
DataFrame.melt
ésDataFrame.unpivot
- [SPARK-41399] [SC-118007][sc-117474][CONNECT] Oszlophoz kapcsolódó tesztek refaktorálása test_connect_column
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Az oszlopnak támogatnia kell a != operátort
- [SPARK-40697] [SC-117806][sc-112787][SQL] Olvasási oldali karakterpárnázás hozzáadása külső adatfájlok lefedéséhez
- [SPARK-41349] [SC-117594][connect][12.X] DataFrame.hint implementálása
- [SPARK-41338] [SC-117170][sql] Oldja fel a külső hivatkozásokat és a normál oszlopokat ugyanabban az elemző kötegben
-
[SPARK-41436] [SC-117805][connect][PYTHON]
collection
függvények implementálása: A~C - [SPARK-41445] [SC-117802][connect] DataFrameReader.parquet implementálása
-
[SPARK-41452] [SC-117865][sql]
to_char
null értéket kell visszaadnia, ha a formátum null - [SPARK-41444] [SC-117796][connect] Támogatás read.json()
- [SPARK-41398] [SC-117508][sql] A Storage-Partitioned csatlakozásra vonatkozó korlátozások lazítása, ha a futtatókörnyezet szűrése után a partíciókulcsok nem egyeznek
-
[SPARK-41228] [SC-117169][sql] Átnevezés &
COLUMN_NOT_IN_GROUP_BY_CLAUSE
hibaüzenetének javítása. -
[SPARK-41381] [SC-117593][connect][PYTHON]
count_distinct
éssum_distinct
függvények implementálása - [SPARK-41433] [SC-117596][connect] A Max Arrow BatchSize konfigurálhatóvá tétele
- [SPARK-41397] [SC-117590][connect][PYTHON] Sztring/bináris függvények egy részének implementálása
-
[SPARK-41382] [SC-117588][connect][PYTHON]
product
függvény implementálása -
[SPARK-41403] [SC-117595][connect][PYTHON] Implementálás
DataFrame.describe
- [SPARK-41366] [SC-117580][connect] DF.groupby.agg() kompatibilisnek kell lennie
- [SPARK-41369] [SC-117584][connect] Adja hozzá a connect common-t a szerverek árnyékolt jar-jába
- [SPARK-41411] [SC-117562][ss] Többállapotú operátor vízjeltámogatási hibajavítása
- [SPARK-41176] [SC-116630][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Aggregációs függvények implementálása
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Normál függvények implementálása
- [SPARK-41305] [SC-117411][connect] A proto parancs dokumentációjának javítása
- [SPARK-41372] [SC-117427][connect][PYTHON] DataFrame TempView implementálása
- [SPARK-41379] [SC-117420][ss][PYTHON] Klónozott Spark-munkamenet biztosítása a DataFrame használatával a foreachBatch fogadó user függvényben a PySparkban
- [SPARK-41373] [SC-117405][sql][ERROR] Nevezze át CAST_WITH_FUN_SUGGESTION CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][sql] Refactor
ColumnVectorUtils#populate
metódust úgy, hogy ahelyett, hogyDataType
,PhysicalDataType
-t használja - [SPARK-41355] [SC-117423][sql] Megkerülő megoldás a hive táblanév érvényesítésével kapcsolatos problémára
-
[SPARK-41390] [SC-117429][sql] Frissítse a
register
függvény létrehozásához használt szkriptetUDFRegistration
-
[SPARK-41206] [SC-117233][sc-116381][SQL] Nevezze át a
_LEGACY_ERROR_TEMP_1233
hibaosztálytCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Matematikai függvények implementálása
- [SPARK-40970] [SC-117308][connect][PYTHON] Támogatás a Join on argumentum List[Column] számára
- [SPARK-41345] [SC-117178][connect] Tipp hozzáadása a Proto csatlakoztatásához
- [SPARK-41226] [SC-117194][sql][12.x] Spark-típusok újrabontása fizikai típusok bevezetésével
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Alapszintű támogatás hozzáadása a DataFrameWriterhez
- [SPARK-41347] [SC-117173][connect] Kiegészítés: típuskonverzió az Expression proto-hoz
- [SPARK-41323] [SC-117128][sql] Támogatja a current_schema
- [SPARK-41339] [SC-117171][sql] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
- [SPARK-41227] [SC-117165][connect][PYTHON] DataFrame keresztcsatlakozás implementálása
-
[SPARK-41346] [SC-117176][connect][PYTHON]
asc
ésdesc
függvények implementálása - [SPARK-41343] [SC-117166][connect] FunctionName-elemzés áthelyezése kiszolgálóoldalra
- [SPARK-41321] [SC-117163][connect] Támogatás célmező számára az UnresolvedStar esetében
-
[SPARK-41237] [SC-117167][sql] Használja újra a hibaosztályt
UNSUPPORTED_DATATYPE
_LEGACY_ERROR_TEMP_0030
-hoz -
[SPARK-41309] [SC-116916][sql] A
INVALID_SCHEMA.NON_STRING_LITERAL
újrafelhasználása_LEGACY_ERROR_TEMP_1093
helyett -
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] A
StructType
konstruktorhasználatának optimalizálása - [SPARK-41335] [SC-117135][connect][PYTHON] Az IsNull és az IsNotNull támogatása oszlopban
-
[SPARK-41332] [SC-117131][connect][PYTHON]
nullOrdering
javításaSortOrder
- [SPARK-41325] [SC-117132][connect][12.X] A GroupBy hiányzó avg() javítása a DF-en
-
[SPARK-41327] [SC-117137][core] A
SparkStatusTracker.getExecutorInfos
javítása az On/OffHeapStorageMemory információ be- és kikapcsolásával -
[SPARK-41315] [SC-117129][connect][PYTHON] Implementálja
DataFrame.replace
ésDataFrame.na.replace
- [SPARK-41328] [SC-117125][connect][PYTHON] Logikai és sztring API hozzáadása oszlophoz
-
[SPARK-41331] [SC-117127][connect][PYTHON]
orderBy
ésdrop_duplicates
hozzáadása -
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternal
gondoskodnia kell arról, hogy a zárolás zökkenőmentesen feloldva legyen - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] "Column" újrafaktorálása az API-kompatibilitás érdekében
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] DataFrame.withColumnRenamed implementálása
-
[SPARK-41221] [SC-116607][sql] Adja hozzá a hibaosztályt
INVALID_FORMAT
- [SPARK-41272] [SC-116742][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql]
INVALID_SCHEMA
újrafelhasználása_LEGACY_ERROR_TEMP_1227
helyett - [SPARK-41260] [SC-116880][python][SS][12.x] A NumPy-példányok Python-primitív típusokba való átcsoportosítása a GroupState-frissítésben
-
[SPARK-41174] [SC-116609][core][SQL] Hibaosztály propagálása a felhasználóknak a
to_binary()
érvénytelenformat
- [SPARK-41264] [SC-116971][connect][PYTHON] További adattípusok támogatása a literálban
- [SPARK-41326] [SC-116972] [CONNECT] A deduplikálás hiányzó bemenetének javításával
- [SPARK-41316] [SC-116900][sql] A tail-recursion engedélyezése, ahol csak lehetséges
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Sztringkifejezések támogatása a szűrőben.
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] DataFrame.withColumn(ok) implementálása
- [SPARK-41182] [SC-116632][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] A térképbeállítások hibáinak migrálása hibaosztályokra
- [SPARK-40940] [SC-115993][12.x] A streamelési lekérdezések többállapotú operátor-ellenőrzőinek eltávolítása.
- [SPARK-41310] [SC-116885][connect][PYTHON] DataFrame.toDF implementálása
- [SPARK-41179] [SC-116631][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] A BHJ LeftAnti nem frissíti a numOutputRows számlálót, amikor a codegen le van tiltva
-
[SPARK-41148] [SC-116878][connect][PYTHON]
DataFrame.dropna
ésDataFrame.na.drop
megvalósítása -
[SPARK-41217] [SC-116380][sql] Adja hozzá a hibaosztályt
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][connect][PYTHON] DataFrame.count() javítása
- [SPARK-41301] [SC-116786] [CONNECT] A SparkSession.range() homogenizálási viselkedése
- [SPARK-41306] [SC-116860][connect] A Connect Expression proto dokumentációjának továbbfejlesztése
- [SPARK-41280] [SC-116733][connect] DataFrame.tail implementálása
- [SPARK-41300] [SC-116751] [CONNECT] A nem beállított séma sémaként van értelmezve
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] RemoteSparkSession átnevezése
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. a toPandas nem ad vissza opcionális pandas-adatkeretet
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explain
ki kell nyomtatnia és a None értéket kell visszaadnia - [SPARK-41278] [SC-116732][connect] Tisztítsa meg a nem használt QualifiedAttribute kifejezést az Expression.proto-ban.
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Redundáns gyűjteménykonvertálási alap eltávolítása Scala 2.13-kódon
- [SPARK-41261] [SC-116718][python][SS] Kijavítottuk az ApplyInPandasWithState hibát, ha a csoportosítási kulcsok oszlopai nem a legkorábbi sorrendbe vannak helyezve
- [SPARK-40872] [SC-116717][3.3] Visszalépés az eredeti shuffle blokkra, ha egy leküldéses egyesített shuffle-adattömb nulla méretű
- [SPARK-41114] [SC-116628][connect] A LocalRelation helyi adatainak támogatása
-
[SPARK-41216] [SC-116678][connect][PYTHON] Implementálás
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][connect][PYTHON] További beépített adattípusok támogatása
-
[SPARK-41230] [SC-116674][connect][PYTHON] Távolítsa el a
str
az összesítő kifejezéstípusból - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Optimalizált nyílalapú adatgyűjtési implementáció a kiszolgálóról az ügyfélre való streameléshez
- [SPARK-41222] [SC-116625][connect][PYTHON] Egyesítse a gépelési definíciókat
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Tiltsa le a nem támogatott függvényeket.
-
[SPARK-41201] [SC-116526][connect][PYTHON] Implementálás
DataFrame.SelectExpr
Python-ügyfélben - [SPARK-41203] [SC-116258] [CONNECT] A Dataframe.tansform támogatása a Python-ügyfélben.
-
[SPARK-41213] [SC-116375][connect][PYTHON] Implementál
DataFrame.__repr__
ésDataFrame.dtypes
-
[SPARK-41169] [SC-116378][connect][PYTHON] Implementálás
DataFrame.drop
- [SPARK-41172] [SC-116245][sql] A nem egyértelmű hivatkozási hiba hibaosztályba történő migrálása
- [SPARK-41122] [SC-116141][connect] Az Explain API különböző módokat támogat
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] A PySpark-típus következtetésének javítása _merge_type metódusban
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenizálja a protobuf verziót a Spark connect-kiszolgálón, hogy ugyanazt a főverziót használja.
- [SPARK-35531] [SC-116409][sql] A hive-tábla statisztikáinak frissítése szükségtelen átalakítás nélkül
- [SPARK-41154] [SC-116289][sql] Helytelen relációs gyorsítótárazás időutazási specifikációjú lekérdezésekhez
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementálás
DataFrame.isEmpty
-
[SPARK-41135] [SC-116400][sql] Nevezze át
UNSUPPORTED_EMPTY_LOCATION
INVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][sql] Egy bővítő API hozzáadása a gyorsítótárazáshoz kapcsolódó terv normalizálására.
- [SPARK-41054] [SC-116447][ui][CORE] A RocksDB támogatása KVStore-ként az élő felhasználói felületen
- [SPARK-38550] [SC-115223]Visszaállítás "[SQL][core] Lemezalapú tároló használatával további hibakeresési információkat menthet élő felhasználói felületen"
-
[SPARK-41173] [SC-116185][sql]
require()
áthelyezése a sztringkifejezések konstruktorai közül - [SPARK-41188] [SC-116242][core][ML] Állítsa be a executorEnv OMP_NUM_THREADS alapértelmezés szerint spark.task.cpus értékre spark-végrehajtó JVM-folyamatokhoz
-
[SPARK-41130] [SC-116155][sql] Nevezze át
OUT_OF_DECIMAL_TYPE_RANGE
a(z)NUMERIC_OUT_OF_SUPPORTED_RANGE
-ra/-re - [SPARK-41175] [SC-116238][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] Csökkentse a gyűjteményátalakítást attribútumtérkép létrehozásakor
-
[SPARK-41139] [SC-115983][sql] Hibaosztály javítása:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][protobuf] Árnyékolást igényel a Java-osztály jarhoz, javítva a hibakezelést
- [SPARK-40999] [SC-116168] Emlékeztető propagálása albekérdezésekre
- [SPARK-41017] [SC-116054][sql] Oszlopkivágás támogatása több nemdeterminista szűrővel
- [SPARK-40834] [SC-114773][sql] A SparkListenerSQLExecutionEnd használatával nyomon követheti a végleges SQL-állapotot a felhasználói felületen
-
[SPARK-41118] [SC-116027][sql]
to_number
/try_to_number
null
kell visszaadnia, ha a formátumnull
- [SPARK-39799] [SC-115984][sql] DataSourceV2: Katalógus felületének megtekintése
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Kerülje a Spark Connect beágyazását az Apache Spark bináris kiadásba
- [SPARK-41048] [SC-116043][sql] A kimenet particionálásának és sorrendjének javítása az AQE-gyorsítótárral
- [SPARK-41198] [SC-116256][ss] A CTE- és DSv1-streamforrással rendelkező streamelési lekérdezések metrikáinak javítása
- [SPARK-41199] [SC-116244][ss] Kijavított metrikaprobléma, amikor a DSv1 és DSv2 streamforrások együtt vannak használva.
- [SPARK-40957] [SC-116261][sc-114706] Memória-gyorsítótár hozzáadása a HDFSMetadataLog-hoz
- [SPARK-40940] Visszavonás: "[SC-115993] Többállapotú operátor-ellenőrzők eltávolítása a streamelési lekérdezésekhez".
-
[SPARK-41090] [SC-116040][sql] Kivétel
db_name.view_name
az Adathalmaz API által létrehozott ideiglenes nézet létrehozásakor -
[SPARK-41133] [SC-116085][sql] Integrálja
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
aNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][sc-111442][CONNECT] 9 kódmentés rögzítése
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect build illesztőprogram beépülő modulként árnyékolt függőségekkel
- [SPARK-41096] [SC-115812][sql] A parquet FIXED_LEN_BYTE_ARRAY típus olvasásának támogatása
-
[SPARK-41140] [SC-115879][sql] Nevezze át a hibaosztályt
_LEGACY_ERROR_TEMP_2440
INVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][sql] Eltérés a FileSourceScanExec és az Orc és a ParquetFileFormat között oszlopos kimenet előállításakor
- [SPARK-41155] [SC-115991][sql] Hibaüzenet hozzáadása a SchemaColumnConvertNotSupportedException szolgáltatáshoz
- [SPARK-40940] [SC-115993] A streamelési lekérdezések többállapotú operátor-ellenőrzőinek eltávolítása.
-
[SPARK-41098] [SC-115790][sql] Nevezze át
GROUP_BY_POS_REFERS_AGG_EXPR
GROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][sql] A számformázás típusellenőrzési hibáinak áthelyezése hibaosztályokra
-
[SPARK-41059] [SC-115658][sql] Nevezze át
_LEGACY_ERROR_TEMP_2420
NESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][sql] Konvertálás a DATATYPE_MISMATCH.UNSPECIFIED_FRAME típusáról belső hibára (INTERNAL_ERROR)
-
[SPARK-40973] [SC-115132][sql] Nevezze át
_LEGACY_ERROR_TEMP_0055
UNCLOSED_BRACKETED_COMMENT
Karbantartási frissítések
Lásd a Databricks Runtime 12.1 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attribútumok | 21.4.0 | visszahívó függvény | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | fekete | 22.3.0 | fehérítő | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | bizonyítvány | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kattintás | 8.0.4 | kriptográfia | 3.4.8 | biciklista | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
lakberendező | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | belépési pontok | 0,4 | Végrehajtó | 0.8.3 |
aspektusok áttekintése | 1.0.0 | fastjsonschema | 2.16.2 | fájlzár | 3.8.2 |
betűtípusok | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | elhangol | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
jegyzetfüzet | 6.4.8 | numpy | 1.21.5 | csomagolás | 21,3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
útvonal specifikáció | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Párna | 9.0.1 | mag | 21.2.4 |
platformdirs | 2.6.0 | ábrázolás | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
kérelmek | 2.27.1 | requests-unixsocket | 0.2.0 | kötél | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
tengeri | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Hat | 1.16.0 | levesszűrő | 2.3.1 | ssh-import-id | 5.10 |
veremadatok | 0.2.0 | statsmodels | 0.13.2 | Kitartás | 8.0.1 |
befejezett | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornádó | 6.1 |
árulók | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
felügyelet nélküli frissítések | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
kerék | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Telepített R-kódtárak
Az R-kódtárak a 2022-11-11-i Microsoft CRAN-pillanatképből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
nyíl | 10.0.0 | askpass | 1,1 | ellenőriz | 0.2.1 |
régebbi verziókhoz való visszamenőleges javítások | 1.4.1 | alap | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
indítás | 1.3-28 | főz | 1.0-8 | Brio | 1.1.3 |
seprű | 1.0.1 | bslib | 0.4.1 | gyorsítótár | 1.0.6 |
hívó | 3.7.3 | kalap | 6.0-93 | cellranger | 1.1.0 |
időrend | 2.3-58 | osztály | 7.3-20 | Cli | 3.4.1 |
clipr | 0.8.0 | óra | 0.6.1 | klaszter | 2.1.4 |
kódeszközök | 0.2-18 | színtér | 2.0-3 | commonmark | 1.8.1 |
fordítóprogram | 4.2.2 | beállítás | 0.3.1 | cpp11 | 0.4.3 |
zsírkréta | 1.5.2 | hitelesítő adatok | 1.3.2 | göndörít | 4.3.3 |
data.table | 1.14.4 | adatkészletek | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | leírás | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | kivonat | 0.6.30 | lefelé irányított fény | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
kihagyásjel | 0.3.2 | értékel | 0,18 | rajongók | 1.0.3 |
színek | 2.1.1 | gyorstérkép | 1.1.0 | fontawesome | 0.4.0 |
macskák | 0.5.2 | foreach | 1.5.2 | külföldi | 0.8-82 |
kovácsol | 0.2.0 | fs | 1.5.2 | jövő | 1.29.0 |
future.apply | 1.10.0 | gargarizál | 1.2.1 | Generikus | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globális | 0.16.1 |
ragasztó | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafika | 4.2.2 | grDevices | 4.2.2 |
rács | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | védősisak | 1.2.0 | kikötő | 2.5.1 |
magasabb | 0,9 | HMS | 1.1.2 | html-eszközök | 0.5.3 |
HTML-widgetek | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Azonosítók | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
izoband | 0.2.6 | iterátorok | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
címkézés | 0.4.2 | később | 1.3.0 | rács | 0.20-45 |
láva | 1.7.0 | életciklus | 1.0.3 | figyelő | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
TÖMEG | 7.3-58 | Mátrix | 1.5-1 | memoise | 2.0.1 |
módszerek | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modellező | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
párhuzamosan | 1.32.1 | pillér | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | haladás | 1.2.2 |
progressr | 0.11.0 | ígéretek | 1.2.0.1 | Proto | 1.0.0 |
helyettes | 0.4-27 | Ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
olvasó | 2.1.3 | readxl | 1.4.1 | receptek | 1.0.3 |
Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 | Távirányítók | 2.4.2 |
reprodukálható példa | 2.0.2 | újraformázás2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | mérleg | 1.2.1 |
selectr | 0.4-2 | munkamenet információ | 1.2.2 | alak | 1.4.6 |
Fényes | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | térbeli | 7.3-11 | görbék | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statisztika | 4.2.2 |
statisztikák4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
túlélés | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | szövegformázás | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | időváltozás | 0.1.1 | időDátum | 4021.106 |
tinytex | 0.42 | eszközök | 4.2.2 | tzdb | 0.3.0 |
URL ellenőrző | 1.0.1 | használd ezt | 2.1.6 | utf8 | 1.2.2 |
segédprogramok | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | brumm | 1.6.0 | Waldo | 0.4.0 |
szakáll | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | cipzár | 2.2.2 |
Telepített Java- és Scala-könyvtárak (2.12-es Scala-fürtverzió)
Csoportazonosító | Artefakt azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | Amazon Kinesis kliens | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-árnyékolt | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natív elemek | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Csellengő | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guáva | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilozó | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfiguráció | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fájlfeltöltés | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | légkompresszor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrikák magja | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrikák-ellenőrzések | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | savanyúság | 1,2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 7.0.0 |
org.apache.arrow | nyíl-memóriamag | 7.0.0 |
org.apache.arrow | nyíl-memória-netty | 7.0.0 |
org.apache.arrow | nyíl-vektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.derby | derbi | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-kliens-futtatókörnyezet | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-ütemező | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | borostyán | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shimek | 1.7.6 |
org.apache.parquet | parketta-oszlop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-kódolás | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-formátum-struktúrák | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | közönségjegyzetek | 0.13.0 |
org.apache.zookeeper | állatgondozó | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty-folyamathosszabbítás | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty Plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty webalkalmazás | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-kliens | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | WebSocket-szerver | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-újracsomagolt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Hézagoló lemezek | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,2 |
org.scalanlp | breeze_2.12 | 1,2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | makró-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |