Megosztás a következőn keresztül:


Databricks Runtime 12.1 (EoS)

Feljegyzés

A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verzió megtalálható a Databricks Runtime kiadási megjegyzéseiben: verziók és kompatibilitás.

Az alábbi kibocsátási megjegyzések az Apache Spark 3.3.1 által működtetett Databricks Runtime 12.1-ről nyújtanak információkat.

A Databricks 2023 januárjában adta ki ezt a verziót.

Új funkciók és fejlesztések

Protokollkezeléshez támogatott Delta Lake-táblafunkciók

Az Azure Databricks bevezette a Delta Lake-táblafunkciók támogatását, amelyek részletes jelzőket vezetnek be, amelyek meghatározzák, hogy az adott tábla mely funkciókat támogatja. Lásd: Hogyan kezeli az Azure Databricks a Delta Lake funkció kompatibilitását?.

A frissítések prediktív I/O-je nyilvános előzetes verzióban érhető el

A prediktív I/O mostantól felgyorsítja a DELETE, MERGE, és UPDATE műveleteket a Delta-táblákon a Photon-kompatibilis számításon engedélyezett törlési vektorokkal. Lásd Mi a prediktív I/O?.

A Katalóguskezelő mostantól minden személy számára elérhető

A Catalog Explorer mostantól minden Azure Databricks-személy számára elérhető a Databricks Runtime 7.3 LTS és újabb verziók használatakor.

Több állapotalapú operátor támogatása egyetlen streamelési lekérdezésben

A felhasználók mostantól összefűzési móddal láncra kapcsolhatják az állapotalapú operátorokat a streamelési lekérdezésben. Nem minden operátor támogatott teljes mértékben. Stream-stream időintervallum-illesztés, és flatMapGroupsWithState nem engedélyezi más állapotalapú operátorok láncolt használatát.

A protokollpufferek támogatása nyilvános előzetes verzióban érhető el

Az from_protobuf és to_protobuf függvények segítségével adatcserét végezhet bináris és strukturált típusok között. Lásd: Olvasási és írási protokollpufferek.

A Confluent-sémaregisztrációs adatbázis hitelesítésének támogatása

Az Azure Databricks és a Confluent Sémaregisztrációs adatbázis integrációja mostantól támogatja a külső sémaregisztrációs adatbázis-címeket hitelesítéssel. Ez a funkció a from_avro, to_avro, from_protobuf, és to_protobuf függvényeknél érhető el. Lásd: Protobuf vagy Avro.

A táblaelőzmények megosztásának támogatása a Delta Sharing használatával

Mostantól teljes előzményekkel rendelkező táblázatokat oszthat meg a Delta Sharing használatával, így a címzettek időutazási lekérdezéseket hajthatnak végre, és lekérdezhetik a táblát a Spark Strukturált streamelés használatával. WITH HISTORY helyett ajánlott CHANGE DATA FEED, bár az utóbbi továbbra is támogatott. Lásd a ALTER SHARE és bejegyzésekben a táblák hozzáadása a megosztáshoz.

Streamelés támogatása Delta-megosztásokkal

A Spark strukturált streamelés mostantól a deltasharing formátummal működik egy olyan forrás Delta Sharing táblán, amelyet WITH HISTORY használatával osztottak meg.

A katalógusokban lévő Delta-megosztási táblák esetében mostantól támogatott az időbélyeget használó táblaverzió

Mostantól az SQL-szintaxissal TIMESTAMP AS OF megadhatja a SELECT utasításokban a katalógusban csatlakoztatott Delta Sharing-tábla verzióját. A táblákat meg kell osztani a következővel WITH HISTORY: .

A MERGE INTO FORRÁS SZERINT NEM EGYEZŐ ÁLLAPOTának támogatása

Most már hozzáadhat WHEN NOT MATCHED BY SOURCE záradékokat a kiválasztott tábla azon sorainak frissítéséhez MERGE INTO vagy törléséhez, amelyek nem rendelkeznek egyezésekkel a forrástáblában az egyesítési feltétel alapján. Az új záradék sql, Python, Scala és Java nyelven érhető el. Lásd a(z) MERGE INTO.

Optimalizált statisztikai gyűjtemény CONVERT TO DELTA

A művelet statisztikáinak CONVERT TO DELTA gyűjtése most már sokkal gyorsabb. Ez csökkenti a hatékonyság érdekében használható NO STATISTICS számítási feladatok számát.

A Unity Catalog támogatása lefedő táblákhoz

Ez a funkció kezdetben nyilvános előzetes verzióban jelent meg. 2023. október 25-én általánosan elérhető.

Az elvetett felügyelt vagy külső táblákat az elvetéstől számított hét napon belül visszaállíthatja egy meglévő sémában. Lásd: UNDROP és SHOW TABLES DROPPED.

Könyvtárfrissítések

  • Frissített Python-kódtárak:
    • filelock 3.8.0-ról 3.8.2-re
    • platformdirs 2.5.4-ről 2.6.0-ra
    • setuptools 58.0.4-től 61.2.0-ra
  • Frissített R-kódtárak:
  • Frissített Java-kódtárak:
    • io.delta.delta-sharing-spark_2.12 0.5.2 és 0.6.2 között
    • org.apache.hive.hive-storage-api 2.7.2-től 2.8.1-esig
    • org.apache.parquet.parquet-column from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common 1.12.3-databricks-0001-ről 1.12.3-databricks-0002-ra
    • org.apache.parquet.parquet-encoding from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures verziója 1.12.3-databricks-0001-ről 1.12.3-databricks-0002-re
    • org.apache.parquet.parquet-hadoop verziófrissítése 1.12.3-databricks-0001-ről 1.12.3-databricks-0002-ra.
    • org.apache.parquet.parquet-jackson from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
    • org.tukaani.xz 1,8 és 1,9 között

Apache Spark

A Databricks Runtime 12.1 tartalmazza az Apache Spark 3.3.1-et. Ez a kiadás tartalmazza a Databricks Runtime 12.0 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:

  • [SPARK-41405] [SC-119769][12.1.0] Vonja vissza a(z) "[SC-119411][sql] Az oszlopfeloldási logika központosítása" és "[SC-117170][spark-41338][SQL] Külső hivatkozások és normál oszlopok feloldása ugyanabban az elemző kötegben" változtatásokat.
  • [SPARK-41405] [SC-119411][sql] Az oszlopfeloldási logika központosítása
  • [SPARK-41859] [SC-119514][sql] A CreateHiveTableAsSelectCommand parancsnak megfelelően kell beállítania a felülírás jelzőt
  • [SPARK-41659] [SC-119526][connect][12.X] Dokumentumtesztek engedélyezése a pyspark.sql.connect.readwriter alkalmazásban
  • [SPARK-41858] [SC-119427][sql] Az ORC-olvasó perf regresszióját javította az ALAPÉRTELMEZETT érték funkció miatt
  • [SPARK-41807] [SC-119399][core] Távolítsa el a nem létező hibaosztályt: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Adjon nevet az _LEGACY_ERROR_TEMP_2141 fájlnak
  • [SPARK-41571] [SC-119362][sql] Név hozzárendelése a _LEGACY_ERROR_TEMP_2310-hez
  • [SPARK-41810] [SC-119373][connect] A SparkSession.createDataFrame szótárainak listájából származó nevek következtetése
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] A Spark Connect dokumentációjának és szkriptének áthelyezése dev/ és Python-dokumentációba
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] A Spark Connect kezdeti ügyfélmoduljának beállítása
  • [SPARK-41365] [SC-118498][ui][3.3] A fázisok felhasználói felületének oldala nem töltődik be proxy használata esetén meghatározott yarn környezetben.
  • [SPARK-41481] [SC-118150][core][SQL] INVALID_TYPED_LITERAL újrafelhasználása _LEGACY_ERROR_TEMP_0020 helyett
  • [SPARK-41049] [SC-119305][sql] Állapotalapú kifejezéskezelés felülvizsgálata
  • [SPARK-41726] [SC-119248][sql] OptimizedCreateHiveTableAsSelectCommand eltávolítása
  • [SPARK-41271] [SC-118648][sc-118348][SQL] A paraméteres SQL-lekérdezések támogatása sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] DataFrame.sampleBy és DataFrame.stat.sampleBy implementálása
  • [SPARK-41407] [SC-119402][sc-119012][SQL][minden teszt] A v1 írás kiemelése a WriteFiles-ba
  • [SPARK-41565] [SC-118868][sql] Adja hozzá a hibaosztályt UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] A DECODE függvény hibás eredményt ad vissza, ha null értéket ad át
  • [SPARK-41554] [SC-119274] javítsa a decimális skála módosítását, amikor a skála csökken m...
  • [SPARK-41065] [SC-119324][connect][PYTHON] Implementál DataFrame.freqItems és DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Dokumentációs tesztek újraengedélyezése és a count() függvény hiányzó oszlopaliasának hozzáadása.
  • [SPARK-41069] [SC-119310][connect][PYTHON] DataFrame.approxQuantile és DataFrame.stat.approxQuantile végrehajtása
  • [SPARK-41809] [SC-119367][connect][PYTHON] Tegye lehetővé a függvényt from_json a DataType-séma támogatásához
  • [SPARK-41804] [SC-119382][sql] Válassza ki a megfelelő elemméretet az InterpretedUnsafeProjection UDT-tömbhöz
  • [SPARK-41786] [SC-119308][connect][PYTHON] Segédfüggvények deduplikálása
  • [SPARK-41745] [SC-119378][spark-41789][12.X] createDataFrame sorok támogatási listájának létrehozása
  • [SPARK-41344] [SC-119217][sql] Hiba egyértelműbbé tétele, ha a tábla nem található a SupportsCatalogOptions katalógusban
  • [SPARK-41803] [SC-119380][connect][PYTHON] Hiányzó függvény hozzáadása log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] JSON-függvények támogatási beállításainak megadása
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Tegye lehetővé __getitem__ támogatását a szűréshez és a kiválasztáshoz
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Oszlop op támogatása Null érték
  • [SPARK-41440] [SC-119279][connect][PYTHON] Kerülje a Sample általános gyorsítótár-operátorának használatát.
  • [SPARK-41785] [SC-119290][connect][PYTHON] GroupedData.mean implementálása
  • [SPARK-41629] [SC-119276][connect] Protokollbővítmények támogatása a relációban és a kifejezésben
  • [SPARK-41417] [SC-118000][core][SQL] Nevezze át _LEGACY_ERROR_TEMP_0019INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] A Spark Connect Server/-ügyfél megfelelő hibakezelése
  • [SPARK-41292] [SC-119357][connect][12.X] Támogatási ablak a pyspark.sql.window névtérben
  • [SPARK-41493] [SC-119339][connect][PYTHON] Csv-függvények támogatási beállításainak megadása
  • [SPARK-39591] [SC-118675][ss] Aszinkron haladáskövetés
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Column.{withField, dropFields} implementálása
  • [SPARK-41068] [SC-119268][connect][PYTHON] Megvalósítás DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Dokumentumtesztek engedélyezése a pyspark.sql.connect.columnban
  • [SPARK-41738] [SC-119170][connect] Keverje a ClientId-t a SparkSession gyorsítótárban
  • [SPARK-41354] [SC-119194][connect] A RepartitionByExpression hozzáadása a protohoz
  • [SPARK-41784] [SC-119289][connect][PYTHON] Hiányzó __rmod__ hozzáadása oszlopban
  • [SPARK-41778] [SC-119262][sql] Alias "reduce" hozzáadása ArrayAggregate-hez
  • [SPARK-41067] [SC-119171][connect][PYTHON] Implementálás DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] A belső karakterlánc műveleti nevének konzisztenssé tétele a FunctionRegistryvel
  • [SPARK-41734] [SC-119160][connect] Szülőüzenet hozzáadása a katalógushoz
  • [SPARK-41742] [SC-119263] Támogatás: df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][connect][PYTHON] Aritmetikai műveletek javítása: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][sql] Nevezze át UNSUPPORTED_CORRELATED_REFERENCECORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Column.{isNull, isNotNull, eqNullSafe} javítása
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] unwrap_udt függvény implementálása
  • [SPARK-41333] [SC-119195][spark-41737] Implementál GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Column.{bitwiseAND, bitwiseOR, bitwiseXOR} javítása
  • [SPARK-41631] [SC-101081][sql] Implicit oldaloszlop-aliasfeloldás támogatása összesítéskor
  • [SPARK-41529] [SC-119207][connect][12.X] SparkSession.stop implementálása
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Nevezze át _LEGACY_ERROR_TEMP_0011-ről UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES-ra
  • [SPARK-41717] [SC-119078][connect][12.X] Deduplikálja a nyomtatást és repr_html a LogicalPlanban
  • [SPARK-41740] [SC-119169][connect][PYTHON] Implementálás Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Famintás alapú metszés alkalmazása a ResolveWindowTime szabályhoz
  • [SPARK-41732] [SC-119157][sql][SS] Famintázat alapú metszés alkalmazása a SessionWindowing szabályhoz
  • [SPARK-41498] [SC-119018] Metaadatok propagálása az Unionon keresztül
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Az oszlop tartozékának implementálása
  • [SPARK-41736] [SC-119161][connect][PYTHON] pyspark_types_to_proto_types támogatja ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Implementál format_number függvényt
  • [SPARK-41707] [SC-119141][connect][12.X] Catalog API implementálása a Spark Connectben
  • [SPARK-41710] [SC-119062][connect][PYTHON] Implementálásra kerül Column.between
  • [SPARK-41235] [SC-119088][sql][PYTHON]High-order függvény: array_compact implementáció
  • [SPARK-41518] [SC-118453][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] sequence függvény implementálása
  • [SPARK-41703] [SC-119060][connect][PYTHON] NullType és typed_null egyesítése literálban
  • [SPARK-41722] [SC-119090][connect][PYTHON] 3 hiányzó időablak-függvény implementálása
  • [SPARK-41503] [SC-119043][connect][PYTHON] Partícióátalakítási függvények implementálása
  • [SPARK-41413] [SC-118968][sql] Kerülje a Storage-Partitioned illesztést, ha a partíciókulcsok nem egyeznek, de az illesztési kifejezések kompatibilisek
  • [SPARK-41700] [SC-119046][connect][PYTHON] FunctionBuilder eltávolítandó
  • [SPARK-41706] [SC-119094][connect][PYTHON] pyspark_types_to_proto_types támogatja MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Érvénytelen oszlop műveletek hozzáadása
  • [SPARK-41660] [SC-1188666][sql] Csak akkor propagálja a metaadatoszlopokat, ha használják őket
  • [SPARK-41637] [SC-119003][sql] ORDER BY ALL
  • [SPARK-41513] [SC-118945][sql] Gyűjtő implementálása a leképezősorok számmetrikáinak gyűjtéséhez
  • [SPARK-41647] [SC-119064][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.functions függvényekben
  • [SPARK-41701] [SC-119048][connect][PYTHON] Oszlopművelet támogatás decimal
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementálja rollup, cube és pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY ALL
  • [SPARK-41645] [SC-119057][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.dataframe-ben
  • [SPARK-41688] [SC-118951][connect][PYTHON] A kifejezéseket az expressions.py fájlba helyezzük át
  • [SPARK-41687] [SC-118949][connect] Deduplikálja a dokustringeket a pyspark.sql.connect.group fájlban
  • [SPARK-41649] [SC-118950][connect] Deduplikálja a dokumentumokat a pyspark.sql.connect.window fájlban
  • [SPARK-41681] [SC-118939][connect] CsoportosítottAdatok kiemelése a group.py fájlba
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Window függvények implementálása
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Oszlopos műveletek támogatása datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Az elavult függvények engedélyezése
  • [SPARK-41673] [SC-118932][connect][PYTHON] Implementál Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] A broadcast függvény megvalósítása
  • [SPARK-41648] [SC-118914][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.readwriter alkalmazásban
  • [SPARK-41646] [SC-118915][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.session-ben
  • [SPARK-41643] [SC-118862][connect][12.X] Deduplikálja a dokumentumokat a pyspark.sql.connect.columnban
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] A Lambda többi függvényének implementálása
  • [SPARK-41441] [SC-118557][sql] Támogatás a külső hivatkozások kezelésére gyermek kimenet szükségessége nélkül
  • [SPARK-41669] [SC-118923][sql] A canCollapseExpressions korai metszése során
  • [SPARK-41639] [SC-118927][sql][PROTOBUF] : ScalaReflectionLock eltávolítása a SchemaConvertersből
  • [SPARK-41464] [SC-118861][connect][PYTHON] Implementálás DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Kezdeti LambdaFunction implementáció
  • [SPARK-41539] [SC-118802][sql] A LogicRDD logikai tervében szereplő kimenet statisztikáinak és korlátainak újraképezettsége
  • [SPARK-41396] [SC-118786][sql][PROTOBUF] OneOf mező támogatása és rekurziós ellenőrzések
  • [SPARK-41528] [SC-118769][connect][12.X] A Spark Connect és a PySpark API névterének egyesítése
  • [SPARK-41568] [SC-118715][sql] Adjon nevet a _LEGACY_ERROR_TEMP_1236-nak
  • [SPARK-41440] [SC-118788][connect][PYTHON] Implementálás DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Spark Connect és protobuf hozzáadása setup.py függőségek megadásával
  • [SPARK-27561] [SC-101081][12.x][SQL] Implicit oldaloszlop-aliasfeloldás támogatása a Projectben
  • [SPARK-41535] [SC-118645][sql] A InterpretedUnsafeProjection és InterpretedMutableProjection naptárintervallum-mezőinek null értékű beállítása
  • [SPARK-40687] [SC-118439][sql] A beépített "mask" függvény adatmaszkolásának támogatása
  • [SPARK-41520] [SC-118440][sql] Az AND_OR TreePattern felosztása az AND és OR TreePattern-ek különválasztására
  • [SPARK-41349] [SC-118668][connect][PYTHON] DataFrame.hint implementálása
  • [SPARK-41546] [SC-118541][connect][PYTHON] pyspark_types_to_proto_types támogatnia kell a StructType-ot.
  • [SPARK-41334] [SC-118549][connect][PYTHON] SortOrder proto áthelyezése kapcsolatokról kifejezésekre
  • [SPARK-41387] [SC-118450][ss] A Trigger.AvailableNow Kafka-adatforrásának aktuális végeltolásának beállítása
  • [SPARK-41508] [SC-118445][core][SQL] Nevezze át _LEGACY_ERROR_TEMP_1180UNEXPECTED_INPUT_TYPE és távolítsa el _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Implement Column.{when, otherwise} és függvény when with UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Helytelen gyermekmetódus hívásának javítása az SQLShuffleWriteMetricsReporter.decRecordsWritten() alkalmazásban
  • [SPARK-41453] [SC-118458][connect][PYTHON] Implementálás DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Adja hozzá a "spark.sql.json.enablePartialResults" értéket a JSON részleges eredményeinek engedélyezéséhez/letiltásához
  • [SPARK-41437] "Visszavonás: “[SC-117601][sql] Ne optimalizálja kétszer az inputqueryt v1-es írási tartalékhoz”
  • [SPARK-41472] [SC-118352][connect][PYTHON] A többi sztring/bináris függvény implementálása
  • [SPARK-41526] [SC-118355][connect][PYTHON] Implementálás Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Javítsa a spekulációt a fázisfeladat-metrikákon keresztül.
  • [SPARK-41524] [SC-118399][ss] Az SQLConf és az extraOptions megkülönböztetése a StateStoreConfban a RocksDBConf-ban való használathoz
  • [SPARK-41465] [SC-118381][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][sql] LongToUnsafeRowMap funkció figyelmen kívül hagyja a duplikált kulcsokat
  • [SPARK-41409] [SC-118302][core][SQL] Nevezze át _LEGACY_ERROR_TEMP_1043 erre: WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Megvalósítása a DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Ne optimalizálja kétszer a bemeneti lekérdezést a v1-es írási visszaeséshez
  • [SPARK-41314] [SC-117172][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression a DataType támogatásához
  • [SPARK-41448] [SC-118046] Konzisztens MR-feladatazonosítók létrehozása a FileBatchWriter és a FileFormatWriter alkalmazásban
  • [SPARK-41456] [SC-117970][sql] A try_cast teljesítményének javítása
  • [SPARK-41495] [SC-118125][connect][PYTHON] collection függvények implementálása: P~Z
  • [SPARK-41478] [SC-118167][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] A NUM_COLUMNS_MISMATCH újrabontási hibaüzenete általánosabbá tétele érdekében
  • [SPARK-41404] [SC-118016][sql] A(z) ColumnVectorUtils#toBatch refaktorálása, hogy a(z) ColumnarBatchSuite#testRandomRows teszt primitívebb adattípust használjon
  • [SPARK-41468] [SC-118044][sql] A PlanExpression kezelés javítása a EquivalentExpressionsben
  • [SPARK-40775] [SC-118045][sql] A V2-fájlvizsgálatok ismétlődő leírási bejegyzéseinek javítása
  • [SPARK-41492] [SC-118042][connect][PYTHON] MISC-függvények implementálása
  • [SPARK-41459] [SC-118005][sql] javítás a thrift kiszolgáló műveleti naplójának üres kimenetére
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjectionsetDecimal használatával állítsa be a nem biztonságos sorban lévő decimális értékek null értékeit
  • [SPARK-41376] [SC-117840][core][3.3] Javítsa ki a Netty preferDirectBufs ellenőrzési logikáját a végrehajtó indításakor
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] collection függvények implementálása: E~M
  • [SPARK-41389] [SC-117426][core][SQL] WRONG_NUM_ARGS újrafelhasználása _LEGACY_ERROR_TEMP_1044 helyett
  • [SPARK-41462] [SC-117920][sql] A dátum- és időbélyeg típus konvertálható TimestampNTZ típusra
  • [SPARK-41435] [SC-117810][sql] A curdate()invalidFunctionArgumentsError hívásának módosítása, ha expressions nem üres
  • [SPARK-41187] [SC-118030][core] LiveExecutor memória szivárgás az AppStatusListenerben, amikor ExecutorLost bekövetkezik
  • [SPARK-41360] [SC-118083][core] Kerülje a BlockManager újbóli regisztrációját, ha a végrehajtó elveszett
  • [SPARK-41378] [SC-117686][sql] Az oszlopstatisztikák támogatása a DS v2-ben
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] A StringDecode prettyName felülbírálása
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Dátum-/időbélyegző függvények implementálása
  • [SPARK-41329] [SC-117975][connect] Körkörös importálás feloldása a Spark Connectben
  • [SPARK-41477] [SC-118025][connect][PYTHON] A literális egész számok adattípusának helyes következtetése
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] createDataFrame támogatási séma és több bemeneti adatkészlet-típus létrehozása
  • [SPARK-41475] [SC-117997][connect] A lint-scala parancs hibájának és elírásának javítása
  • [SPARK-38277] [SC-117799][ss] Írási köteg törlése a RocksDB állapottároló véglegesítése után
  • [SPARK-41375] [SC-117801][ss] Az üres legújabb KafkaSourceOffset elkerülése
  • [SPARK-41412] [SC-118015][connect] Implementálás Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Implementálja a DataFrame.melt és DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Oszlophoz kapcsolódó tesztek refaktorálása test_connect_column
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Az oszlopnak támogatnia kell a != operátort
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Olvasási oldali karakterpárnázás hozzáadása külső adatfájlok lefedéséhez
  • [SPARK-41349] [SC-117594][connect][12.X] DataFrame.hint implementálása
  • [SPARK-41338] [SC-117170][sql] Oldja fel a külső hivatkozásokat és a normál oszlopokat ugyanabban az elemző kötegben
  • [SPARK-41436] [SC-117805][connect][PYTHON] collection függvények implementálása: A~C
  • [SPARK-41445] [SC-117802][connect] DataFrameReader.parquet implementálása
  • [SPARK-41452] [SC-117865][sql] to_char null értéket kell visszaadnia, ha a formátum null
  • [SPARK-41444] [SC-117796][connect] Támogatás read.json()
  • [SPARK-41398] [SC-117508][sql] A Storage-Partitioned csatlakozásra vonatkozó korlátozások lazítása, ha a futtatókörnyezet szűrése után a partíciókulcsok nem egyeznek
  • [SPARK-41228] [SC-117169][sql] Átnevezés & COLUMN_NOT_IN_GROUP_BY_CLAUSEhibaüzenetének javítása.
  • [SPARK-41381] [SC-117593][connect][PYTHON] count_distinct és sum_distinct függvények implementálása
  • [SPARK-41433] [SC-117596][connect] A Max Arrow BatchSize konfigurálhatóvá tétele
  • [SPARK-41397] [SC-117590][connect][PYTHON] Sztring/bináris függvények egy részének implementálása
  • [SPARK-41382] [SC-117588][connect][PYTHON] product függvény implementálása
  • [SPARK-41403] [SC-117595][connect][PYTHON] Implementálás DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() kompatibilisnek kell lennie
  • [SPARK-41369] [SC-117584][connect] Adja hozzá a connect common-t a szerverek árnyékolt jar-jába
  • [SPARK-41411] [SC-117562][ss] Többállapotú operátor vízjeltámogatási hibajavítása
  • [SPARK-41176] [SC-116630][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Aggregációs függvények implementálása
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Normál függvények implementálása
  • [SPARK-41305] [SC-117411][connect] A proto parancs dokumentációjának javítása
  • [SPARK-41372] [SC-117427][connect][PYTHON] DataFrame TempView implementálása
  • [SPARK-41379] [SC-117420][ss][PYTHON] Klónozott Spark-munkamenet biztosítása a DataFrame használatával a foreachBatch fogadó user függvényben a PySparkban
  • [SPARK-41373] [SC-117405][sql][ERROR] Nevezze át CAST_WITH_FUN_SUGGESTION CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Refactor ColumnVectorUtils#populate metódust úgy, hogy ahelyett, hogy DataType, PhysicalDataType-t használja
  • [SPARK-41355] [SC-117423][sql] Megkerülő megoldás a hive táblanév érvényesítésével kapcsolatos problémára
  • [SPARK-41390] [SC-117429][sql] Frissítse a register függvény létrehozásához használt szkriptet UDFRegistration
  • [SPARK-41206] [SC-117233][sc-116381][SQL] Nevezze át a _LEGACY_ERROR_TEMP_1233 hibaosztályt COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Matematikai függvények implementálása
  • [SPARK-40970] [SC-117308][connect][PYTHON] Támogatás a Join on argumentum List[Column] számára
  • [SPARK-41345] [SC-117178][connect] Tipp hozzáadása a Proto csatlakoztatásához
  • [SPARK-41226] [SC-117194][sql][12.x] Spark-típusok újrabontása fizikai típusok bevezetésével
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Alapszintű támogatás hozzáadása a DataFrameWriterhez
  • [SPARK-41347] [SC-117173][connect] Kiegészítés: típuskonverzió az Expression proto-hoz
  • [SPARK-41323] [SC-117128][sql] Támogatja a current_schema
  • [SPARK-41339] [SC-117171][sql] Zárja be és hozza létre újra a RocksDB írási köteget a törlés helyett
  • [SPARK-41227] [SC-117165][connect][PYTHON] DataFrame keresztcsatlakozás implementálása
  • [SPARK-41346] [SC-117176][connect][PYTHON] asc és desc függvények implementálása
  • [SPARK-41343] [SC-117166][connect] FunctionName-elemzés áthelyezése kiszolgálóoldalra
  • [SPARK-41321] [SC-117163][connect] Támogatás célmező számára az UnresolvedStar esetében
  • [SPARK-41237] [SC-117167][sql] Használja újra a hibaosztályt UNSUPPORTED_DATATYPE_LEGACY_ERROR_TEMP_0030-hoz
  • [SPARK-41309] [SC-116916][sql] A INVALID_SCHEMA.NON_STRING_LITERAL újrafelhasználása _LEGACY_ERROR_TEMP_1093 helyett
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] A StructType konstruktorhasználatának optimalizálása
  • [SPARK-41335] [SC-117135][connect][PYTHON] Az IsNull és az IsNotNull támogatása oszlopban
  • [SPARK-41332] [SC-117131][connect][PYTHON] nullOrdering javítása SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] A GroupBy hiányzó avg() javítása a DF-en
  • [SPARK-41327] [SC-117137][core] A SparkStatusTracker.getExecutorInfos javítása az On/OffHeapStorageMemory információ be- és kikapcsolásával
  • [SPARK-41315] [SC-117129][connect][PYTHON] Implementálja DataFrame.replace és DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Logikai és sztring API hozzáadása oszlophoz
  • [SPARK-41331] [SC-117127][connect][PYTHON] orderBy és drop_duplicates hozzáadása
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal gondoskodnia kell arról, hogy a zárolás zökkenőmentesen feloldva legyen
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] "Column" újrafaktorálása az API-kompatibilitás érdekében
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] DataFrame.withColumnRenamed implementálása
  • [SPARK-41221] [SC-116607][sql] Adja hozzá a hibaosztályt INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] INVALID_SCHEMA újrafelhasználása _LEGACY_ERROR_TEMP_1227 helyett
  • [SPARK-41260] [SC-116880][python][SS][12.x] A NumPy-példányok Python-primitív típusokba való átcsoportosítása a GroupState-frissítésben
  • [SPARK-41174] [SC-116609][core][SQL] Hibaosztály propagálása a felhasználóknak a to_binary() érvénytelen format
  • [SPARK-41264] [SC-116971][connect][PYTHON] További adattípusok támogatása a literálban
  • [SPARK-41326] [SC-116972] [CONNECT] A deduplikálás hiányzó bemenetének javításával
  • [SPARK-41316] [SC-116900][sql] A tail-recursion engedélyezése, ahol csak lehetséges
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Sztringkifejezések támogatása a szűrőben.
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] DataFrame.withColumn(ok) implementálása
  • [SPARK-41182] [SC-116632][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] A térképbeállítások hibáinak migrálása hibaosztályokra
  • [SPARK-40940] [SC-115993][12.x] A streamelési lekérdezések többállapotú operátor-ellenőrzőinek eltávolítása.
  • [SPARK-41310] [SC-116885][connect][PYTHON] DataFrame.toDF implementálása
  • [SPARK-41179] [SC-116631][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] A BHJ LeftAnti nem frissíti a numOutputRows számlálót, amikor a codegen le van tiltva
  • [SPARK-41148] [SC-116878][connect][PYTHON] DataFrame.dropna és DataFrame.na.drop megvalósítása
  • [SPARK-41217] [SC-116380][sql] Adja hozzá a hibaosztályt FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] DataFrame.count() javítása
  • [SPARK-41301] [SC-116786] [CONNECT] A SparkSession.range() homogenizálási viselkedése
  • [SPARK-41306] [SC-116860][connect] A Connect Expression proto dokumentációjának továbbfejlesztése
  • [SPARK-41280] [SC-116733][connect] DataFrame.tail implementálása
  • [SPARK-41300] [SC-116751] [CONNECT] A nem beállított séma sémaként van értelmezve
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] RemoteSparkSession átnevezése
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. a toPandas nem ad vissza opcionális pandas-adatkeretet
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain ki kell nyomtatnia és a None értéket kell visszaadnia
  • [SPARK-41278] [SC-116732][connect] Tisztítsa meg a nem használt QualifiedAttribute kifejezést az Expression.proto-ban.
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Redundáns gyűjteménykonvertálási alap eltávolítása Scala 2.13-kódon
  • [SPARK-41261] [SC-116718][python][SS] Kijavítottuk az ApplyInPandasWithState hibát, ha a csoportosítási kulcsok oszlopai nem a legkorábbi sorrendbe vannak helyezve
  • [SPARK-40872] [SC-116717][3.3] Visszalépés az eredeti shuffle blokkra, ha egy leküldéses egyesített shuffle-adattömb nulla méretű
  • [SPARK-41114] [SC-116628][connect] A LocalRelation helyi adatainak támogatása
  • [SPARK-41216] [SC-116678][connect][PYTHON] Implementálás DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] További beépített adattípusok támogatása
  • [SPARK-41230] [SC-116674][connect][PYTHON] Távolítsa el a str az összesítő kifejezéstípusból
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Optimalizált nyílalapú adatgyűjtési implementáció a kiszolgálóról az ügyfélre való streameléshez
  • [SPARK-41222] [SC-116625][connect][PYTHON] Egyesítse a gépelési definíciókat
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Tiltsa le a nem támogatott függvényeket.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Implementálás DataFrame.SelectExpr Python-ügyfélben
  • [SPARK-41203] [SC-116258] [CONNECT] A Dataframe.tansform támogatása a Python-ügyfélben.
  • [SPARK-41213] [SC-116375][connect][PYTHON] Implementál DataFrame.__repr__ és DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Implementálás DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] A nem egyértelmű hivatkozási hiba hibaosztályba történő migrálása
  • [SPARK-41122] [SC-116141][connect] Az Explain API különböző módokat támogat
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] A PySpark-típus következtetésének javítása _merge_type metódusban
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenizálja a protobuf verziót a Spark connect-kiszolgálón, hogy ugyanazt a főverziót használja.
  • [SPARK-35531] [SC-116409][sql] A hive-tábla statisztikáinak frissítése szükségtelen átalakítás nélkül
  • [SPARK-41154] [SC-116289][sql] Helytelen relációs gyorsítótárazás időutazási specifikációjú lekérdezésekhez
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementálás DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Nevezze át UNSUPPORTED_EMPTY_LOCATIONINVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Egy bővítő API hozzáadása a gyorsítótárazáshoz kapcsolódó terv normalizálására.
  • [SPARK-41054] [SC-116447][ui][CORE] A RocksDB támogatása KVStore-ként az élő felhasználói felületen
  • [SPARK-38550] [SC-115223]Visszaállítás "[SQL][core] Lemezalapú tároló használatával további hibakeresési információkat menthet élő felhasználói felületen"
  • [SPARK-41173] [SC-116185][sql] require() áthelyezése a sztringkifejezések konstruktorai közül
  • [SPARK-41188] [SC-116242][core][ML] Állítsa be a executorEnv OMP_NUM_THREADS alapértelmezés szerint spark.task.cpus értékre spark-végrehajtó JVM-folyamatokhoz
  • [SPARK-41130] [SC-116155][sql] Nevezze át OUT_OF_DECIMAL_TYPE_RANGE a(z) NUMERIC_OUT_OF_SUPPORTED_RANGE-ra/-re
  • [SPARK-41175] [SC-116238][sql] Rendeljen nevet a hibaosztályhoz _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Csökkentse a gyűjteményátalakítást attribútumtérkép létrehozásakor
  • [SPARK-41139] [SC-115983][sql] Hibaosztály javítása: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Árnyékolást igényel a Java-osztály jarhoz, javítva a hibakezelést
  • [SPARK-40999] [SC-116168] Emlékeztető propagálása albekérdezésekre
  • [SPARK-41017] [SC-116054][sql] Oszlopkivágás támogatása több nemdeterminista szűrővel
  • [SPARK-40834] [SC-114773][sql] A SparkListenerSQLExecutionEnd használatával nyomon követheti a végleges SQL-állapotot a felhasználói felületen
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_numbernull kell visszaadnia, ha a formátum null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: Katalógus felületének megtekintése
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Kerülje a Spark Connect beágyazását az Apache Spark bináris kiadásba
  • [SPARK-41048] [SC-116043][sql] A kimenet particionálásának és sorrendjének javítása az AQE-gyorsítótárral
  • [SPARK-41198] [SC-116256][ss] A CTE- és DSv1-streamforrással rendelkező streamelési lekérdezések metrikáinak javítása
  • [SPARK-41199] [SC-116244][ss] Kijavított metrikaprobléma, amikor a DSv1 és DSv2 streamforrások együtt vannak használva.
  • [SPARK-40957] [SC-116261][sc-114706] Memória-gyorsítótár hozzáadása a HDFSMetadataLog-hoz
  • [SPARK-40940] Visszavonás: "[SC-115993] Többállapotú operátor-ellenőrzők eltávolítása a streamelési lekérdezésekhez".
  • [SPARK-41090] [SC-116040][sql] Kivétel db_name.view_name az Adathalmaz API által létrehozott ideiglenes nézet létrehozásakor
  • [SPARK-41133] [SC-116085][sql] Integrálja UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION a NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] 9 kódmentés rögzítése
  • [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect build illesztőprogram beépülő modulként árnyékolt függőségekkel
  • [SPARK-41096] [SC-115812][sql] A parquet FIXED_LEN_BYTE_ARRAY típus olvasásának támogatása
  • [SPARK-41140] [SC-115879][sql] Nevezze át a hibaosztályt _LEGACY_ERROR_TEMP_2440INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Eltérés a FileSourceScanExec és az Orc és a ParquetFileFormat között oszlopos kimenet előállításakor
  • [SPARK-41155] [SC-115991][sql] Hibaüzenet hozzáadása a SchemaColumnConvertNotSupportedException szolgáltatáshoz
  • [SPARK-40940] [SC-115993] A streamelési lekérdezések többállapotú operátor-ellenőrzőinek eltávolítása.
  • [SPARK-41098] [SC-115790][sql] Nevezze át GROUP_BY_POS_REFERS_AGG_EXPRGROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] A számformázás típusellenőrzési hibáinak áthelyezése hibaosztályokra
  • [SPARK-41059] [SC-115658][sql] Nevezze át _LEGACY_ERROR_TEMP_2420NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Konvertálás a DATATYPE_MISMATCH.UNSPECIFIED_FRAME típusáról belső hibára (INTERNAL_ERROR)
  • [SPARK-40973] [SC-115132][sql] Nevezze át _LEGACY_ERROR_TEMP_0055UNCLOSED_BRACKETED_COMMENT

Karbantartási frissítések

Lásd a Databricks Runtime 12.1 karbantartási frissítéseit.

Rendszerkörnyezet

  • Operációs rendszer: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Telepített Python-kódtárak

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attribútumok 21.4.0 visszahívó függvény 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 fekete 22.3.0 fehérítő 4.1.0
boto3 1.21.32 botocore 1.24.32 bizonyítvány 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
kattintás 8.0.4 kriptográfia 3.4.8 biciklista 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
lakberendező 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 belépési pontok 0,4 Végrehajtó 0.8.3
aspektusok áttekintése 1.0.0 fastjsonschema 2.16.2 fájlzár 3.8.2
betűtípusok 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgetek 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Mccabe 0.7.0 elhangol 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
jegyzetfüzet 6.4.8 numpy 1.21.5 csomagolás 21,3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
útvonal specifikáció 0.9.0 Patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Párna 9.0.1 mag 21.2.4
platformdirs 2.6.0 ábrázolás 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
kérelmek 2.27.1 requests-unixsocket 0.2.0 kötél 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
tengeri 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Hat 1.16.0 levesszűrő 2.3.1 ssh-import-id 5.10
veremadatok 0.2.0 statsmodels 0.13.2 Kitartás 8.0.1
befejezett 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornádó 6.1
árulók 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
felügyelet nélküli frissítések 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.3
kerék 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Telepített R-kódtárak

Az R-kódtárak a 2022-11-11-i Microsoft CRAN-pillanatképből vannak telepítve.

Könyvtár Verzió Könyvtár Verzió Könyvtár Verzió
nyíl 10.0.0 askpass 1,1 ellenőriz 0.2.1
régebbi verziókhoz való visszamenőleges javítások 1.4.1 alap 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 blob 1.2.3
indítás 1.3-28 főz 1.0-8 Brio 1.1.3
seprű 1.0.1 bslib 0.4.1 gyorsítótár 1.0.6
hívó 3.7.3 kalap 6.0-93 cellranger 1.1.0
időrend 2.3-58 osztály 7.3-20 Cli 3.4.1
clipr 0.8.0 óra 0.6.1 klaszter 2.1.4
kódeszközök 0.2-18 színtér 2.0-3 commonmark 1.8.1
fordítóprogram 4.2.2 beállítás 0.3.1 cpp11 0.4.3
zsírkréta 1.5.2 hitelesítő adatok 1.3.2 göndörít 4.3.3
data.table 1.14.4 adatkészletek 4.2.2 DBI 1.1.3
dbplyr 2.2.1 leírás 1.4.2 devtools 2.4.5
diffobj 0.3.5 kivonat 0.6.30 lefelé irányított fény 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
kihagyásjel 0.3.2 értékel 0,18 rajongók 1.0.3
színek 2.1.1 gyorstérkép 1.1.0 fontawesome 0.4.0
macskák 0.5.2 foreach 1.5.2 külföldi 0.8-82
kovácsol 0.2.0 fs 1.5.2 jövő 1.29.0
future.apply 1.10.0 gargarizál 1.2.1 Generikus 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globális 0.16.1
ragasztó 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 grafika 4.2.2 grDevices 4.2.2
rács 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 védősisak 1.2.0 kikötő 2.5.1
magasabb 0,9 HMS 1.1.2 html-eszközök 0.5.3
HTML-widgetek 1.5.4 httpuv 1.6.6 httr 1.4.4
Azonosítók 1.0.1 ini 0.3.1 ipred 0.9-13
izoband 0.2.6 iterátorok 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
címkézés 0.4.2 később 1.3.0 rács 0.20-45
láva 1.7.0 életciklus 1.0.3 figyelő 0.8.0
lubridate 1.9.0 magrittr 2.0.3 markdown 1.3
TÖMEG 7.3-58 Mátrix 1.5-1 memoise 2.0.1
módszerek 4.2.2 mgcv 1.8-41 MIME 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modellező 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
párhuzamosan 1.32.1 pillér 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 dicséret 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 haladás 1.2.2
progressr 0.11.0 ígéretek 1.2.0.1 Proto 1.0.0
helyettes 0.4-27 Ps 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
olvasó 2.1.3 readxl 1.4.1 receptek 1.0.3
Visszavágót 1.0.1 visszavágó2 2.1.2 Távirányítók 2.4.2
reprodukálható példa 2.0.2 újraformázás2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.2 mérleg 1.2.1
selectr 0.4-2 munkamenet információ 1.2.2 alak 1.4.6
Fényes 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 térbeli 7.3-11 görbék 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 statisztika 4.2.2
statisztikák4 4.2.2 stringi 1.7.8 stringr 1.4.1
túlélés 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 szövegformázás 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 időváltozás 0.1.1 időDátum 4021.106
tinytex 0.42 eszközök 4.2.2 tzdb 0.3.0
URL ellenőrző 1.0.1 használd ezt 2.1.6 utf8 1.2.2
segédprogramok 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 brumm 1.6.0 Waldo 0.4.0
szakáll 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 cipzár 2.2.2

Telepített Java- és Scala-könyvtárak (2.12-es Scala-fürtverzió)

Csoportazonosító Artefakt azonosítója Verzió
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis kliens 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics patak 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-árnyékolt 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml osztálytárs 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.koffein koffein 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natívok 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natív elemek 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Csellengő 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guáva 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profilozó 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfiguráció 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fájlfeltöltés commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-naplózás commons-naplózás 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift légkompresszor 0.21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metrikák magja 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrikák-ellenőrzések 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx gyűjtő 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktiválás 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine savanyúság 1,2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow nyílformátum 7.0.0
org.apache.arrow nyíl-memóriamag 7.0.0
org.apache.arrow nyíl-memória-netty 7.0.0
org.apache.arrow nyíl-vektor 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurátor-ügyfél 2.13.0
org.apache.curator kurátor-keretrendszer 2.13.0
org.apache.curator kurátor-receptek 2.13.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-kliens-futtatókörnyezet 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-ütemező 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy borostyán 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shimek 1.7.6
org.apache.parquet parketta-oszlop 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet parquet-kódolás 1.12.3-databricks-0002
org.apache.parquet parquet-formátum-struktúrák 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,20
org.apache.yetus közönségjegyzetek 0.13.0
org.apache.zookeeper állatgondozó 3.6.2
org.apache.zookeeper zookeeper-juta 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty Jetty-folyamathosszabbítás 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty Jetty Plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty Jetty webalkalmazás 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-kliens 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket-szerver 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-újracsomagolt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Széljegyzetek 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Hézagoló lemezek 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt teszt-interfész 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,2
org.scalanlp breeze_2.12 1,2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark Használatlan 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel makró-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1