Databricks Runtime 10.4 LTS
A következő kibocsátási megjegyzések az Apache Spark 3.2.1 által működtetett Databricks Runtime 10.4 LTS-ről és a Databricks Runtime 10.4 LTS Photonról nyújtanak információkat. A Photon nyilvános előzetes verzióban érhető el. A Databricks 2022 márciusában adta ki ezt a verziót.
Feljegyzés
Az LTS azt jelenti, hogy ez a verzió hosszú távú támogatás alatt áll. Lásd: Databricks Runtime LTS-verzió életciklusa.
Tipp.
A támogatás megszűnését (EoS) elérő Databricks Runtime-verziók kibocsátási megjegyzéseit a databricks runtime kiadási megjegyzéseiben találhatja meg. Az EoS Databricks Runtime-verziók ki lettek állítva, és előfordulhat, hogy nem frissülnek.
Új funkciók és fejlesztések
- Iceberg to Delta table converter (Nyilvános előzetes verzió)
- Az automatikus tömörítési visszaállítások alapértelmezés szerint engedélyezve vannak
- Az alacsony shuffle merge alapértelmezés szerint engedélyezve van
-
A beszúrási sorrend címkéi mostantól s és
UPDATE
s esetén is megmaradnakDELETE
- A HikariCP mostantól az alapértelmezett Hive metaadattár-kapcsolatkészlet
- Az Azure Synapse-összekötő mostantól lehetővé teszi az engedélyezett elutasított sorok maximális számának beállítását
- Általánosan elérhető az aszinkron állapot-ellenőrzőpontozás
- A paraméter alapértelmezett értéke mostantól megadható a felhasználó által definiált SQL-függvényekhez
- Új Spark SQL-függvények
- Új munkakönyvtár magas egyidejűségi fürtökhöz
- Delta-táblák identitásoszlopainak támogatása általánosan elérhető
Iceberg–Delta táblakonverter (nyilvános előzetes verzió)
A "Convert to Delta" funkció mostantól támogatja az Iceberg-táblák helyben történő deltatáblává alakítását. Ezt icebergi natív metaadatok és fájljegyzékek használatával teszi meg. Lásd: Konvertálás Delta Lake-vé.
Az automatikus tömörítési visszaállítások alapértelmezés szerint engedélyezve vannak
Ez a kiadás javítja az egyidejű automatikus tömörítési tranzakciók esetén véglegesíteni kívánt Delta Lake-írások viselkedését. A jelen kiadás előtt az ilyen írásműveletek gyakran leálltak egy tábla egyidejű módosítása miatt. Az írások akkor is sikeresek lesznek, ha egyidejű automatikus tömörítési tranzakciók vannak.
Az alacsony shuffle merge alapértelmezés szerint engedélyezve van
A MERGE INTO
parancs mostantól mindig az új alacsony sorrendű implementációt használja. Ez a viselkedés jelentősen javítja a parancs teljesítményét a MERGE INTO
legtöbb számítási feladat esetében. A funkció engedélyezéséhez korábban használt konfigurációs beállítás el lett távolítva. Lásd: Alacsony shuffle merge az Azure Databricksben.
A beszúrási sorrend címkéi mostantól s és UPDATE
s esetén is megmaradnak DELETE
A UPDATE
parancsok mostantól DELETE
megőrzik a frissített vagy törölt fájlok meglévő fürtözési adatait (beleértve a Z-sorrendet is). Ez a viselkedés a legjobb módszer, és ez a megközelítés nem vonatkozik olyan esetekre, amikor a fájlok olyan kicsik, hogy a fájlok a frissítés vagy a törlés során egyesítve vannak.
A HikariCP mostantól az alapértelmezett Hive metaadattár-kapcsolatkészlet
A HikariCP számos stabilitási fejlesztést biztosít a Hive metaadattár-hozzáféréséhez, miközben kevesebb kapcsolatot tart fenn a korábbi BoneCP-kapcsolatkészlet-implementációhoz képest. A HikariCP alapértelmezés szerint engedélyezve van minden Databricks Runtime-fürtön, amely a Databricks Hive metaadattárat használja (például amikor a spark.sql.hive.metastore.jars
nincs beállítva). A beállítással spark.databricks.hive.metastore.client.pool.type
explicit módon válthat más kapcsolatkészlet-implementációkra is, például a BoneCP-re.
Az Azure Synapse-összekötő mostantól lehetővé teszi az engedélyezett elutasító sorok maximális számát
Az Azure Synapse-összekötő mostantól támogatja a maxErrors DataFrame lehetőséget. Ez a frissítés lehetővé teszi az elutasított sorok maximális számának konfigurálását az olvasások és írások során a terhelési művelet megszakítása előtt. A rendszer figyelmen kívül hagyja az összes elutasított sort. Ha például tíz rekordból kettő hibás, a rendszer csak nyolc rekordot dolgoz fel.
Ez a beállítás közvetlenül a REJECT_VALUE
PolyBase utasításának CREATE EXTERNAL TABLE
beállítására és az MAXERRORS
Azure Synapse-összekötő COPY
parancsára képez le.
Alapértelmezés szerint a maxErrors
értéke 0
: minden rekord várhatóan érvényes.
Általánosan elérhető az aszinkron állapot-ellenőrzőpontozás
Engedélyezheti az aszinkron állapot-ellenőrzőpontozást az állapotalapú streamelési lekérdezésekben nagy méretű állapotfrissítésekkel. Ez csökkentheti a mikrokötegek végpontok közötti késését. A funkció már általánosan elérhető. Tekintse meg az állapotalapú lekérdezések aszinkron állapot-ellenőrzőpontozását.
A paraméter alapértelmezett értéke mostantól megadható a felhasználó által definiált SQL-függvényekhez
Felhasználó által definiált SQL-függvény (SQL UDF) létrehozásakor mostantól megadhat alapértelmezett kifejezéseket az SQL UDF paramétereihez. Ezután meghívhatja az SQL UDF-et anélkül, hogy argumentumokat ad meg ezekhez a paraméterekhez, és a Databricks kitölti ezeknek a paramétereknek az alapértelmezett értékeit. Lásd: CREATE FUNCTION (SQL és Python).
Új Spark SQL-függvények
Ezzel a kiadással a következő Spark SQL-függvények érhetők el:
-
try_multiply: A visszaadott érték
multiplier
szorozva van a túlcsordulássalmultiplicand
vagyNULL
a túlcsordulással. -
try_subtract: A kivonást adja vissza a
expr2
forrásbólexpr1
vagyNULL
a túlcsordulásból.
Új munkakönyvtár magas egyidejűségi fürtökhöz
Olyan magas párhuzamosságú fürtök esetén, ahol a táblahozzáférési vezérlés vagy a hitelesítőadat-átengedés engedélyezett, a jegyzetfüzetek aktuális munkakönyvtára mostantól a felhasználó saját könyvtára. Korábban a munkakönyvtár volt /databricks/driver
.
Általánosan elérhető az identitásoszlopok támogatása a Delta-táblákban
A Delta Lake mostantól támogatja az identitásoszlopokat. Amikor egy identitásoszlopot meghatározó Delta-táblába ír, és nem ad meg értékeket az oszlophoz, a Delta mostantól automatikusan hozzárendel egy egyedi és statisztikailag növekvő vagy csökkenő értéket. Lásd: CREATE TABLE [USING].
Könyvtárfrissítések
- Frissített Python-kódtárak:
- filelock 3.4.2-től 3.6.0-ra
- Frissített R-kódtárak:
- sör 1,0-6-1,0-7
- seprű 0.7.11–0.7.12
- cli 3.1.0-tól 3.2.0-ra
- clipr 0.7.1-től 0.8.0-ra
- színtér 2.0-2-től 2.0-3-ra
- 1.4.2-től 1.5.0-ra
- dplyr 1.0.7-től 1.0.8-ra
- dtplyr 1.2.0-tól 1.2.1-esig
- kiértékelés 0,14-ről 0,15-re
- foreach 1.5.1 és 1.5.2 között
- 1.23.0-tól 1.24.0-ra
- általános 0.1.1-től 0.1.2-től
- 1.6.0 és 1.6.1 közötti kapcsolás
- 0.2.2-től 1.0.0-ra
- iterátorok 1.0.13–1.0.14 között
- jsonlite 1.7.3-tól 1.8.0-ra
- magrittr 2.0.1 és 2.0.2 között
- mgcv 1,8-38 és 1,8-39 között
- oszlop 1.6.4–1.7.0
- randomForest 4,6-14-4,7-1
- olvasó 2.1.1 és 2.1.2 között
- receptek 0.1.17-től 0.2.0-ra
- rlang 0.4.12-től 1.0.1-ig
- rpart 4.1-15-től 4.1.16-ig
- RSQLite 2.2.9-től 2.2.10-esig
- sparklyr 1.7.4 és 1.7.5 között
- testthat 3.1.1-től 3.1.2-től
- tidyr 1.1.4-től 1.2.0-ra
- tidyselect from 1.1.1 to 1.1.2
- tinytex 0,36 és 0,37 között
- yaml 2.2.1–2.3.5
- Frissített Java-kódtárak:
- io.delta.delta-sharing-spark_2.12 0.3.0 és 0.4.0 között
Apache Spark
A Databricks Runtime 10.4 LTS tartalmazza az Apache Spark 3.2.1-et. Ez a kiadás tartalmazza a Databricks Runtime 10.3 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-38322] [SQL] A lekérdezési szakasz a futtatókörnyezet statisztikáit formázott magyarázó módban jeleníti meg
- [SPARK-38162] [SQL] Egy soros terv optimalizálása normál és AQE optimalizálási folyamatokban
- [SPARK-38229] [SQL] Nem érdemes ellenőrizni a temp/external/ifNotExists függvényt a visitReplaceTable-val, ha elemző
- [SPARK-34183] [SS] DataSource V2: Kötelező elosztás és rendezés a mikroköteg-végrehajtásban
- [SPARK-37932] [SQL]Várja meg a hiányzó attribútumok feloldását a DeduplicateRelations alkalmazása előtt
- [SPARK-37904] [SQL] A RebalancePartitions javítása az Optimizer szabályaiban
- [SPARK-38236] [SQL][3.2][3.1] Ellenőrizze, hogy a tábla helye abszolút-e a create/alter tábla "new Path(locationUri).isAbsolute" értékével
- [SPARK-38035] [SQL] Docker-tesztek hozzáadása a beépített JDBC-dialektushoz
- [SPARK-38042] [SQL] Győződjön meg arról, hogy a ScalaReflection.dataTypeFor aliasos tömbtípusokon működik
-
[SPARK-38273] [SQL]
decodeUnsafeRows
' az s iterátoroknak be kell zárniuk a mögöttes bemeneti streameket - [SPARK-38311] [SQL] DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite javítása ANSI módban
- [SPARK-38305] [CORE] A FileUtil metódusok meghívása előtt ellenőrizze, hogy létezik-e forrás a kicsomagolásban()
- [SPARK-38275] [SS] A WriteBatch memóriahasználatának belefoglalása a RocksDB állapottároló teljes memóriahasználatába
-
[SPARK-38132] [SQL]
NotPropagation
szabály eltávolítása - [SPARK-38286] [SQL] Az Union maxRows és maxRowsPerPartition száma túlcsordulhat
- [SPARK-38306] [SQL] A ExplainSuite, a StatisticsCollectionSuite és a StringFunctionsSuite javítása ANSI módban
- [SPARK-38281] [SQL][Tesztek] Az AnalysisSuite javítása ANSI módban
- [SPARK-38307] [SQL][Tesztek] A ExpressionTypeCheckingSuite és a CollectionExpressionsSuite javítása ANSI módban
-
[SPARK-38300] [SQL] A
ByteStreams.toByteArray
katalizátor.util egyszerűsítésefileToString
ésresourceToBytes
használata - [SPARK-38304] [SQL] Az Elt() null értéket ad vissza, ha az index null ansi módban
- [SPARK-38271] A PoissonSampler több sort adhat ki, mint a MaxRows
- [SPARK-38297] [PYTHON] A visszatérési érték explicit módon DataFrame.to_numpy POS-ban
- [SPARK-38295] [SQL][Tesztek] Az ArithmeticExpressionSuite javítása ANSI módban
- [SPARK-38290] [SQL] A JsonSuite és a ParquetIOSuite javítása ANSI módban
-
[SPARK-38299] [SQL] Elavult használat megszüntetése
StringBuilder.newBuilder
- [SPARK-38060] [SQL] A JSON-olvasóban idézett NaN- és Infinity-értékek elemzésekor figyelembe kell venni az allowNonNumericNumbers értéket
- [SPARK-38276] [SQL] Jóváhagyott TPCDS-csomagok hozzáadása ANSI módban
- [SPARK-38206] [SS] Figyelmen kívül hagyja a nullálhatóságot a stream-stream illesztés illesztési kulcsainak adattípusának összehasonlításakor
- [SPARK-37290] [SQL] – Exponenciális tervezési idő nem determinisztikus függvény esetén
- [SPARK-38232] [SQL] A formázott magyarázat nem gyűjt allekérdezéseket az AQE lekérdezési szakaszában
- [SPARK-38283] [SQL] Érvénytelen datetime-elemzés tesztelése ANSI módban
- [SPARK-38140] [SQL] Az időbélyeg típusú oszlopstatisztikák (min, max) nem egyeznek az értékekkel az időzónabeli különbségek miatt
- [SPARK-38227] [SQL][SS] A beágyazott oszlop szigorú nullbilitásának alkalmazása az időablakban/ munkamenetablakban
- [SPARK-38221] [SQL] Lelkesen iterál a groupingExpressions fölé, amikor összetett csoportosítási kifejezéseket helyez át egy Összesített csomópontból
- [SPARK-38216] [SQL] Korai hibajelzés, ha az összes oszlop particionált, amikor egy Hive-táblát hozunk létre
- [SPARK-38214] [SS]Nem kell szűrni az ablakokat, ha a windowDuration több csúszka
- [SPARK-38182] [SQL] NoSuchElementException javítása, ha a leküldéses szűrő nem tartalmaz hivatkozásokat
- [SPARK-38159] [SQL] Új FileSourceMetadataAttribute hozzáadása a rejtett fájl metaadataihoz
-
[SPARK-38123] [SQL] Egységes használat a következő
DataType
módon:targetType
QueryExecutionErrors#castingCauseOverflowError
- [SPARK-38118] [SQL] A HAVING záradékban a Func(helytelen adattípus) esetén adateltérési hibát kellene jelezni.
- [SPARK-35173] [SQL][PYTHON] Több oszlop hozzáadásának támogatása
- [SPARK-38177] [SQL] Hibás transformExpressions javítása az Optimizerben
- [SPARK-38228] [SQL] Az örökölt tároló hozzárendelése nem hiúsul meg ANSI módban
- [SPARK-38173] [SQL] Idézett oszlop nem ismerhető fel helyesen, amikor a quotedRegexColumnNa…
- [SPARK-38130] [SQL] Eltávolítja array_sort rendezhető bejegyzések ellenőrzését
-
[SPARK-38199] [SQL] Törölje a nem használt,
dataType
a definícióban megadottIntervalColumnAccessor
- [SPARK-38203] [SQL] Az SQLInsertTestSuite és a SchemaPruningSuite javítása ANSI módban
-
[SPARK-38163] [SQL] A függvényszerkesztő létrehozásakor a hibaosztály
SparkThrowable
megőrzése - [SPARK-38157] [SQL] Kifejezetten állítsa az ANSI-t hamisra a timestampNTZ/timestamp.sql és az SQLQueryTestSuite tesztekben, hogy igazodjon a várt aranyeredményekhez.
- [SPARK-38069] [SQL][SS] Az időablak kiszámításának javítása
- [SPARK-38164] [SQL] Új SQL-függvények: try_subtract és try_multiply
- [SPARK-38176] [SQL] ANSI mód: a sztring implicit módon történő formázásának engedélyezése más egyszerű típusokra
- [SPARK-37498] [PYTHON] Hozzáadás végül a test_reuse_worker_of_parallelize_range
- [SPARK-38198] [SQL][3.2] A QueryExecution.debug#toFile javítása a maxFieldsben megadott értékeket használja, ha a explainMode a CodegenMode
- [SPARK-38131] [SQL] Hibaosztályok használata csak felhasználói kivételekben
- [SPARK-37652] [SQL] A ferde illesztés egyesítésen keresztüli optimalizálására szolgáló teszt hozzáadása
- [SPARK-37585] [SQL] Aktualizálja az InputMetric metrikát a DataSourceRDD-ben a TaskCompletionListener segítségével
- [SPARK-38113] [SQL] Hibaosztályok használata a kimutatás végrehajtási hibáiban
- [SPARK-38178] [SS] A RocksDB memóriahasználatának méréséhez javítsa ki a logikát
- [SPARK-37969] [SQL] A HiveFileFormatnak ellenőriznie kell a mező nevét
- [SPARK-37652] Visszavonás: "[SQL] Teszt hozzáadása a ferde illesztés egyesítésen keresztüli optimalizálásához"
- [SPARK-38124] [SQL][SS] A StatefulOpClusteredDistribution bemutatása és alkalmazása a stream-stream összekapcsolásra.
- [SPARK-38030] [SQL] A kanonicalizálás nem távolíthatja el az AttributeReference dataType érvénytelenségét
- [SPARK-37907] [SQL] Az InvokeLike támogatja a ConstantFoldinget
- [SPARK-37891] [CORE] Scalastyle-ellenőrzés hozzáadása a scala.concurrent.ExecutionContext.Implicits.global letiltásához
- [SPARK-38150] [SQL] A RelationConversions frissítési megjegyzése
- [SPARK-37943] [SQL] Hibaosztályok használata a csoportosítás fordítási hibáiban
- [SPARK-37652] [SQL]Teszt hozzáadása a ferde illesztések optimalizálására egyesítéssel
- [SPARK-38056] [Webes felhasználói felület][3.2] Kijavítottuk azt a hibát, hogy a strukturált streamelés nem működik az előzménykiszolgálón a LevelDB használatakor
-
[SPARK-38144] [CORE] Távolítsa el a nem használt
spark.storage.safetyFraction
konfigurációt - [SPARK-38120] [SQL] Javítsák a HiveExternalCatalog.listPartitions működését, amikor a partícióoszlop neve nagybetűs, és pont található a partícióértékben.
- [SPARK-38122] [Docs] Frissítse a DocSearch alkalmazáskulcsát
- [SPARK-37479] [SQL] DROP NAMESPACE áttelepítése a V2-parancs alapértelmezés szerint való használatához
- [SPARK-35703] [SQL] A gyűjtőkapcsolás kényszerének enyhítése és a HashClusteredDistribution eltávolítása
- [SPARK-37983] [SQL] Az aggregátum összeállítási időmetrikáinak visszalépése a rendezési aggregátumból
- [SPARK-37915] [SQL] Egyesítők, ha projekt van közöttük
- [SPARK-38105] [SQL] Hibaosztályok használata az illesztések elemzési hibáiban
- [SPARK-38073] [PYTHON] Az atexit függvény frissítése a késői kötéssel kapcsolatos problémák elkerülése érdekében
- [SPARK-37941] [SQL] Hibaosztályok használata az öntés fordítási hibáiban
- [SPARK-37937] [SQL] Az oldalirányú illesztés elemzési hibáinak elemzése során használjon hibaosztályokat
-
[SPARK-38100] [SQL] Távolítsa el a nem használt privát metódust
Decimal
- [SPARK-37987] [SS] A StreamAggregationSuite.changing állapotséma javítása a lekérdezés újraindításakor
- [SPARK-38003] [SQL] A LookupFunctions szabálynak csak a skaláris függvények beállításjegyzékéből kell függvényeket keresnie
-
[SPARK-38075] [SQL] Javítás
hasNext
a folyamatkimeneti iterátorbanHiveScriptTransformationExec
- [SPARK-37965] [SQL] Távolítsa el a jelölőnégyzet nevét, amikor meglévő adatokat olvas vagy ír az Orc-ban
- [SPARK-37922] [SQL] Kombináljuk egy öntött, ha tudjuk biztonságosan fel-öntött két leadott (a dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] A leküldéses shuffle egyesített fájlok felülírásának megakadályozása az shuffle véglegesítése után
- [SPARK-38011] [SQL] A ParquetFileFormat duplikált és használhatatlan konfigurációjának eltávolítása
-
[SPARK-37929] [SQL] Az API kaszkádolt módjának
dropNamespace
támogatása - [SPARK-37931] [SQL] Szükség esetén idézze fel az oszlop nevét
- [SPARK-37990] [SQL] Támogatási időbélyegNTZ a RowToColumnConverterben
-
[SPARK-38001] [SQL] Cserélje le a nem támogatott funkciókhoz kapcsolódó hibaosztályokat a következővel:
UNSUPPORTED_FEATURE
-
[SPARK-37839] [SQL] A DS V2 támogatja a részleges összesített leküldést
AVG
- [SPARK-37878] [SQL] SHOW CREATE TABLE alapértelmezett v2 parancs használatára való átállítása
- [SPARK-37731] [SQL] Újrabontási és tisztítási függvénykeresés az Analyzerben
- [SPARK-37979] [SQL] Váltás általánosabb hibaosztályokra az AES-függvényekben
- [SPARK-37867] [SQL] A beépített JDBC-dialektus összesítő függvényeinek fordítása
- [SPARK-38028] [SQL] Nyílvektor elérhetővé helyezése az ArrowColumnVectorból
- [SPARK-30062] [SQL] Adja hozzá az AZONNALI utasítást a DB2 dialektus csonkolási implementációhoz
-
[SPARK-36649] [SQL] Támogatás
Trigger.AvailableNow
a Kafka-adatforráshoz - [SPARK-38018] [SQL] A ColumnVectorUtils.populate javítása a CalendarIntervalType helyes kezeléséhez
-
[SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemoved
készként kell kezelnieExecutorDecommission
-
[SPARK-38019] [CORE] Determinisztikussá tétele
ExecutorMonitor.timedOutExecutors
- [SPARK-37957] [SQL] Determinisztikus jelző helyes átadása v2 skaláris függvényekhez
- [SPARK-37985] [SQL] A SPARK-37578 pelyhes tesztének javítása
- [SPARK-37986] [SQL] A TimestampNTZ támogatása radix rendezésben
- [SPARK-37967] [SQL] Literal.create support ObjectType
- [SPARK-37827] [SQL] Helyezze a beépített táblatulajdonságokat a V1Table.propertie-be a V2 parancshoz való alkalmazkodáshoz
- [SPARK-37963] [SQL] Frissítenie kell a partíció URI-t, miután átnevezte a táblát az InMemoryCatalogban
- [SPARK-35442] [SQL] Üres kapcsolat propagálása összesítéssel/egyesítéssel
- [SPARK-37933] [SQL] A V2ScanRelationPushDown leküldéses szabályainak bejárási módjának módosítása
- [SPARK-37917] [SQL] 1-es korlát alkalmazása a bal oldali fél-/anti összekapcsolás jobb oldalán, ha az összekapcsolási feltétel üres
- [SPARK-37959] [ML] A KMeans & BiKMeans ellenőrzési norma UT-jának javítása
- [SPARK-37906] [SQL] a spark-sql nem adhat át utolsó megjegyzést a háttérrendszernek
- [SPARK-37627] [SQL] Rendezett oszlop hozzáadása a BucketTransformban
Karbantartási frissítések
Lásd a Databricks Runtime 10.4 LTS karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.2
- Delta Lake: 1.1.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-rolling) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
aszinkron generátor | 1.10 | attrs | 20.3.0 | backcall | 0.2.0 |
bidict | 0.21.4 | fehérítő | 3.3.0 | boto3 | 1.16.7 |
botocore | 1.19.7 | minősítés | 2020.12.5 | cffi | 1.14.5 |
karakterkészlet | 4.0.0 | biciklista | 0.10.0 | Cython | 0.29.23 |
dbus-python | 1.2.16 | lakberendező | 5.0.6 | defusedxml | 0.7.1 |
distlib | 0.3.4 | distro-info | 0,23ubuntu1 | belépési pontok | 0.3 |
aspektusok áttekintése | 1.0.0 | filelock | 3.6.0 | idna | 2.10 |
ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.6.3 | jedi | 0.17.2 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
jupyter-client | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgetek | 1.0.0 | kiwisolver | 1.3.1 | Koalák | 1.8.2 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | mistune | 0.8.4 |
nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | jegyzetfüzet | 6.3.0 | numpy | 1.20.1 |
csomagolás | 20.9 | pandas | 1.2.4 | pandocfilters | 1.4.3 |
parso | 0.7.0 | Patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Párna | 8.2.0 | mag | 21.0.1 |
ábrázolás | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
pyarrow | 4.0.0 | pycparser | 2,20 | Pygments | 2.8.1 |
PyGObject | 3.36.0 | pyparsing | 2.4.7 | pyrsistent | 0.17.3 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
kérelmek | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | tengeri | 0.11.1 |
Send2Trash | 1.5.0 | setuptools | 52.0.0 | Hat | 1.15.0 |
ssh-import-id | 5.10 | statsmodels | 0.12.2 | Kitartás | 8.0.1 |
terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
tornádó | 6.1 | árulók | 5.0.5 | felügyelet nélküli frissítések | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | kerék | 0.36.2 | widgetsnbextension | 3.5.1 |
Telepített R-kódtárak
Az R-kódtárak a Microsoft CRAN-pillanatképből települnek 2022-02-24-én.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backports | 1.4.1 |
alap | 4.1.2 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.2 | indítás | 1.3-28 |
főz | 1.0-7 | Brio | 1.1.3 | seprű | 0.7.12 |
bslib | 0.3.1 | gyorsítótár | 1.0.6 | hívó | 3.7.0 |
kalap | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
osztály | 7.3-20 | Cli | 3.2.0 | clipr | 0.8.0 |
fürt | 2.1.2 | kódtoolok | 0.2-18 | színtér | 2.0-3 |
commonmark | 1,7 | fordítóprogram | 4.1.2 | config | 0.3.1 |
cpp11 | 0.4.2 | zsírkréta | 1.5.0 | Megbízólevél | 1.3.2 |
csavarodik | 4.3.2 | data.table | 1.14.2 | adatkészletek | 4.1.2 |
DBI | 1.1.2 | dbplyr | 2.1.1 | Desc | 1.4.0 |
devtools | 2.4.3 | diffobj | 0.3.5 | emészt | 0.6.29 |
dplyr | 1.0.8 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
három pont | 0.3.2 | evaluate | 0,15 | fani | 1.0.2 |
farver | 2.1.0 | gyorstérkép | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.2 | külföldi | 0.8-82 |
kovácsol | 0.2.0 | Fs | 1.5.2 | jövő | 1.24.0 |
future.apply | 1.8.1 | gargarizál | 1.2.0 | Generikus | 0.1.2 |
Gert | 1.5.0 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-3 | globális | 0.14.0 |
ragasztó | 1.6.1 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
Gower | 1.0.0 | grafika | 4.1.2 | grDevices | 4.1.2 |
rács | 4.1.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.0 | hardhat | 0.2.0 | kikötő | 2.4.3 |
highr | 0,9 | Hms | 1.1.1 | htmltoolok | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.2 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | Azonosítók | 1.0.1 |
ini | 0.3.1 | ipred | 0.9-12 | izoband | 0.2.5 |
iterátorok | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
KernSmooth | 2.23-20 | knitr | 1,37 | címkézés | 0.4.2 |
később | 1.3.0 | rács | 0.20-45 | láva | 1.6.10 |
életciklus | 1.0.1 | figyelő | 0.8.0 | lubridate | 1.8.0 |
magrittr | 2.0.2 | markdown | 1,1 | TÖMEG | 7.3-55 |
Mátrix | 1.4-0 | memoise | 2.0.1 | metódusok | 4.1.2 |
mgcv | 1.8-39 | MIME | 0,12 | ModelMetrics | 1.2.2.2 |
modellező | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-155 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 1.4.6 |
parallel | 4.1.2 | párhuzamosan | 1.30.0 | pillér | 1.7.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgload | 1.2.4 |
plogr | 0.2.0 | rétegelt | 1.8.6 | dicséret | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.5.2 |
prodlim | 2019.11.13 | haladás | 1.2.2 | progressr | 0.10.0 |
Ígér | 1.2.0.1 | Proto | 1.0.0 | helyettes | 0.4-26 |
Ps | 1.6.0 | purrr | 0.3.4 | r2d3 | 0.2.5 |
R6 | 2.5.1 | randomForest | 4.7-1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-2 | Rcpp | 1.0.8 |
RcppEigen | 0.3.3.9.1 | olvasó | 2.1.2 | readxl | 1.3.1 |
receptek | 0.2.0 | Visszavágót | 1.0.1 | visszavágó2 | 2.1.2 |
Távirányító | 2.4.2 | reprex | 2.0.1 | újraformázás2 | 1.4.4 |
rlang | 1.0.1 | rmarkdown | 2,11 | RODBC | 1.3-19 |
roxygen2 | 7.1.2 | rpart | 4.1.16 | rprojroot | 2.0.2 |
Rserve | 1.8-10 | RSQLite | 2.2.10 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.0 |
mérleg | 1.1.1 | választó | 0.4-2 | sessioninfo | 1.2.2 |
alak | 1.4.6 | Fényes | 1.7.1 | sourcetools | 0.1.7 |
sparklyr | 1.7.5 | SparkR | 3.2.0 | térbeli | 7.3-11 |
splines | 4.1.2 | sqldf | 0.4-11 | NÉGYZET | 2021.1 |
statisztika | 4.1.2 | statisztikák4 | 4.1.2 | stringi | 1.7.6 |
sztring | 1.4.0 | túlélés | 3.2-13 | sys | 3.4 |
tcltk | 4.1.2 | TeachingDemos | 2.10 | testthat | 3.1.2 |
tibble | 3.1.6 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0,37 |
eszközök | 4.1.2 | tzdb | 0.2.0 | usethis | 2.1.5 |
utf8 | 1.2.2 | eszközök | 4.1.2 | uuid | 1.0-3 |
vctrs | 0.3.8 | viridisLite | 0.4.0 | vroom | 1.5.7 |
Waldo | 0.3.1 | bajusz | 0,4 | withr | 2.4.3 |
xfun | 0,29 | xml2 | 1.3.3 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.3.5 | fütyülés | 2.2.0 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.12.3 |
com.fasterxml.jackson.core | jackson-core | 2.12.3 |
com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Csellengő | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.4.0 |
io.dropwizard.metrics | metrikamag | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.68.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.10 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-fák | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 2.0.0 |
org.apache.arrow | nyíl-memóriamag | 2.0.0 |
org.apache.arrow | nyíl-memória-netty | 2.0.0 |
org.apache.arrow | nyíl-vektor | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0-inkubálás |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | borostyán | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.12 |
org.apache.orc | orc-mapreduce | 1.6.12 |
org.apache.orc | orc-shims | 1.6.12 |
org.apache.parquet | parquet-oszlop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-kódolás | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | célközönség-széljegyzetek | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
org.eclipse.jetty | móló-folytatás | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-http | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
org.eclipse.jetty | móló plusz | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-security | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-server | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-webapp | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-api | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-client | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-common | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-server | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | jersey-client | 2,34 |
org.glassfish.jersey.core | jersey-common | 2,34 |
org.glassfish.jersey.core | jersey-server | 2,34 |
org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | Alátéteket | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,2 |
org.scalanlp | breeze_2.12 | 1,2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.threeten | három-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | makró-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |