Databricks Runtime 10.1 (EoS)
Feljegyzés
A Databricks Runtime-verzió támogatása véget ért. A támogatás megszűnésének dátumáról lásd a támogatási előzményeket. Az összes támogatott Databricks Runtime-verziót lásd : Databricks Runtime release notes versions and compatibility.
Az alábbi kibocsátási megjegyzések az Apache Spark 3.2.0 által működtetett Databricks Runtime 10.1-es és Databricks Runtime 10.1 Photon-ról nyújtanak információkat. A Databricks 2021 novemberében adta ki ezt a verziót. A Photon nyilvános előzetes verzióban érhető el.
Új funkciók és fejlesztések
- Kis méretű fájlok tömörítésének új Delta table beállításai
- Új sorcsoportmetrikák Parquet-lekérdezésekhez
- Trigger.AvailableNow a Delta-forrás streamelési lekérdezéseihez
- Trigger.AvailableNow automatikus betöltőhöz
- A DataFrame-beállításokon keresztül átadott Hadoop fájlrendszerkonfigurációk delta támogatása
- Az aszinkron állapot-ellenőrzőpontozás mostantól támogatott az állapotalapú streamelési feladatokban (nyilvános előzetes verzió)
- Sparklyr hitelesítő adatok átengedésével
- Databricks Utilities data summarize precision control (Public Preview)
- Az Azure Databricks-jegyzetfüzetek mostantól használhatók az IPython kernellel
- Új függvények a Spark SQL-ben
Új Delta table-beállítások kis fájlok tömörítéséhez
A Delta table tulajdonság delta.autoOptimize.autoCompact
mostantól elfogadja az új valuesauto
és legacy
-t a meglévő valuestrue
és false
mellett. Ha setauto
(ajánlott), az automatikus tömörítés jobb alapértelmezett értékeket használ, például 32 MB-ot állít be célfájlméretként (bár az alapértelmezett viselkedések a jövőben változhatnak). Amikor set-tól legacy
-ig vagy true
, az Automatikus tömörítés 128 MB-ot használ célfájlméretként.
A tabletulajdonság egyéni beállítása helyett állítsa set a spark.databricks.delta.autoCompact.enabled
konfigurációt auto
, legacy
, vagy true
értékre, hogy engedélyezze az automatikus tömörítést az összes Delta tablesesetében. Ez a konfiguráció elsőbbséget élvez a kapcsolódó table tulajdonságtal szemben az aktuális munkamenet során.
Az automatikus tömörítés célfájlmérete a spark.databricks.delta.autoCompact.maxFileSize
konfigurációval szabályozható.
További információ az automatikus tömörítésről: Delta Lake automatikus tömörítése az Azure Databricksben.
Új sorcsoportmetrikák Parquet-lekérdezésekhez
A Parquet-vizsgálatokkal rendelkező lekérdezések most már a Sorcsoport metrikákat vizsgálják a Spark felhasználói felületén. Ezek a sorcsoportmetrikák a következők:
- parquet sorcsoportok teljes száma
- olvasott parquet sorcsoportok száma
Trigger.AvailableNow a Delta-forrás streamelési lekérdezéseihez
Ez a módosítás támogatja a Delta-forrásstreamelési lekérdezések új típusú eseményindítóját a Scalában: Trigger.AvailableNow
. Ez olyan, mintha Trigger.Once
az összes rendelkezésre álló adatot feldolgozza, majd leállítja a lekérdezést.
Trigger.AvailableNow
Azonban jobb méretezhetőséget biztosít, mivel az adatok több kötegben is feldolgozhatók egy helyett. Ez a módosítás nem vezet be új felületet; egy meglévő Spark API-t implementál. Ez az eseményindító az összes olyan sebességkorlátozó beállítást is támogatja, amelyet a Delta már támogat forrásként.
Példa:
spark.readStream
.format("delta")
.option("maxFilesPerTrigger", "1")
.load(inputDir)
.writeStream
.trigger(Trigger.AvailableNow)
.option("checkpointLocation", checkpointDir)
.start()
A Mi az automatikus betöltő? című témakört Trigger.AvailableNow
tekinti meg.
Trigger.AvailableNow automatikus betöltőhöz
Trigger.AvailableNow
A egy új stream-eseményindító mód, amely a .Trigger.Once
Trigger.Once
feldolgozza az összes rendelkezésre álló adatot, majd leállítja a lekérdezést.
Trigger.AvailableNow
nagyobb méretezhetőséget biztosít, mivel az adatok több kötegben is feldolgozhatók egy helyett. Az automatikus betöltő mostantól támogatja Trigger.AvailableNow
a Scala címtár- és fájlértesítési módjait is. A Mi az automatikus betöltő? című témakört Trigger.AvailableNow
tekinti meg.
A DataFrame-beállításokon keresztül átadott Hadoop fájlrendszerkonfigurációk delta támogatása
A Parquethez hasonlóan a Delta mostantól támogatja Hadoop fájlrendszer-konfigurációk olvasását DataFrameReader
és DataFrameWriter
beállításokból, amikor a table olvasása vagy írása DataFrameReader.load(path)
vagy DataFrameWriter.save(path)
használatával történik. Lásd: Delta tárhely konfigurálása credentials.
Az aszinkron állapot-ellenőrzőpontozás mostantól támogatott az állapotalapú streamelési feladatokban (nyilvános előzetes verzió)
Az aszinkron állapot-ellenőrzőpontozás egy új funkció, amely potenciálisan csökkenti a végpontok közötti mikrobatch-késést a nagy állapotfrissítéseket tartalmazó állapotalapú streamelési feladatokban. Tekintse meg az állapotalapú lekérdezések aszinkron állapot-ellenőrzőpontozását.
Sparklyr hitelesítő adatok átengedésével
Mostantól a sparklyr API-k használatával adatokat olvashat és írhat a felhőbeli tárolókba és onnan a hitelesítő adatok átengedésével. Ez a funkció az egyfelhasználós hozzáféréssel rendelkező standard fürtökre korlátozódik. Lásd: Access Azure Data Lake Storage a Microsoft Entra ID hitelesítő adatok átengedés (örökölt) használatával.
Databricks Utilities data summarize precision control (Public Preview)
Az összefoglaló eredmények pontosságát vezérlő új precise
paraméter dbutils.data.summarize
. Amikor a precise
set hamisra (alapértelmezett érték) van állítva, az összegzés hozzávetőleges eredményeket ad vissza az egyedi darabszámok, percentilisek és gyakori elemek számai alapján. Amikor precise
beállítása set igazra kerül, az összegzések mostantól pontos eltérő darabszámmal és gyakori tételszámmal, valamint pontosabb percentilisbecslésekkel lesznek kiszámítva. Lásd: summarize command (dbutils.data.summarize).
Az Azure Databricks-jegyzetfüzetek mostantól használhatók az IPython kernellel
Most már konfigurálhat egy Azure Databricks-fürtöt az IPython kernel használatával a Python-kód végrehajtásához. Az IPython kernel azure Databricksen való használata támogatja az IPython megjelenítési és kimeneti eszközkészletét. Az IPython kernel emellett rögzíti a jegyzetfüzet által létrehozott gyermekfolyamatok stdout- és stderr-kimeneteit, így a kimenet szerepelhet a jegyzetfüzet parancseredményeiben.
További információ: IPython kernel.
Új függvények a Spark SQL-ben
A következő objektumok és parancsok lettek hozzáadva az adatok kezeléséhez Unity Catalog (előzetes verzió):
- Külső helyek
- ALTER CATALOG
- ALTER CREDENTIAL
- HELY MÓDOSÍTÁSA
- CREATE CATALOG
- HELY LÉTREHOZÁSA
- CREATE RECIPIENT
- DESCRIBE CATALOG
- DESCRIBE CREDENTIAL
- A HELY LEÍRÁSA
- DROP CATALOG
- DROP CREDENTIAL
- DROP LOCATION
- LIST
- SHOW CATALOGS
- SHOW CREDENTIALS
- HELYEK MEGJELENÍTÉSE
- USE CATALOG
Az alábbi parancsokat adták hozzá a Delta Sharing (előzetes verzió)-hez, amely lehetővé teszi, hogy csak olvasható adatokat osszon meg a szervezetén kívül recipients.
- Osztás
- ALTER SHARE
- CREATE SHARE
- DESCRIBE RECIPIENT
- DESCRIBE SHARE
- DROP RECIPIENT
- DROP SHARE
- GRANT MEGOSZTÁS
- REVOKE MEGOSZTÁS
- SHOW ALL IN SHARE
- SHOW RECIPIENTS
- SHOW SHARES
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Hibajavítások
- Kijavítottunk egy olyan versenyfeltételt, amely olyan lekérdezési hibát
IOException
okozhat, amelyNo FileSystem for scheme
miatt a módosításoksparkContext.hadoopConfiguration
nem lépnek érvénybe a lekérdezésekben.
Könyvtárfrissítések
- Frissített Python-kódtárak:
- filelock 3.0.12 és 3.3.1 között
- koalák 1.8.1 és 1.8.2 között
- ábrázolás 5.1.0 és 5.3.0 között
- Frissített R-kódtárak:
- bslib 0.3.0 és 0.3.1 között
- 6,0-88-tól 6,0-90-hez
- cpp11 0.3.1-től 0.4.0-ra
- adat.table 1.14.0-tól 1.14.2-ig
- desc 1.3.0-tól 1.4.0-ra
- diffobj 0.3.4 és 0.3.5 között
- kivonat 0.6.27-től 0.6.28-ra
- általános 0.1.0 és 0.1.1 között
- hms 1.1.0 és 1.1.1 között
- knitr 1,34-től 1,36-ig
- Rács 0,20-44-ről 0,20-45-re
- életciklus 1.0.0 és 1.0.1 között
- lubridate 1.7.10-től 1.8.0-ra
- mgcv 1,8-37-től 1,8-38-ra
- mime 0,11 és 0,12 között
- pkgload 1.2.2-től 1.2.3-ra
- progressr 0.8.0 és 0.9.0 között
- rcmdcheck 1.3.3-tól 1.4.0-ra
- olvasó 2.0.1 és 2.0.2 között
- receptek 0.1.16-tól 0.1.17-ig
- 2.4.0 és 2.4.1 közötti távoli
- rlang 0.4.11-től 0.4.12-ig
- rvest 1.0.1 és 1.0.2 között
- fényes 1.6.0 és 1.7.1 között
- stringi 1.7.4 és 1.7.5 között
- testthat 3.0.4-től 3.1.0-ra
- tidyr 1.1.3-tól 1.1.4-től
- tinytex 0,33 és 0,34 között
- usethis 2.0.1-től 2.1.2-ig
- xfun 0,26 és 0,27 között
- Frissített Java-kódtárak:
- com.zaxxer.HikariCP 3.1.0-tól 4.0.3-ig
Apache Spark
A Databricks Runtime 10.1 tartalmazza az Apache Spark 3.2.0-t. Ez a kiadás tartalmazza a Databricks Runtime 10.0 (EoS) összes Spark-javítását és fejlesztését, valamint a Spark következő további hibajavításait és fejlesztéseit:
- [SPARK-37037] [SQL] A bájttömbök rendezésének javítása az UTF8String és a ByteArray egyesítésével
- [SPARK-37091] [R] SystemRequirements to include Java < 18
- [SPARK-37041] [SQL] Backport HIVE-15025: Secure-Socket-Layer (SSL) támogatás a HMS-hez
- [SPARK-37098] [SQL] A table tulajdonságainak módosítása érvényteleníti a gyorsítótárat
- [SPARK-36992] [SQL] A bájttömb rendezési perf javítása az UTF8String és a ByteArray getPrefix függvényének egységesítésével
- [SPARK-37047] [SQL] Lpad- és rpad-függvények hozzáadása bináris sztringekhez
- [SPARK-37076] [SQL] A StructType.toString explicit implementálása a Scala 2.13-hoz
- [SPARK-37075] [SQL] UDAF-kifejezésépítés áthelyezése sql/katalizátorról sql/core-ra
- [SPARK-37084] [SQL] Set spark.sql.files.openCostInBytes to bytesConf
- [SPARK-37088] [PYSPARK][SQL] Az írószál nem férhet hozzá a bemenethez a feladat befejezése figyelőjének visszatérése után
- [SPARK-37069] [SQL] Megfelelő tartalék, ha a Hive.getWithoutRegisterFns nem érhető el
- [SPARK-37050] [PYTHON] Update Conda telepítési útmutatója
- [SPARK-37067] [SQL] A ZoneId.of() használatával kezelheti timezone karakterláncot a DatetimeUtilsban
- [SPARK-35925] [SQL] DayTimeIntervalType támogatása a width-bucket függvényben
- [SPARK-35926] [SQL] Támogatás hozzáadása YearMonthIntervalType width_bucket
-
[SPARK-35973] [SQL] Hozzáadás parancs
SHOW CATALOGS
- [SPARK-36922] [SQL] A SIGN/SIGNUM függvényeknek támogatniuk kell az ANSI-intervallumokat
- [SPARK-37078] [CORE] Régi 3-paraméteres fogadókonstruktorok támogatása
- [SPARK-37061] [SQL] CustomMetrics javítása belső osztályok használatakor
- [SPARK-35918] [AVRO] Az olvasási/írási és a hibaüzenetek javítása schema eltéréskezelésének egységesítése
- [SPARK-36871] [SQL]CreateViewStatement áttelepítése v2-parancsra
- [SPARK-36898] [SQL] Konfigurálhatóvá kell tenni a shuffle kivonatot join tényezőt
-
[SPARK-36921] [SQL] ANSI-intervallumok támogatása a következővel:
DIV
- [SPARK-36794] [SQL] Figyelmen kívül hagyhatja a duplikált join kulcsokat a SEMI/ANTI elfojtott kivonat join
- [SPARK-36867] [SQL] Hibás üzenet javítása GROUP BY aliassal
- [SPARK-36914] [SQL] DropIndex és listIndexes implementálása a JDBC-ben (MySQL-dialektus)
- [SPARK-35531] [SQL] Közvetlenül adja át a hive-Table a HiveClientnek, amikor meghívja a getPartitionst, hogy elkerülje a HiveTable-ból való szükségtelen átalakítást –> CatalogTable – –> HiveTable
- [SPARK-36718] [SQL] Csak akkor csukja össze a projekteket, ha nem duplikáljuk a drága kifejezéseket
- [SPARK-37046] [SQL]: Az alter nézet nem őrzi meg column esetet
- [SPARK-36978] [SQL] Az InferConstraints-szabálynak a gyökér beágyazott típusa helyett isNotNull-kényszereket kell létrehoznia a megnyitott beágyazott mezőre
- [SPARK-37052] [CORE] A Spark csak akkor adjon át részletes argumentumot a főosztálynak, ha az SQL Shell
- [SPARK-37017] [SQL] A szinkronizált hatókör csökkentése a lehetséges holtpont elkerülése érdekében
- [SPARK-37032] [SQL] Hibás SQL-szintaxis hivatkozásának javítása az SQL referenciaoldalán
- [SPARK-36905] [SQL] Hive views olvasásának javítása explicit column nevek nélkül
- [SPARK-36678] Migrálni SHOW TABLES a V2 parancs alapértelmezett használatára
- [SPARK-36943] [SQL] A hiányzó column hibaüzenet olvashatóságának javítása
- [SPARK-36980] [SQL] Insert CTE-vel való támogatási lekérdezés
- [SPARK-37001] [SQL] Két szint leképezésének letiltása a végleges kivonatok összesítéséhez alapértelmezés szerint
-
[SPARK-36970] [SQL] A funkció manuális letiltott formátuma
B
date_format
a Java 17-nek a Java 8-nal való kompatibilitásának érdekében - [SPARK-36546] [SQL] Tömbtámogatás hozzáadása az egyesítőhöz név szerint
- [SPARK-36979] [SQL] RewriteLateralSubquery szabály hozzáadása a nemExcludableRules elemhez
- [SPARK-36949] [SQL] A Hive-szolgáltató tables letiltása ANSI-időközökkel
- [SPARK-36849] [SQL] A UseStatement migrálása v2-parancs keretrendszerbe
- [SPARK-36868] [SQL] CreateFunctionStatement migrálása v2-parancs keretrendszerbe
-
[SPARK-36841] [SQL] Ansi szintaxis
set catalog xxx
hozzáadása az aktuális catalog módosításához - [SPARK-36821] [SQL] ColumnarBatch osztály bővíthetővé tétele – kiegészítés
- [SPARK-36963] [SQL] Max_by/min_by hozzáadása az sql.functionshez
- [SPARK-36913] [SQL] CreateIndex és IndexExists implementálása a DS V2 JDBC-ben (MySQL-dialektus)
- [SPARK-36848] [SQL] ShowCurrentNamespaceStatement migrálása a v2-parancs keretrendszerbe
- [SPARK-36526] [SQL] DSV2 indextámogatás: SupportIndex-felület hozzáadása
- [SPARK-36960] [SQL] Leküldéses szűrők ANSI-intervallummal values ORC-be
- [SPARK-36929] [SQL] Remove Nem használt metódus: EliminateSubqueryAliasesSuite#assertEquivalent
- [SPARK-36931] [SQL] ANSI-intervallumok olvasásának és írásának támogatása ORC-adatforrásokból és -adatforrásokból
- [SPARK-34980] [SQL] A partition támogatása az AQE-beli unión keresztül
- [SPARK-36809] [SQL] Remove broadcast az InSubqueryExec-hez a DPP-ben
- [SPARK-36813] [SQL][PYTHON] as-of join és imlement ps.merge_asof infrastruktúrájának felajánlása
- [SPARK-36918] [SQL] A típusok figyelmen kívül hagyása az unionByName szerkezeteinek összehasonlításakor
- [SPARK-36891] [SQL] A SpecificParquetRecordReaderBase újrabontása és további lefedettség hozzáadása a vektoros Parquet-dekódoláshoz
-
[SPARK-36920] [SQL] ANSI-intervallumok támogatása a következővel:
ABS()
- [SPARK-36888] [SQL] tesztesetek hozzáadása sha2-függvényhez
-
[SPARK-36889] [SQL] Tisztelet
spark.sql.parquet.filterPushdown
a v2 parquet scan builder által - [SPARK-36830] [SQL] ANSI-intervallumok olvasásának és írásának támogatása JSON-adatforrásokból és -adatforrásokból
- [SPARK-36870] [SQL] INTERNAL_ERROR hibaosztály bemutatása
- [SPARK-36831] [SQL] Támogatja az ANSI-intervallumok olvasását és írását a CSV-adatforrások között.
- [SPARK-36550] [SQL] Propagálási ok, ha az UDF-tükröződés meghiúsul
- [SPARK-36866] [SQL] Leküldéses szűrők ANSI-intervallummal values a parquethez
- [SPARK-33832] [SQL] A kód egyszerűsítése és fejlesztése join kényszerítése
- [SPARK-36642] [SQL] df.withMetadata pyspark API hozzáadása
- [SPARK-35765] [SQL] A különböző aggreditációk nem duplikálják a bizalmas elemeket
- [SPARK-36825] [SQL] Adatkeretek olvasása/írása ANSI-időközökkel a fájlokból/fájlokból a parquet fájlokba
- [SPARK-36829] [SQL] A collectionOperators null értékű ellenőrzésének újrabontása
- [SPARK-32712] [SQL] Hive-gyűjtős table írásának támogatása (Hive-fájlformátumok Hive-kivonattal)
- [SPARK-36797] [SQL] Az Unionnak felső szinten kell feloldania a beágyazott columnscolumns
- [SPARK-36838] [SQL] Az InSet által létrehozott kód teljesítményének javítása
- [SPARK-36683] [SQL] Új beépített SQL-függvények hozzáadása: SEC és CSC
- [SPARK-36721] [SQL] Logikai egyenlőség egyszerűsítése, ha az egyik oldal literál
- [SPARK-36760] [SQL] Adapter hozzáadása SupportsPushDownV2Filters
- [SPARK-36652] [SQL] Az AQE dinamikus join kiválasztása nem vonatkozik a nem egyenlőség alapú join
- [SPARK-36745] [SQL] ExtractEquiJoinKeys a join kulcsok eredeti predikátumait adja vissza
- [SPARK-36107] [SQL] Az első set lekérdezésvégrehajtási hibák közül 20 újraszervezése hibaosztályok használatával
- [SPARK-32709] [SQL] Hive-gyűjtős table írásának támogatása (Parquet/ORC formátum Hive kivonattal)
- [SPARK-36735] [SQL] A gyorsítótárazott reláció többletterhelésének módosítása a DPP-hez
- [SPARK-33832] [SQL] Támogatás optimize ferde join akkor is, ha extra shuffle-t vezet be
- [SPARK-36822] [SQL] A BroadcastNestedLoopJoinExec a nem egyenlő feltétel helyett az összes feltételt használja
- [SPARK-35221] [SQL] A támogatott join tippek ellenőrzésének hozzáadása
- [SPARK-36814] [SQL] A ColumnarBatch osztály bővíthetővé tétele
- [SPARK-36663] [SQL] Csak számozott column nevek támogatása ORC-adatforrásokban
- [SPARK-36751] [SQL][PYTHON][R] Bit/octet_length API-k hozzáadása a Scalához, a Pythonhoz és az R-hez
- [SPARK-36733] [SQL] A SchemaPruning perf hibájának kijavítása, ha egy struktúra több mezővel rendelkezik
- [SPARK-36724] [SQL] Az időtípus támogatása timestamp_ntz formájában a SessionWindow-hoz column
- [SPARK-36556] [SQL] DSV2-szűrők hozzáadása
- [SPARK-36687] [SQL][CORE] Hibaosztályok átnevezése _ERROR utótaggal
- [SPARK-35803] [SQL] A DataSource V2 CreateTempViewUsing támogatása
- [SPARK-36642] [SQL] df.withMetadata hozzáadása: szintaxis-jelölő az adatkeret metaadatainak update
Karbantartási frissítések
Lásd a Databricks Runtime 10.1 karbantartási frissítéseit.
Rendszerkörnyezet
- Operációs rendszer: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Telepített Python-kódtárak
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-rolling) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
aszinkron generátor | 1.10 | attrs | 20.3.0 | backcall | 0.2.0 |
fehérítő | 3.3.0 | boto3 | 1.16.7 | botocore | 1.19.7 |
minősítés | 2020.12.5 | cffi | 1.14.5 | karakterkészlet | 4.0.0 |
biciklista | 0.10.0 | Cython | 0.29.23 | dbus-python | 1.2.16 |
lakberendező | 5.0.6 | defusedxml | 0.7.1 | distlib | 0.3.3 |
distro-info | 0,23ubuntu1 | belépési pontok | 0.3 | aspektusok áttekintése | 1.0.0 |
filelock | 3.3.1 | idna | 2.10 | ipykernel | 5.3.4 |
ipython | 7.22.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.6.3 |
jedi | 0.17.2 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgetek | 1.0.0 |
kiwisolver | 1.3.1 | Koalák | 1.8.2 | MarkupSafe | 2.0.1 |
matplotlib | 3.4.2 | mistune | 0.8.4 | nbclient | 0.5.3 |
nbconvert | 6.0.7 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
jegyzetfüzet | 6.3.0 | numpy | 1.19.2 | csomagolás | 20.9 |
pandas | 1.2.4 | pandocfilters | 1.4.3 | parso | 0.7.0 |
Patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Párna | 8.2.0 | mag | 21.0.1 | ábrázolás | 5.3.0 |
prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 | protobuf | 3.17.2 |
psycopg2 | 2.8.5 | ptyprocess | 0.7.0 | pyarrow | 4.0.0 |
pycparser | 2,20 | Pygments | 2.8.1 | PyGObject | 3.36.0 |
pyparsing | 2.4.7 | pyrsistent | 0.17.3 | python-apt | 2.0.0+ubuntu0.20.4.6 |
python-dateutil | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
kérelmek | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | tengeri | 0.11.1 |
Send2Trash | 1.5.0 | setuptools | 52.0.0 | Hat | 1.15.0 |
ssh-import-id | 5.10 | statsmodels | 0.12.2 | Kitartás | 8.0.1 |
terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
tornádó | 6.1 | árulók | 5.0.5 | felügyelet nélküli frissítések | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | kerék | 0.36.2 | widgetsnbextension | 3.5.1 |
Telepített R-kódtárak
Az R-kódtárak a Microsoft CRAN 2021-10-26-os pillanatképéből vannak telepítve.
Könyvtár | Verzió | Könyvtár | Verzió | Könyvtár | Verzió |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backports | 1.2.1 |
alap | 4.1.1 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.2 | indítás | 1.3-28 |
főz | 1.0-6 | Brio | 1.1.2 | seprű | 0.7.9 |
bslib | 0.3.1 | gyorsítótár | 1.0.6 | hívó | 3.7.0 |
kalap | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
osztály | 7.3-19 | Cli | 3.0.1 | clipr | 0.7.1 |
fürt | 2.1.2 | kódtoolok | 0.2-18 | színtér | 2.0-2 |
commonmark | 1,7 | fordítóprogram | 4.1.1 | config | 0.3.1 |
cpp11 | 0.4.0 | zsírkréta | 1.4.1 | credentials | 1.3.1 |
csavarodik | 4.3.2 | adat.table | 1.14.2 | adatkészletek | 4.1.1 |
DBI | 1.1.1 | dbplyr | 2.1.1 | Desc | 1.4.0 |
devtools | 2.4.2 | diffobj | 0.3.5 | emészt | 0.6.28 |
dplyr | 1.0.7 | dtplyr | 1.1.0 | e1071 | 1.7-9 |
három pont | 0.3.2 | evaluate | 0,14 | fani | 0.5.0 |
farver | 2.1.0 | gyorstérkép | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.1 | külföldi | 0.8-81 |
kovácsol | 0.2.0 | Fs | 1.5.0 | jövő | 1.22.1 |
future.apply | 1.8.1 | gargarizál | 1.2.0 | Generikus | 0.1.1 |
Gert | 1.4.1 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-2 | globális | 0.14.0 |
ragasztó | 1.4.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
Gower | 0.2.2 | grafika | 4.1.1 | grDevices | 4.1.1 |
rács | 4.1.1 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.0 | kikötő | 2.4.3 | highr | 0,9 |
Hms | 1.1.1 | htmltoolok | 0.5.2 | htmlwidgets | 1.5.4 |
httpuv | 1.6.3 | httr | 1.4.2 | hwriter | 1.3.2 |
hwriterPlus | 1.0-3 | Azonosítók | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-12 | izoband | 0.2.5 | iterátorok | 1.0.13 |
jquerylib | 0.1.4 | jsonlite | 1.7.2 | KernSmooth | 2.23-20 |
knitr | 1.36 | címkézés | 0.4.2 | később | 1.3.0 |
rács | 0.20-45 | láva | 1.6.10 | életciklus | 1.0.1 |
figyelő | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.1 |
markdown | 1,1 | TÖMEG | 7.3-54 | Mátrix | 1.3-4 |
memoise | 2.0.0 | metódusok | 4.1.1 | mgcv | 1.8-38 |
MIME | 0,12 | ModelMetrics | 1.2.2.2 | modellező | 0.1.8 |
munsell | 0.5.0 | nlme | 3.1-152 | nnet | 7.3-16 |
numDeriv | 2016.8-1.1 | openssl | 1.4.5 | parallel | 4.1.1 |
párhuzamosan | 1.28.1 | pillér | 1.6.4 | pkgbuild | 1.2.0 |
pkgconfig | 2.0.3 | pkgload | 1.2.3 | plogr | 0.2.0 |
rétegelt | 1.8.6 | dicséret | 1.0.0 | prettyunits | 1.1.1 |
Proc | 1.18.0 | processx | 3.5.2 | prodlim | 2019.11.13 |
haladás | 1.2.2 | progressr | 0.9.0 | Ígér | 1.2.0.1 |
Proto | 1.0.0 | helyettes | 0.4-26 | Ps | 1.6.0 |
purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
randomForest | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | olvasó | 2.0.2 |
readxl | 1.3.1 | receptek | 0.1.17 | Visszavágót | 1.0.1 |
visszavágó2 | 2.1.2 | Távirányító | 2.4.1 | reprex | 2.0.1 |
újraformázás2 | 1.4.4 | rlang | 0.4.12 | rmarkdown | 2,11 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.2 |
Sass | 0.4.0 | mérleg | 1.1.1 | választó | 0.4-2 |
sessioninfo | 1.1.1 | alak | 1.4.6 | Fényes | 1.7.1 |
sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
térbeli | 7.3-11 | splines | 4.1.1 | sqldf | 0.4-11 |
NÉGYZET | 2021.1 | statisztika | 4.1.1 | statisztikák4 | 4.1.1 |
stringi | 1.7.5 | sztring | 1.4.0 | túlélés | 3.2-13 |
sys | 3.4 | tcltk | 4.1.1 | TeachingDemos | 2.10 |
testthat | 3.1.0 | tibble | 3.1.5 | tidyr | 1.1.4 |
tidyselect | 1.1.1 | tidyverse | 1.3.1 | timeDate | 3043.102 |
tinytex | 0.34 | eszközök | 4.1.1 | tzdb | 0.1.2 |
usethis | 2.1.2 | utf8 | 1.2.2 | eszközök | 4.1.1 |
uuid | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
vroom | 1.5.5 | Waldo | 0.3.1 | bajusz | 0,4 |
withr | 2.4.2 | xfun | 0.27 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
fütyülés | 2.2.0 |
Telepített Java- és Scala-kódtárak (Scala 2.12-fürtverzió)
Csoportazonosító | Összetevő azonosítója | Verzió |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | patak | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | osztálytárs | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.12.2 |
com.fasterxml.jackson.core | jackson-core | 2.12.2 |
com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natívok | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natívok | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Csellengő | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | gujávafa | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1,2 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-naplózás | commons-naplózás | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 1.3.2 |
dev.ludovic.netlib | Blas | 1.3.2 |
dev.ludovic.netlib | lapack | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.19 |
io.delta | delta-sharing-spark_2.12 | 0.2.0 |
io.dropwizard.metrics | metrikamag | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.63.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | gyűjtő | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktiválás | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-fák | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | nyílformátum | 2.0.0 |
org.apache.arrow | nyíl-memóriamag | 2.0.0 |
org.apache.arrow | nyíl-memória-netty | 2.0.0 |
org.apache.arrow | nyíl-vektor | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1,20 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | kurátor-ügyfél | 2.13.0 |
org.apache.curator | kurátor-keretrendszer | 2.13.0 |
org.apache.curator | kurátor-receptek | 2.13.0 |
org.apache.derby | keménykalap | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0-inkubálás |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | borostyán | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | orc-shims | 1.6.10 |
org.apache.parquet | parketta-column | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-kódolás | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | célközönség-széljegyzetek | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.eclipse.jetty | móló-folytatás | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.eclipse.jetty | móló plusz | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-security | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-server | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-webapp | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-api | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-client | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-common | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-server | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | jersey-client | 2,34 |
org.glassfish.jersey.core | jersey-common | 2,34 |
org.glassfish.jersey.core | jersey-server | 2,34 |
org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Végleges |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Széljegyzetek | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | Alátéteket | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | teszt-interfész | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | Használatlan | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | rugós teszt | 4.1.4.RELEASE |
org.threeten | három-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | makró-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |