Databricks Runtime 12.1 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze Databricks Runtime naleznete v poznámkách k vydání verze Databricks Runtime a jejich kompatibilitě.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 12.1, který využívá Apache Spark 3.3.1.
Databricks vydala tuto verzi v lednu 2023.
Nové funkce a vylepšení
- Funkce tabulek Delta Lake podporované pro správu protokolů
- Prediktivní vstupně-výstupní operace pro aktualizace jsou ve verzi Public Preview
- Průzkumník katalogu je teď dostupný pro všechny osoby.
- Podpora více stavových operátorů v jednom dotazu streamování
- Podpora Protocol Buffers je ve veřejné ukázce
- Podpora ověřování registru schématu Confluent
- Podpora sdílení historie tabulky pomocí Delta Sharing shares
- Podpora streamování s podíly Delta Sharing
- Verze tabulky využívající časové razítko se teď podporuje pro tabulky Delta Sharing v katalogech.
- podpora funkce WHEN NOT MATCHED BY SOURCE pro MERGE INTO
- optimalizované shromažďování statistik pro CONVERT TO DELTA
- Podpora katalogu Unity pro rozbalení tabulek
Funkce tabulek Delta Lake podporované pro správu protokolů
Služba Azure Databricks zavedla podporu funkcí tabulek Delta Lake, která zavádí podrobné příznaky určující, které funkce jsou podporovány danou tabulkou. Viz Jak Azure Databricks spravuje kompatibilitu funkcí Delta Lake?.
Prediktivní vstupně-výstupní operace pro aktualizace jsou ve verzi Public Preview
Prediktivní vstupně-výstupní operace nyní urychlují DELETE
MERGE
a UPDATE
operace pro tabulky Delta s vektory odstranění povolenými na výpočetních prostředcích s podporou Photon. Podívejte se na co je prediktivní I/O?
Průzkumník katalogu je teď dostupný pro všechny osoby.
Průzkumník katalogu je nyní k dispozici pro všechny osoby Azure Databricks při použití Databricks Runtime 7.3 LTS a vyšší.
Podpora více stavových operátorů v jednom dotazu streamování
Uživatelé teď můžou zřetězovat stavové operátory s přidávacím režimem v streamovacím dotazu. Ne všechny operátory jsou plně podporované. Připojení časových intervalů streamů a flatMapGroupsWithState
neumožňuje propojení s jinými stavovými operátory.
Podpora pro Protocol Buffers je ve veřejné preview.
Pomocí funkcí from_protobuf
a to_protobuf
můžete vyměňovat data mezi binárními typy a strukturami. Viz Vyrovnávací paměti protokolu pro čtení a zápis.
Podpora ověřování registru schématu Confluent
Integrace Azure Databricks s Confluent Schema Registry teď podporuje adresy externího registru schématu s ověřováním. Tato funkce je k dispozici pro from_avro
, to_avro
, from_protobuf
a to_protobuf
funkce. Viz Protobuf nebo Avro.
Podpora pro sdílení historie tabulek s Delta Sharing shares
Nyní můžete sdílet tabulku s úplnou historií pomocí Delta Sharing, což příjemcům umožňuje provádět dotazy s časovým cestováním a dotazovat se na tabulku pomocí Spark Structured Streaming.
WITH HISTORY
je doporučeno místo CHANGE DATA FEED
, i když ta je nadále podporována. Viz ALTER SHARE a Přidání tabulek do sdílení.
Podpora streamování pomocí sdílení Delta
Strukturované streamování Sparku teď funguje s formátem deltasharing
zdrojové tabulky Delta Sharing, která byla sdílena pomocí WITH HISTORY
.
Verze tabulky využívající časové razítko se teď podporuje pro tabulky Delta Sharing v katalogech.
Syntaxi TIMESTAMP AS OF
SQL teď můžete použít v SELECT
příkazech k určení verze tabulky Delta Sharing, která je připojená v katalogu. Tabulky musí být sdíleny pomocí WITH HISTORY
.
Podpora funkcí WHEN NOT MATCHED BY SOURCE pro MERGE INTO
Nyní můžete přidat WHEN NOT MATCHED BY SOURCE
klauzule do MERGE INTO
k aktualizaci nebo odstranění řádků ve zvolené tabulce, které nemají shodu ve zdrojové tabulce na základě podmínky sloučení. Nová klauzule je dostupná v JAZYCE SQL, Python, Scala a Java. Viz MERGE INTO.
Optimalizovaná kolekce statistik pro CONVERT TO DELTA
Shromažďování statistik pro CONVERT TO DELTA
operaci je teď mnohem rychlejší. Tím se sníží počet úloh, které by mohly použít NO STATISTICS
pro efektivitu.
Podpora katalogu Unity pro rozbalení tabulek
Tato funkce byla původně vydána ve verzi Public Preview. Je v obecné dostupnosti od 25. října 2023.
Vyřazenou spravovanou nebo externí tabulku teď můžete vrátit zpět do existujícího schématu během sedmi dnů od vyřazení. Podívejte se na UNDROP a SHOW TABLES DROPPED.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- filelock od 3.8.0 do 3.8.2
- platformdirs od 2.5.4 do 2.6.0
- instalační nástroje od 58.0.4 do 61.2.0
- Upgradované knihovny jazyka R:
- Upgradované knihovny Java:
- io.delta.delta-sharing-spark_2.12 od 0.5.2 do 0.6.2
- org.apache.hive.hive-storage-api od 2.7.2 do 2.8.1
- org.apache.parquet.parquet-column od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-common od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.tukaani.xz od 1.8 do 1.9
Apache Spark
Databricks Runtime 12.1 zahrnuje Apache Spark 3.3.1. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 12.0 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-41405] [SC-119769][12.1.0] Vrátit zpět "[SC-119411][sql] Centralizace logiky rozlišení sloupců" a "[SC-117170][spark-41338][SQL] Vyřešit vnější odkazy a běžné sloupce ve stejné sekvenci analyzátoru"
- [SPARK-41405] [SC-119411][sql] Centralizace logiky řešení sloupců
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand by měl správně nastavit příznak přepsání.
- [SPARK-41659] [SC-119526][connect][12.X] Povolení doctestů v pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][sql] Oprava regrese výkonu čtečky ORC způsobené funkcí výchozí hodnoty
- [SPARK-41807] [SC-119399][core] Odeberte neexistující třídu chyb: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] Přiřadit název _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][sql] Přiřadit název _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][connect] Odvození názvů ze seznamu slovníků ve SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Přesunout dokumentaci a skript Spark Connect do dev/ a dokumentace k Pythonu
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Počáteční klientský modul pro Spark Connect
- [SPARK-41365] [SC-118498][ui][3.3] Stránka uživatelského rozhraní fází se nepodaří načíst pro proxy server v konkrétním prostředí yarn.
-
[SPARK-41481] [SC-118150][core][SQL] Opakované použití
INVALID_TYPED_LITERAL
místo_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305][sql] Přehodnotit práci se stavovými výrazy
-
[SPARK-41726] [SC-119248][sql] Odebrat
OptimizedCreateHiveTableAsSelectCommand
-
[SPARK-41271] [SC-118648][sc-118348][SQL] Podpora parametrizovaných dotazů SQL
sql()
-
[SPARK-41066] [SC-119344][connect][PYTHON] Implementovat
DataFrame.sampleBy
aDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402][sc-119012][SQL][všechny testy] Odsunout zápis v1 do WriteFiles
-
[SPARK-41565] [SC-118868][sql] Přidání třídy chyb
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][sql] Funkce DECODE vrátí nesprávné výsledky při předání hodnoty NULL.
- [SPARK-41554] [SC-119274] Oprava změny desítkového měřítka při zmenšení měřítka o m...
-
[SPARK-41065] [SC-119324][connect][PYTHON] Implementovat
DataFrame.freqItems
aDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Znovu povolit testy dokumentace a přidání chybějícího aliasu sloupce do count()
-
[SPARK-41069] [SC-119310][connect][PYTHON] Implementovat
DataFrame.approxQuantile
aDataFrame.stat.approxQuantile
-
[SPARK-41809] [SC-119367][connect][PYTHON]
from_json
podpora schématu datových typů -
[SPARK-41804] [SC-119382][sql] Volba správné velikosti prvku v
InterpretedUnsafeProjection
pro pole UDT - [SPARK-41786] [SC-119308][connect][PYTHON] Odstranění duplicit pomocných funkcí
-
[SPARK-41745] [SC-119378][spark-41789][12.X]
createDataFrame
podpora seznamu řádků - [SPARK-41344] [SC-119217][sql] Zpřehlednění chyby, když není nalezena tabulka v katalogu SupportsCatalogOptions
-
[SPARK-41803] [SC-119380][connect][PYTHON] Přidání chybějící funkce
log(arg1, arg2)
- [SPARK-41808] [SC-119356][connect][PYTHON] Nastavení možností podpory funkcí JSON
-
[SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Vytvořte
__getitem__
filtr podpory a vyberte - [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Umožněte operaci sloupce podporovat None
- [SPARK-41440] [SC-119279][connect][PYTHON] Vyhněte se operátoru mezipaměti pro náhodný vzorek.
-
[SPARK-41785] [SC-119290][connect][PYTHON] Implementovat
GroupedData.mean
- [SPARK-41629] [SC-119276][connect] Podpora rozšíření protokolu v rámci relace a výrazu
-
[SPARK-41417] [SC-118000][core][SQL] Přejmenování
_LEGACY_ERROR_TEMP_0019
naINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][connect][12.X] Správné zpracování chyb pro Spark Connect Server / klient
- [SPARK-41292] [SC-119357][connect][12.X] Okno podpory v oboru názvů pyspark.sql.window
- [SPARK-41493] [SC-119339][connect][PYTHON] Nastavení možností podpory funkcí CSV
- [SPARK-39591] [SC-118675][ss] Sledování asynchronního průběhu
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implementace
Column.{withField, dropFields}
-
[SPARK-41068] [SC-119268][connect][PYTHON] Implementovat
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][connect][12.X] Povolení doctestů ve sloupci pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][connect] Mix ClientId v mezipaměti SparkSession.
-
[SPARK-41354] [SC-119194][connect] Přidejte
RepartitionByExpression
do proto -
[SPARK-41784] [SC-119289][connect][PYTHON] Přidat chybějící
__rmod__
ve sloupci - [SPARK-41778] [SC-119262][sql] Přidání aliasu "reduce" do ArrayAggregate
-
[SPARK-41067] [SC-119171][connect][PYTHON] Implementovat
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][connect][PYTHON] Nastavení interního názvu operace řetězce v souladu s FunctionRegistry
- [SPARK-41734] [SC-119160][connect] Přidání nadřazené zprávy pro katalog
- [SPARK-41742] [SC-119263] Podpora df.groupBy().agg({"*":"count"})
-
[SPARK-41761] [SC-119213][connect][PYTHON] Oprava aritmetických operací:
__neg__
,__pow__
,__rpow__
-
[SPARK-41062] [SC-118182][sql] Přejmenování
UNSUPPORTED_CORRELATED_REFERENCE
naCORRELATED_REFERENCE
-
[SPARK-41751] [SC-119211][connect][PYTHON] Oprava
Column.{isNull, isNotNull, eqNullSafe}
-
[SPARK-41728] [SC-119164][connect][PYTHON][12.x] Implementujte funkci
unwrap_udt
-
[SPARK-41333] [SC-119195][spark-41737] Implementovat
GroupedData.{min, max, avg, sum}
-
[SPARK-41751] [SC-119206][connect][PYTHON] Oprava
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][sql] Podpora implicitního řešení aliasů laterálních sloupců v agregaci
- [SPARK-41529] [SC-119207][connect][12.X] Implementovat SparkSession.stop
-
[SPARK-41729] [SC-119205][core][SQL][12.x] Přejmenování
_LEGACY_ERROR_TEMP_0011
naUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078][connect][12.X] Odstranění duplicitních dat a repr_html ve společnosti LogicalPlan
-
[SPARK-41740] [SC-119169][connect][PYTHON] Implementovat
Column.name
- [SPARK-41733] [SC-119163][sql][SS] Aplikace prořezávání na základě stromových vzorů pro pravidlo ResolveWindowTime
- [SPARK-41732] [SC-119157][sql][SS] Uplatnění prořezávání založeného na stromovém vzoru pro pravidlo SessionWindowing
- [SPARK-41498] [SC-119018] Šíření metadat prostřednictvím sjednocení
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Implementace přístupového objektu sloupce
-
[SPARK-41736] [SC-119161][connect][PYTHON] by měl
pyspark_types_to_proto_types
podporovatArrayType
-
[SPARK-41473] [SC-119092][connect][PYTHON] Implementujte funkci
format_number
- [SPARK-41707] [SC-119141][connect][12.X] Implementujte API katalogu v rámci Spark Connect
-
[SPARK-41710] [SC-119062][connect][PYTHON] Implementovat
Column.between
- [SPARK-41235] [SC-119088][sql][PYTHON] Vyšší řádové funkce: implementace array_compact
-
[SPARK-41518] [SC-118453][sql] Přiřazení názvu ke třídě chyb
_LEGACY_ERROR_TEMP_2422
-
[SPARK-41723] [SC-119091][connect][PYTHON] Implementace funkce
sequence
- [SPARK-41703] [SC-119060][connect][PYTHON] Kombinování typu NullType a typed_null v literálu
- [SPARK-41722] [SC-119090][connect][PYTHON] Implementace 3 chybějících funkcí časových oken
- [SPARK-41503] [SC-119043][connect][PYTHON] Implementace transformačních funkcí particí
- [SPARK-41413] [SC-118968][sql] Vyhněte se náhodnému přeskupení v příkazu Storage-Partitioned Join v případě, že se klíče oddílů neshodují, ale výrazy spojení jsou kompatibilní.
-
[SPARK-41700] [SC-119046][connect][PYTHON] Odebrat
FunctionBuilder
-
[SPARK-41706] [SC-119094][connect][PYTHON] by měl
pyspark_types_to_proto_types
podporovatMapType
- [SPARK-41702] [SC-119049][connect][PYTHON] Přidání neplatných operací sloupců
- [SPARK-41660] [SC-118866][sql] Šíření sloupců metadat pouze v případě jejich použití
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] Implementujte akumulátor pro shromažďování metrik počtu řádků mapovače.
- [SPARK-41647] [SC-119064][connect][12.X] Odstraňte duplicitní dokumentační řetězce v pyspark.sql.connect.functions
-
[SPARK-41701] [SC-119048][connect][PYTHON] Umožnit podporu operací se sloupci
decimal
-
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementovat
rollup
,cube
apivot
- [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] Odstranění duplicitních dat v pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][connect][PYTHON] Přesun výrazů do expressions.py
- [SPARK-41687] [SC-118949][connect] Deduplikace docstringů ve skupině pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][connect] Odstranění duplicitních docstringů v pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][connect] Uspořádat GroupedData do group.py
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementace funkcí
Window
-
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Umožnit podporu operací sloupců
datetime
- [SPARK-41672] [SC-118929][connect][PYTHON] Povolení zastaralých funkcí
-
[SPARK-41673] [SC-118932][connect][PYTHON] Implementovat
Column.astype
-
[SPARK-41364] [SC-118865][connect][PYTHON] Implementace funkce
broadcast
- [SPARK-41648] [SC-118914][connect][12.X] Odstranění duplicitních dat v souboru pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][connect][12.X] Odstranit duplicitní docstringy v pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][connect][12.X] Odstranění duplicitních dat ve sloupci pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementujte zbývající funkce Lambda.
- [SPARK-41441] [SC-118557][sql] Podpora generování bez potřebného podřízeného výstupu pro hostování vnějších odkazů
- [SPARK-41669] [SC-118923][sql] Předčasné vyřazování v canCollapseExpressions
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : Odebrání ScalaReflectionLock ze SchemaConverters
-
[SPARK-41464] [SC-118861][connect][PYTHON] Implementovat
DataFrame.to
-
[SPARK-41434] [SC-118857][connect][PYTHON] Počáteční implementace
LambdaFunction
- cs-CZ: [SPARK-41539] [SC-118802][sql] Přemapování statistik a omezení pro výstup v logickém plánu logického RDD
- [SPARK-41396] [SC-118786][SQL][PROTOBUF] Podpora pro pole OneOf a rekurzivní kontroly
- [SPARK-41528] [SC-118769][connect][12.X] Sloučení oboru názvů rozhraní Spark Connect a PySpark API
- [SPARK-41568] [SC-118715][sql] Přiřaďte název _LEGACY_ERROR_TEMP_1236
-
[SPARK-41440] [SC-118788][connect][PYTHON] Implement
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Přidání Spark Connect a protobuf do setup.py se specifikací závislostí
- [SPARK-27561] [SC-101081][12.x][SQL] Podpora implicitního vyhodnocení aliasů laterálního sloupce v projekci
-
[SPARK-41535] [SC-118645][sql] Nastavte správně hodnotu null pro pole intervalu kalendáře v
InterpretedUnsafeProjection
aInterpretedMutableProjection
- [SPARK-40687] [SC-118439][sql] Podpora maskování dat předdefinované funkce Maska
- [SPARK-41520] [SC-118440][sql] Rozdělení AND_OR TreePattern, aby byla oddělena TreePatterns pro AND a OR.
- [SPARK-41349] [SC-118668][connect][PYTHON] Implementace datového rámce.hint
-
[SPARK-41546] [SC-118541][connect][PYTHON
pyspark_types_to_proto_types
] by měl podporovat typ struktury. -
[SPARK-41334] [SC-118549][connect][PYTHON] Přesun
SortOrder
proto z relací do výrazů - [SPARK-41387] [SC-118450][ss] Ověřit aktuální koncovou posun z Kafka datového zdroje pro Trigger.AvailableNow
-
[SPARK-41508] [SC-118445][core][SQL] Přejmenování
_LEGACY_ERROR_TEMP_1180
naUNEXPECTED_INPUT_TYPE
a odebrání_LEGACY_ERROR_TEMP_1179
-
[SPARK-41319] [SC-118441][connect][PYTHON] Implementujte sloupec. {when, otherwise} a
when
funkce sUnresolvedFunction
- [SPARK-41541] [SC-118460][sql] Oprava volání nesprávné podřízené metody v SQLShuffleWriteMetricsReporter.decRecordsWritten()
-
[SPARK-41453] [SC-118458][connect][PYTHON] Implementovat
DataFrame.subtract
- [SPARK-41248] [SC-118436][sc-118303][SQL] Přidáníspark.sql.json.enablePartialResults pro povolení nebo zakázání částečných výsledků JSON
- [SPARK-41437] Vrátit zpět “[SC-117601][sql] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1”
- [SPARK-41472] [SC-118352][connect][PYTHON] Implementujte zbývající řetězcové/binární funkce.
-
[SPARK-41526] [SC-118355][connect][PYTHON] Implementovat
Column.isin
- [SPARK-32170] [SC-118384] [JÁDRO] Zlepšení spekulace pomocí metriky úkolů fáze.
- [SPARK-41524] [SC-118399][ss] Rozlišení mezi SQLConf a extraOptions v rámci StateStoreConf pro jejich použití v rámci RocksDBConf
- [SPARK-41465] [SC-118381][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1235
- cs-CZ: [SPARK-41511] [SC-118365][sql] Podpora LongToUnsafeRowMap ignoruje duplicitní klíč
-
[SPARK-41409] [SC-118302][core][SQL] Přejmenování
_LEGACY_ERROR_TEMP_1043
naWRONG_NUM_ARGS.WITHOUT_SUGGESTION
-
[SPARK-41438] [SC-118344][connect][PYTHON] Implementovat
DataFrame.colRegex
- [SPARK-41437] [SC-117601][sql] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1
-
[SPARK-41314] [SC-117172][sql] Přiřazení názvu ke třídě chyb
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] Refaktoring LiteralExpression pro podporu datového typu
- [SPARK-41448] [SC-118046] Zajištění konzistentních ID úloh MR v FileBatchWriter a FileFormatWriter
- [SPARK-41456] [SC-117970][sql] Zlepšení výkonu try_cast
-
[SPARK-41495] [SC-118125][connect][PYTHON] Implementace funkcí
collection
: P~Z - [SPARK-41478] [SC-118167][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql] Přepracovat chybovou zprávu pro
NUM_COLUMNS_MISMATCH
, aby bylo obecnější -
[SPARK-41404] [SC-118016][sql] Upravit
ColumnVectorUtils#toBatch
, abyColumnarBatchSuite#testRandomRows
testoval více primitivní datové typy - [SPARK-41468] [SC-118044][sql] Oprava zpracování PlanExpression v EquivalentExpressions
- [SPARK-40775] [SC-118045][sql] Oprava duplicitních položek popisu pro prohledávání souborů V2
- [SPARK-41492] [SC-118042][connect][PYTHON] Implementace funkcí MISC
- [SPARK-41459] [SC-118005][sql] Oprava problému, kdy je výstup protokolu operací serveru Thrift prázdný.
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjection
by měl použítsetDecimal
k nastavení hodnot null pro desetinná místa v nebezpečném řádku. - [SPARK-41376] [SC-117840][core][3.3] Oprava logiky kontroly Netty preferDirectBufs při spuštění exekutoru
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementujte
collection
funkce: E~M -
[SPARK-41389] [SC-117426][core][SQL] Opětovné použití
WRONG_NUM_ARGS
namísto_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920][sql] Datový typ a časové razítko mohou být převedeny na TimestampNTZ
-
[SPARK-41435] [SC-117810][sql] Změna volání
invalidFunctionArgumentsError
procurdate()
, pokudexpressions
není prázdná - [SPARK-41187] [SC-118030][core] LiveExecutor MemoryLeak v AppStatusListener při spuštění executorLost
- [SPARK-41360] [SC-118083][core] Pokud dojde ke ztrátě exekutoru, vyhněte se opětovné registraci nástroje BlockManager.
- [SPARK-41378] [SC-117686][sql] Statistiky sloupců podpory v DS v2
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Přepsat prettyName u StringDecode
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementace funkcí data a časového razítka
- [SPARK-41329] [SC-117975][connect] Řešení cyklických importů v nástroji Spark Connect
- [SPARK-41477] [SC-118025][connect][PYTHON] Správně odvodí datový typ literálových celých čísel.
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x] Zajistit, aby
createDataFrame
podporoval schémata a více typů vstupních datových sad - [SPARK-41475] [SC-117997][connect] Oprava chyby příkazu lint-scala a překlepu
- [SPARK-38277] [SC-117799][ss] Vymažte dávku zápisu po potvrzení stavového úložiště RocksDB
- [SPARK-41375] [SC-117801][ss] Vyhněte se prázdnému nejnovějšímu KafkaSourceOffset
-
[SPARK-41412] [SC-118015][connect] Implementovat
Column.cast
-
[SPARK-41439] [SC-117893][connect][PYTHON] Implementace
DataFrame.melt
aDataFrame.unpivot
- [SPARK-41399] [SC-118007][sc-117474][CONNECT] Refaktorování testů souvisejících se sloupcem na test_connect_column
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Sloupec by měl podporovat operátor !=
- [SPARK-40697] [SC-117806][sc-112787][SQL] Přidání zarovnání znaků na straně čtení pro zajištění kompatibility s externími datovými soubory
- [SPARK-41349] [SC-117594][connect][12.X] Implementace datového rámce.hint
- [SPARK-41338] [SC-117170][sql] Řešení vnějších odkazů a normálních sloupců ve stejné fázi analyzátoru
-
[SPARK-41436] [SC-117805][connect][PYTHON] Implementace funkcí
collection
: A~C - [SPARK-41445] [SC-117802][connect] Implement DataFrameReader.parquet
-
[SPARK-41452] [SC-117865][sql]
to_char
by měl vrátit hodnotu null, pokud má formát hodnotu null. - [SPARK-41444] [SC-117796][connect] podpora read.json()
- [SPARK-41398] [SC-117508][sql] Uvolnění omezení připojení Storage-Partitioned Join, když se klíče oddílů po filtrování za běhu neshodují
-
[SPARK-41228] [SC-117169][sql] Přejmenovat & a zlepšit chybovou zprávu pro
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. -
[SPARK-41381] [SC-117593][connect][PYTHON] Implementace funkcí
count_distinct
asum_distinct
- [SPARK-41433] [SC-117596][connect] Umožnění konfigurovatelnosti Max Arrow BatchSize
- [SPARK-41397] [SC-117590][connect][PYTHON] Implementace části řetězcových/binárních funkcí
-
[SPARK-41382] [SC-117588][connect][PYTHON] Implementujte funkci
product
-
[SPARK-41403] [SC-117595][connect][PYTHON] Implementovat
DataFrame.describe
- [SPARK-41366] [SC-117580][connect] DF.groupby.agg() by měl být kompatibilní
- [SPARK-41369] [SC-117584][connect] Přidání "Connect Common" do stínovaného jaru serverů
- [SPARK-41411] [SC-117562][ss] Oprava chyby podpory vodoznaku vícestavového operátora
- [SPARK-41176] [SC-116630][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementace agregačních funkcí
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementace normálních funkcí
- [SPARK-41305] [SC-117411][připojit] Zlepšit dokumentaci pro příkaz proto
- [SPARK-41372] [SC-117427][connect][PYTHON] Implementace DataFrame TempView
- [SPARK-41379] [SC-117420][ss][PYTHON] Poskytnutí naklonované relace Spark v rámci DataFrame v uživatelské funkci pro jímku foreachBatch v PySparku.
- [SPARK-41373] [SC-117405][SQL][ERROR] Změna názvu z CAST_WITH_FUN_SUGGESTION na CAST_WITH_FUNC_SUGGESTION
-
[SPARK-41358] [SC-117417][sql] Refaktorovat
ColumnVectorUtils#populate
metodu pro použitíPhysicalDataType
místoDataType
- [SPARK-41355] [SC-117423][sql] Náhradní řešení problému s ověřením názvu tabulky Hive
-
[SPARK-41390] [SC-117429][sql] Aktualizujte skript použitý ke generování funkce
register
vUDFRegistration
-
[SPARK-41206] [SC-117233][sc-116381][SQL] Přejmenujte třídu chyb
_LEGACY_ERROR_TEMP_1233
naCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementace matematických funkcí
- [SPARK-40970] [SC-117308][connect][PYTHON] Podpora seznamu[Sloupec] pro argument operace JOIN
- [SPARK-41345] [SC-117178][connect] Přidat nápovědu k Connect Proto
- [SPARK-41226] [SC-117194][sql][12.x] Refaktoring typů Sparku zavedením fyzických typů
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Přidání základní podpory pro DataFrameWriter
- [SPARK-41347] [SC-117173][connect] Přidání přetypování do proto výrazu
- [SPARK-41323] [SC-117128][sql] Podpora current_schema
- [SPARK-41339] [SC-117171][sql] Zavření dávky zápisu a její opětovné vytvoření v RocksDB místo pouhého vymazání
- [SPARK-41227] [SC-117165][connect][PYTHON] Implementovat křížové spojení datového rámce
-
[SPARK-41346] [SC-117176][connect][PYTHON] Implementace funkcí
asc
adesc
- [SPARK-41343] [SC-117166][connect] Přesunutí parsování názvu funkce na straně serveru
- [SPARK-41321] [SC-117163][connect] Cílové pole podpory pro UnresolvedStar
-
[SPARK-41237] [SC-117167][sql] Znovu použijte třídu chyb
UNSUPPORTED_DATATYPE
pro_LEGACY_ERROR_TEMP_0030
-
[SPARK-41309] [SC-116916][sql] Opakované použití
INVALID_SCHEMA.NON_STRING_LITERAL
místo_LEGACY_ERROR_TEMP_1093
-
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Optimalizace použití konstruktoru
StructType
- [SPARK-41335] [SC-117135][connect][PYTHON] Podpora IsNull a IsNotNull v rámci sloupce
-
[SPARK-41332] [SC-117131][connect][PYTHON] Oprava
nullOrdering
vSortOrder
- [SPARK-41325] [SC-117132][connect][12.X] Oprava chybějícího průměru() pro GroupBy nad DF
-
[SPARK-41327] [SC-117137][core] Oprava
SparkStatusTracker.getExecutorInfos
pomocí přepínání informací On/OffHeapStorageMemory -
[SPARK-41315] [SC-117129][connect][PYTHON] Implementujte
DataFrame.replace
aDataFrame.na.replace
- [SPARK-41328] [SC-117125][connect][PYTHON] Přidání logického a řetězcového rozhraní API do sloupce
-
[SPARK-41331] [SC-117127][connect][PYTHON] Přidání
orderBy
adrop_duplicates
-
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternal
by se měl zajistit, aby byl zámek bez odkladu odemknutý. - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Upravit „Column“ pro kompatibilitu rozhraní API
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Implementace datového rámce.withColumnRenamed
-
[SPARK-41221] [SC-116607][sql] Přidání třídy chyb
INVALID_FORMAT
- [SPARK-41272] [SC-116742][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql] Opakované použití
INVALID_SCHEMA
místo_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][python][SS][12.x] Přetypování instancí NumPy na primitivní typy Pythonu v aktualizaci GroupState
-
[SPARK-41174] [SC-116609][core][SQL] Rozšíření třídy chyb pro uživatele kvůli neplatnému
format
to_binary()
- [SPARK-41264] [SC-116971][connect][PYTHON] Podpora literálů více datových typů
- [SPARK-41326] [SC-116972] [CONNECT] Opravit chybějící vstup deduplikace
- [SPARK-41316] [SC-116900][sql] Povolit koncovou rekurzi, kdykoli je to možné
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Podpora řetězcových výrazů ve filtru
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implementace datového rámce.withColumn
- [SPARK-41182] [SC-116632][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] Migrace chyb možností mapování do tříd chyb
- [SPARK-40940] [SC-115993][12.x] Odeberte kontroly vícestavových operátorů pro streamované dotazy.
- [SPARK-41310] [SC-116885][connect][PYTHON] Implementace datového rámce.toDF
- [SPARK-41179] [SC-116631][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] BHJ LeftAnti neaktualizuje numOutputRows, pokud je zakázáno generování kódu
-
[SPARK-41148] [SC-116878][connect][PYTHON] Implementace
DataFrame.dropna
aDataFrame.na.drop
-
[SPARK-41217] [SC-116380][sql] Přidání třídy chyb
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][connect][PYTHON] Vylepšení DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Homogenizace chování sparkSession.range()
- [SPARK-41306] [SC-116860][connect] Vylepšení dokumentace protokolu Connect Expression
- [SPARK-41280] [SC-116733][connect] Implementovat DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Nenastavené schéma se interpretuje jako schéma.
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Přejmenovat RemoteSparkSession
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] – datový rámec. toPandas by neměly vracet volitelný datový rámec pandas
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explain
by se mělo vytisknout a vrátit None - [SPARK-41278] [SC-116732][connect] Vyčistí nevyužitý atribut QualifiedAttribute ve výrazu.proto.
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Odebrání redundantního převodu kolekce na základě kódu Scala 2.13
- [SPARK-41261] [SC-116718][python][SS] Oprava problému pro applyInPandasWithState, pokud sloupce klíčů seskupení nejsou umístěné v pořadí od nejstaršího
- [SPARK-40872] [SC-116717][3.3] Návrat k původnímu přeskupovacímu bloku, pokud je sloučený přeskupovací blok nulové velikosti
- [SPARK-41114] [SC-116628][connect] Podpora lokálních dat pro LocalRelation
-
[SPARK-41216] [SC-116678][connect][PYTHON] Implementovat
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][connect][PYTHON] Podpora více předdefinovaných datových typů
-
[SPARK-41230] [SC-116674][connect][PYTHON] Odstranit
str
z typu agregačního výrazu - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Optimalizovaná implementace shromažďování na základě šipky pro streamování ze serveru do klienta
- [SPARK-41222] [SC-116625][connect][PYTHON] Sjednocení definic typování
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Zakažte nepodporované funkce.
-
[SPARK-41201] [SC-116526][connect][PYTHON] Implementace
DataFrame.SelectExpr
v klientovi Pythonu - [SPARK-41203] [SC-116258] [CONNECT] Podpora objektu Dataframe.tansform v klientovi Pythonu
-
[SPARK-41213] [SC-116375][connect][PYTHON] Implementovat
DataFrame.__repr__
aDataFrame.dtypes
-
[SPARK-41169] [SC-116378][connect][PYTHON] Implementovat
DataFrame.drop
- [SPARK-41172] [SC-116245][sql] Migrace nejednoznačné chyby ref do třídy chyb
- [SPARK-41122] [SC-116141][connect] Vysvětlit rozhraní API může podporovat různé režimy.
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] Zlepšení odvození typu PySpark v metodě _merge_type
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenizovat verzi protobuf napříč serverem pro připojení Sparku, aby používala stejnou hlavní verzi.
- [SPARK-35531] [SC-116409][sql] Aktualizace statistik tabulek Hive bez zbytečného převodu
- [SPARK-41154] [SC-116289][sql] Nesprávné ukládání relací do mezipaměti pro dotazy se specifikací časového cestování
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implementovat
DataFrame.isEmpty
-
[SPARK-41135] [SC-116400][sql] Přejmenování
UNSUPPORTED_EMPTY_LOCATION
naINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][sql] Přidat rozhraní API pro rozšíření pro normalizaci plánů pro ukládání do mezipaměti
- [SPARK-41054] [SC-116447][ui][CORE] Podpora RocksDB jako KVStore v živém uživatelském rozhraní
- [SPARK-38550] [SC-115223]Vrátit zpět “[SQL][core] Použijte úložiště založené na disku k uložení dalších informací o ladění pro živé uživatelské rozhraní”
-
[SPARK-41173] [SC-116185][sql] Přesunutí
require()
z konstruktorů řetězcových výrazů - [SPARK-41188] [SC-116242][core][ML] Nastavení exekutorEnv OMP_NUM_THREADS na spark.task.cpus ve výchozím nastavení pro procesy JVM exekutoru Sparku
-
[SPARK-41130] [SC-116155][sql] Přejmenování
OUT_OF_DECIMAL_TYPE_RANGE
naNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238][sql] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] Omezení převodu kolekce při vytváření AtributMap
-
[SPARK-41139] [SC-115983][sql] Zlepšení třídy chyb:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][protobuf] Vyžadování stínování pro soubor JAR třídy Java, zlepšení zpracování chyb
- [SPARK-40999] [SC-116168] Šíření nápovědy do poddotazů
- [SPARK-41017] [SC-116054][sql] Podpora vyřazování sloupců s několika nedeterministickými filtry
- [SPARK-40834] [SC-114773][sql] Ke sledování konečného stavu SQL v uživatelském rozhraní použijte SparkListenerSQLExecutionEnd.
-
[SPARK-41118] [SC-116027][sql]
to_number
/try_to_number
by měl vrátitnull
, pokud je formátnull
- [SPARK-39799] [SC-115984][sql] DataSourceV2: Zobrazení rozhraní katalogu
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Vyhněte se vkládání Spark Connect v binární verzi Apache Sparku.
- [SPARK-41048] [SC-116043][sql] Vylepšení dělení a řazení výstupu pomocí mezipaměti AQE
- [SPARK-41198] [SC-116256][ss] Oprava metrik v dotazu streamování s zdrojem streamování CTE a DSv1
- [SPARK-41199] [SC-116244][ss] Oprava problému s metrikami, když se zdroj streamování DSv1 a zdroj streamování DSv2 používají společně
- [SPARK-40957] [SC-116261][sc-114706] Přidání mezipaměti paměti v HDFSMetadataLog
- [SPARK-40940] Vrátit zpět “[SC-115993] Odstranění kontrol vícestavových operátorů pro streamovací dotazy.”
-
[SPARK-41090] [SC-116040][sql] Vyvolání výjimky pro
db_name.view_name
při vytváření dočasného zobrazení rozhraním DATASET API -
[SPARK-41133] [SC-116085][sql] Integrovat
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
doNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][sc-111442][CONNECT] Souhrn kódu 9 potvrzení
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] Spark Connect jako modul plug-in ovladače se stínovanými závislostmi
- [SPARK-41096] [SC-115812][sql] Podpora čtení typu parquet FIXED_LEN_BYTE_ARRAY
-
[SPARK-41140] [SC-115879][sql] Přejmenujte třídu chyb
_LEGACY_ERROR_TEMP_2440
naINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][sql] Neshoda mezi FileSourceScanExec a Orc a ParquetFileFormat při vytváření sloupcového výstupu
- [SPARK-41155] [SC-115991][sql] Přidejte chybovou zprávu k SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Odstraňte kontrolní mechanismy vícestavových operátorů pro dotazy streamování.
-
[SPARK-41098] [SC-115790][sql] Přejmenování
GROUP_BY_POS_REFERS_AGG_EXPR
naGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][sql] Přechod chyb kontroly typu při formátování čísel na třídy chyb
-
[SPARK-41059] [SC-115658][sql] Přejmenování
_LEGACY_ERROR_TEMP_2420
naNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][sql] Převést DATATYPE_MISMATCH.UNSPECIFIED_FRAME na INTERNAL_ERROR
-
[SPARK-40973] [SC-115132][sql] Přejmenování
_LEGACY_ERROR_TEMP_0055
naUNCLOSED_BRACKETED_COMMENT
Aktualizace údržby
Podívejte se na aktualizace údržby pro Databricks Runtime 12.1.
Prostředí systému
- Operační systém: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | zpětné volání | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | černý | 22.3.0 | bělicí prostředek | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klikněte | 8.0.4 | kryptografie | 3.4.8 | cyklista | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
dekoratér | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
Konverze docstringu na markdown | 0,11 | vstupní body | 0,4 | vykonávající | 0.8.3 |
přehled aspektů | 1.0.0 | fastjsonschema | 2.16.2 | uzamčení souboru | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | špatně naladěný | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
poznámkový blok | 6.4.8 | numpy | 1.21.5 | balení | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Polštář | 9.0.1 | jádro | 21.2.4 |
platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
čistý-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
žádosti | 2.27.1 | requests-unixsocket | 0.2.0 | lano | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Šest | 1.16.0 | sítko na polévku | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | houževnatost | 8.0.1 |
dokončený | 0.13.1 | testovací cesta | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornádo | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
bezobslužné aktualizace | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
kolo | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou nainstalovány ze snímku Microsoft CRAN z 2022-11-11.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šipka | 10.0.0 | askpass | 1,1 | assertthat (funkce) | 0.2.1 |
zpětné portování | 1.4.1 | základ | 4.2.2 | base64enc | 0.1-3 |
bitové | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
startování | 1.3-28 | vařit | 1.0-8 | verva | 1.1.3 |
koště | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
volající | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chrono | 2.3-58 | třída | 7.3-20 | CLI | 3.4.1 |
clipr | 0.8.0 | hodiny | 0.6.1 | klastr | 2.1.4 |
codetools | 0.2-18 | barevný prostor | 2.0-3 | commonmark | 1.8.1 |
– kompilátor | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
pastelka | 1.5.2 | přihlašovací údaje | 1.3.2 | zvlnění | 4.3.3 |
data.table | 1.14.4 | datové sady | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Popis | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | trávit | 0.6.30 | osvětlení shora dolů | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
tři tečky | 0.3.2 | vyhodnotit | 0,18 | fanoušci | 1.0.3 |
barvy | 2.1.1 | Rychlá mapa | 1.1.0 | fontawesome | 0.4.0 |
pro kočky | 0.5.2 | foreach | 1.5.2 | zahraniční | 0.8-82 |
kovat | 0.2.0 | fs | 1.5.2 | budoucnost | 1.29.0 |
future.apply | 1.10.0 | kloktadlo | 1.2.1 | Generika | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globály | 0.16.1 |
lepidlo | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | Grafika | 4.2.2 | grDevices | 4.2.2 |
mřížka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | bezpečnostní přilba | 1.2.0 | útočiště | 2.5.1 |
vyšší (if meant to be "higher") | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iterátory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
značení | 0.4.2 | později | 1.3.0 | mřížka | 0.20-45 |
láva | 1.7.0 | životní cyklus | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MŠE | 7.3-58 | Matice | 1.5-1 | memoise | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | paralelní | 4.2.2 |
paralelně | 1.32.1 | pilíř | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | pochvala | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Průběh | 1.2.2 |
progressr | 0.11.0 | sliby | 1.2.0.1 | proto | 1.0.0 |
proxy server | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recepty | 1.0.3 |
odvetný zápas | 1.0.1 | rematch2 | 2.1.2 | dálková ovládání | 2.4.2 |
reprodukovatelný příklad | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | drzost | 0.4.2 | váhy | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | tvar | 1.4.6 |
lesklý | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | prostorový | 7.3-11 | spline | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistické údaje | 4.2.2 |
Statistiky 4 | 4.2.2 | řetězce | 1.7.8 | stringr | 1.4.1 |
přežití | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | tvarování textu | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | změna času | 0.1.1 | časDatum | 4021.106 |
tinytex | 0.42 | nástroje | 4.2.2 | tzdb | 0.3.0 |
ověřovač URL | 1.0.1 | použijte toto | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | Uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroum | 1.6.0 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk automatické škálování | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | jádro | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní_ref-java-nativy | 1,1 |
com.github.fommil.netlib | nativní_systém-java | 1,1 |
com.github.fommil.netlib | nativní_system-java-nativy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | cink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | nastavení | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | vzduchový kompresor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metriky – jádro | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | Netty zpracovatel | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | API pro transakce | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | nakládačka | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mravenec | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formát šipky | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | šipka-vektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-klient | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | kódování parquet | 1.12.3-databricks-0002 |
org.apache.parquet | struktury formátu Parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | poznámky k publiku | 0.13.0 |
org.apache.zookeeper | ošetřovatel zvířat | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | pokračování jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | Jetty webová aplikace | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | WebSocket API | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket – obecný | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | běžný žerzej | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Vymezovací podložky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | testovací rozhraní | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |