Udostępnij za pośrednictwem


Databricks Runtime 13.1 (EoS)

Uwaga

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 13.1 obsługiwanym przez platformę Apache Spark 3.4.0.

Usługa Databricks wydała tę wersję w maju 2023 r.

Nowe funkcje i ulepszenia

Obsługa klastra dla zestawu JDK 17 (publiczna wersja zapoznawcza)

Usługa Databricks zapewnia teraz obsługę klastra dla zestawu Java Development Kit (JDK) 17. Zobacz Zestaw SDK usługi Databricks dla języka Java.

Dodawanie, zmienianie lub usuwanie danych w tabelach przesyłania strumieniowego

Teraz można używać instrukcji DML do modyfikowania tabel przesyłania strumieniowego publikowanych w wykazie aparatu Unity za pomocą potoków DLT. Zobacz Dodawanie, zmienianie lub usuwanie danych w tabeli przesyłania strumieniowego oraz Dodawanie, zmienianie lub usuwanie danych w docelowej tabeli przesyłania strumieniowego. Instrukcje DML umożliwiają również modyfikowanie tabel przesyłania strumieniowego utworzonych w usłudze Databricks SQL.

Czytanie danych z Kafki za pomocą SQL

Teraz możesz użyć read_kafka funkcji SQL do odczytywania danych platformy Kafka. Przesyłanie strumieniowe przy użyciu języka SQL jest obsługiwane tylko w technologii DLT lub w tabelach przesyłania strumieniowego w usłudze Databricks SQL. Zobacz read_kafka funkcji wartości tabeli.

Nowe wbudowane funkcje SQL

Dodano następujące funkcje:

Obsługa Unity Catalog dla bibliotek Pythona skierowanych na klaster

Unity Catalog ma pewne ograniczenia dotyczące użycia biblioteki. W środowisku Databricks Runtime 13.1 lub nowszym obsługiwane są biblioteki języka Python o zakresie klastra, w tym pliki koła języka Python przekazywane jako pliki obszaru roboczego. Biblioteki, do których odwołuje się ścieżka plików DBFS, nie są obsługiwane zarówno w katalogu głównym systemu plików DBFS, jak i w lokalizacji zewnętrznej zainstalowanej w systemie plików DBFS. Biblioteki inne niż języka Python nie są obsługiwane. Zobacz Biblioteki klastrów.

W środowisku Databricks Runtime 13.0 i starszych biblioteki związane z klastrem nie są obsługiwane w klastrach korzystających ze standardowego trybu dostępu (dawniej trybu dostępu współdzielonego) w obszarze roboczym z włączonym katalogiem Unity.

Poszerzone domyślne umożliwienie zoptymalizowanych operacji zapisu w Unity Catalog.

Domyślna zoptymalizowana obsługa zapisu dla tabel Delta zarejestrowanych w Unity Catalog została rozszerzona, aby uwzględnić CTAS instrukcje i INSERT operacje dla tabel partycjonowanych. To zachowanie jest zgodne z wartościami domyślnymi w usłudze SQL Warehouse. Zobacz Zoptymalizowane zapisy dla usługi Delta Lake w usłudze Azure Databricks.

Rozszerzone wsparcie dla operatorów stanowych w strukturalnym przesyłaniu strumieniowym

Teraz można połączyć wiele operatorów stanowych, co oznacza, że można przekazać dane wyjściowe operacji, takie jak agregacja okienna, do innej operacji stanowej, takiej jak łączenie. Zobacz Co to jest przesyłanie strumieniowe z zachowaniem stanu?.

Klon Delta dla Unity Catalog jest w publicznej wersji zapoznawczej.

Teraz możesz użyć płytkiego klonowania, aby z istniejących tabel zarządzanych w katalogu Unity utworzyć nowe tabele zarządzane w katalogu Unity. Zobacz Płytkie klonowanie tabel katalogu Unity.

Obsługa Pub/Sub dla przesyłania strumieniowego o strukturze

Teraz możesz użyć wbudowanego łącznika, aby zasubskrybować usługę Google Pub/Sub za pomocą strukturalnego przesyłania strumieniowego. Zobacz Subskrybowanie usługi Google Pub/Sub.

Usuwanie duplikatów w znakach wodnych w strumieniowaniu strukturalnym

Teraz można użyć dropDuplicatesWithinWatermark w połączeniu z określonym progiem limitu w celu deduplikacji rekordów w strumieniu ze strukturą. Zobacz Usuwanie duplikatów w znaku wodnym.

Rozszerzona obsługa konwersji Delta z tabel Iceberg z obciętymi kolumnami partycji

Teraz można używać CLONE i CONVERT TO DELTA z tabelami Iceberg, które mają partycje zdefiniowane na obciętych kolumnach typów int, long i string. Obcięte kolumny typu decimal nie są obsługiwane.

Strumieniowe przesyłanie zmian schematu z mapowaniem kolumn w Delta Lake

Teraz możesz podać lokalizację śledzenia schematu, aby włączyć przesyłanie strumieniowe z tabel Delta z włączonym mapowaniem kolumn. Zobacz Przesyłanie strumieniowe za pomocą mapowania kolumn i zmian schematu.

Usuń WERSJĘ STARTOWĄ

START VERSION jest teraz przestarzały dla elementu ALTER SHARE.

Nowe wyrażenia H3 dostępne w języku Python

Wyrażenia h3_coverash3 i h3_coverash3string są dostępne w języku Python.

Poprawki błędów

Parquet failOnUnknownFields nie usuwa już dyskretnie danych w przypadku niezgodności typów

Jeśli plik Parquet został odczytany tylko z failOnUnknownFields opcją lub z automatycznym modułem ładującym w failOnNewColumns trybie ewolucji schematu, kolumny o różnych typach danych teraz powodują błąd i zaleca się użycie rescuedDataColumn. Moduł automatycznego ładowania teraz poprawnie odczytuje i nie ratuje już typów liczb całkowitych, krótkich lub bajtów, jeśli podano jeden z tych typów danych. Plik Parquet sugeruje jeden z dwóch pozostałych typów.

Zmiany powodujące niezgodność

Uaktualnij wersję sqlite-jdbc do wersji 3.42.0.0, aby rozwiązać problem CVE-2023-32697

Uaktualnij wersję sqlite-jdbc z wersji 3.8.11.2 do 3.42.0.0. Interfejsy API wersji 3.42.0.0 nie są w pełni zgodne z wersją 3.8.11.2. Jeśli używasz pliku sqlite-jdbc w kodzie, sprawdź raport zgodności sqlite-jdbc, aby uzyskać szczegółowe informacje. Jeśli przeprowadzasz migrację do wersji 13.1 i używasz SQLite, potwierdź swoje metody i typ zwracany w wersji 3.42.0.0.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • facets-overview od 1.0.2 do 1.0.3
    • Aktualizacja filelock z wersji 3.10.7 do 3.12.0
    • pyarrow z 7.0.0 do 8.0.0
    • tenacity z 8.0.1 do 8.1.0
  • Uaktualnione biblioteki języka R:
  • Uaktualnione biblioteki Java:
    • com.github.ben-manes.caffeine.caffeine z 2.3.4 do 2.9.3
    • io.delta.delta-sharing-spark_2.12 z 0.6.8 do 0.6.4
    • net.snowflake.snowflake-jdbc od 3.13.29 do 3.13.22
    • org.checkerframework.checker-qual od 3.5.0 do 3.19.0
    • org.scalactic.scalactic_2.12 z wersji 3.0.8 do 3.2.15
    • org.scalatest.scalatest_2.12 z wersji 3.0.8 do 3.2.15
    • org.xerial.sqlite-jdbc z wersji 3.8.11.2 do 3.42.0.0

Apache Spark

Środowisko Databricks Runtime 13.1 obejmuje platformę Apache Spark 3.4.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 13.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-42719] [DBRRM-199][sc-131578] Revert "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166][sc-130056][CORE] Przywróć [SC-127830]/
  • [SPARK-43331] [SC-130064][connect] Dodaj Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][connect][PYTHON] Umożliwia rozszerzenie programu ChannelBuilder dla sparkConnectClient
  • [SPARK-43323] [SC-129966][sql][PYTHON] Naprawa DataFrame.toPandas z włączonym Apache Arrow w celu prawidłowego obsługiwania wyjątków
  • [SPARK-42940] [SC-129896][ss][CONNECT] Ulepszanie zarządzania sesjami dla zapytań przesyłanych strumieniowo
  • [SPARK-43032] [SC-125756] [CONNECT][ss] Dodano menedżera zapytań przesyłania strumieniowego
  • [SPARK-16484] [SC-129975][sql] Dodaj obsługę Datasketches HllSketch
  • [SPARK-43260] [SC-129281][python] Migrate the Spark SQL pandas arrow type errors into error class (Migrowanie błędów typu strzałek biblioteki Pandas SQL Platformy Spark do klasy błędów).
  • [SPARK-41766] [SC-129964][core] Obsługa żądania wycofania wysłanego przed rejestracją procesu wykonawczego
  • [SPARK-43307] [SC-129971][python] Migrowanie błędów wartości biblioteki PandasUDF do klasy błędów
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] Wyjątek StreamingQuery() obejmuje ślad stosu
  • [SPARK-43311] [SC-129905][ss] Ulepszenia zarządzania pamięcią dostawcy magazynu stanów bazy danych RocksDB
  • [SPARK-43237] [SC-129898][core] Obsługa komunikatu wyjątku o wartości null w dzienniku zdarzeń
  • [SPARK-43320] [SC-129899][sql][HIVE] Bezpośrednie wywoływanie interfejsu API Hive 2.3.9
  • [SPARK-43270] [SC-129897][python] Implementowanie __dir__() w pyspark.sql.dataframe.DataFrame w celu uwzględnienia kolumn
  • [SPARK-43183] przywróć "[SC-128938][ss] Wprowadzenie nowego wywołania zwrotnego "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][sql] Zamień klasę błędów _LEGACY_ERROR_TEMP_2022 przez błąd wewnętrzny
  • pl-PL: [SPARK-43198] [SC-129470][connect] Poprawka "Nie można zainicjować klasy Ammonite..." błąd podczas korzystania z filtru
  • [SPARK-43165] [SC-129777][sql] Przenieś canWrite do DataTypeUtils
  • [SPARK-43298] [SC-129729][python][ML] predict_batch_udf z danymi wejściowymi skalarnymi kończy się niepowodzeniem, gdy rozmiar partii wynosi jeden
  • [SPARK-43298] [SC-129700]Przywracanie "[PYTHON][ml] predict_batch_udf z danymi wejściowymi skalarnymi kończy się niepowodzeniem z rozmiarem partii jednego"
  • [SPARK-43052] [SC-129663][core] Obsługa śladu stosu z nazwą pliku jako null w dzienniku zdarzeń
  • [SPARK-43183] [SC-128938][ss] Wprowadzenie nowej funkcjonalności wywołania zwrotnego „onQueryIdle” w StreamingQueryListener
  • [SPARK-43209] [SC-129190][connect][PYTHON] Migrowanie błędów wyrażeń do klasy błędów
  • [SPARK-42151] [SC-128754][sql] Dopasowanie przypisań UPDATE z atrybutami tabeli
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM client StreamingQuery exception() API
  • [SPARK-43298] [SC-129699][python][ML] predict_batch_udf z wejściem skalarnym kończy się niepowodzeniem przy rozmiarze partii wynoszącym jeden
  • [SPARK-43248] [SC-129660][sql] Niepotrzebne serializowanie/deserializowanie ścieżki dla równoległego zbierania statystyk partycji
  • [SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Wprowadzenie PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][connect][PYTHON] Implementacja chętnej ewaluacji dla repr i repr_html
  • [SPARK-42953] [SC-129469][connect][Followup] Poprawka kompilacji testu maven dla testów UDF klienta Scala
  • [SPARK-43144] [SC-129280] Interfejs API Scala Client DataStreamReader table()
  • [SPARK-43136] [SC-129358][connect] Dodawanie funkcji groupByKey + mapGroup + coGroup
  • [SPARK-43156] [SC-129672][sc-128532][SQL] Poprawka błędu COUNT(*) is null w skorelowanym podzapytaniu skalarnym
  • [SPARK-43046] [SC-129110] [SS] [Connect] Zaimplementowano Python API dropDuplicatesWithinWatermark dla Spark Connect
  • [SPARK-43199] [SC-129467][sql] Spraw, aby InlineCTE było idempotentne
  • [SPARK-43293] [SC-129657][sql] __qualified_access_only powinno być ignorowane w normalnych kolumnach
  • [SPARK-43276] [SC-129461][connect][PYTHON] Migrowanie okna programu Spark Connect do klasy błędów
  • [SPARK-43174] [SC-129109][sql] Naprawa SparkSQLCLIDriver completer
  • [SPARK-43084] [SC-128654] [SS] Dodaj obsługę applyInPandasWithState dla Spark Connect
  • [SPARK-43119] [SC-129040][sql] Obsługa dynamicznego pobierania słów kluczowych SQL przez JDBC API i TVF
  • [SPARK-43082] [SC-129112][connect][PYTHON] Funkcje UDF języka Python zoptymalizowane z użyciem Apache Arrow w Spark Connect
  • [SPARK-43085] [SC-128432][sql] Wsparcie dla przypisania wartości domyślnej kolumny dla nazw tabel wieloczęściowych
  • [SPARK-43226] [LC-671] Definiowanie wyodrębniaczy dla metadanych stałej pliku
  • [SPARK-43210] [SC-129189][connect][PYTHON] Wprowadzenie PySparkAssertionError
  • [SPARK-43214] [SC-129199][sql] Metryki po stronie sterownika dla elementu LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Poprawka dla ReplE2ESuite, który ciągle nie działa z JDK 17
  • [SPARK-43268] [SC-129249][sql] Użyj odpowiednich klas błędów, gdy wyjątki są tworzone z komunikatem
  • [SPARK-43142] [SC-129299] Napraw wyrażenia DSL dotyczące atrybutów z znakami specjalnymi
  • [SPARK-43129] [SC-128896] Podstawowy interfejs API języka Scala na potrzeby przesyłania strumieniowego aplikacji Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Dodawanie rejestrowania dla odczytu usługi Kafka Batch dla partycji tematu, zakresu przesunięcia i identyfikatora zadania
  • [SPARK-43249] [SC-129195][connect] Poprawka brakujących statystyk dla polecenia SQL
  • [SPARK-42945] [SC-129188][connect] Obsługa PYSPARK_JVM_STACKTRACE_ENABLED w programie Spark Connect
  • [SPARK-43178] [SC-129197][connect][PYTHON] Migracja błędów UDF do systemu błędów PySpark
  • [SPARK-43123] [SC-128494][sql] Wewnętrzne metadane pól nie powinny być wyciekane do wykazów
  • [SPARK-43217] [SC-129205] Prawidłowa rekurencja w ramach zagnieżdżonych map/tablic w "findNestedField"
  • [SPARK-43243] [SC-129294][python][CONNECT] Dodaj parametr poziomu do funkcji printSchema w Pythonie
  • [SPARK-43230] [SC-129191][connect] Uproszczenie DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403][sql] Respect RequiresDistributionAndOrdering w ramach CTAS/RTAS
  • [SPARK-43234] [SC-129192][connect][PYTHON] Migrate ValueError from Conect DataFrame into error class (Migrowanie ValueError z ramki danych Conect do klasy błędów)
  • [SPARK-43212] [SC-129187][ss][PYTHON] Zmigrować błędy strukturalnego przesyłania strumieniowego do klasy błędów
  • [SPARK-43239] [SC-129186][ps] Usuń null_counts z info()
  • [SPARK-43190] [SC-128930][sql] ListQuery.childOutput powinno być zgodne z wyjściem podrzędnym
  • [SPARK-43191] [SC-128924][core] Zastąp refleksję na bezpośrednie wywołanie elementu CallerContext usługi Hadoop
  • [SPARK-43193] [SC-129042][ss] Usuń obejście problemu dla HADOOP-12074
  • [SPARK-42657] [SC-128621][connect] Umożliwienie znajdowania i przesyłania plików klas REPL po stronie klienta do serwera jako artefakty
  • [SPARK-43098] [SC-77059][sql] Naprawiono błąd poprawności COUNT, gdy podzapytanie skalarne zawiera klauzulę GROUP BY
  • [SPARK-43213] [SC-129062][python] Dodaj DataFrame.offset do standardowego PySpark
  • [SPARK-42982] [SC-128400][connect][PYTHON] Poprawka createDataFrame w celu przestrzegania danego schematu ddl
  • [SPARK-43124] [SC-129011][sql] Dataset.show wyświetla CommandResults lokalnie
  • [SPARK-42998] [SC-127422][connect][PYTHON] Napraw DataFrame.collect z pustą strukturą
  • [SPARK-41498] [SC-125343]Przywróć „Propagowanie metadanych przez Union”
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Dodanie API await_termination() i exception() dla zapytań przesyłanych strumieniowo w języku Python
  • [SPARK-42552] [SC-128824][sql] Popraw strategię analizowania dwuetapowego analizatora antlr
  • [SPARK-43207] [SC-128937][connect] Dodaj funkcje pomocnicze do wyodrębniania wartości z wyrażenia literału
  • [SPARK-43186] [SC-128841][sql][HIVE] Usuń obejście dla FileSinkDesc
  • [SPARK-43107] [SC-128533][sql] Koalescencja kubełków w sprzężeniu zastosowanym po stronie strumienia sprzężenia rozgłoszeniowego
  • [SPARK-43195] [SC-128922][core] Usuń niepotrzebną otokę serializowalną w narzędziu HadoopFSUtils
  • [SPARK-43137] [SC-128828][sql] Ulepsz ArrayInsert, jeśli pozycja jest składana i dodatnia.
  • [SPARK-37829] [SC-128827][sql] Dataframe.joinWith zewnętrzne sprzężenie powinno zwrócić wartość null dla niedopasowanego wiersza
  • [SPARK-43042] [SC-128602] [SS] [Połącz] Dodanie obsługi metody table() API dla DataStreamReader
  • [SPARK-43153] [SC-128753][connect] Pomiń wykonywanie obliczeń w Spark, gdy DataFrame jest lokalny
  • [SPARK-43064] [SC-128496][sql] Karta SQL w interfejsie wiersza polecenia Spark SQL powinna wyświetlać każdą instrukcję SQL tylko raz
  • [SPARK-43126] [SC-128447][sql] Oznacz dwa wyrażenia UDF hive jako stanowe
  • [SPARK-43111] [SC-128750][ps][CONNECT][python] Połącz zagnieżdżone instrukcje if w jedną instrukcję if
  • [SPARK-43113] [SC-128749][sql] Ocena zmiennych po stronie strumienia podczas generowania kodu dla warunku powiązanego
  • [SPARK-42895] [SC-127258][connect] Ulepsz komunikaty o błędach dla zatrzymanych sesji Spark
  • [SPARK-42884] [SC-126662][connect] Dodaj integrację REPL Ammonite
  • [SPARK-43168] [SC-128674][sql] Usuń metodę Get PhysicalDataType z klasy Datatype
  • [SPARK-43121] [SC-128455][sql] Użyj BytesWritable.copyBytes zamiast ręcznego kopiowania w elemektorach HiveInspectors
  • [SPARK-42916] [SC-128389][sql] JDBCTableCatalog utrzymuje metadane Char/Varchar po stronie odczytu
  • [SPARK-43050] [SC-128550][sql] Poprawa wyrażeń agregujących poprzez zastąpienie funkcji grupowania
  • [SPARK-43095] [SC-128549][sql] Unikaj sytuacji, gdy idempotencja strategii Once jest naruszona dla partii: Infer Filters
  • [SPARK-43130] [SC-128597][sql] Move InternalType to PhysicalDataType
  • [SPARK-43105] [SC-128456][connect] Skracanie bajtów i ciągów w wiadomości proto
  • [SPARK-43099] [SC-128596][sql] Użyj getName zamiast getCanonicalName, aby uzyskać nazwę klasy konstruktora podczas rejestrowania funkcji udf w FunctionRegistry
  • [SPARK-42994] [SC-128586][ml][CONNECT] Dystrybutor PyTorch obsługuje tryb lokalny
  • [SPARK-42859] Cofnij “[SC-127935][connect][PS] Podstawowa obsługa interfejsu API biblioteki pandas w programie Spark Connect”
  • [SPARK-43021] [SC-128472][sql] CoalesceBucketsInJoin nie działa podczas korzystania z AQE
  • [SPARK-43125] [SC-128477][connect] Poprawka: Connect Server nie może obsłużyć wyjątku z wiadomością null
  • [SPARK-43147] [SC-128594] poprawka flake8 lint dla kontroli lokalnej
  • [SPARK-43031] [SC-128360] [SS] [Connect] Włączanie testu jednostkowego i doctest dla przesyłania strumieniowego
  • [SPARK-43039] [LC-67] Obsługa pól niestandardowych w kolumnie _metadata źródła pliku.
  • [SPARK-43120] [SC-128407][ss] Dodawanie obsługi śledzenia przypiętych bloków pamięci dla magazynu stanów bazy danych RocksDB
  • [SPARK-43110] [SC-128381][sql] Move asIntegral to PhysicalDataType
  • [SPARK-43118] [SC-128398][ss] Usuń niepotrzebną asercję dla elementu UninterruptibleThread w KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][connect][PYTHON] Obsługa zduplikowanych nazw pól zagnieżdżonych
  • [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable umożliwi określenie poziomu magazynu
  • [SPARK-42985] [SC-128332][connect][PYTHON] Napraw createDataFrame, aby przestrzegał konfiguracji SQL
  • [SPARK-39696] [SC-127830][core] Naprawa wyścigu danych w dostępie do TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][sql] Przenoszenie Integral do PhysicalDataType
  • [SPARK-42741] [SC-125547][sql] Nie rozwijaj rzutów w porównaniu binarnym, jeśli literał to null
  • [SPARK-43057] [SC-127948][connect][PYTHON] Migrowanie błędów kolumn programu Spark Connect do klasy błędów
  • [SPARK-42859] [SC-127935][connect][PS] Podstawowa obsługa API pandas w Spark Connect
  • [SPARK-43013] [SC-127773][python] Migrowanie ValueError z ramki danych do PySparkValueError.
  • [SPARK-43089] [SC-128051][connect] Redact — ciąg debugowania w interfejsie użytkownika
  • [SPARK-43028] [SC-128070][sql] Dodaj klasę błędów SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][sql] Dodaj test dla dropDuplicates w JavaDatasetSuite
  • [SPARK-43075] [SC-127939][connect] Zmień gRPC na grpcio, gdy nie jest zainstalowany.
  • [SPARK-42953] [SC-127809][connect] Typed filter, map, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][sql] Obsługa przekształcenia typu daty do typu znacznika czasu
  • [SPARK-42931] [SC-127933][ss] Wprowadzić dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943][connect] Dodawanie stałych typów danych proto
  • [SPARK-43077] [SC-128050][sql] Ulepszanie komunikatu o błędzie UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][ss][Connect] API DataStreamReader
  • [SPARK-43049] [SC-127846][sql] Użyj CLOB zamiast VARCHAR(255) dla parametru StringType dla Oracle JDBC
  • [SPARK-43018] [SC-127762][sql] Poprawka błędu dla poleceń INSERT z literałami znacznika czasu
  • [SPARK-42855] [SC-127722][sql] Użyj kontroli obecności wartości null w czasie wykonywania w TableOutputResolver
  • [SPARK-43030] [SC-127847][sql] Usuwanie duplikatów relacji z kolumnami metadanych
  • [SPARK-42993] [SC-127829][ml][CONNECT] Zgodność dystrybutora PyTorch z programem Spark Connect
  • [SPARK-43058] [SC-128072][sql] Przenieś wartości liczbowe i ułamkowe na PhysicalDataType
  • [SPARK-43056] [SC-127946][ss] Zatwierdzenie magazynu stanów bazy danych RocksDB powinno kontynuować pracę w tle tylko wtedy, gdy została wstrzymana
  • [SPARK-43059] [SC-127947][connect][PYTHON] Migruj TypeError z DataFrame(Reader|Pisarz) do klasy błędów
  • [SPARK-43071] [SC-128018][sql] Support SELECT DEFAULT with ORDER BY, LIMIT, OFFSET for INSERT source relation (Obsługa domyślnej ORDER BY, OFFSET dla relacji źródła INSERT)
  • [SPARK-43061] [SC-127956][core][SQL] Wprowadzenie PartitionEvaluator do wykonywania operatora SQL
  • [SPARK-43067] [SC-127938][ss] Popraw lokalizację pliku zasobów klasy błędów w łączniku Kafka
  • [SPARK-43019] [SC-127844][sql] Przenoszenie kolejności do parametru PhysicalDataType
  • [SPARK-43010] [SC-127759][python] Przeniesienie błędów kolumn do klasy błędów
  • [SPARK-42840] [SC-127782][sql] Zmień błąd _LEGACY_ERROR_TEMP_2004 na błąd wewnętrzny
  • [SPARK-43041] [SC-127765][sql] Przywrócenie konstruktorów wyjątków dla zgodności w interfejsie API łącznika
  • [SPARK-42939] [SC-127761][ss][CONNECT] Core streaming Python API for Spark Connect
  • [SPARK-42844] [SC-127766][sql] Zaktualizować klasę błędów _LEGACY_ERROR_TEMP_2008 do INVALID_URL
  • [SPARK-42316] [SC-127720][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][connect][PYTHON] Migracja błędów w ramce danych Spark Connect do klasy błędów
  • [SPARK-42983] [SC-127717][connect][PYTHON] Poprawka funkcji createDataFrame do prawidłowego obsługi tablic numpy 0-wymiarowych
  • [SPARK-42955] [SC-127476][sql] Pomijaj klasyfikowanie wyjątku i obwij AnalizowaniemWyjątek dla SparkThrowable
  • [SPARK-42949] [SC-127255][sql] Uproszczenie kodu dla NAAJ
  • [SPARK-43011] [SC-127577][sql] array_insert powinien zakończyć się niepowodzeniem przy indeksie 0
  • [SPARK-42974] [SC-127487][core] Przywróć Utils.createTempDir, aby używać ShutdownHookManager i oczyść metodę JavaUtils.createTempDir.
  • [SPARK-42964] [SC-127585][sql] PosgresDialect "42P07" oznacza również, że tabela już istnieje
  • [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME nie może kwalifikować nowej nazwy tabeli z nazwą schematu
  • [SPARK-37980] [SC-127668][sql] Access row_index za pośrednictwem _metadata, jeśli jest to możliwe w testach
  • [SPARK-42655] [SC-127591][sql] Niepoprawny niejednoznaczny błąd odwołania do kolumny
  • [SPARK-43009] [SC-127596][sql] Sparametryzowane sql() ze stałymi Any
  • [SPARK-43026] [SC-127590][sql] Stosowanie AQE z pamięcią podręczną tabel innych niż exchange
  • [SPARK-42963] [SC-127576][sql] Rozszerzanie rozszerzeń sparkSessionExtensions w celu wstrzykiwania reguł do optymalizatora etapu zapytań AQE
  • [SPARK-42918] [SC-127357] Uogólnij obsługę atrybutów metadanych w fileSourceStrategy
  • [SPARK-42806] [SC-127452][spark-42811][CONNECT] Dodaj obsługę Catalog
  • [SPARK-42997] [SC-127535][sql] TableOutputResolver musi używać poprawnych ścieżek kolumn w komunikatach o błędach dla tablic i map
  • pl-PL: [SPARK-43006] [SC-127486][pyspark] Naprawiono błąd literowy w StorageLevel eq()
  • [SPARK-43005] [SC-127485][pyspark] Poprawiono błąd w pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][core] Poprawka literówki w pliku ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][connect][PYTHON] Implementowanie funkcji Avro
  • [SPARK-42979] [SC-127272][sql] Definiowanie konstruktorów literałów jako słowa kluczowe
  • [SPARK-42946] [SC-127252][sql] Redact poufne dane, które są zagnieżdżone przez podstawienie wartości zmiennych
  • [SPARK-42952] [SC-127260][sql] Uproszczenie parametru reguły analizatora PreprocessTableCreation i DataSourceAnalysis
  • [SPARK-42683] [LC-75] Automatyczna zmiana nazwy kolumn metadanych powodujących konflikt
  • [SPARK-42853] [SC-126101][kontynuacja] Rozwiązywanie konfliktów
  • [SPARK-42929] [SC-126748][connect] umożliwić wsparcie "is_barrier" w mapInPandas / mapInArrow
  • [SPARK-42968] [SC-127271][ss] Dodaj opcję pomijania koordynatora zatwierdzania w ramach interfejsu API StreamingWrite dla źródeł/ujść DSv2
  • [SPARK-42954] [SC-127261][python][CONNECT] Dodaj YearMonthIntervalType do klienta PySpark i Spark Connect Python
  • [SPARK-41359] [SC-127256][sql] Użyj PhysicalDataType zamiast DataType w UnsafeRow
  • [SPARK-42873] [SC-127262][sql] Definiowanie typów spark SQL jako słów kluczowych
  • [SPARK-42808] [SC-126302][core] Unikaj uzyskiwania dostępnych procesorów za każdym razem w MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][sql] PlanSubqueries należy ustawić InSubqueryExec#shouldBroadcast na true
  • [SPARK-42896] [SC-126729][sql][PYTHON] Umożliwić obsługę wykonywania w trybie bariery mapInPandas / mapInArrow
  • [SPARK-42874] [SC-126442][sql] Włączanie nowej złotej struktury testów plików na potrzeby analizy wszystkich plików wejściowych
  • [SPARK-42922] [SC-126850][sql] Przejście z Random na SecureRandom
  • [SPARK-42753] [SC-126369] Ponowne użycie Exchange odwołuje się do nieistniejących węzłów
  • [SPARK-40822] [SC-126274][sql] Stabilne aliasy kolumn pochodnych
  • [SPARK-42908] [SC-126856][python] Podnieś RuntimeError, gdy SparkContext jest wymagany, ale niezainicjalizowany
  • [SPARK-42779] [SC-126042][sql] Pozwól na zapisy w wersji 2 na wskazanie zalecanego rozmiaru partycji mieszania.
  • [SPARK-42914] [SC-126727][python] Ponowne używanie transformUnregisteredFunction dla DistributedSequenceID.
  • [SPARK-42878] [SC-126882][connect] Interfejs API tabeli w ramki danych może również akceptować opcje
  • [SPARK-42927] [SC-126883][core] Zmień zakres dostępu o.a.spark.util.Iterators#size na private[util]
  • [SPARK-42943] [SC-126879][sql] Użyj wartości LONGTEXT zamiast TEXT dla parametru StringType w celu uzyskania efektywnej długości
  • [SPARK-37677] [SC-126855][core] Rozpakuj może zachować uprawnienia do plików
  • [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implement CoGrouped Map API
  • [SPARK-41876] [SC-126849][connect][PYTHON] Zaimplementować DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][core][SQL] Zmień zakres dostępu ProtobufSerDe powiązanych implementacji na private[protobuf]
  • [SPARK-42819] [SC-125879][ss] Dodaj obsługę ustawiania max_write_buffer_number i write_buffer_size dla bazy danych RocksDB używanej w strumieniu
  • [SPARK-42924] [SC-126737][sql][CONNECT][python] Wyjaśnienie komentarza sparametryzowanych args SQL
  • [SPARK-42748] [SC-126455][connect] Zarządzanie artefaktami po stronie serwera
  • [SPARK-42816] [SC-126365][connect] Obsługa maksymalnego rozmiaru komunikatu do 128 MB
  • [SPARK-42850] [SC-126109][sql] Usuń zduplikowane reguły CombineFilters w optymalizatorze
  • [SPARK-42662] [SC-126355][connect][PS] Dodaj komunikat proto dla interfejsu API pandas na domyślny indeks platformy Spark
  • [SPARK-42720] [SC-126136][ps][SQL] Używa wyrażenia dla domyślnego indeksu sekwencji rozproszonej zamiast planu
  • [SPARK-42790] [SC-126174][sql] Abstrahowanie wykluczonej metody w celu lepszego testowania testów JDBC na Dockerze.
  • [SPARK-42900] [SC-126473][connect][PYTHON] Poprawka createDataFrame w celu poszanowania nazw wnioskowania i kolumn
  • [SPARK-42917] [SC-126657][sql] Poprawiono getUpdateColumnNullabilityQuery dla DerbyDialect
  • [SPARK-42684] [SC-125157][sql] katalog v2 nie powinien zezwalać na ustawienie domyślnej wartości kolumny domyślnie
  • [SPARK-42861] [SC-126635][sql] Użyj private[sql] zamiast protected[sql], aby uniknąć generowania dokumentacji API
  • [SPARK-42920] [SC-126728][connect][PYTHON] Włączanie testów dla funkcji zdefiniowanej przez użytkownika za pomocą funkcji UDT
  • [SPARK-42791] [SC-126617][sql] Tworzenie nowej złotej struktury testów plików na potrzeby analizy
  • [SPARK-42911] [SC-126652][python] Wprowadzenie bardziej podstawowych wyjątków
  • [SPARK-42904] [SC-126634][sql] Obsługa char/varchar dla katalogu JDBC
  • [SPARK-42901] [SC-126459][connect][PYTHON] Przenieś StorageLevel do oddzielnego pliku, aby uniknąć potencjalnych file recursively imports
  • [SPARK-42894] [SC-126451][connect] Obsługa cache/persist/unpersist/storageLevel dla klienta jvm platformy Spark
  • [SPARK-42792] [SC-125852][ss] Dodawanie obsługi WRITE_FLUSH_BYTES dla bazy danych RocksDB używanej w operatorach stanowych przesyłania strumieniowego
  • [SPARK-41233] [SC-126441][connect][PYTHON] Dodaj array_prepend do klienta Spark Connect w języku Python
  • [SPARK-42681] [SC-125149][sql] Złagodzenie ograniczeń porządkowania dla ALTER TABLE DODAJ|ZASTĄP deskryptor kolumn
  • [SPARK-42889] [SC-126367][connect][PYTHON] Zaimplementować pamięć podręczną, utrwalanie, odpersistowanie i poziom przechowywania
  • [SPARK-42824] [SC-125985][connect][PYTHON] Podaj jasny komunikat o błędzie dla nieobsługiwanych atrybutów JVM
  • [SPARK-42340] [SC-126131][connect][PYTHON] Implementowanie interfejsu API dla grupowego mapowania
  • [SPARK-42892] [SC-126454][sql] Przenieś metody sameType i odpowiednie metody z klasy DataType
  • [SPARK-42827] [SC-126126][connect] Obsługa functions#array_prepend dla klienta scala connect
  • [SPARK-42823] [SC-125987][sql] konsola spark-sql obsługuje przestrzenie nazw wieloczęściowych podczas inicjalizacji
  • [SPARK-42817] [SC-125960][core] Rejestrowanie nazwy usługi shuffle jeden raz w ramach ApplicationMaster
  • [SPARK-42786] [SC-126438][connect] Typed Select
  • [SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementowanie funkcji ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][sql] Obsługa programu Codegen dla usługi HiveSimpleUDF
  • [SPARK-41233] [SC-126110][sql][PYTHON] Dodawanie funkcji array_prepend
  • [SPARK-42864] [SC-126268][ml][3.4] Uczynić IsotonicRegression.PointsAccumulator prywatnym
  • [SPARK-42876] [SC-126281][sql] Parametr physicalDataType typu danych powinien być prywatny[sql]
  • [SPARK-42101] [SC-125437][sql] Włączenie obsługi AQE dla InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][sql] Obsługa wyrażeń WYGENEROWANYCH ZAWSZE JAKO dla kolumn w instrukcjach create/replace tabeli
  • [SPARK-42870] [SC-126220][connect] Przenieś toCatalystValue do connect-common
  • [SPARK-42247] [SC-126107][connect][PYTHON] Napraw UserDefinedFunction, aby zawierała returnType
  • [SPARK-42875] [SC-126258][connect][PYTHON] Poprawka toPandas w celu prawidłowej obsługi stref czasowych i typów map
  • [SPARK-42757] [SC-125626][connect] Implement textFile for DataFrameReader
  • [SPARK-42803] [SC-126081][core][SQL][ml] Użyj funkcji getParameterCount zamiast getParameterTypes.length
  • [SPARK-42833] [SC-126043][sql] Refaktoryzacja applyExtensions w SparkSession
  • [SPARK-41765] Cofnij “[SC-123550][sql] Wycofaj metryki zapisu w wersji 1...
  • [SPARK-42848] [SC-126105][connect][PYTHON] Zaimplementuj DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][connect][PYTHON] Wsparcie dla UserDefinedType w Spark Connect (Obsługa typu zdefiniowanego przez użytkownika w Spark Connect)
  • [SPARK-42818] [SC-125861][connect][PYTHON] Implement DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867][connect] Dodaj client_type do komunikatu AddArtifactsRequest protobuf
  • [SPARK-42772] [SC-125860][sql] Zmień domyślną wartość opcji JDBC dotyczących push down na true
  • [SPARK-42771] [SC-125855][sql] Refaktoryzacja HiveGenericUDF
  • [SPARK-25050] [SC-123839][sql] Avro: pisanie złożonych związków
  • [SPARK-42765] [SC-125850][connect][PYTHON] Włącz importowanie pandas_udf z pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][core] MapOutputTracker#getMapLocation należy przestrzegać spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][sql] Poprawa wydajności usuwania partycji
  • [SPARK-42689] [SC-125195][core][SHUFFLE] Zezwalaj, aby ShuffleDriverComponent (Komponent sterujący) deklarował, czy dane mieszania są niezawodnie przechowywane
  • [SPARK-42726] [SC-125279][connect][PYTHON] Wdrożyć DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550][sql] Wydziel metryki zapisu w1 do WriteFiles
  • [SPARK-41171] [SC-124191][sql] Wywnioskować i wypchnąć limit przez operację okna, jeśli partitionSpec jest pusty
  • [SPARK-42686] [SC-125292][core] Odroczenie formatowania komunikatów debugowania w menedżerze TaskMemoryManager
  • [SPARK-42756] [SC-125443][connect][PYTHON] Funkcja pomocnika, aby przekonwertować literał proto na wartość w kliencie języka Python
  • [SPARK-42793] [SC-125627][connect] moduł connect wymaga build_profile_flags
  • [SPARK-42701] [SC-125192][sql] Dodawanie funkcji try_aes_decrypt()
  • [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame nie działa ze schematem bez wartości null
  • [SPARK-42733] [SC-125542][connect][Followup] Zapis bez ścieżki lub tabeli
  • [SPARK-42777] [SC-125525][sql] Obsługa konwertowania statystyk wykazu TimestampNTZ na statystyki planu
  • [SPARK-42770] [SC-125558][connect] Dodaj truncatedTo(ChronoUnit.MICROS), aby SQLImplicitsTestSuite w 17 codziennych testowych zadaniach ga języka Java
  • [SPARK-42752] [SC-125550][pyspark][SQL] Tworzenie wyjątków PySpark do drukowania podczas inicjowania
  • pl-PL: [SPARK-42732] [SC-125544][pyspark][CONNECT] Obsługa metody getActiveSession dla sesji połączenia Spark
  • [SPARK-42755] [SC-125442][connect] Konwersja wartości literału współczynnika na connect-common
  • [SPARK-42747] [SC-125399][ml] Poprawka nieprawidłowego stanu wewnętrznego LoR i AFT
  • [SPARK-42740] [SC-125439][sql] Naprawić błąd, który powoduje, że wypychanie offsetu lub stronicowanie jest nieprawidłowe dla niektórych wbudowanych dialektów
  • [SPARK-42745] [SC-125332][sql] Ulepszona aliasAwareOutputExpression współpracuje z DSv2
  • [SPARK-42743] [SC-125330][sql] Wsparcie analizy kolumn TimestampNTZ
  • [SPARK-42721] [SC-125371][connect] Przechwytywanie rejestrowania RPC
  • [SPARK-42691] [SC-125397][connect][PYTHON] Implement Dataset.semanticHash
  • [SPARK-42688] [SC-124922][connect] Zmień nazwę pola client_id w żądaniu Connect Proto na session_id
  • [SPARK-42310] [SC-122792][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][core] Optymalizowanie procedur Utils.bytesToString
  • [SPARK-42725] [SC-125296][connect][PYTHON] Umożliwić LiteralExpression obsługę parametrów tablicy
  • [SPARK-42702] [SC-125293][spark-42623][SQL] Obsługa sparametryzowanego zapytania w podzapytaniu i CTE
  • [SPARK-42697] [SC-125189][webui] Poprawka /api/v1/applications w celu zwrócenia całkowitego czasu pracy zamiast 0 dla pola na czas trwania
  • [SPARK-42733] [SC-125278][connect][PYTHON] Fix DataFrameWriter.save, aby pracować bez parametru ścieżki
  • [SPARK-42376] [SC-124928][ss] Wprowadzenie propagacji znaku wodnego między operatorami
  • [SPARK-42710] [SC-125205][connect][PYTHON] Zmień nazwę elementu FrameMap proto na MapPartitions
  • [SPARK-37099] [SC-123542][sql] Wprowadzenie limitu grupy dla filtru opartego na rankingu w celu zoptymalizowania obliczeń top-k
  • [SPARK-42630] [SC-125207][connect][PYTHON] Wprowadzenie UnparsedDataType i opóźnienie parsowania ciągu DDL do momentu udostępnienia SparkConnectClient
  • [SPARK-42690] [SC-125193][connect] Implementowanie funkcji analizowania CSV/JSON dla klienta Scala
  • [SPARK-42709] [SC-125172][python] Usuń założenie, że __file__ jest dostępny
  • [SPARK-42318] [SC-122648][spark-42319][SQL] Przypisz nazwę do LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][sql] Obsługuj typ danych parsera json "timestamp_ltz" jako TimestampType
  • [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() nie powinien buforować schematu
  • [SPARK-42643] [SC-125152][connect][PYTHON] Rejestrowanie funkcji języka Java (agregacja) zdefiniowanych przez użytkownika
  • [SPARK-42656] [SC-125177][connect][Kontynuacja] Napraw skrypt spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Zezwalaj dialektom jdbc na zastępowanie zapytania użytego do utworzenia tabeli
  • [SPARK-41725] [SC-124396][connect] Szybkie wykonywanie DF.sql()
  • [SPARK-42687] [SC-124896][ss] Lepszy komunikat o błędzie dla nieobsługiwanej operacji pivot w strumieniu
  • [SPARK-42676] [SC-124809][ss] Zapisywanie tymczasowych punktów kontrolnych dla zapytań przesyłanych strumieniowo do lokalnego systemu plików, nawet jeśli domyślne usługi FS są ustawione inaczej
  • [SPARK-42303] [SC-122644][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][sql] Upewnij się, że co najmniej jedna jednostka czasowa po "interwale"
  • [SPARK-42649] [SC-124576][core] Usuń standardowy nagłówek licencji Apache z plików źródłowych firm trzecich
  • [SPARK-42611] [SC-124395][sql] Wstaw sprawdzanie długości znaków/varchar dla pól wewnętrznych podczas rozwiązywania
  • [SPARK-42419] [SC-124019][connect][PYTHON] Migrate into error framework for Spark Connect Column API (Migrowanie do platformy błędów dla interfejsu API kolumn programu Spark Connect).
  • [SPARK-42637] [SC-124522][connect] Add SparkSession.stop()
  • [SPARK-42647] [SC-124647][python] Zmień alias dla przestarzałych i usuniętych typów numpy
  • [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver zamknie tylko uruchomioną sesję hiveState
  • [SPARK-42593] [SC-124405][ps] Przestarzałe & usunąć interfejsy API, które zostaną usunięte w bibliotece pandas 2.0.
  • [SPARK-41870] [SC-124402][connect][PYTHON] Poprawka createDataFrame do obsługi zduplikowanych nazw kolumn
  • [SPARK-42569] [SC-124379][connect] Zgłaszanie wyjątków dla nieobsługiwanego interfejsu API sesji
  • [SPARK-42631] [SC-124526][connect] Obsługa rozszerzeń niestandardowych w kliencie Scala
  • [SPARK-41868] [SC-124387][connect][PYTHON] Naprawiono createDataFrame w celu wsparcia dla okresów trwania
  • [SPARK-42572] [SC-124171][sql][SS] Poprawa działania dla StateStoreProvider.validateStateRowFormat

Aktualizacje konserwacyjne

Sprawdź Aktualizacje konserwacyjne środowiska Databricks Runtime 13.1.

Środowisko systemu

  • System operacyjny: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.2.1 attrs 21.4.0 połączenie zwrotne 0.2.0
beautifulsoup4 4.11.1 czarny 22.6.0 wybielacz 4.1.0
kierunkowskaz 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 kliknięcie 8.0.4 kryptografia 37.0.1
rowerzysta 0.11.0 Cython 0.29.32 dbus-python 1.2.18
debugpy 1.5.1 dekorator 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown 0,12 punkty wejścia 0,4
Wykonywanie 1.2.0 aspekty — omówienie 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 status grpcio 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 brelok 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 biblioteka matplotlib-inline 0.1.6
Mccabe 0.7.0 rozstroić 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notatnik 6.4.12 numpy 1.21.5 oauthlib 3.2.0
opakowanie 21,3 Pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 specyfikacja ścieżki 0.9.0 frajer 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Poduszka 9.2.0
pip 22.2.2 platformdirs 2.5.2 kreślenie 5.9.0
wtyczkowy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 żądania 2.28.1 lina 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 Sześć 1.16.0 sitko do zup 2.3.1
ssh-import-id 5,11 stack-data 0.6.2 statsmodels 0.13.2
Wytrzymałość 8.1.0 zakończony 0.13.1 ścieżka testowa 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlety 5.1.1 typing_extensions 4.3.0
ujson (szybka biblioteka do obsługi formatu JSON) 5.4.0 nienadzorowane uaktualnienia 0.1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 koło 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2023-02-10.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzałka 10.0.1 askpass 1.1 assertthat 0.2.1
backports (przenoszenie funkcji do starszych wersji) 1.4.1 baza 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 plama 1.2.3
rozruch 1.3-28 warzyć 1.0-8 Brio 1.1.3
miotła 1.0.3 bslib 0.4.2 cachem 1.0.6
obiekt wywołujący 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-59 klasa 7.3-21 CLI 3.6.0
clipr 0.8.0 zegar 0.6.1 klaster 2.1.4
codetools 0.2-19 przestrzeń kolorów 2.1-0 commonmark 1.8.1
— kompilator 4.2.2 konfiguracja 0.3.1 cpp11 0.4.3
kredka 1.5.2 uwierzytelnienia 1.3.2 curl 5.0.0
data.table 1.14.6 zestawy danych 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Opis 1.4.2 devtools 2.4.5
diffobj 0.3.5 trawić 0.6.31 oświetlenie skierowane w dół 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
wielokropek 0.3.2 ocenić 0,20 fani 1.0.4
kolory 2.1.1 szybka mapa 1.1.0 fontawesome 0.5.0
forcats 1.0.0 foreach 1.5.2 zagraniczny 0.8-82
kuźnia 0.2.0 Fs 1.6.1 przyszłość 1.31.0
future.apply 1.10.0 płukać gardło 1.3.0 Generyczne 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globalna 0.16.2
klej 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 grafika 4.2.2 grDevices 4.2.2
siatka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 przystań 2.5.1
wyższy 0.10 HMS 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Identyfikatory 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteratory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 knitr 1.42
Etykietowanie 0.4.2 później 1.3.0 krata 0.20-45
lawa 1.7.1 cykl życia 1.0.3 nasłuchiwanie 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Markdown 1.5
MASA 7.3-58.2 Macierz 1.5-1 zapamiętywanie 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0,12
miniUI 0.1.1.1 Metryki modelu 1.2.2.2 modeler 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 równoległy 4.2.2
równolegle 1.34.0 filar 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 pochwała 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Postęp 1.2.2
progressr 0.13.0 Obietnice 1.2.0.1 Proto 1.0.0
proxy 0.4-27 PS 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 przepisy 1.0.4
rewanż 1.0.1 rewanż2 2.1.2 Piloty 2.4.2
reprezentatywny przykład 2.0.2 zmień kształt2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 wagi 1.2.1
selektor 0.4-2 informacje o sesji 1.2.2 kształt 1.4.6
błyszczący 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 przestrzenny 7.3-15 Splajny 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Statystyki 4.2.2
stats4 4.2.2 stringi 1.7.12 stringr 1.5.0
przetrwanie 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 kształtowanie tekstu 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 zmiana czasu 0.2.0 czasData 4022.108
tinytex 0.44 narzędzia 4.2.2 tzdb 0.3.0
sprawdzacz URL 1.0.1 Użyj tego 2.1.6 utf8 1.2.3
narzędzia 4.2.2 uuid 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
wąs 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 Xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importeksport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics strumień 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kriogeniczne cieniowanie 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core Adnotacje Jackson 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.kofeina kofeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-rodowici
com.github.fommil.netlib natywny_system Java 1.1
com.github.fommil.netlib natywny_system-java 1.1-rodzimi
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-rodzimi mieszkańcy
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone adnotacje podatne na błędy 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava owoc guawy 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfiguracja 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor powietrza 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metryki —rdzeń 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metryki-kontrole zdrowia 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metryki-json 4.2.10
io.dropwizard.metrics metryki-JVM 4.2.10
io.dropwizard.metrics serwlety metryczne 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx kolekcjoner 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transakcja-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine Pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant mrówka 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow format strzałki 11.0.0
org.apache.arrow strzałka-pamięć-rdzeń 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow wektor strzałki 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy bluszcz 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc podkładki orc 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus adnotacje odbiorców 0.13.0
org.apache.zookeeper opiekun zwierząt 3.6.3
org.apache.zookeeper juta opiekuna zwierząt 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-kontynuacja 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-api 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-klient 9.4.50.v20221201
org.eclipse.jetty.websocket websocket —wspólne 9.4.50.v20221201
org.eclipse.jetty.websocket serwer websocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers serwlet kontenerowy Jersey 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Podkładki 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest zgodny ze standardem scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1