Databricks Runtime 13.1 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 13.1 obsługiwanym przez platformę Apache Spark 3.4.0.
Usługa Databricks wydała tę wersję w maju 2023 r.
Nowe funkcje i ulepszenia
- Obsługa klastra dla zestawu JDK 17 (publiczna wersja zapoznawcza)
- Dodawanie, zmienianie lub usuwanie danych w tabelach przesyłania strumieniowego
- Czytaj Kafkę przy użyciu języka SQL
- Nowe wbudowane funkcje SQL
- Obsługa Unity Catalog dla bibliotek Pythona z zakresem klastra
- Domyślne rozszerzone włączanie zoptymalizowanych zapisów w katalogu Unity
- Zaawansowana obsługa operatorów stanowych w strukturze obciążeń związanych z przesyłaniem strumieniowym
- Klon Delta dla katalogu Unity jest w publicznej wersji zapoznawczej
- Obsługa Pub/Sub dla strumieniowania uporządkowanego
- Usuwanie duplikatów wewnątrz znaków wodnych w Strukturalnym Strumieniu
- Rozszerzona obsługa konwersji Delta z tabel Iceberg z obciętymi kolumnami partycji
- Przesyłanie zmian schematu przy użyciu mapowania kolumn dla Delta Lake
- Usuń WERSJĘ START
- Nowe wyrażenia H3 dostępne w języku Python
Obsługa klastra dla zestawu JDK 17 (publiczna wersja zapoznawcza)
Usługa Databricks zapewnia teraz obsługę klastra dla zestawu Java Development Kit (JDK) 17. Zobacz Zestaw SDK usługi Databricks dla języka Java.
Dodawanie, zmienianie lub usuwanie danych w tabelach przesyłania strumieniowego
Teraz można używać instrukcji DML do modyfikowania tabel przesyłania strumieniowego publikowanych w wykazie aparatu Unity za pomocą potoków DLT. Zobacz Dodawanie, zmienianie lub usuwanie danych w tabeli przesyłania strumieniowego oraz Dodawanie, zmienianie lub usuwanie danych w docelowej tabeli przesyłania strumieniowego. Instrukcje DML umożliwiają również modyfikowanie tabel przesyłania strumieniowego utworzonych w usłudze Databricks SQL.
Czytanie danych z Kafki za pomocą SQL
Teraz możesz użyć read_kafka
funkcji SQL do odczytywania danych platformy Kafka. Przesyłanie strumieniowe przy użyciu języka SQL jest obsługiwane tylko w technologii DLT lub w tabelach przesyłania strumieniowego w usłudze Databricks SQL. Zobacz read_kafka
funkcji wartości tabeli.
Nowe wbudowane funkcje SQL
Dodano następujące funkcje:
-
array_prepend(tablica, elem) Zwraca
array
, poprzedzoną elementemelem
. -
try_aes_decrypt(wyrażenie, klucz [, tryb [, wypełnienie])) Odszyfrowuje plik binarny utworzony przy użyciu szyfrowania AES i zwraca
NULL
wartość, jeśli wystąpi błąd. - sql_keywords() Zwraca tabelę słów kluczowych SQL usługi Azure Databricks.
Obsługa Unity Catalog dla bibliotek Pythona skierowanych na klaster
Unity Catalog ma pewne ograniczenia dotyczące użycia biblioteki. W środowisku Databricks Runtime 13.1 lub nowszym obsługiwane są biblioteki języka Python o zakresie klastra, w tym pliki koła języka Python przekazywane jako pliki obszaru roboczego. Biblioteki, do których odwołuje się ścieżka plików DBFS, nie są obsługiwane zarówno w katalogu głównym systemu plików DBFS, jak i w lokalizacji zewnętrznej zainstalowanej w systemie plików DBFS. Biblioteki inne niż języka Python nie są obsługiwane. Zobacz Biblioteki klastrów.
W środowisku Databricks Runtime 13.0 i starszych biblioteki związane z klastrem nie są obsługiwane w klastrach korzystających ze standardowego trybu dostępu (dawniej trybu dostępu współdzielonego) w obszarze roboczym z włączonym katalogiem Unity.
Poszerzone domyślne umożliwienie zoptymalizowanych operacji zapisu w Unity Catalog.
Domyślna zoptymalizowana obsługa zapisu dla tabel Delta zarejestrowanych w Unity Catalog została rozszerzona, aby uwzględnić CTAS
instrukcje i INSERT
operacje dla tabel partycjonowanych. To zachowanie jest zgodne z wartościami domyślnymi w usłudze SQL Warehouse. Zobacz Zoptymalizowane zapisy dla usługi Delta Lake w usłudze Azure Databricks.
Rozszerzone wsparcie dla operatorów stanowych w strukturalnym przesyłaniu strumieniowym
Teraz można połączyć wiele operatorów stanowych, co oznacza, że można przekazać dane wyjściowe operacji, takie jak agregacja okienna, do innej operacji stanowej, takiej jak łączenie. Zobacz Co to jest przesyłanie strumieniowe z zachowaniem stanu?.
Klon Delta dla Unity Catalog jest w publicznej wersji zapoznawczej.
Teraz możesz użyć płytkiego klonowania, aby z istniejących tabel zarządzanych w katalogu Unity utworzyć nowe tabele zarządzane w katalogu Unity. Zobacz Płytkie klonowanie tabel katalogu Unity.
Obsługa Pub/Sub dla przesyłania strumieniowego o strukturze
Teraz możesz użyć wbudowanego łącznika, aby zasubskrybować usługę Google Pub/Sub za pomocą strukturalnego przesyłania strumieniowego. Zobacz Subskrybowanie usługi Google Pub/Sub.
Usuwanie duplikatów w znakach wodnych w strumieniowaniu strukturalnym
Teraz można użyć dropDuplicatesWithinWatermark
w połączeniu z określonym progiem limitu w celu deduplikacji rekordów w strumieniu ze strukturą. Zobacz Usuwanie duplikatów w znaku wodnym.
Rozszerzona obsługa konwersji Delta z tabel Iceberg z obciętymi kolumnami partycji
Teraz można używać CLONE
i CONVERT TO DELTA
z tabelami Iceberg, które mają partycje zdefiniowane na obciętych kolumnach typów int
, long
i string
. Obcięte kolumny typu decimal
nie są obsługiwane.
Strumieniowe przesyłanie zmian schematu z mapowaniem kolumn w Delta Lake
Teraz możesz podać lokalizację śledzenia schematu, aby włączyć przesyłanie strumieniowe z tabel Delta z włączonym mapowaniem kolumn. Zobacz Przesyłanie strumieniowe za pomocą mapowania kolumn i zmian schematu.
Usuń WERSJĘ STARTOWĄ
START VERSION
jest teraz przestarzały dla elementu ALTER SHARE
.
Nowe wyrażenia H3 dostępne w języku Python
Wyrażenia h3_coverash3
i h3_coverash3string
są dostępne w języku Python.
Poprawki błędów
Parquet failOnUnknownFields nie usuwa już dyskretnie danych w przypadku niezgodności typów
Jeśli plik Parquet został odczytany tylko z failOnUnknownFields
opcją lub z automatycznym modułem ładującym w failOnNewColumns
trybie ewolucji schematu, kolumny o różnych typach danych teraz powodują błąd i zaleca się użycie rescuedDataColumn
. Moduł automatycznego ładowania teraz poprawnie odczytuje i nie ratuje już typów liczb całkowitych, krótkich lub bajtów, jeśli podano jeden z tych typów danych. Plik Parquet sugeruje jeden z dwóch pozostałych typów.
Zmiany powodujące niezgodność
Uaktualnij wersję sqlite-jdbc do wersji 3.42.0.0, aby rozwiązać problem CVE-2023-32697
Uaktualnij wersję sqlite-jdbc z wersji 3.8.11.2 do 3.42.0.0. Interfejsy API wersji 3.42.0.0 nie są w pełni zgodne z wersją 3.8.11.2. Jeśli używasz pliku sqlite-jdbc w kodzie, sprawdź raport zgodności sqlite-jdbc, aby uzyskać szczegółowe informacje. Jeśli przeprowadzasz migrację do wersji 13.1 i używasz SQLite, potwierdź swoje metody i typ zwracany w wersji 3.42.0.0.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- facets-overview od 1.0.2 do 1.0.3
- Aktualizacja filelock z wersji 3.10.7 do 3.12.0
- pyarrow z 7.0.0 do 8.0.0
- tenacity z 8.0.1 do 8.1.0
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- com.github.ben-manes.caffeine.caffeine z 2.3.4 do 2.9.3
- io.delta.delta-sharing-spark_2.12 z 0.6.8 do 0.6.4
- net.snowflake.snowflake-jdbc od 3.13.29 do 3.13.22
- org.checkerframework.checker-qual od 3.5.0 do 3.19.0
- org.scalactic.scalactic_2.12 z wersji 3.0.8 do 3.2.15
- org.scalatest.scalatest_2.12 z wersji 3.0.8 do 3.2.15
- org.xerial.sqlite-jdbc z wersji 3.8.11.2 do 3.42.0.0
Apache Spark
Środowisko Databricks Runtime 13.1 obejmuje platformę Apache Spark 3.4.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 13.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-42719] [DBRRM-199][sc-131578] Revert "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Przywróć [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Dodaj Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][connect][PYTHON] Umożliwia rozszerzenie programu ChannelBuilder dla sparkConnectClient
- [SPARK-43323] [SC-129966][sql][PYTHON] Naprawa DataFrame.toPandas z włączonym Apache Arrow w celu prawidłowego obsługiwania wyjątków
- [SPARK-42940] [SC-129896][ss][CONNECT] Ulepszanie zarządzania sesjami dla zapytań przesyłanych strumieniowo
- [SPARK-43032] [SC-125756] [CONNECT][ss] Dodano menedżera zapytań przesyłania strumieniowego
- [SPARK-16484] [SC-129975][sql] Dodaj obsługę Datasketches HllSketch
- [SPARK-43260] [SC-129281][python] Migrate the Spark SQL pandas arrow type errors into error class (Migrowanie błędów typu strzałek biblioteki Pandas SQL Platformy Spark do klasy błędów).
- [SPARK-41766] [SC-129964][core] Obsługa żądania wycofania wysłanego przed rejestracją procesu wykonawczego
- [SPARK-43307] [SC-129971][python] Migrowanie błędów wartości biblioteki PandasUDF do klasy błędów
- [SPARK-43206] [SC-129903] [SS] [CONNECT] Wyjątek StreamingQuery() obejmuje ślad stosu
- [SPARK-43311] [SC-129905][ss] Ulepszenia zarządzania pamięcią dostawcy magazynu stanów bazy danych RocksDB
- [SPARK-43237] [SC-129898][core] Obsługa komunikatu wyjątku o wartości null w dzienniku zdarzeń
- [SPARK-43320] [SC-129899][sql][HIVE] Bezpośrednie wywoływanie interfejsu API Hive 2.3.9
-
[SPARK-43270] [SC-129897][python] Implementowanie
__dir__()
wpyspark.sql.dataframe.DataFrame
w celu uwzględnienia kolumn - [SPARK-43183] przywróć "[SC-128938][ss] Wprowadzenie nowego wywołania zwrotnego "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][sql] Zamień klasę błędów _LEGACY_ERROR_TEMP_2022 przez błąd wewnętrzny
- pl-PL: [SPARK-43198] [SC-129470][connect] Poprawka "Nie można zainicjować klasy Ammonite..." błąd podczas korzystania z filtru
- [SPARK-43165] [SC-129777][sql] Przenieś canWrite do DataTypeUtils
- [SPARK-43298] [SC-129729][python][ML] predict_batch_udf z danymi wejściowymi skalarnymi kończy się niepowodzeniem, gdy rozmiar partii wynosi jeden
- [SPARK-43298] [SC-129700]Przywracanie "[PYTHON][ml] predict_batch_udf z danymi wejściowymi skalarnymi kończy się niepowodzeniem z rozmiarem partii jednego"
- [SPARK-43052] [SC-129663][core] Obsługa śladu stosu z nazwą pliku jako null w dzienniku zdarzeń
- [SPARK-43183] [SC-128938][ss] Wprowadzenie nowej funkcjonalności wywołania zwrotnego „onQueryIdle” w StreamingQueryListener
- [SPARK-43209] [SC-129190][connect][PYTHON] Migrowanie błędów wyrażeń do klasy błędów
- [SPARK-42151] [SC-128754][sql] Dopasowanie przypisań UPDATE z atrybutami tabeli
- [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM client StreamingQuery exception() API
- [SPARK-43298] [SC-129699][python][ML] predict_batch_udf z wejściem skalarnym kończy się niepowodzeniem przy rozmiarze partii wynoszącym jeden
- [SPARK-43248] [SC-129660][sql] Niepotrzebne serializowanie/deserializowanie ścieżki dla równoległego zbierania statystyk partycji
-
[SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Wprowadzenie
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][connect][PYTHON] Implementacja chętnej ewaluacji dla repr i repr_html
- [SPARK-42953] [SC-129469][connect][Followup] Poprawka kompilacji testu maven dla testów UDF klienta Scala
- [SPARK-43144] [SC-129280] Interfejs API Scala Client DataStreamReader table()
- [SPARK-43136] [SC-129358][connect] Dodawanie funkcji groupByKey + mapGroup + coGroup
-
[SPARK-43156] [SC-129672][sc-128532][SQL] Poprawka błędu
COUNT(*) is null
w skorelowanym podzapytaniu skalarnym - [SPARK-43046] [SC-129110] [SS] [Connect] Zaimplementowano Python API dropDuplicatesWithinWatermark dla Spark Connect
- [SPARK-43199] [SC-129467][sql] Spraw, aby InlineCTE było idempotentne
-
[SPARK-43293] [SC-129657][sql]
__qualified_access_only
powinno być ignorowane w normalnych kolumnach - [SPARK-43276] [SC-129461][connect][PYTHON] Migrowanie okna programu Spark Connect do klasy błędów
- [SPARK-43174] [SC-129109][sql] Naprawa SparkSQLCLIDriver completer
- [SPARK-43084] [SC-128654] [SS] Dodaj obsługę applyInPandasWithState dla Spark Connect
- [SPARK-43119] [SC-129040][sql] Obsługa dynamicznego pobierania słów kluczowych SQL przez JDBC API i TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] Funkcje UDF języka Python zoptymalizowane z użyciem Apache Arrow w Spark Connect
- [SPARK-43085] [SC-128432][sql] Wsparcie dla przypisania wartości domyślnej kolumny dla nazw tabel wieloczęściowych
- [SPARK-43226] [LC-671] Definiowanie wyodrębniaczy dla metadanych stałej pliku
-
[SPARK-43210] [SC-129189][connect][PYTHON] Wprowadzenie
PySparkAssertionError
- [SPARK-43214] [SC-129199][sql] Metryki po stronie sterownika dla elementu LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Poprawka dla ReplE2ESuite, który ciągle nie działa z JDK 17
- [SPARK-43268] [SC-129249][sql] Użyj odpowiednich klas błędów, gdy wyjątki są tworzone z komunikatem
- [SPARK-43142] [SC-129299] Napraw wyrażenia DSL dotyczące atrybutów z znakami specjalnymi
- [SPARK-43129] [SC-128896] Podstawowy interfejs API języka Scala na potrzeby przesyłania strumieniowego aplikacji Spark Connect
- [SPARK-43233] [SC-129250] [SS] Dodawanie rejestrowania dla odczytu usługi Kafka Batch dla partycji tematu, zakresu przesunięcia i identyfikatora zadania
- [SPARK-43249] [SC-129195][connect] Poprawka brakujących statystyk dla polecenia SQL
- [SPARK-42945] [SC-129188][connect] Obsługa PYSPARK_JVM_STACKTRACE_ENABLED w programie Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Migracja błędów UDF do systemu błędów PySpark
- [SPARK-43123] [SC-128494][sql] Wewnętrzne metadane pól nie powinny być wyciekane do wykazów
- [SPARK-43217] [SC-129205] Prawidłowa rekurencja w ramach zagnieżdżonych map/tablic w "findNestedField"
- [SPARK-43243] [SC-129294][python][CONNECT] Dodaj parametr poziomu do funkcji printSchema w Pythonie
-
[SPARK-43230] [SC-129191][connect] Uproszczenie
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][sql] Respect RequiresDistributionAndOrdering w ramach CTAS/RTAS
-
[SPARK-43234] [SC-129192][connect][PYTHON] Migrate
ValueError
from Conect DataFrame into error class (MigrowanieValueError
z ramki danych Conect do klasy błędów) - [SPARK-43212] [SC-129187][ss][PYTHON] Zmigrować błędy strukturalnego przesyłania strumieniowego do klasy błędów
-
[SPARK-43239] [SC-129186][ps] Usuń
null_counts
z info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput powinno być zgodne z wyjściem podrzędnym
- [SPARK-43191] [SC-128924][core] Zastąp refleksję na bezpośrednie wywołanie elementu CallerContext usługi Hadoop
- [SPARK-43193] [SC-129042][ss] Usuń obejście problemu dla HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Umożliwienie znajdowania i przesyłania plików klas REPL po stronie klienta do serwera jako artefakty
- [SPARK-43098] [SC-77059][sql] Naprawiono błąd poprawności COUNT, gdy podzapytanie skalarne zawiera klauzulę GROUP BY
-
[SPARK-43213] [SC-129062][python] Dodaj
DataFrame.offset
do standardowego PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Poprawka createDataFrame w celu przestrzegania danego schematu ddl
- [SPARK-43124] [SC-129011][sql] Dataset.show wyświetla CommandResults lokalnie
- [SPARK-42998] [SC-127422][connect][PYTHON] Napraw DataFrame.collect z pustą strukturą
- [SPARK-41498] [SC-125343]Przywróć „Propagowanie metadanych przez Union”
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Dodanie API await_termination() i exception() dla zapytań przesyłanych strumieniowo w języku Python
- [SPARK-42552] [SC-128824][sql] Popraw strategię analizowania dwuetapowego analizatora antlr
- [SPARK-43207] [SC-128937][connect] Dodaj funkcje pomocnicze do wyodrębniania wartości z wyrażenia literału
- [SPARK-43186] [SC-128841][sql][HIVE] Usuń obejście dla FileSinkDesc
- [SPARK-43107] [SC-128533][sql] Koalescencja kubełków w sprzężeniu zastosowanym po stronie strumienia sprzężenia rozgłoszeniowego
- [SPARK-43195] [SC-128922][core] Usuń niepotrzebną otokę serializowalną w narzędziu HadoopFSUtils
- [SPARK-43137] [SC-128828][sql] Ulepsz ArrayInsert, jeśli pozycja jest składana i dodatnia.
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith zewnętrzne sprzężenie powinno zwrócić wartość null dla niedopasowanego wiersza
- [SPARK-43042] [SC-128602] [SS] [Połącz] Dodanie obsługi metody table() API dla DataStreamReader
- [SPARK-43153] [SC-128753][connect] Pomiń wykonywanie obliczeń w Spark, gdy DataFrame jest lokalny
- [SPARK-43064] [SC-128496][sql] Karta SQL w interfejsie wiersza polecenia Spark SQL powinna wyświetlać każdą instrukcję SQL tylko raz
- [SPARK-43126] [SC-128447][sql] Oznacz dwa wyrażenia UDF hive jako stanowe
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] Połącz zagnieżdżone instrukcje
if
w jedną instrukcjęif
- [SPARK-43113] [SC-128749][sql] Ocena zmiennych po stronie strumienia podczas generowania kodu dla warunku powiązanego
- [SPARK-42895] [SC-127258][connect] Ulepsz komunikaty o błędach dla zatrzymanych sesji Spark
- [SPARK-42884] [SC-126662][connect] Dodaj integrację REPL Ammonite
- [SPARK-43168] [SC-128674][sql] Usuń metodę Get PhysicalDataType z klasy Datatype
-
[SPARK-43121] [SC-128455][sql] Użyj
BytesWritable.copyBytes
zamiast ręcznego kopiowania w elemektorach HiveInspectors - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog utrzymuje metadane Char/Varchar po stronie odczytu
- [SPARK-43050] [SC-128550][sql] Poprawa wyrażeń agregujących poprzez zastąpienie funkcji grupowania
-
[SPARK-43095] [SC-128549][sql] Unikaj sytuacji, gdy idempotencja strategii Once jest naruszona dla partii:
Infer Filters
- [SPARK-43130] [SC-128597][sql] Move InternalType to PhysicalDataType
- [SPARK-43105] [SC-128456][connect] Skracanie bajtów i ciągów w wiadomości proto
-
[SPARK-43099] [SC-128596][sql] Użyj
getName
zamiastgetCanonicalName
, aby uzyskać nazwę klasy konstruktora podczas rejestrowania funkcji udf w FunctionRegistry - [SPARK-42994] [SC-128586][ml][CONNECT] Dystrybutor PyTorch obsługuje tryb lokalny
- [SPARK-42859] Cofnij “[SC-127935][connect][PS] Podstawowa obsługa interfejsu API biblioteki pandas w programie Spark Connect”
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoin
nie działa podczas korzystania z AQE - [SPARK-43125] [SC-128477][connect] Poprawka: Connect Server nie może obsłużyć wyjątku z wiadomością null
- [SPARK-43147] [SC-128594] poprawka flake8 lint dla kontroli lokalnej
- [SPARK-43031] [SC-128360] [SS] [Connect] Włączanie testu jednostkowego i doctest dla przesyłania strumieniowego
- [SPARK-43039] [LC-67] Obsługa pól niestandardowych w kolumnie _metadata źródła pliku.
- [SPARK-43120] [SC-128407][ss] Dodawanie obsługi śledzenia przypiętych bloków pamięci dla magazynu stanów bazy danych RocksDB
- [SPARK-43110] [SC-128381][sql] Move asIntegral to PhysicalDataType
- [SPARK-43118] [SC-128398][ss] Usuń niepotrzebną asercję dla elementu UninterruptibleThread w KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Obsługa zduplikowanych nazw pól zagnieżdżonych
- [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable umożliwi określenie poziomu magazynu
- [SPARK-42985] [SC-128332][connect][PYTHON] Napraw createDataFrame, aby przestrzegał konfiguracji SQL
- [SPARK-39696] [SC-127830][core] Naprawa wyścigu danych w dostępie do TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Przenoszenie Integral do PhysicalDataType
- [SPARK-42741] [SC-125547][sql] Nie rozwijaj rzutów w porównaniu binarnym, jeśli literał to null
- [SPARK-43057] [SC-127948][connect][PYTHON] Migrowanie błędów kolumn programu Spark Connect do klasy błędów
- [SPARK-42859] [SC-127935][connect][PS] Podstawowa obsługa API pandas w Spark Connect
-
[SPARK-43013] [SC-127773][python] Migrowanie
ValueError
z ramki danych doPySparkValueError
. - [SPARK-43089] [SC-128051][connect] Redact — ciąg debugowania w interfejsie użytkownika
- [SPARK-43028] [SC-128070][sql] Dodaj klasę błędów SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Dodaj test dla dropDuplicates w JavaDatasetSuite
-
[SPARK-43075] [SC-127939][connect] Zmień
gRPC
nagrpcio
, gdy nie jest zainstalowany. - [SPARK-42953] [SC-127809][connect] Typed filter, map, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][sql] Obsługa przekształcenia typu daty do typu znacznika czasu
- [SPARK-42931] [SC-127933][ss] Wprowadzić dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][connect] Dodawanie stałych typów danych proto
- [SPARK-43077] [SC-128050][sql] Ulepszanie komunikatu o błędzie UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] API DataStreamReader
- [SPARK-43049] [SC-127846][sql] Użyj CLOB zamiast VARCHAR(255) dla parametru StringType dla Oracle JDBC
- [SPARK-43018] [SC-127762][sql] Poprawka błędu dla poleceń INSERT z literałami znacznika czasu
- [SPARK-42855] [SC-127722][sql] Użyj kontroli obecności wartości null w czasie wykonywania w TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Usuwanie duplikatów relacji z kolumnami metadanych
- [SPARK-42993] [SC-127829][ml][CONNECT] Zgodność dystrybutora PyTorch z programem Spark Connect
- [SPARK-43058] [SC-128072][sql] Przenieś wartości liczbowe i ułamkowe na PhysicalDataType
- [SPARK-43056] [SC-127946][ss] Zatwierdzenie magazynu stanów bazy danych RocksDB powinno kontynuować pracę w tle tylko wtedy, gdy została wstrzymana
- [SPARK-43059] [SC-127947][connect][PYTHON] Migruj TypeError z DataFrame(Reader|Pisarz) do klasy błędów
- [SPARK-43071] [SC-128018][sql] Support SELECT DEFAULT with ORDER BY, LIMIT, OFFSET for INSERT source relation (Obsługa domyślnej ORDER BY, OFFSET dla relacji źródła INSERT)
- [SPARK-43061] [SC-127956][core][SQL] Wprowadzenie PartitionEvaluator do wykonywania operatora SQL
- [SPARK-43067] [SC-127938][ss] Popraw lokalizację pliku zasobów klasy błędów w łączniku Kafka
- [SPARK-43019] [SC-127844][sql] Przenoszenie kolejności do parametru PhysicalDataType
- [SPARK-43010] [SC-127759][python] Przeniesienie błędów kolumn do klasy błędów
-
[SPARK-42840] [SC-127782][sql] Zmień błąd
_LEGACY_ERROR_TEMP_2004
na błąd wewnętrzny - [SPARK-43041] [SC-127765][sql] Przywrócenie konstruktorów wyjątków dla zgodności w interfejsie API łącznika
- [SPARK-42939] [SC-127761][ss][CONNECT] Core streaming Python API for Spark Connect
-
[SPARK-42844] [SC-127766][sql] Zaktualizować klasę błędów
_LEGACY_ERROR_TEMP_2008
doINVALID_URL
- [SPARK-42316] [SC-127720][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][connect][PYTHON] Migracja błędów w ramce danych Spark Connect do klasy błędów
- [SPARK-42983] [SC-127717][connect][PYTHON] Poprawka funkcji createDataFrame do prawidłowego obsługi tablic numpy 0-wymiarowych
- [SPARK-42955] [SC-127476][sql] Pomijaj klasyfikowanie wyjątku i obwij AnalizowaniemWyjątek dla SparkThrowable
- [SPARK-42949] [SC-127255][sql] Uproszczenie kodu dla NAAJ
-
[SPARK-43011] [SC-127577][sql]
array_insert
powinien zakończyć się niepowodzeniem przy indeksie 0 -
[SPARK-42974] [SC-127487][core] Przywróć
Utils.createTempDir
, aby używaćShutdownHookManager
i oczyść metodęJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][sql] PosgresDialect "42P07" oznacza również, że tabela już istnieje
- [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME nie może kwalifikować nowej nazwy tabeli z nazwą schematu
- [SPARK-37980] [SC-127668][sql] Access row_index za pośrednictwem _metadata, jeśli jest to możliwe w testach
- [SPARK-42655] [SC-127591][sql] Niepoprawny niejednoznaczny błąd odwołania do kolumny
-
[SPARK-43009] [SC-127596][sql] Sparametryzowane
sql()
ze stałymiAny
- [SPARK-43026] [SC-127590][sql] Stosowanie AQE z pamięcią podręczną tabel innych niż exchange
- [SPARK-42963] [SC-127576][sql] Rozszerzanie rozszerzeń sparkSessionExtensions w celu wstrzykiwania reguł do optymalizatora etapu zapytań AQE
- [SPARK-42918] [SC-127357] Uogólnij obsługę atrybutów metadanych w fileSourceStrategy
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT] Dodaj obsługę
Catalog
- [SPARK-42997] [SC-127535][sql] TableOutputResolver musi używać poprawnych ścieżek kolumn w komunikatach o błędach dla tablic i map
- pl-PL: [SPARK-43006] [SC-127486][pyspark] Naprawiono błąd literowy w StorageLevel eq()
- [SPARK-43005] [SC-127485][pyspark] Poprawiono błąd w pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Poprawka literówki w pliku ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Implementowanie funkcji Avro
- [SPARK-42979] [SC-127272][sql] Definiowanie konstruktorów literałów jako słowa kluczowe
- [SPARK-42946] [SC-127252][sql] Redact poufne dane, które są zagnieżdżone przez podstawienie wartości zmiennych
- [SPARK-42952] [SC-127260][sql] Uproszczenie parametru reguły analizatora PreprocessTableCreation i DataSourceAnalysis
- [SPARK-42683] [LC-75] Automatyczna zmiana nazwy kolumn metadanych powodujących konflikt
- [SPARK-42853] [SC-126101][kontynuacja] Rozwiązywanie konfliktów
- [SPARK-42929] [SC-126748][connect] umożliwić wsparcie "is_barrier" w mapInPandas / mapInArrow
- [SPARK-42968] [SC-127271][ss] Dodaj opcję pomijania koordynatora zatwierdzania w ramach interfejsu API StreamingWrite dla źródeł/ujść DSv2
-
[SPARK-42954] [SC-127261][python][CONNECT] Dodaj
YearMonthIntervalType
do klienta PySpark i Spark Connect Python -
[SPARK-41359] [SC-127256][sql] Użyj
PhysicalDataType
zamiast DataType w UnsafeRow - [SPARK-42873] [SC-127262][sql] Definiowanie typów spark SQL jako słów kluczowych
-
[SPARK-42808] [SC-126302][core] Unikaj uzyskiwania dostępnych procesorów za każdym razem w
MapOutputTrackerMaster#getStatistics
-
[SPARK-42937] [SC-126880][sql]
PlanSubqueries
należy ustawićInSubqueryExec#shouldBroadcast
na true -
[SPARK-42896] [SC-126729][sql][PYTHON] Umożliwić obsługę wykonywania w trybie bariery
mapInPandas
/mapInArrow
- [SPARK-42874] [SC-126442][sql] Włączanie nowej złotej struktury testów plików na potrzeby analizy wszystkich plików wejściowych
- [SPARK-42922] [SC-126850][sql] Przejście z Random na SecureRandom
- [SPARK-42753] [SC-126369] Ponowne użycie Exchange odwołuje się do nieistniejących węzłów
- [SPARK-40822] [SC-126274][sql] Stabilne aliasy kolumn pochodnych
- [SPARK-42908] [SC-126856][python] Podnieś RuntimeError, gdy SparkContext jest wymagany, ale niezainicjalizowany
- [SPARK-42779] [SC-126042][sql] Pozwól na zapisy w wersji 2 na wskazanie zalecanego rozmiaru partycji mieszania.
-
[SPARK-42914] [SC-126727][python] Ponowne używanie
transformUnregisteredFunction
dlaDistributedSequenceID
. - [SPARK-42878] [SC-126882][connect] Interfejs API tabeli w ramki danych może również akceptować opcje
-
[SPARK-42927] [SC-126883][core] Zmień zakres dostępu
o.a.spark.util.Iterators#size
naprivate[util]
- [SPARK-42943] [SC-126879][sql] Użyj wartości LONGTEXT zamiast TEXT dla parametru StringType w celu uzyskania efektywnej długości
- [SPARK-37677] [SC-126855][core] Rozpakuj może zachować uprawnienia do plików
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implement CoGrouped Map API
- [SPARK-41876] [SC-126849][connect][PYTHON] Zaimplementować DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][core][SQL] Zmień zakres dostępu
ProtobufSerDe
powiązanych implementacji naprivate[protobuf]
- [SPARK-42819] [SC-125879][ss] Dodaj obsługę ustawiania max_write_buffer_number i write_buffer_size dla bazy danych RocksDB używanej w strumieniu
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Wyjaśnienie komentarza sparametryzowanych args SQL
- [SPARK-42748] [SC-126455][connect] Zarządzanie artefaktami po stronie serwera
- [SPARK-42816] [SC-126365][connect] Obsługa maksymalnego rozmiaru komunikatu do 128 MB
- [SPARK-42850] [SC-126109][sql] Usuń zduplikowane reguły CombineFilters w optymalizatorze
- [SPARK-42662] [SC-126355][connect][PS] Dodaj komunikat proto dla interfejsu API pandas na domyślny indeks platformy Spark
- [SPARK-42720] [SC-126136][ps][SQL] Używa wyrażenia dla domyślnego indeksu sekwencji rozproszonej zamiast planu
- [SPARK-42790] [SC-126174][sql] Abstrahowanie wykluczonej metody w celu lepszego testowania testów JDBC na Dockerze.
- [SPARK-42900] [SC-126473][connect][PYTHON] Poprawka createDataFrame w celu poszanowania nazw wnioskowania i kolumn
- [SPARK-42917] [SC-126657][sql] Poprawiono getUpdateColumnNullabilityQuery dla DerbyDialect
- [SPARK-42684] [SC-125157][sql] katalog v2 nie powinien zezwalać na ustawienie domyślnej wartości kolumny domyślnie
- [SPARK-42861] [SC-126635][sql] Użyj private[sql] zamiast protected[sql], aby uniknąć generowania dokumentacji API
- [SPARK-42920] [SC-126728][connect][PYTHON] Włączanie testów dla funkcji zdefiniowanej przez użytkownika za pomocą funkcji UDT
- [SPARK-42791] [SC-126617][sql] Tworzenie nowej złotej struktury testów plików na potrzeby analizy
- [SPARK-42911] [SC-126652][python] Wprowadzenie bardziej podstawowych wyjątków
- [SPARK-42904] [SC-126634][sql] Obsługa char/varchar dla katalogu JDBC
-
[SPARK-42901] [SC-126459][connect][PYTHON] Przenieś
StorageLevel
do oddzielnego pliku, aby uniknąć potencjalnychfile recursively imports
-
[SPARK-42894] [SC-126451][connect] Obsługa
cache
/persist
/unpersist
/storageLevel
dla klienta jvm platformy Spark - [SPARK-42792] [SC-125852][ss] Dodawanie obsługi WRITE_FLUSH_BYTES dla bazy danych RocksDB używanej w operatorach stanowych przesyłania strumieniowego
- [SPARK-41233] [SC-126441][connect][PYTHON] Dodaj array_prepend do klienta Spark Connect w języku Python
- [SPARK-42681] [SC-125149][sql] Złagodzenie ograniczeń porządkowania dla ALTER TABLE DODAJ|ZASTĄP deskryptor kolumn
- [SPARK-42889] [SC-126367][connect][PYTHON] Zaimplementować pamięć podręczną, utrwalanie, odpersistowanie i poziom przechowywania
- [SPARK-42824] [SC-125985][connect][PYTHON] Podaj jasny komunikat o błędzie dla nieobsługiwanych atrybutów JVM
- [SPARK-42340] [SC-126131][connect][PYTHON] Implementowanie interfejsu API dla grupowego mapowania
- [SPARK-42892] [SC-126454][sql] Przenieś metody sameType i odpowiednie metody z klasy DataType
-
[SPARK-42827] [SC-126126][connect] Obsługa
functions#array_prepend
dla klienta scala connect -
[SPARK-42823] [SC-125987][sql] konsola
spark-sql
obsługuje przestrzenie nazw wieloczęściowych podczas inicjalizacji - [SPARK-42817] [SC-125960][core] Rejestrowanie nazwy usługi shuffle jeden raz w ramach ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Typed Select
-
[SPARK-42800] [SC-125868][connect][PYTHON][ml] Implementowanie funkcji ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][sql] Obsługa programu Codegen dla usługi HiveSimpleUDF
-
[SPARK-41233] [SC-126110][sql][PYTHON] Dodawanie funkcji
array_prepend
-
[SPARK-42864] [SC-126268][ml][3.4] Uczynić
IsotonicRegression.PointsAccumulator
prywatnym - [SPARK-42876] [SC-126281][sql] Parametr physicalDataType typu danych powinien być prywatny[sql]
- [SPARK-42101] [SC-125437][sql] Włączenie obsługi AQE dla InMemoryTableScanExec
- [SPARK-41290] [SC-124030][sql] Obsługa wyrażeń WYGENEROWANYCH ZAWSZE JAKO dla kolumn w instrukcjach create/replace tabeli
-
[SPARK-42870] [SC-126220][connect] Przenieś
toCatalystValue
doconnect-common
- [SPARK-42247] [SC-126107][connect][PYTHON] Napraw UserDefinedFunction, aby zawierała returnType
- [SPARK-42875] [SC-126258][connect][PYTHON] Poprawka toPandas w celu prawidłowej obsługi stref czasowych i typów map
- [SPARK-42757] [SC-125626][connect] Implement textFile for DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Użyj funkcji getParameterCount zamiast getParameterTypes.length
-
[SPARK-42833] [SC-126043][sql] Refaktoryzacja
applyExtensions
wSparkSession
- [SPARK-41765] Cofnij “[SC-123550][sql] Wycofaj metryki zapisu w wersji 1...
- [SPARK-42848] [SC-126105][connect][PYTHON] Zaimplementuj DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] Wsparcie dla UserDefinedType w Spark Connect (Obsługa typu zdefiniowanego przez użytkownika w Spark Connect)
- [SPARK-42818] [SC-125861][connect][PYTHON] Implement DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][connect] Dodaj client_type do komunikatu AddArtifactsRequest protobuf
- [SPARK-42772] [SC-125860][sql] Zmień domyślną wartość opcji JDBC dotyczących push down na true
- [SPARK-42771] [SC-125855][sql] Refaktoryzacja HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: pisanie złożonych związków
-
[SPARK-42765] [SC-125850][connect][PYTHON] Włącz importowanie
pandas_udf
zpyspark.sql.connect.functions
-
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocation
należy przestrzegaćspark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][sql] Poprawa wydajności usuwania partycji
- [SPARK-42689] [SC-125195][core][SHUFFLE] Zezwalaj, aby ShuffleDriverComponent (Komponent sterujący) deklarował, czy dane mieszania są niezawodnie przechowywane
-
[SPARK-42726] [SC-125279][connect][PYTHON] Wdrożyć
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][sql] Wydziel metryki zapisu w1 do WriteFiles
- [SPARK-41171] [SC-124191][sql] Wywnioskować i wypchnąć limit przez operację okna, jeśli partitionSpec jest pusty
- [SPARK-42686] [SC-125292][core] Odroczenie formatowania komunikatów debugowania w menedżerze TaskMemoryManager
- [SPARK-42756] [SC-125443][connect][PYTHON] Funkcja pomocnika, aby przekonwertować literał proto na wartość w kliencie języka Python
-
[SPARK-42793] [SC-125627][connect] moduł
connect
wymagabuild_profile_flags
-
[SPARK-42701] [SC-125192][sql] Dodawanie funkcji
try_aes_decrypt()
- [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame nie działa ze schematem bez wartości null
- [SPARK-42733] [SC-125542][connect][Followup] Zapis bez ścieżki lub tabeli
- [SPARK-42777] [SC-125525][sql] Obsługa konwertowania statystyk wykazu TimestampNTZ na statystyki planu
-
[SPARK-42770] [SC-125558][connect] Dodaj
truncatedTo(ChronoUnit.MICROS)
, abySQLImplicitsTestSuite
w 17 codziennych testowych zadaniach ga języka Java - [SPARK-42752] [SC-125550][pyspark][SQL] Tworzenie wyjątków PySpark do drukowania podczas inicjowania
- pl-PL: [SPARK-42732] [SC-125544][pyspark][CONNECT] Obsługa metody getActiveSession dla sesji połączenia Spark
-
[SPARK-42755] [SC-125442][connect] Konwersja wartości literału współczynnika na
connect-common
- [SPARK-42747] [SC-125399][ml] Poprawka nieprawidłowego stanu wewnętrznego LoR i AFT
- [SPARK-42740] [SC-125439][sql] Naprawić błąd, który powoduje, że wypychanie offsetu lub stronicowanie jest nieprawidłowe dla niektórych wbudowanych dialektów
- [SPARK-42745] [SC-125332][sql] Ulepszona aliasAwareOutputExpression współpracuje z DSv2
- [SPARK-42743] [SC-125330][sql] Wsparcie analizy kolumn TimestampNTZ
- [SPARK-42721] [SC-125371][connect] Przechwytywanie rejestrowania RPC
- [SPARK-42691] [SC-125397][connect][PYTHON] Implement Dataset.semanticHash
- [SPARK-42688] [SC-124922][connect] Zmień nazwę pola client_id w żądaniu Connect Proto na session_id
- [SPARK-42310] [SC-122792][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][core] Optymalizowanie procedur Utils.bytesToString
- [SPARK-42725] [SC-125296][connect][PYTHON] Umożliwić LiteralExpression obsługę parametrów tablicy
- [SPARK-42702] [SC-125293][spark-42623][SQL] Obsługa sparametryzowanego zapytania w podzapytaniu i CTE
- [SPARK-42697] [SC-125189][webui] Poprawka /api/v1/applications w celu zwrócenia całkowitego czasu pracy zamiast 0 dla pola na czas trwania
- [SPARK-42733] [SC-125278][connect][PYTHON] Fix DataFrameWriter.save, aby pracować bez parametru ścieżki
- [SPARK-42376] [SC-124928][ss] Wprowadzenie propagacji znaku wodnego między operatorami
- [SPARK-42710] [SC-125205][connect][PYTHON] Zmień nazwę elementu FrameMap proto na MapPartitions
- [SPARK-37099] [SC-123542][sql] Wprowadzenie limitu grupy dla filtru opartego na rankingu w celu zoptymalizowania obliczeń top-k
- [SPARK-42630] [SC-125207][connect][PYTHON] Wprowadzenie UnparsedDataType i opóźnienie parsowania ciągu DDL do momentu udostępnienia SparkConnectClient
- [SPARK-42690] [SC-125193][connect] Implementowanie funkcji analizowania CSV/JSON dla klienta Scala
-
[SPARK-42709] [SC-125172][python] Usuń założenie, że
__file__
jest dostępny - [SPARK-42318] [SC-122648][spark-42319][SQL] Przypisz nazwę do LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Obsługuj typ danych parsera json "timestamp_ltz" jako TimestampType
- [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() nie powinien buforować schematu
- [SPARK-42643] [SC-125152][connect][PYTHON] Rejestrowanie funkcji języka Java (agregacja) zdefiniowanych przez użytkownika
- [SPARK-42656] [SC-125177][connect][Kontynuacja] Napraw skrypt spark-connect
- [SPARK-41516] [SC-123899] [SQL] Zezwalaj dialektom jdbc na zastępowanie zapytania użytego do utworzenia tabeli
- [SPARK-41725] [SC-124396][connect] Szybkie wykonywanie DF.sql()
-
[SPARK-42687] [SC-124896][ss] Lepszy komunikat o błędzie dla nieobsługiwanej operacji
pivot
w strumieniu - [SPARK-42676] [SC-124809][ss] Zapisywanie tymczasowych punktów kontrolnych dla zapytań przesyłanych strumieniowo do lokalnego systemu plików, nawet jeśli domyślne usługi FS są ustawione inaczej
- [SPARK-42303] [SC-122644][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][sql] Upewnij się, że co najmniej jedna jednostka czasowa po "interwale"
- [SPARK-42649] [SC-124576][core] Usuń standardowy nagłówek licencji Apache z plików źródłowych firm trzecich
- [SPARK-42611] [SC-124395][sql] Wstaw sprawdzanie długości znaków/varchar dla pól wewnętrznych podczas rozwiązywania
- [SPARK-42419] [SC-124019][connect][PYTHON] Migrate into error framework for Spark Connect Column API (Migrowanie do platformy błędów dla interfejsu API kolumn programu Spark Connect).
- [SPARK-42637] [SC-124522][connect] Add SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Zmień alias dla przestarzałych i usuniętych typów numpy
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver zamknie tylko uruchomioną sesję hiveState
- [SPARK-42593] [SC-124405][ps] Przestarzałe & usunąć interfejsy API, które zostaną usunięte w bibliotece pandas 2.0.
- [SPARK-41870] [SC-124402][connect][PYTHON] Poprawka createDataFrame do obsługi zduplikowanych nazw kolumn
- [SPARK-42569] [SC-124379][connect] Zgłaszanie wyjątków dla nieobsługiwanego interfejsu API sesji
- [SPARK-42631] [SC-124526][connect] Obsługa rozszerzeń niestandardowych w kliencie Scala
- [SPARK-41868] [SC-124387][connect][PYTHON] Naprawiono createDataFrame w celu wsparcia dla okresów trwania
- [SPARK-42572] [SC-124171][sql][SS] Poprawa działania dla StateStoreProvider.validateStateRowFormat
Aktualizacje konserwacyjne
Sprawdź Aktualizacje konserwacyjne środowiska Databricks Runtime 13.1.
Środowisko systemu
- System operacyjny: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | połączenie zwrotne | 0.2.0 |
beautifulsoup4 | 4.11.1 | czarny | 22.6.0 | wybielacz | 4.1.0 |
kierunkowskaz | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknięcie | 8.0.4 | kryptografia | 37.0.1 |
rowerzysta | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | dekorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0,12 | punkty wejścia | 0,4 |
Wykonywanie | 1.2.0 | aspekty — omówienie | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | status grpcio | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | brelok | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | biblioteka matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | rozstroić | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notatnik | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
opakowanie | 21,3 | Pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | specyfikacja ścieżki | 0.9.0 | frajer | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Poduszka | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | kreślenie | 5.9.0 |
wtyczkowy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | żądania | 2.28.1 | lina | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | Sześć | 1.16.0 | sitko do zup | 2.3.1 |
ssh-import-id | 5,11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
Wytrzymałość | 8.1.0 | zakończony | 0.13.1 | ścieżka testowa | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlety | 5.1.1 | typing_extensions | 4.3.0 |
ujson (szybka biblioteka do obsługi formatu JSON) | 5.4.0 | nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | koło | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2023-02-10.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałka | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports (przenoszenie funkcji do starszych wersji) | 1.4.1 | baza | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | plama | 1.2.3 |
rozruch | 1.3-28 | warzyć | 1.0-8 | Brio | 1.1.3 |
miotła | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
obiekt wywołujący | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | klasa | 7.3-21 | CLI | 3.6.0 |
clipr | 0.8.0 | zegar | 0.6.1 | klaster | 2.1.4 |
codetools | 0.2-19 | przestrzeń kolorów | 2.1-0 | commonmark | 1.8.1 |
— kompilator | 4.2.2 | konfiguracja | 0.3.1 | cpp11 | 0.4.3 |
kredka | 1.5.2 | uwierzytelnienia | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | zestawy danych | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | Opis | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | trawić | 0.6.31 | oświetlenie skierowane w dół | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
wielokropek | 0.3.2 | ocenić | 0,20 | fani | 1.0.4 |
kolory | 2.1.1 | szybka mapa | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | zagraniczny | 0.8-82 |
kuźnia | 0.2.0 | Fs | 1.6.1 | przyszłość | 1.31.0 |
future.apply | 1.10.0 | płukać gardło | 1.3.0 | Generyczne | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globalna | 0.16.2 |
klej | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafika | 4.2.2 | grDevices | 4.2.2 |
siatka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | przystań | 2.5.1 |
wyższy | 0.10 | HMS | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
Etykietowanie | 0.4.2 | później | 1.3.0 | krata | 0.20-45 |
lawa | 1.7.1 | cykl życia | 1.0.3 | nasłuchiwanie | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1.5 |
MASA | 7.3-58.2 | Macierz | 1.5-1 | zapamiętywanie | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0,12 |
miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modeler | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | równoległy | 4.2.2 |
równolegle | 1.34.0 | filar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Postęp | 1.2.2 |
progressr | 0.13.0 | Obietnice | 1.2.0.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | przepisy | 1.0.4 |
rewanż | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.4.2 |
reprezentatywny przykład | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.5 | wagi | 1.2.1 |
selektor | 0.4-2 | informacje o sesji | 1.2.2 | kształt | 1.4.6 |
błyszczący | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | przestrzenny | 7.3-15 | Splajny | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statystyki | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
przetrwanie | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | kształtowanie tekstu | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | zmiana czasu | 0.2.0 | czasData | 4022.108 |
tinytex | 0.44 | narzędzia | 4.2.2 | tzdb | 0.3.0 |
sprawdzacz URL | 1.0.1 | Użyj tego | 2.1.6 | utf8 | 1.2.3 |
narzędzia | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
wąs | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | Xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importeksport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kriogeniczne cieniowanie | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | Adnotacje Jackson | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.kofeina | kofeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-rodowici |
com.github.fommil.netlib | natywny_system Java | 1.1 |
com.github.fommil.netlib | natywny_system-java | 1.1-rodzimi |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi mieszkańcy |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Tink | 1.7.0 |
com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | owoc guawy | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfiguracja | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | kompresor powietrza | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metryki —rdzeń | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metryki-kontrole zdrowia | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metryki-json | 4.2.10 |
io.dropwizard.metrics | metryki-JVM | 4.2.10 |
io.dropwizard.metrics | serwlety metryczne | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transakcja-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mrówka | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | format strzałki | 11.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | wektor strzałki | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | bluszcz | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | podkładki orc | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | opiekun zwierząt | 3.6.3 |
org.apache.zookeeper | juta opiekuna zwierząt | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-klient | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | serwer websocket | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Podkładki | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |