Udostępnij za pośrednictwem


Databricks Runtime 12.2 LTS

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 12.2 LTS obsługiwanym przez platformę Apache Spark 3.3.2.

Usługa Databricks wydała tę wersję w marcu 2023 r.

Uwaga

LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.

Napiwek

Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.

Zmiany zachowań

[Zmiana powodująca niezgodność] Nowa wersja języka Python wymaga aktualizacji klientów języka Python programu Databricks Connect V1

Aby zastosować wymagane poprawki zabezpieczeń, wersja języka Python w środowisku Databricks Runtime 12.2 LTS została uaktualniona z wersji 3.9.5 do wersji 3.9.19. Ponieważ te zmiany mogą powodować błędy w klientach korzystających z określonych funkcji PySpark, wszyscy klienci korzystający z programu Databricks Connect V1 dla języka Python z usługą Databricks Runtime 12.2 LTS muszą zostać zaktualizowani do języka Python w wersji 3.9.7 lub nowszej.

Nowe funkcje i ulepszenia

Ewolucja schema Delta Lake obsługuje określenie źródła columns w instrukcjach scalania

Możesz teraz określić columns obecne tylko w źródle table w działaniach insert lub update dla instrukcji scalania, gdy ewolucja schema jest włączona. W środowisku Databricks Runtime 12.1 lub starszym tylko działania INSERT * lub UPDATE SET * mogą być używane dla ewolucji schema z użyciem scalania. Zobacz Automatyczna ewolucja schema dla scalania Delta Lake.

Obciążenia przesyłania strumieniowego ze strukturą są obsługiwane w klastrach z trybem dostępu współdzielonego

Teraz możesz użyć Strukturalnego Przesyłania Strumieniowego do interakcji z Unity Catalog na udostępnionych klastrach. Obowiązują pewne ograniczenia. Zobacz Jaką funkcjonalność Structured Streaming obsługuje Unity Catalog?.

Nowe funkcje predykcyjne we/wy

Obsługa fotonu dla ujścia Foreachbatch jest teraz dostępna. Obciążenia przesyłane strumieniowo ze źródła i scalane z Delta Tables lub zapisywane do wielu odbiorników mogą teraz korzystać z rozwiązania typu Photonized Foreachbatch.

Obsługa bocznego aliasowania column domyślnie

Usługa Azure Databricks obsługuje teraz domyślnie niejawne column aliasy. Teraz możesz ponownie użyć wyrażenia określonego wcześniej w tym samym SELECTlist. Na przykład, biorąc pod uwagę SELECT 1 AS awartość , a + 1 AS ba element in a + 1 można rozpoznać jako wcześniej zdefiniowany 1 AS aelement . Sprawdź rozpoznawanie nazw, aby uzyskać więcej szczegółów w kolejności rozwiązywania problemów. Aby wyłączyć tę funkcję, możesz set,spark.sql.lateralColumnAlias.enableImplicitResolution aby false.

Nowa funkcja forEachBatch

Funkcja Photon jest teraz obsługiwana podczas zapisywania foreachBatch w ujściu danych.

Standardowe opcje połączenia dla federacji zapytań

Teraz możesz użyć ujednoliconego set opcji (hosta, portu, bazy danych, użytkownika, hasła), aby nawiązać połączenie ze źródłami danych obsługiwanymi w federacji zapytań. Port jest opcjonalny i używa domyślnego numeru portu dla każdego źródła danych, chyba że określono.

Rozszerzona biblioteka funkcji SQL na potrzeby zarządzania tablicami

Teraz możesz remove wszystkie elementy NULL w tablicy za pomocą array_compact. Aby dołączyć elementy do tablicy, użyj array_append.

Nowa funkcja maski do anonimizowania ciągów

Wywołaj funkcję maski , aby zanonimizować ciąg poufny values.

Typowe warunki błędów zwracają teraz wartości SQLSTATE

Większość warunków błędów w środowisku Databricks Runtime obecnie zawiera udokumentowane SQLSTATEvalues, które mogą służyć do testowania błędów zgodnie ze standardem SQL.

Wywoływanie funkcji generatora w klauzuli FROM

Teraz można wywoływać funkcje generatorów o wartości table, takie jak eksploduj, w normalnej klauzuli FROM zapytania. Wyrównuje to wywołanie funkcji generatora z innymi wbudowanymi i zdefiniowanymi przez użytkownika funkcjami table.

Obsługa protokołu jest ogólnie dostępna

Za pomocą from_protobuf funkcji i to_protobuf można wymieniać dane między typami binarnymi i strukturami. Zobacz protokołu odczytu i zapisu.

Przejdź do definicji zmiennych i funkcji notesu

W notesach można szybko przejść do definicji zmiennej, funkcji lub kodu za instrukcją %run , klikając prawym przyciskiem myszy zmienną lub nazwę funkcji.

Szybka poprawka notesu dotycząca bibliotek automatycznego importowania

Notesy usługi Databricks oferują teraz funkcję szybkiej poprawki dla bibliotek automatycznego importowania. Jeśli zapomnisz zaimportować bibliotekę, taką jak pandas, umieść kursor na podkreślonej składni ostrzeżenie, a następnie kliknij pozycję Szybka poprawka, te funkcje wymagają włączenia Asystenta usługi Databricks w obszarze roboczym.

Poprawki błędów

  • Ulepszona spójność zachowania zatwierdzania delty dla pustych transakcji odnoszących się do updatepoleceń , deletei merge . Na WriteSerializable poziomie izolacji polecenia, które powodują, że żadne zmiany nie powodują teraz utworzenia pustego zatwierdzenia. Serializable Na poziomie izolacji takie puste transakcje nie tworzą teraz zatwierdzenia.

Zmiany zachowania

Zmiany zachowania dzięki nowej funkcji aliasu column bocznej

Nowa funkcja aliasu column bocznego wprowadza zmiany zachowania dla następujących przypadków podczas rozpoznawania nazw:

  • Alias Lateral column ma teraz pierwszeństwo przed skorelowanymi odwołaniami o tej samej nazwie. Na przykład w przypadku tego zapytania SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)c1 w wewnętrznym c1 AS c2 został rozpoznany jako skorelowane odwołanie t.c1, ale teraz zmienia się na boczny alias column1 AS c1. Zapytanie zwraca teraz wartość NULL.
  • Alias boczny column ma teraz pierwszeństwo przed funkcją parameters o tej samej nazwie. Na przykład w przypadku funkcji CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x, x w treści funkcji została powiązana z parametrem funkcji x, ale zmienia się w boczny alias columnx + 1 w treści funkcji. Zapytanie SELECT * FROM func(1) zwraca teraz wartość 2, 2.
  • Aby wyłączyć funkcję aliasu column bocznego, setspark.sql.lateralColumnAlias.enableImplicitResolutionfalse. Aby uzyskać więcej informacji, zobacz Rozpoznawanie nazw.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • filelock z wersji 3.8.2 do 3.9.0
    • joblib z wersji 1.1.0 do 1.1.1
    • platformdirs z wersji 2.6.0 do 2.6.2
    • whatthepatch z 1.0.3 do 1.0.4
  • Uaktualnione biblioteki języka R:
    • klasa z 7.3-20 do 7.3-21
    • codetools od 0.2-18 do 0.2-19
    • MASA z 7.3-58 do 7.3-58.2
    • nlme z 3.1-160 do 3.1-162
    • Rserve od 1.8-11 do 1.8-12
    • SparkR z wersji 3.3.1 do 3.3.2

Zmiany zachowania

  • Użytkownicy muszą teraz mieć uprawnienia SELECT i MODIFY dla dowolnego pliku podczas tworzenia schema ze zdefiniowaną lokalizacją.

Apache Spark

Środowisko Databricks Runtime 12.2 zawiera platformę Apache Spark 3.3.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 12.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-42416] [SC-123205][SC-122851][SQL] Operacje zestawu dat nie powinny ponownie rozpoznawać przeanalizowanego planu logicznego
  • [SPARK-41848] Przywróć "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Naprawianie zadania nadmiernie zaplanowanego za pomocą elementu TaskResourceProfile"
  • [SPARK-42162] [SC-122711][ES-556261] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonicznego określania dużych drzew wyrażeń dojeżdżających do pracy
  • [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Naprawianie ustawienia głębokości cyklicznego dla funkcji Protobuf
  • [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implementowanie elementu DataFrameWriterV2
  • [SPARK-41716] [SC-122545][CONNECT] Zmień nazwę _catalog_to_pandas na _execute_and_fetch w Catalog
  • [SPARK-41490] [SC-121774][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2441
  • [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implement Catalog.cacheTable, isCached i uncache
  • [SPARK-42191] [SC-121990][SQL] Obsługa funkcji udf "luhn_check"
  • [SPARK-42253] [SC-121976][PYTHON] Dodawanie testu wykrywania zduplikowanej klasy błędów
  • [SPARK-42268] [SC-122251][CONNECT][PYTHON] Dodawanie elementu UserDefinedType w protos
  • [SPARK-42231] [SC-121841][SQL] Przekróć MISSING_STATIC_PARTITION_COLUMN w internalError
  • [SPARK-42136] [SC-122554] Refaktoryzacja obliczenia partycjonowania wyjściowego BroadcastHashJoinExec
  • [SPARK-42158] [SC-121610][SQL] Integracja _LEGACY_ERROR_TEMP_1003 z usługą FIELD_NOT_FOUND
  • [SPARK-42192] [12.x][SC-121820][PYTHON] Migrowanie błędu TypeError z pyspark/sql/dataframe.py do błędu PySparkTypeError
  • [SPARK-35240] Przywróć element "[SC-118242][SS] Użyj elementu CheckpointFileManager ...
  • [SPARK-41488] [SC-121858][SQL] Przypisz nazwę do _LEGACY_ERROR_TEMP_1176 (i 1177)
  • [SPARK-42232] [SC-122267][SQL] Zmień nazwę klasy błędu: UNSUPPORTED_FEATURE.JDBC_TRANSACTION
  • [SPARK-42346] [SC-122480][SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
  • [SPARK-42306] [SC-122539][SQL] Integracja _LEGACY_ERROR_TEMP_1317 z usługą UNRESOLVED_COLUMN.WITH_SUGGESTION
  • [SPARK-42234] [SC-122354][SQL] Zmień nazwę klasy błędu: UNSUPPORTED_FEATURE.REPEATED_PIVOT
  • [SPARK-42343] [SC-122437][CORE] Ignoruj IOException wartość w handleBlockRemovalFailure przypadku zatrzymania elementu SparkContext
  • [SPARK-41295] [SC-122442][SPARK-41296][SQL] Zmienianie nazwy klas błędów
  • [SPARK-42320] [SC-122478][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2188
  • [SPARK-42255] [SC-122483][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2430
  • [SPARK-42156] [SC-121851][CONNECT] Element SparkConnectClient obsługuje teraz usługę RetryPolicies
  • [SPARK-38728] [SC-116723][SQL] Przetestuj klasę błędów: FAILED_RENAME_PATH
  • [SPARK-40005] [12.X] Przykłady samodzielne w narzędziu PySpark
  • [SPARK-39347] [SC-122457][SS] Poprawka błędu w obliczeniu czasu window, gdy czas zdarzenia < wynosi 0
  • [SPARK-42336] [SC-122458][CORE] Użyj getOrElse() zamiast w elemecie contains() ResourceAllocator
  • [SPARK-42125] [SC-121827][CONNECT][PYTHON] Funkcja UDF biblioteki Pandas w programie Spark Connect
  • [SPARK-42217] [SC-122263][SQL] Obsługa niejawnego aliasu column bocznego w zapytaniach za pomocą Window
  • [SPARK-35240] [SC-118242][SS] Używanie narzędzia CheckpointFileManager do manipulowania plikami punktu kontrolnego
  • [SPARK-42294] [SC-122337][SQL] Uwzględnij column domyślne values w danych wyjściowych DESCRIBE dla V2 tables
  • [SPARK-41979] Przywróć "Przywróć "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.""
  • [SPARK-42286] [SC-122336][SQL] Powrót do poprzedniej ścieżki kodu codegen dla złożonego expr z funkcją CAST
  • [SPARK-42275] [SC-122249][CONNECT][PYTHON] Unikaj używania wbudowanych list, dict w statycznym wpisywaniu
  • [SPARK-41985] [SC-122172][SQL] Scentralizowanie większej liczby reguł rozwiązywania column
  • [SPARK-42126] [SC-122330][PYTHON][CONNECT] Zaakceptuj zwracany typ w ciągach DDL dla scalarnych funkcji zdefiniowanych przez użytkownika języka Python w programie Spark Connect
  • [SPARK-42197] [SC-122328][SC-121514][CONNECT] Ponowne używanie inicjowania maszyny JVM i oddzielne grupy konfiguracji do set w trybie zdalnym lokalnym
  • [SPARK-41575] [SC-120118][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2054
  • [SPARK-41985] Przywróć "[SC-122172][SQL] Scentralizowanie bardziej column reguł rozwiązywania problemów"
  • [SPARK-42123] [SC-122234][SC-121453][SQL] Uwzględnij column domyślne values w artykule DESCRIBE i SHOW CREATE TABLE danych wyjściowych
  • [SPARK-41985] [SC-122172][SQL] Scentralizowanie większej liczby reguł rozwiązywania column
  • [SPARK-42284] [SC-122233][CONNECT] Przed uruchomieniem testów klienta — SBT upewnij się, że zestaw serwera connect jest skompilowany
  • [SPARK-42239] [SC-121790][SQL] Integrować MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42278] [SC-122170][SQL] Obsługa wypychania DS w wersji 2 obsługuje dialekty JDBC kompilowane SortOrder samodzielnie
  • [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics powinna dbać o środowisko UDAF języka Python
  • [SPARK-41979] Przywróć wartość "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
  • [SPARK-42224] [12.x][SC-121708][CONNECT] Migrowanie błędu TypeError do struktury błędów dla funkcji Spark Connect
  • [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Migrowanie błędów programu Spark Connect do platformy błędów PySpark.
  • pl-PL: [SPARK-42119] [SC-121913][SC-121342][SQL] Dodanie wbudowanych funkcji wartościowych table: inline i inline_outer
  • [SPARK-41489] [SC-121713][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2415
  • [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Wprowadzenie błędu PySparkValueError i PySparkTypeError
  • [SPARK-42081] [SC-121723][SQL] Ulepszanie weryfikacji zmian planu
  • [SPARK-42225] [12.x][SC-121714][CONNECT] Dodaj wyjątek SparkConnectIllegalArgumentException, aby dokładnie obsłużyć błąd programu Spark Connect.
  • [SPARK-42044] [12.x][SC-121280][SQL] Naprawianie nieprawidłowego komunikatu o błędzie dla MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42194] [12.x][SC-121712][PS] Zezwolić na parametr columns podczas tworzenia DataFrame z Seria.
  • [SPARK-42078] [12.x][SC-120761][PYTHON] Migrowanie błędów zgłaszanych przez maszynę JVM do wyjątku PySparkException.
  • [SPARK-42133] [12.x][SC-121250] Dodawanie podstawowych metod interfejsu API zestawu danych do klienta SparkConnect Scala
  • [SPARK-41979] [12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
  • [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] Scalar Inline Python UDF inline w programie Spark Connect
  • [SPARK-42051] [SC-121994][SQL] Obsługa generowania kodu dla funkcji HiveGenericUDF
  • [SPARK-42257] [SC-121948][CORE] Remove nieużywana zmienna zewnętrznego sortera
  • [SPARK-41735] [SC-121771][SQL] Użyj funkcji MINIMAL zamiast STANDARD dla elementu SparkListenerSQLExecutionEnd
  • [SPARK-42236] [SC-121882][SQL] Udoskonalić NULLABLE_ARRAY_OR_MAP_ELEMENT
  • [SPARK-42233] [SC-121775][SQL] Ulepszanie komunikatu o błędzie dla elementu PIVOT_AFTER_GROUP_BY
  • [SPARK-42229] [SC-121856][CORE] Migrowanie SparkCoreErrors do klas błędów
  • [SPARK-42163] [SC-121839][SQL] Poprawka schema przycinania dla indeksu tablicy nieskładalnej lub klucza mapy
  • [SPARK-40711] [SC-119990][SQL] Dodawanie metryk rozmiaru wycieku dla window
  • [SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Tworzenie createDataFrame przymusu obsługi AtomicType -> StringType
  • [SPARK-42202] [SC-121837][Połącz][Test] Ulepszanie logiki zatrzymania serwera testowego E2E
  • [SPARK-41167] [SC-117425][SQL] Zwiększanie wydajności podobnej do wielu dzięki utworzeniu predykatu drzewa wyrażeń wyważonego
  • [SPARK-41931] [SC-121618][SQL] Lepszy komunikat o błędzie dla niekompletnej definicji typu złożonego
  • [SPARK-36124] [SC-121339][SC-110446][SQL] Obsługa podzapytania z korelacją za pośrednictwem unii
  • [SPARK-42090] [SC-121290][3.3] Wprowadzenie liczby ponownych prób sasl w retryingBlockTransferor
  • [SPARK-42157] [SC-121264][CORE] spark.scheduler.mode=FAIR powinien zapewnić harmonogram FAIR
  • [SPARK-41572] [SC-120772][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2149
  • [SPARK-41983] [SC-121224][SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu NULL_COMPARISON_RESULT
  • [SPARK-41976] [SC-121024][SQL] Ulepszanie komunikatu o błędzie dla elementu INDEX_NOT_FOUND
  • [SPARK-41994] [SC-121210][SC-120573] Przypisywanie parametrów SQLSTATE (1/2)
  • [SPARK-41415] [SC-121117][3.3] Ponowne próby żądań SASL
  • [SPARK-38591] [SC-121018][SQL] Dodawanie obiektów flatMapSortedGroups i cogroupSorted
  • [SPARK-41975] [SC-120767][SQL] Ulepszanie komunikatu o błędzie dla elementu INDEX_ALREADY_EXISTS
  • [SPARK-42056] [SC-121158][SQL][PROTOBUF] Dodawanie brakujących opcji dla funkcji Protobuf
  • [SPARK-41984] [SC-120769][SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu RESET_PERMISSION_TO_ORIGINAL
  • [SPARK-41948] [SC-121196][SQL] Naprawiono serwer NPE dla klas błędów: CANNOT_PARSE_JSON_FIELD
  • [SPARK-41772] [SC-121176][CONNECT][PYTHON] Poprawka nieprawidłowej nazwy column w dokumentu withField
  • [SPARK-41283] [SC-121175][CONNECT][PYTHON] Dodaj array_append do programu Connect
  • [SPARK-41960] [SC-120773][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1056
  • [SPARK-42134] [SC-121116][SQL] Naprawiono polecenie getPartitionFiltersAndDataFilters() w celu obsługi filtrów bez atrybutów, do których odwołuje się odwołanie
  • [SPARK-42096] [SC-121012][CONNECT] Niektóre oczyszczanie kodu dla modułu connect
  • [SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Naprawianie count(*) i count(col(*))
  • [SPARK-42045] [SC-120958][SC-120450][SQL] Tryb SQL ANSI: Round/Bround powinien zwrócić błąd w przepełnieniu liczby całkowitej
  • [SPARK-42043] [SC-120968][CONNECT] Wynik klienta Scala z testami E2E
  • [SPARK-41884] [SC-121022][CONNECT] Obsługa naiwnej krotki jako zagnieżdżonego wiersza
  • [SPARK-42112] [SC-121011][SQL][SS] Dodawanie sprawdzania wartości null przed ContinuousWriteRDD#compute zamknięciem funkcji dataWriter
  • [SPARK-42077] [SC-120553][CONNECT][PYTHON] Literał powinien zgłaszać błąd TypeError dla nieobsługiwanego typu danych
  • [SPARK-42108] [SC-120898][SQL] Przekształć Count(*) analizatora w Count(1)
  • [SPARK-41666] [SC-120928][SC-119009][PYTHON] Obsługa sparametryzowanego kodu SQL przez sql()
  • [SPARK-40599] [SC-120930][SQL] Zrelaksuj typ reguły multiTransform, aby umożliwić alternatywy dla dowolnego rodzaju seq
  • [SPARK-41574] [SC-120771][SQL] Update_LEGACY_ERROR_TEMP_2009 jako INTERNAL_ERROR.
  • [SPARK-41579] [SC-120770][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1249
  • [SPARK-41974] [SC-120766][SQL] Przekróć INCORRECT_END_OFFSET w INTERNAL_ERROR
  • [SPARK-41530] [SC-120916][SC-118513][CORE] Zmienianie nazwy medianyHeap na PercentileMap i obsługa percentylu
  • [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Poprawiono reprezentację ciągu dla klasy Column
  • [SPARK-42084] [SC-120775][SQL] Unikaj wycieku ograniczenia tylko do kwalifikowanego dostępu
  • [SPARK-41973] [SC-120765][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1311
  • [SPARK-42039] [SC-120655][SQL] SPJ: Remove Option in KeyGroupedPartitioning#partitionValuesOpt
  • [SPARK-42079] [SC-120712][CONNECT][PYTHON] Zmienianie nazwy komunikatów proto dla toDF i withColumnsRenamed
  • [SPARK-42089] [SC-120605][CONNECT][PYTHON] Rozwiązywanie problemów z nazwami zmiennych w zagnieżdżonych funkcjach lambda
  • [SPARK-41982] [SC-120604][SQL] Partycje typu ciąg nie powinny być traktowane jako typy liczbowe
  • [SPARK-40599] [SC-120620][SQL] Dodanie metod multiTransform do TreeNode dla alternatyw generate
  • [SPARK-42085] [SC-120556][CONNECT][PYTHON] Tworzenie from_arrow_schema typów zagnieżdżonych obsługi
  • [SPARK-42057] [SC-120507][SQL][PROTOBUF] Napraw sposób obsługi wyjątku w raportowaniu błędów.
  • [SPARK-41586] [12.x][WSZYSTKIE TESTY][SC-120544][PYTHON] Wprowadzenie pyspark.errors i klasy błędów dla PySpark.
  • [SPARK-41903] [SC-120543][CONNECT][PYTHON] Literal powinna obsługiwać 1-dim ndarray
  • [SPARK-42021] [SC-120584][CONNECT][PYTHON] Tworzenie createDataFrame pomocy technicznej array.array
  • [SPARK-41896] [SC-120506][SQL] Filtrowanie według indeksu wierszy zwraca puste wyniki
  • [SPARK-41162] [SC-119742][SQL] Naprawianiejoin anty-i pół-join dla siebiejoin za pomocą agregacji
  • [SPARK-41961] [SC-120501][SQL] Support table-valued functions with LATERAL
  • [SPARK-41752] [SC-120550][SQL][Interfejs użytkownika] Grupowanie zagnieżdżonych wykonań w ramach wykonywania głównego
  • [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Literał powinien obsługiwać typy danych Numpy
  • [SPARK-42028] [SC-120344][CONNECT][PYTHON] Obcięcie nanoseconds timestampsl
  • [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implementowanie DataFrameReader.csv
  • [SPARK-41990] [SC-120532][SQL] Użyj FieldReference.column zamiast w wersji 1 do konwersji filtru apply w wersji 2
  • [SPARK-39217] [SC-120446][SQL] Sprawia, że DPP obsługuje stronę oczyszczania ma Union
  • [SPARK-42076] [SC-120551][CONNECT][PYTHON] Konwersja arrow -> rows danych współczynnika na conversion.py
  • [SPARK-42074] [SC-120540][SQL] Włącz KryoSerializer , TPCDSQueryBenchmark aby wymusić rejestrację klas SQL
  • [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implementowanie elementu DataFrameReader.orc
  • [SPARK-41832] [SC-120513][CONNECT][PYTHON] Poprawka DataFrame.unionByName, dodawanie allow_missing_columns
  • [SPARK-38651] [SC-120514] [SQL] Dodawać spark.sql.legacy.allowEmptySchemaWrite
  • [SPARK-41991] [SC-120406][SQL] CheckOverflowInTableInsert wartość ExpressionProxy powinna być akceptowana jako element podrzędny
  • [SPARK-41232] [SC-120073][SQL][PYTHON] Dodawanie funkcji array_append
  • [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] Element DataFrameReader powinien obsługiwać list ścieżek
  • [SPARK-42071] [SC-120533][CORE] Zarejestruj się scala.math.Ordering$Reverse w usłudze KyroSerializer
  • [SPARK-41986] [SC-120429][SQL] Wprowadzanie mieszania w ramach pojedynczej części
  • [SPARK-42016] [SC-120428][CONNECT][PYTHON] Włącz testy związane z zagnieżdżonym column
  • [SPARK-42042] [SC-120427][CONNECT][PYTHON] DataFrameReader powinien obsługiwać StructType schema
  • [SPARK-42031] [SC-120389][CORE][SQL] remove Czyszczenie metod, które nie wymagają zastąpienia
  • [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Tworzenie createDataFrame(rows/lists/tuples/dicts) typów zagnieżdżonych obsługi
  • [SPARK-41437] [SC-117601][SQL][WSZYSTKIE TESTY] Nie optimize kwerendy wejściowej dwa razy dla rezerwowego zapisu w wersji 1
  • [SPARK-41840] [SC-119719][CONNECT][PYTHON] Dodawanie brakującego aliasu groupby
  • [SPARK-41846] [SC-119717][CONNECT][PYTHON] Włączanie testów dokumentu dla funkcji window
  • [SPARK-41914] [SC-120094][SQL] FileFormatWriter materializuje plan AQE przed uzyskaniem dostępu do elementu outputOrdering
  • [SPARK-41805] [SC-119992][SQL] Ponowne używanie wyrażeń w oknieSpecDefinition
  • [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range do podejmowania zmiennoprzecinkowych jako argumentów
  • [SPARK-42029] [SC-120336][CONNECT] Dodaj reguły cieniowania Guava, aby connect-common uniknąć niepowodzenia uruchamiania
  • [SPARK-41989] [SC-120334][PYTHON] Unikaj konfigurowania rejestrowania powodującego niezgodność z biblioteki pyspark.pandas
  • [SPARK-42003] [SC-120331][SQL] Zmniejsz zduplikowany kod w funkcji ResolveGroupByAll
  • [SPARK-41635] [SC-120313][SQL] Naprawianie grupy według wszystkich raportów o błędach
  • [SPARK-41047] [SC-120291][SQL] Ulepszanie dokumentacji dla rundy
  • [SPARK-41822] [SC-120122][CONNECT] Konfigurowanie połączenia gRPC dla klienta Scala/JVM
  • [SPARK-41879] [SC-120264][CONNECT][PYTHON] Tworzenie DataFrame.collect typów zagnieżdżonych obsługi
  • [SPARK-41887] [SC-120268][CONNECT][PYTHON] Spraw, aby DataFrame.hint akceptował typizowany parametr list
  • [SPARK-41964] [SC-120210][CONNECT][PYTHON] Dodaj list nieobsługiwanych funkcji wejścia/wyjścia
  • [SPARK-41595] [SC-120097][SQL] Obsługa funkcji generatora eksploduje/explode_outer w klauzuli FROM
  • [SPARK-41957] [SC-120121][CONNECT][PYTHON] Włączanie testu dokumentu dla DataFrame.hint
  • [SPARK-41886] [SC-120141][CONNECT][PYTHON] DataFrame.intersect Dane wyjściowe doctest mają inną kolejność
  • [SPARK-41442] [SC-117795][SQL][WSZYSTKIE TESTY] Tylko update wartość SQLMetric w przypadku scalenia z prawidłową metrykę
  • [SPARK-41944] [SC-120046][CONNECT] Przekazywanie konfiguracji, gdy lokalny tryb zdalny jest włączony
  • [SPARK-41708] [SC-119838][SQL] Ściąganie informacji o wersji 1write do WriteFiles
  • [SPARK-41780] [SC-120000][SQL] Należy zgłosić INVALID_PARAMETER_VALUE.PATTERN, gdy parametersregexp jest nieprawidłowy
  • [SPARK-41889] [SC-119975][SQL] Dołącz główną przyczynę do nieprawidłowych klas błędów ErrorError i refaktoryzacji INVALID_PARAMETER_VALUE
  • [SPARK-41860] [SC-120028][SQL] Klasy wielkości liter AvroScanBuilder i JsonScanBuilder
  • [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python: klient połączenia utracił column dane używając pyarrowa.Table.to_pylist
  • [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Niezależne kodery
  • [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implementowanie ponownego partycjonowaniaByExpression
  • [SPARK-41581] [SC-119997][SQL] Update_LEGACY_ERROR_TEMP_1230 jako INTERNAL_ERROR
  • [SPARK-41928] [SC-119972][CONNECT][PYTHON] Dodaj nieobsługiwane list dla functions
  • [SPARK-41933] [SC-119980][CONNECT] Zapewnianie trybu lokalnego, który automatycznie uruchamia serwer
  • [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame' powinien szanować użytkownika dostarczonego schema DDL
  • [SPARK-41936] [SC-119978][CONNECT][PYTHON] Ponowne withMetadata używanie narzędzia withColumns proto
  • [SPARK-41898] [SC-119931][CONNECT][PYTHON] Window.rowsBetween, Window.rangeBetween parameters równoważność sprawdzania typów z pyspark
  • [SPARK-41939] [SC-119977][CONNECT][PYTHON] Dodaj nieobsługiwane list dla funkcji catalog
  • [SPARK-41924] [SC-119946][CONNECT][PYTHON] Tworzenie metadanych obsługi obiektu StructType i implementowanie DataFrame.withMetadata
  • [SPARK-41934] [SC-119967][CONNECT][PYTHON] Dodaj nieobsługiwaną funkcję list dla session
  • [SPARK-41875] [SC-119969][CONNECT][PYTHON] Dodawanie przypadków testowych dla Dataset.to()
  • [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ignoruj doctest dla explain z connect
  • [SPARK-41880] [SC-119959][CONNECT][PYTHON] Sprawić, aby funkcja from_json akceptowała niezliteralne schema
  • [SPARK-41927] [SC-119952][CONNECT][PYTHON] Dodaj nieobsługiwane list dla GroupedData
  • [SPARK-41929] [SC-119949][CONNECT][PYTHON] Dodawanie funkcji array_compact
  • [SPARK-41827] [SC-119841][CONNECT][PYTHON] GroupBy zaakceptować columnlist
  • [SPARK-41925] [SC-119905][SQL] Włącz spark.sql.orc.enableNestedColumnVectorizedReader domyślnie
  • [SPARK-41831] [SC-119853][CONNECT][PYTHON] DataFrame.select zaakceptuj columnlist
  • [SPARK-41455] [SC-119858][CONNECT][PYTHON] Sprawić, aby DataFrame.collect odrzucił informacje o timezone
  • [SPARK-41923] [SC-119861][CONNECT][PYTHON] Dodaj DataFrame.writeTo do nieobsługiwanego list
  • [SPARK-41912] [SC-119837][SQL] Podzapytywanie nie powinno weryfikować CTE
  • [SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Tworzenie createDataFrame obsługi pustej ramki danych
  • [SPARK-41905] [SC-119848][CONNECT] Obsługa nazwy jako ciągów we fragmentatorze
  • [SPARK-41869] [SC-119845][CONNECT] Odrzucanie pojedynczego ciągu w dropDuplicates
  • [SPARK-41830] [SC-119840][CONNECT][PYTHON] DataFrame.sample zaakceptuj te same parameters co PySpark
  • [SPARK-41849] [SC-119835][CONNECT] Implementowanie elementu DataFrameReader.text
  • [SPARK-41861] [SC-119834][SQL] Wykonaj zwracanie skanowania typu build() programu ScanBuilders w wersji 2
  • [SPARK-41825] [SC-119710][CONNECT][PYTHON] Włączanie testów dokumentu związanych z DataFrame.show
  • [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Upewnij się, że createDataFrame dojście brak/naN są poprawne
  • [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Utwórz DataFrame.collect uchwyt None/NaN/Array/Binary porperly
  • [SPARK-39318] [SC-119713][SQL] Remove tpch-plan-stability WithStats golden files
  • [SPARK-41791] [SC-119745] Dodawanie nowych typów metadanych źródła plików column
  • [SPARK-41790] [SC-119729][SQL] Set poprawnie sformatować format czytnika i format zapisywania TRANSFORM
  • [SPARK-41829] [SC-119725][CONNECT][PYTHON] Dodaj brakujący parametr porządkowania w pliku Sort i sortWithinPartitions
  • [SPARK-41576] [SC-119718][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2051
  • [SPARK-41821] [SC-119716][CONNECT][PYTHON] Poprawiono test dokumentu dla elementu DataFrame.describe
  • [SPARK-41871] [SC-119714][CONNECT] Parametr wskazówki ramki danych może być str, float lub int
  • [SPARK-41720] [SC-119076][SQL] Zmień nazwę UnresolvedFunc na UnresolvedFunctionName
  • [SPARK-41573] [SC-119567][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2136
  • [SPARK-41862] [SC-119492][SQL] Naprawiono usterkę poprawności związaną z DEFAULT values w czytniku Orc
  • [SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Ponowne użycie INVALID_TYPED_LITERAL zamiast _LEGACY_ERROR_TEMP_0022

Aktualizacje konserwacyjne

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 12.2.

Środowisko systemu

  • System operacyjny: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.68.0.21-CA-linux64
  • Scala: 2.12.15
  • Python: 3.9.19
  • R: 4.2.2
  • Delta Lake: 2.2.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 black (czarny) 22.3.0 wybielacz 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
kliknięcie 8.0.4 kryptografia 3.4.8 rowerzysta 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
dekorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 punkty wejścia 0,4 Wykonywanie 0.8.3
aspekty — omówienie 1.0.0 fastjsonschema 2.16.2 filelock 3.9.0
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.1 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
biblioteka matplotlib-inline 0.1.2 Mccabe 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notes 6.4.8 numpy 1.21.5 opakowanie 21,3
Pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 Patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Poduszka 9.0.1 pip 21.2.4
platformdirs 2.6.2 kreślenie 5.6.0 wtyczka 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pirstent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
żądania 2.27.1 requests-unixsocket 0.2.0 lina 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Sześć 1.16.0 zupy 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 Wytrzymałość 8.0.1
terminado 0.13.1 ścieżka testowa 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlety 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
nienadzorowane uaktualnienia 0.1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.4
koło 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-11-11.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzałkę 10.0.0 askpass 1.1 assertthat 0.2.1
backports (backports) 1.4.1 base 4.2.2 base64enc 0.1-3
bitowe 4.0.4 bit64 4.0.5 blob 1.2.3
rozruch 1.3-28 warzyć 1.0-8 Brio 1.1.3
miotła 1.0.1 bslib 0.4.1 cachem 1.0.6
obiekt wywołujący 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 class 7.3-21 cli 3.4.1
clipr 0.8.0 zegar 0.6.1 cluster 2.1.4
codetools 0.2-19 przestrzeń kolorów 2.0-3 commonmark 1.8.1
— kompilator 4.2.2 config 0.3.1 cpp11 0.4.3
kredka 1.5.2 credentials 1.3.2 lok 4.3.3
dane.table 1.14.4 usługi Power BI 4.2.2 DBI 1.1.3
dbplyr 2.2.1 Desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 trawić 0.6.30 downlit (wyłączony) 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
wielokropek 0.3.2 evaluate 0.18 fani 1.0.3
farver 2.1.1 szybka mapa 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 zagraniczny 0.8-82
kuźnia 0.2.0 Fs 1.5.2 przyszłość 1.29.0
future.apply 1.10.0 płukać gardło 1.2.1 Generyczne 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globalna 0.16.1
klej 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 grafika 4.2.2 grDevices 4.2.2
siatka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 przystań 2.5.1
wysoki 0,9 Hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Identyfikatory 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iteratory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
Etykietowania 0.4.2 później 1.3.0 krata 0.20-45
lawa 1.7.0 cykl życia 1.0.3 nasłuchiwanie 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1.3
MASA 7.3-58.2 Macierz 1.5-1 zapamiętywanie 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0,12
miniUI 0.1.1.1 Metryki modelu 1.2.2.2 modeler 0.1.9
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
równolegle 1.32.1 filar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 pochwała 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Postęp 1.2.2
progressr 0.11.0 Obietnice 1.2.0.1 Proto 1.0.0
proxy 0.4-27 PS 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 przepisy 1.0.3
rewanż 1.0.1 rewanż2 2.1.2 Piloty 2.4.2
reprex 2.0.2 zmień kształt2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.18 rstudioapi 0,14 rversions (rversions) 2.1.2
rvest 1.0.3 Sass 0.4.2 waga 1.2.1
selektor 0.4-2 sessioninfo 1.2.2 kształt 1.4.6
błyszczący 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.2 przestrzenny 7.3-11 Splajnów 4.2.2
sqldf 0.4-11 KWADRAT 2021.1 Statystyki 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
przetrwanie 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 zmiana czasu 0.1.1 timeDate 4021.106
tinytex 0.42 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
narzędzia 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 Vroom 1.6.0 Waldo 0.4.0
wąs 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zamek 2.2.2

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-klej 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-biblioteka-biblioteka 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics strumień 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core adnotacje jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.kofeina kofeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guawa 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.3
io.dropwizard.metrics metryki —rdzeń 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics serwlety metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transport netto 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx kolekcjoner 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine Pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant tat 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format strzałki 7.0.0
org.apache.arrow strzałka-pamięć-rdzeń 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow wektor strzałki 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy bluszcz 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc podkładki orc-shim 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet kodowanie parquet 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-cieniowane 4.20
org.apache.yetus adnotacje odbiorców 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper jute dozorców 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-kontynuacja 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket —wspólne 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.1.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Podkładki 0.9.25
org.rocksdb rocksdbjni 6.28.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark.spark Nieużywane 1.0.0
org.threeten trzydostępne dodatkowe 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1