Databricks Runtime 12.2 LTS
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 12.2 LTS obsługiwanym przez platformę Apache Spark 3.3.2.
Usługa Databricks wydała tę wersję w marcu 2023 r.
Uwaga
LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.
Napiwek
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.
Zmiany zachowań
[Zmiana powodująca niezgodność] Nowa wersja języka Python wymaga aktualizacji klientów języka Python programu Databricks Connect V1
Aby zastosować wymagane poprawki zabezpieczeń, wersja języka Python w środowisku Databricks Runtime 12.2 LTS została uaktualniona z wersji 3.9.5 do wersji 3.9.19. Ponieważ te zmiany mogą powodować błędy w klientach korzystających z określonych funkcji PySpark, wszyscy klienci korzystający z programu Databricks Connect V1 dla języka Python z usługą Databricks Runtime 12.2 LTS muszą zostać zaktualizowani do języka Python w wersji 3.9.7 lub nowszej.
Nowe funkcje i ulepszenia
- Ewolucja usługi Delta Lake schema obsługuje określanie columns źródłowych w instrukcjach scalania
- Obciążenia przesyłania strumieniowego ze strukturą są obsługiwane w klastrach z trybem dostępu współdzielonego
- Nowe funkcje predykcyjne we/wy
- obsługa aliasowania implicitnego column bocznego
- Nowa funkcja forEachBatch
- Standardowe opcje połączenia dla federacji zapytań
- Rozszerzona biblioteka funkcji SQL na potrzeby zarządzania tablicami
- Nowa funkcja maski do anonimizowania ciągów
- Typowe warunki błędów zwracają teraz wartości SQLSTATE
- Wywoływanie funkcji generatora w klauzuli FROM
- Obsługa protokołu jest ogólnie dostępna
- Przejdź do definicji zmiennych i funkcji notesu
- Szybka poprawka notesu dotycząca bibliotek automatycznego importowania
- Poprawki błędów
Ewolucja schema Delta Lake obsługuje określenie źródła columns w instrukcjach scalania
Możesz teraz określić columns obecne tylko w źródle table w działaniach insert lub update dla instrukcji scalania, gdy ewolucja schema jest włączona. W środowisku Databricks Runtime 12.1 lub starszym tylko działania INSERT *
lub UPDATE SET *
mogą być używane dla ewolucji schema z użyciem scalania. Zobacz Automatyczna ewolucja schema dla scalania Delta Lake.
Obciążenia przesyłania strumieniowego ze strukturą są obsługiwane w klastrach z trybem dostępu współdzielonego
Teraz możesz użyć Strukturalnego Przesyłania Strumieniowego do interakcji z Unity Catalog na udostępnionych klastrach. Obowiązują pewne ograniczenia. Zobacz Jaką funkcjonalność Structured Streaming obsługuje Unity Catalog?.
Nowe funkcje predykcyjne we/wy
Obsługa fotonu dla ujścia Foreachbatch
jest teraz dostępna. Obciążenia przesyłane strumieniowo ze źródła i scalane z Delta Tables lub zapisywane do wielu odbiorników mogą teraz korzystać z rozwiązania typu Photonized Foreachbatch
.
Obsługa bocznego aliasowania column domyślnie
Usługa Azure Databricks obsługuje teraz domyślnie niejawne column aliasy. Teraz możesz ponownie użyć wyrażenia określonego wcześniej w tym samym SELECT
list. Na przykład, biorąc pod uwagę SELECT 1 AS a
wartość , a + 1 AS b
a
element in a + 1
można rozpoznać jako wcześniej zdefiniowany 1 AS a
element . Sprawdź rozpoznawanie nazw, aby uzyskać więcej szczegółów w kolejności rozwiązywania problemów.
Aby wyłączyć tę funkcję, możesz set,spark.sql.lateralColumnAlias.enableImplicitResolution
aby false
.
Nowa funkcja forEachBatch
Funkcja Photon jest teraz obsługiwana podczas zapisywania foreachBatch
w ujściu danych.
Standardowe opcje połączenia dla federacji zapytań
Teraz możesz użyć ujednoliconego set opcji (hosta, portu, bazy danych, użytkownika, hasła), aby nawiązać połączenie ze źródłami danych obsługiwanymi w federacji zapytań.
Port
jest opcjonalny i używa domyślnego numeru portu dla każdego źródła danych, chyba że określono.
Rozszerzona biblioteka funkcji SQL na potrzeby zarządzania tablicami
Teraz możesz remove wszystkie elementy NULL w tablicy za pomocą array_compact. Aby dołączyć elementy do tablicy, użyj array_append.
Nowa funkcja maski do anonimizowania ciągów
Wywołaj funkcję maski , aby zanonimizować ciąg poufny values.
Typowe warunki błędów zwracają teraz wartości SQLSTATE
Większość warunków błędów w środowisku Databricks Runtime obecnie zawiera udokumentowane SQLSTATEvalues, które mogą służyć do testowania błędów zgodnie ze standardem SQL.
Wywoływanie funkcji generatora w klauzuli FROM
Teraz można wywoływać funkcje generatorów o wartości table, takie jak eksploduj, w normalnej klauzuli FROM
zapytania. Wyrównuje to wywołanie funkcji generatora z innymi wbudowanymi i zdefiniowanymi przez użytkownika funkcjami table.
Obsługa protokołu jest ogólnie dostępna
Za pomocą from_protobuf
funkcji i to_protobuf
można wymieniać dane między typami binarnymi i strukturami. Zobacz protokołu odczytu i zapisu.
Przejdź do definicji zmiennych i funkcji notesu
W notesach można szybko przejść do definicji zmiennej, funkcji lub kodu za instrukcją %run
, klikając prawym przyciskiem myszy zmienną lub nazwę funkcji.
Szybka poprawka notesu dotycząca bibliotek automatycznego importowania
Notesy usługi Databricks oferują teraz funkcję szybkiej poprawki dla bibliotek automatycznego importowania. Jeśli zapomnisz zaimportować bibliotekę, taką jak pandas, umieść kursor na podkreślonej składni ostrzeżenie, a następnie kliknij pozycję Szybka poprawka, te funkcje wymagają włączenia Asystenta usługi Databricks w obszarze roboczym.
Poprawki błędów
- Ulepszona spójność zachowania zatwierdzania delty dla pustych transakcji odnoszących się do
update
poleceń ,delete
imerge
. NaWriteSerializable
poziomie izolacji polecenia, które powodują, że żadne zmiany nie powodują teraz utworzenia pustego zatwierdzenia.Serializable
Na poziomie izolacji takie puste transakcje nie tworzą teraz zatwierdzenia.
Zmiany zachowania
Zmiany zachowania dzięki nowej funkcji aliasu column bocznej
Nowa funkcja aliasu column bocznego wprowadza zmiany zachowania dla następujących przypadków podczas rozpoznawania nazw:
- Alias Lateral column ma teraz pierwszeństwo przed skorelowanymi odwołaniami o tej samej nazwie. Na przykład w przypadku tego zapytania
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
c1
w wewnętrznymc1 AS c2
został rozpoznany jako skorelowane odwołaniet.c1
, ale teraz zmienia się na boczny alias column1 AS c1
. Zapytanie zwraca teraz wartośćNULL
. - Alias boczny column ma teraz pierwszeństwo przed funkcją parameters o tej samej nazwie. Na przykład w przypadku funkcji
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
,x
w treści funkcji została powiązana z parametrem funkcji x, ale zmienia się w boczny alias columnx + 1
w treści funkcji. ZapytanieSELECT * FROM func(1)
zwraca teraz wartość2, 2
. - Aby wyłączyć funkcję aliasu column bocznego, set
spark.sql.lateralColumnAlias.enableImplicitResolution
false
. Aby uzyskać więcej informacji, zobacz Rozpoznawanie nazw.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- filelock z wersji 3.8.2 do 3.9.0
- joblib z wersji 1.1.0 do 1.1.1
- platformdirs z wersji 2.6.0 do 2.6.2
- whatthepatch z 1.0.3 do 1.0.4
- Uaktualnione biblioteki języka R:
- klasa z 7.3-20 do 7.3-21
- codetools od 0.2-18 do 0.2-19
- MASA z 7.3-58 do 7.3-58.2
- nlme z 3.1-160 do 3.1-162
- Rserve od 1.8-11 do 1.8-12
- SparkR z wersji 3.3.1 do 3.3.2
Zmiany zachowania
- Użytkownicy muszą teraz mieć uprawnienia
SELECT
iMODIFY
dla dowolnego pliku podczas tworzenia schema ze zdefiniowaną lokalizacją.
Apache Spark
Środowisko Databricks Runtime 12.2 zawiera platformę Apache Spark 3.3.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 12.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-42416] [SC-123205][SC-122851][SQL] Operacje zestawu dat nie powinny ponownie rozpoznawać przeanalizowanego planu logicznego
- [SPARK-41848] Przywróć "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Naprawianie zadania nadmiernie zaplanowanego za pomocą elementu TaskResourceProfile"
- [SPARK-42162] [SC-122711][ES-556261] Wprowadzenie wyrażenia MultiCommutativeOp jako optymalizacji pamięci w celu kanonicznego określania dużych drzew wyrażeń dojeżdżających do pracy
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Naprawianie ustawienia głębokości cyklicznego dla funkcji Protobuf
- [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implementowanie elementu DataFrameWriterV2
- [SPARK-41716] [SC-122545][CONNECT] Zmień nazwę _catalog_to_pandas na _execute_and_fetch w Catalog
- [SPARK-41490] [SC-121774][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implement Catalog.cacheTable, isCached i uncache
- [SPARK-42191] [SC-121990][SQL] Obsługa funkcji udf "luhn_check"
- [SPARK-42253] [SC-121976][PYTHON] Dodawanie testu wykrywania zduplikowanej klasy błędów
- [SPARK-42268] [SC-122251][CONNECT][PYTHON] Dodawanie elementu UserDefinedType w protos
-
[SPARK-42231] [SC-121841][SQL] Przekróć
MISSING_STATIC_PARTITION_COLUMN
winternalError
- [SPARK-42136] [SC-122554] Refaktoryzacja obliczenia partycjonowania wyjściowego BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][SQL] Integracja
_LEGACY_ERROR_TEMP_1003
z usługąFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Migrowanie błędu TypeError z pyspark/sql/dataframe.py do błędu PySparkTypeError
- [SPARK-35240] Przywróć element "[SC-118242][SS] Użyj elementu CheckpointFileManager ...
- [SPARK-41488] [SC-121858][SQL] Przypisz nazwę do _LEGACY_ERROR_TEMP_1176 (i 1177)
-
[SPARK-42232] [SC-122267][SQL] Zmień nazwę klasy błędu:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Ponowne zapisywanie unikatowych agregacji po scaleniu podzapytania
-
[SPARK-42306] [SC-122539][SQL] Integracja
_LEGACY_ERROR_TEMP_1317
z usługąUNRESOLVED_COLUMN.WITH_SUGGESTION
-
[SPARK-42234] [SC-122354][SQL] Zmień nazwę klasy błędu:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
-
[SPARK-42343] [SC-122437][CORE] Ignoruj
IOException
wartość whandleBlockRemovalFailure
przypadku zatrzymania elementu SparkContext - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Zmienianie nazwy klas błędów
- [SPARK-42320] [SC-122478][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][CONNECT] Element SparkConnectClient obsługuje teraz usługę RetryPolicies
- [SPARK-38728] [SC-116723][SQL] Przetestuj klasę błędów: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Przykłady samodzielne w narzędziu PySpark
- [SPARK-39347] [SC-122457][SS] Poprawka błędu w obliczeniu czasu window, gdy czas zdarzenia < wynosi 0
-
[SPARK-42336] [SC-122458][CORE] Użyj
getOrElse()
zamiast w elemeciecontains()
ResourceAllocator - [SPARK-42125] [SC-121827][CONNECT][PYTHON] Funkcja UDF biblioteki Pandas w programie Spark Connect
- [SPARK-42217] [SC-122263][SQL] Obsługa niejawnego aliasu column bocznego w zapytaniach za pomocą Window
- [SPARK-35240] [SC-118242][SS] Używanie narzędzia CheckpointFileManager do manipulowania plikami punktu kontrolnego
- [SPARK-42294] [SC-122337][SQL] Uwzględnij column domyślne values w danych wyjściowych DESCRIBE dla V2 tables
- [SPARK-41979] Przywróć "Przywróć "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.""
- [SPARK-42286] [SC-122336][SQL] Powrót do poprzedniej ścieżki kodu codegen dla złożonego expr z funkcją CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Unikaj używania wbudowanych list, dict w statycznym wpisywaniu
- [SPARK-41985] [SC-122172][SQL] Scentralizowanie większej liczby reguł rozwiązywania column
- [SPARK-42126] [SC-122330][PYTHON][CONNECT] Zaakceptuj zwracany typ w ciągach DDL dla scalarnych funkcji zdefiniowanych przez użytkownika języka Python w programie Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][CONNECT] Ponowne używanie inicjowania maszyny JVM i oddzielne grupy konfiguracji do set w trybie zdalnym lokalnym
- [SPARK-41575] [SC-120118][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Przywróć "[SC-122172][SQL] Scentralizowanie bardziej column reguł rozwiązywania problemów"
- [SPARK-42123] [SC-122234][SC-121453][SQL] Uwzględnij column domyślne values w artykule DESCRIBE i SHOW CREATE TABLE danych wyjściowych
- [SPARK-41985] [SC-122172][SQL] Scentralizowanie większej liczby reguł rozwiązywania column
- [SPARK-42284] [SC-122233][CONNECT] Przed uruchomieniem testów klienta — SBT upewnij się, że zestaw serwera connect jest skompilowany
-
[SPARK-42239] [SC-121790][SQL] Integrować
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
-
[SPARK-42278] [SC-122170][SQL] Obsługa wypychania DS w wersji 2 obsługuje dialekty JDBC kompilowane
SortOrder
samodzielnie - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics powinna dbać o środowisko UDAF języka Python
- [SPARK-41979] Przywróć wartość "[12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
- [SPARK-42224] [12.x][SC-121708][CONNECT] Migrowanie błędu TypeError do struktury błędów dla funkcji Spark Connect
- [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Migrowanie błędów programu Spark Connect do platformy błędów PySpark.
- pl-PL: [SPARK-42119] [SC-121913][SC-121342][SQL] Dodanie wbudowanych funkcji wartościowych table: inline i inline_outer
- [SPARK-41489] [SC-121713][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Wprowadzenie błędu PySparkValueError i PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Ulepszanie weryfikacji zmian planu
- [SPARK-42225] [12.x][SC-121714][CONNECT] Dodaj wyjątek SparkConnectIllegalArgumentException, aby dokładnie obsłużyć błąd programu Spark Connect.
-
[SPARK-42044] [12.x][SC-121280][SQL] Naprawianie nieprawidłowego komunikatu o błędzie dla
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Zezwolić na parametr columns podczas tworzenia DataFrame z Seria.
- [SPARK-42078] [12.x][SC-120761][PYTHON] Migrowanie błędów zgłaszanych przez maszynę JVM do wyjątku PySparkException.
- [SPARK-42133] [12.x][SC-121250] Dodawanie podstawowych metod interfejsu API zestawu danych do klienta SparkConnect Scala
- [SPARK-41979] [12.x][SC-121190][SQL] Dodaj brakujące kropki dla komunikatów o błędach w klasach błędów.
- [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] Scalar Inline Python UDF inline w programie Spark Connect
- [SPARK-42051] [SC-121994][SQL] Obsługa generowania kodu dla funkcji HiveGenericUDF
- [SPARK-42257] [SC-121948][CORE] Remove nieużywana zmienna zewnętrznego sortera
- [SPARK-41735] [SC-121771][SQL] Użyj funkcji MINIMAL zamiast STANDARD dla elementu SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][SQL] Udoskonalić
NULLABLE_ARRAY_OR_MAP_ELEMENT
-
[SPARK-42233] [SC-121775][SQL] Ulepszanie komunikatu o błędzie dla elementu
PIVOT_AFTER_GROUP_BY
-
[SPARK-42229] [SC-121856][CORE] Migrowanie
SparkCoreErrors
do klas błędów - [SPARK-42163] [SC-121839][SQL] Poprawka schema przycinania dla indeksu tablicy nieskładalnej lub klucza mapy
- [SPARK-40711] [SC-119990][SQL] Dodawanie metryk rozmiaru wycieku dla window
-
[SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Tworzenie
createDataFrame
przymusu obsługiAtomicType -> StringType
- [SPARK-42202] [SC-121837][Połącz][Test] Ulepszanie logiki zatrzymania serwera testowego E2E
- [SPARK-41167] [SC-117425][SQL] Zwiększanie wydajności podobnej do wielu dzięki utworzeniu predykatu drzewa wyrażeń wyważonego
- [SPARK-41931] [SC-121618][SQL] Lepszy komunikat o błędzie dla niekompletnej definicji typu złożonego
- [SPARK-36124] [SC-121339][SC-110446][SQL] Obsługa podzapytania z korelacją za pośrednictwem unii
- [SPARK-42090] [SC-121290][3.3] Wprowadzenie liczby ponownych prób sasl w retryingBlockTransferor
-
[SPARK-42157] [SC-121264][CORE]
spark.scheduler.mode=FAIR
powinien zapewnić harmonogram FAIR - [SPARK-41572] [SC-120772][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu
NULL_COMPARISON_RESULT
-
[SPARK-41976] [SC-121024][SQL] Ulepszanie komunikatu o błędzie dla elementu
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Przypisywanie parametrów SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Ponowne próby żądań SASL
- [SPARK-38591] [SC-121018][SQL] Dodawanie obiektów flatMapSortedGroups i cogroupSorted
-
[SPARK-41975] [SC-120767][SQL] Ulepszanie komunikatu o błędzie dla elementu
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Dodawanie brakujących opcji dla funkcji Protobuf
-
[SPARK-41984] [SC-120769][SQL] Zmień nazwę i popraw komunikat o błędzie dla elementu
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Naprawiono serwer NPE dla klas błędów: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][CONNECT][PYTHON] Poprawka nieprawidłowej nazwy column w dokumentu
withField
-
[SPARK-41283] [SC-121175][CONNECT][PYTHON] Dodaj
array_append
do programu Connect - [SPARK-41960] [SC-120773][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Naprawiono polecenie getPartitionFiltersAndDataFilters() w celu obsługi filtrów bez atrybutów, do których odwołuje się odwołanie
-
[SPARK-42096] [SC-121012][CONNECT] Niektóre oczyszczanie kodu dla modułu
connect
-
[SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Naprawianie
count(*)
icount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] Tryb SQL ANSI: Round/Bround powinien zwrócić błąd w przepełnieniu liczby całkowitej
- [SPARK-42043] [SC-120968][CONNECT] Wynik klienta Scala z testami E2E
- [SPARK-41884] [SC-121022][CONNECT] Obsługa naiwnej krotki jako zagnieżdżonego wiersza
-
[SPARK-42112] [SC-121011][SQL][SS] Dodawanie sprawdzania wartości null przed
ContinuousWriteRDD#compute
zamknięciem funkcjidataWriter
- [SPARK-42077] [SC-120553][CONNECT][PYTHON] Literał powinien zgłaszać błąd TypeError dla nieobsługiwanego typu danych
-
[SPARK-42108] [SC-120898][SQL] Przekształć
Count(*)
analizatora wCount(1)
-
[SPARK-41666] [SC-120928][SC-119009][PYTHON] Obsługa sparametryzowanego kodu SQL przez
sql()
- [SPARK-40599] [SC-120930][SQL] Zrelaksuj typ reguły multiTransform, aby umożliwić alternatywy dla dowolnego rodzaju seq
-
[SPARK-41574] [SC-120771][SQL] Update
_LEGACY_ERROR_TEMP_2009
jakoINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][SQL] Przekróć
INCORRECT_END_OFFSET
wINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][CORE] Zmienianie nazwy medianyHeap na PercentileMap i obsługa percentylu
- [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Poprawiono reprezentację ciągu dla klasy Column
- [SPARK-42084] [SC-120775][SQL] Unikaj wycieku ograniczenia tylko do kwalifikowanego dostępu
- [SPARK-41973] [SC-120765][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ: Remove Option in KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][CONNECT][PYTHON] Zmienianie nazwy komunikatów proto dla
toDF
iwithColumnsRenamed
- [SPARK-42089] [SC-120605][CONNECT][PYTHON] Rozwiązywanie problemów z nazwami zmiennych w zagnieżdżonych funkcjach lambda
- [SPARK-41982] [SC-120604][SQL] Partycje typu ciąg nie powinny być traktowane jako typy liczbowe
- [SPARK-40599] [SC-120620][SQL] Dodanie metod multiTransform do TreeNode dla alternatyw generate
-
[SPARK-42085] [SC-120556][CONNECT][PYTHON] Tworzenie
from_arrow_schema
typów zagnieżdżonych obsługi - [SPARK-42057] [SC-120507][SQL][PROTOBUF] Napraw sposób obsługi wyjątku w raportowaniu błędów.
-
[SPARK-41586] [12.x][WSZYSTKIE TESTY][SC-120544][PYTHON] Wprowadzenie
pyspark.errors
i klasy błędów dla PySpark. -
[SPARK-41903] [SC-120543][CONNECT][PYTHON]
Literal
powinna obsługiwać 1-dim ndarray -
[SPARK-42021] [SC-120584][CONNECT][PYTHON] Tworzenie
createDataFrame
pomocy technicznejarray.array
- [SPARK-41896] [SC-120506][SQL] Filtrowanie według indeksu wierszy zwraca puste wyniki
- [SPARK-41162] [SC-119742][SQL] Naprawianiejoin anty-i pół-join dla siebiejoin za pomocą agregacji
- [SPARK-41961] [SC-120501][SQL] Support table-valued functions with LATERAL
- [SPARK-41752] [SC-120550][SQL][Interfejs użytkownika] Grupowanie zagnieżdżonych wykonań w ramach wykonywania głównego
- [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Literał powinien obsługiwać typy danych Numpy
- [SPARK-42028] [SC-120344][CONNECT][PYTHON] Obcięcie nanoseconds timestampsl
- [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implementowanie DataFrameReader.csv
-
[SPARK-41990] [SC-120532][SQL] Użyj
FieldReference.column
zamiast w wersji 1 do konwersji filtruapply
w wersji 2 - [SPARK-39217] [SC-120446][SQL] Sprawia, że DPP obsługuje stronę oczyszczania ma Union
-
[SPARK-42076] [SC-120551][CONNECT][PYTHON] Konwersja
arrow -> rows
danych współczynnika naconversion.py
-
[SPARK-42074] [SC-120540][SQL] Włącz
KryoSerializer
,TPCDSQueryBenchmark
aby wymusić rejestrację klas SQL - [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implementowanie elementu DataFrameReader.orc
-
[SPARK-41832] [SC-120513][CONNECT][PYTHON] Poprawka
DataFrame.unionByName
, dodawanie allow_missing_columns -
[SPARK-38651] [SC-120514] [SQL] Dodawać
spark.sql.legacy.allowEmptySchemaWrite
-
[SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
wartość ExpressionProxy powinna być akceptowana jako element podrzędny - [SPARK-41232] [SC-120073][SQL][PYTHON] Dodawanie funkcji array_append
- [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] Element DataFrameReader powinien obsługiwać list ścieżek
-
[SPARK-42071] [SC-120533][CORE] Zarejestruj się
scala.math.Ordering$Reverse
w usłudze KyroSerializer - [SPARK-41986] [SC-120429][SQL] Wprowadzanie mieszania w ramach pojedynczej części
- [SPARK-42016] [SC-120428][CONNECT][PYTHON] Włącz testy związane z zagnieżdżonym column
-
[SPARK-42042] [SC-120427][CONNECT][PYTHON]
DataFrameReader
powinien obsługiwać StructType schema -
[SPARK-42031] [SC-120389][CORE][SQL]
remove
Czyszczenie metod, które nie wymagają zastąpienia -
[SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Tworzenie
createDataFrame(rows/lists/tuples/dicts)
typów zagnieżdżonych obsługi - [SPARK-41437] [SC-117601][SQL][WSZYSTKIE TESTY] Nie optimize kwerendy wejściowej dwa razy dla rezerwowego zapisu w wersji 1
-
[SPARK-41840] [SC-119719][CONNECT][PYTHON] Dodawanie brakującego aliasu
groupby
- [SPARK-41846] [SC-119717][CONNECT][PYTHON] Włączanie testów dokumentu dla funkcji window
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter materializuje plan AQE przed uzyskaniem dostępu do elementu outputOrdering
- [SPARK-41805] [SC-119992][SQL] Ponowne używanie wyrażeń w oknieSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range do podejmowania zmiennoprzecinkowych jako argumentów
-
[SPARK-42029] [SC-120336][CONNECT] Dodaj reguły cieniowania Guava, aby
connect-common
uniknąć niepowodzenia uruchamiania - [SPARK-41989] [SC-120334][PYTHON] Unikaj konfigurowania rejestrowania powodującego niezgodność z biblioteki pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Zmniejsz zduplikowany kod w funkcji ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Naprawianie grupy według wszystkich raportów o błędach
- [SPARK-41047] [SC-120291][SQL] Ulepszanie dokumentacji dla rundy
- [SPARK-41822] [SC-120122][CONNECT] Konfigurowanie połączenia gRPC dla klienta Scala/JVM
-
[SPARK-41879] [SC-120264][CONNECT][PYTHON] Tworzenie
DataFrame.collect
typów zagnieżdżonych obsługi -
[SPARK-41887] [SC-120268][CONNECT][PYTHON] Spraw, aby
DataFrame.hint
akceptował typizowany parametr list - [SPARK-41964] [SC-120210][CONNECT][PYTHON] Dodaj list nieobsługiwanych funkcji wejścia/wyjścia
- [SPARK-41595] [SC-120097][SQL] Obsługa funkcji generatora eksploduje/explode_outer w klauzuli FROM
-
[SPARK-41957] [SC-120121][CONNECT][PYTHON] Włączanie testu dokumentu dla
DataFrame.hint
-
[SPARK-41886] [SC-120141][CONNECT][PYTHON]
DataFrame.intersect
Dane wyjściowe doctest mają inną kolejność - [SPARK-41442] [SC-117795][SQL][WSZYSTKIE TESTY] Tylko update wartość SQLMetric w przypadku scalenia z prawidłową metrykę
- [SPARK-41944] [SC-120046][CONNECT] Przekazywanie konfiguracji, gdy lokalny tryb zdalny jest włączony
-
[SPARK-41708] [SC-119838][SQL] Ściąganie informacji o wersji 1write do
WriteFiles
-
[SPARK-41780] [SC-120000][SQL] Należy zgłosić INVALID_PARAMETER_VALUE.PATTERN, gdy parameters
regexp
jest nieprawidłowy - [SPARK-41889] [SC-119975][SQL] Dołącz główną przyczynę do nieprawidłowych klas błędów ErrorError i refaktoryzacji INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Klasy wielkości liter AvroScanBuilder i JsonScanBuilder
- [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python: klient połączenia utracił column dane używając pyarrowa.Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Niezależne kodery
- [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implementowanie ponownego partycjonowaniaByExpression
-
[SPARK-41581] [SC-119997][SQL] Update
_LEGACY_ERROR_TEMP_1230
jakoINTERNAL_ERROR
-
[SPARK-41928] [SC-119972][CONNECT][PYTHON] Dodaj nieobsługiwane list dla
functions
- [SPARK-41933] [SC-119980][CONNECT] Zapewnianie trybu lokalnego, który automatycznie uruchamia serwer
- [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame' powinien szanować użytkownika dostarczonego schema DDL
-
[SPARK-41936] [SC-119978][CONNECT][PYTHON] Ponowne
withMetadata
używanie narzędziawithColumns
proto - [SPARK-41898] [SC-119931][CONNECT][PYTHON] Window.rowsBetween, Window.rangeBetween parameters równoważność sprawdzania typów z pyspark
-
[SPARK-41939] [SC-119977][CONNECT][PYTHON] Dodaj nieobsługiwane list dla funkcji
catalog
-
[SPARK-41924] [SC-119946][CONNECT][PYTHON] Tworzenie metadanych obsługi obiektu StructType i implementowanie
DataFrame.withMetadata
-
[SPARK-41934] [SC-119967][CONNECT][PYTHON] Dodaj nieobsługiwaną funkcję list dla
session
-
[SPARK-41875] [SC-119969][CONNECT][PYTHON] Dodawanie przypadków testowych dla
Dataset.to()
- [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ignoruj doctest dla explain z connect
-
[SPARK-41880] [SC-119959][CONNECT][PYTHON] Sprawić, aby funkcja
from_json
akceptowała niezliteralne schema -
[SPARK-41927] [SC-119952][CONNECT][PYTHON] Dodaj nieobsługiwane list dla
GroupedData
-
[SPARK-41929] [SC-119949][CONNECT][PYTHON] Dodawanie funkcji
array_compact
-
[SPARK-41827] [SC-119841][CONNECT][PYTHON]
GroupBy
zaakceptować columnlist -
[SPARK-41925] [SC-119905][SQL] Włącz
spark.sql.orc.enableNestedColumnVectorizedReader
domyślnie -
[SPARK-41831] [SC-119853][CONNECT][PYTHON]
DataFrame.select
zaakceptuj columnlist -
[SPARK-41455] [SC-119858][CONNECT][PYTHON] Sprawić, aby
DataFrame.collect
odrzucił informacje o timezone -
[SPARK-41923] [SC-119861][CONNECT][PYTHON] Dodaj
DataFrame.writeTo
do nieobsługiwanego list - [SPARK-41912] [SC-119837][SQL] Podzapytywanie nie powinno weryfikować CTE
-
[SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Tworzenie
createDataFrame
obsługi pustej ramki danych - [SPARK-41905] [SC-119848][CONNECT] Obsługa nazwy jako ciągów we fragmentatorze
- [SPARK-41869] [SC-119845][CONNECT] Odrzucanie pojedynczego ciągu w dropDuplicates
-
[SPARK-41830] [SC-119840][CONNECT][PYTHON]
DataFrame.sample
zaakceptuj te same parameters co PySpark - [SPARK-41849] [SC-119835][CONNECT] Implementowanie elementu DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Wykonaj zwracanie skanowania typu build() programu ScanBuilders w wersji 2
-
[SPARK-41825] [SC-119710][CONNECT][PYTHON] Włączanie testów dokumentu związanych z
DataFrame.show
-
[SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Upewnij się, że
createDataFrame
dojście brak/naN są poprawne -
[SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Utwórz
DataFrame.collect
uchwyt None/NaN/Array/Binary porperly - [SPARK-39318] [SC-119713][SQL] Remove tpch-plan-stability WithStats golden files
- [SPARK-41791] [SC-119745] Dodawanie nowych typów metadanych źródła plików column
- [SPARK-41790] [SC-119729][SQL] Set poprawnie sformatować format czytnika i format zapisywania TRANSFORM
-
[SPARK-41829] [SC-119725][CONNECT][PYTHON] Dodaj brakujący parametr porządkowania w pliku
Sort
isortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][CONNECT][PYTHON] Poprawiono test dokumentu dla elementu DataFrame.describe
- [SPARK-41871] [SC-119714][CONNECT] Parametr wskazówki ramki danych może być str, float lub int
- [SPARK-41720] [SC-119076][SQL] Zmień nazwę UnresolvedFunc na UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Naprawiono usterkę poprawności związaną z DEFAULT values w czytniku Orc
-
[SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Ponowne użycie
INVALID_TYPED_LITERAL
zamiast_LEGACY_ERROR_TEMP_0022
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 12.2.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.19
- R: 4.2.2
- Delta Lake: 2.2.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black (czarny) | 22.3.0 | wybielacz | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kliknięcie | 8.0.4 | kryptografia | 3.4.8 | rowerzysta | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
dekorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | punkty wejścia | 0,4 | Wykonywanie | 0.8.3 |
aspekty — omówienie | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
biblioteka matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notes | 6.4.8 | numpy | 1.21.5 | opakowanie | 21,3 |
Pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Poduszka | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | kreślenie | 5.6.0 | wtyczka | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pirstent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
żądania | 2.27.1 | requests-unixsocket | 0.2.0 | lina | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Sześć | 1.16.0 | zupy | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | Wytrzymałość | 8.0.1 |
terminado | 0.13.1 | ścieżka testowa | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlety | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
koło | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-11-11.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałkę | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports (backports) | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bitowe | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
rozruch | 1.3-28 | warzyć | 1.0-8 | Brio | 1.1.3 |
miotła | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
obiekt wywołujący | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | zegar | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | przestrzeń kolorów | 2.0-3 | commonmark | 1.8.1 |
— kompilator | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
kredka | 1.5.2 | credentials | 1.3.2 | lok | 4.3.3 |
dane.table | 1.14.4 | usługi Power BI | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | trawić | 0.6.30 | downlit (wyłączony) | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
wielokropek | 0.3.2 | evaluate | 0.18 | fani | 1.0.3 |
farver | 2.1.1 | szybka mapa | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | zagraniczny | 0.8-82 |
kuźnia | 0.2.0 | Fs | 1.5.2 | przyszłość | 1.29.0 |
future.apply | 1.10.0 | płukać gardło | 1.2.1 | Generyczne | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globalna | 0.16.1 |
klej | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafika | 4.2.2 | grDevices | 4.2.2 |
siatka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | przystań | 2.5.1 |
wysoki | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
Etykietowania | 0.4.2 | później | 1.3.0 | krata | 0.20-45 |
lawa | 1.7.0 | cykl życia | 1.0.3 | nasłuchiwanie | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
MASA | 7.3-58.2 | Macierz | 1.5-1 | zapamiętywanie | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0,12 |
miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modeler | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
równolegle | 1.32.1 | filar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Postęp | 1.2.2 |
progressr | 0.11.0 | Obietnice | 1.2.0.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | przepisy | 1.0.3 |
rewanż | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.4.2 |
reprex | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions (rversions) | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | waga | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | kształt | 1.4.6 |
błyszczący | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | przestrzenny | 7.3-11 | Splajnów | 4.2.2 |
sqldf | 0.4-11 | KWADRAT | 2021.1 | Statystyki | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
przetrwanie | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | zmiana czasu | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
narzędzia | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
wąs | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zamek | 2.2.2 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-klej | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofeina | kofeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transport netto | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 7.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | wektor strzałki | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | bluszcz | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | podkładki orc-shim | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | kodowanie parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.20 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | jute dozorców | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podkładki | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.threeten | trzydostępne dodatkowe | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |