Databricks Runtime 13.2 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Aby zapoznać się ze wszystkimi obsługiwanymi wersjami środowiska Databricks Runtime, zobacz uwagi dotyczące wersji i zgodności Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 13.2 obsługiwanym przez platformę Apache Spark 3.4.0.
Usługa Databricks wydała tę wersję w lipcu 2023 r.
Nowe funkcje i ulepszenia
- Punkt kontrolny dziennika zmian dla magazynu stanów bazy danych RocksDB
- Zwiększona niezawodność dla VACUUM z płytkim klonem w katalogu Unity.
- Obsługa funkcji UDF języka Python w języku SQL
- Delta Lake UniForm for Iceberg jest w publicznej wersji próbnej
- Dynamiczne klastrowanie Delta Lake jest w publicznej wersji wstępnej
- Obsługa archiwizacji w usłudze Azure Databricks
- Wsparcie klauzuli IDENTIFIER
- Obsługa Unity Catalog dla funkcji definiowanych przez użytkownika (UDF-y) w Pythonie i Pandas.
- Udostępnij schematy za pomocą Delta Sharing
- Poprawki błędów
Punkt kontrolny dziennika zmian dla magazynu stanów bazy danych RocksDB
Możesz włączyć punktowanie kontrolne zmian, aby zmniejszyć czas trwania punktu kontrolnego i opóźnienie od końca do końca dla stanowych obciążeń przesyłania strumieniowego ze strukturą. Usługa Databricks zaleca włączenie punktów kontrolnych dziennika zmian dla wszystkich zapytań stanowych przesyłania strumieniowego ze strukturą. Zobacz Włączanie punktu kontrolnego dziennika zmian.
Zwiększona niezawodność VACUUM dzięki płytkiemu klonowi w Katalogu Unity.
Gdy używasz tabel zarządzanych przez Unity Catalog jako źródła i celu dla płytkiej operacji klonowania, Unity Catalog zarządza podstawowymi plikami danych, aby zwiększyć niezawodność zarówno dla źródła, jak i celu operacji klonowania. Uruchomienie VACUUM
na źródle płytkiego klonu nie powoduje uszkodzenia sklonowanej tabeli. Zobacz Vacuum and Unity Catalog płytkie klony.
Obsługa funkcji UDF języka Python w języku SQL
Teraz można deklarować funkcje zdefiniowane przez użytkownika w Pythonie w instrukcjach SQL CREATE FUNCTION
w katalogu Unity. Zobacz funkcje zdefiniowane przez użytkownika (UDF) w Unity Catalog.
Delta Lake UniForm for Iceberg jest w publicznej wersji zapoznawczej
Format uniwersalny Delta Lake (UniForm) umożliwia korzystanie z tabel Delta przy użyciu klientów Iceberg. Zobacz Odczytywanie tabel delty przy użyciu klientów Iceberg.
Klasteryzacja płynna w Delta Lake jest teraz dostępna w publicznej wersji zapoznawczej.
Klastrowanie liquid Delta Lake zastępuje partycjonowanie tabel i ZORDER
, aby uprościć decyzje dotyczące układu danych i zoptymalizować wydajność zapytań. Zobacz Użyj skumulowanego grupowania dla tabel Delta.
Obsługa archiwizacji w usłudze Azure Databricks
Obsługa archiwizacji w usłudze Azure Databricks wprowadza zestaw funkcji umożliwiających stosowanie zasad cyklu życia w chmurze w magazynie obiektów w chmurze zawierających Tabele Delta w celu przenoszenia plików do archiwalnych poziomów magazynowania. Zobacz Obsługa archiwizacji w usłudze Azure Databricks.
Obsługa klauzuli IDENTIFIER
Użyj IDENTIFIER(:mytable)
, aby bezpiecznie sparametryzować nazwy tabel, kolumn, funkcji i schematów w wielu instrukcjach SQL.
Obsługa katalogu Unity dla Python i Pandas User-Defined Functions (UDFs)
Na środowisku Databricks Runtime 13.2 lub nowszym funkcje zdefiniowane przez użytkownika (UDF) napisane w języku Python są dostępne na klastrach używających standardowego trybu dostępu (dawniej trybu dostępu współdzielonego) w obszarze roboczym z włączonym Unity Catalog. Obejmuje to funkcje UDF języka Python i biblioteki Pandas. Aby uzyskać szczegółowe informacje na temat funkcji zdefiniowanych przez użytkownika, zobacz Funkcje skalarne zdefiniowane przez użytkownika — Python.
Udostępnianie schematów za pomocą Delta Sharing
Środowisko Databricks Runtime 13.2 dodaje możliwość używania ALTER SHARE <share-name> ADD SCHEMA <schema-name>
do udostępnienia całego schematu za pomocą Delta Sharing, zapewniając odbiorcy dostęp do wszystkich tabel i widoków w schemacie w momencie udostępnienia oraz do wszelkich tabel i widoków, które zostaną dodane do schematu w przyszłości. Zobacz Dodawanie schematów do udziału i ALTER SHARE.
Poprawki błędów
- Usunięto usterkę z czytnikiem JSON, w którym rekordy były analizowane w trybie
PERMISSIVE
, jeślifailOnUnknownFieldsmode
została włączona. Rekordy są teraz odrzucane w trybieDROPMALFORMEDparser
lub zapisywane dobadRecordsPath
, jeśli którąkolwiek z tych opcji ustawiono.FAILFAST
zgłasza błąd, jeśli typ kolumny nie jest zgodny.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- nodeenv z wersji 1.7.0 do 1.8.0
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- io.delta.delta-sharing-spark_2.12 z 0.6.7 do 0.7.0
Apache Spark
Środowisko Databricks Runtime 13.2 obejmuje platformę Apache Spark 3.4.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 13.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-42750] [SC-133452][DBRRM-273] Obsługa instrukcji "Insert By Name"
- [SPARK-43133] [SC-133728] Obsługa programu Scala Client DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][CONNECT][PS] Umożliwiać
SeriesParityTests.test_compare
-
[SPARK-43684] [SC-134162][SPARK-43685][SPARK-43686][SPARK-43691][CONNECT][PS] Poprawka
(NullOps|NumOps).(eq|ne)
dotycząca programu Spark Connect. - [SPARK-44021] [SC-134109][SQL] Dodaj spark.sql.files.maxPartitionNum
-
[SPARK-43910] [SC-132936][SQL] Usuwanie
__auto_generated_subquery_name
z identyfikatorów w błędach - [SPARK-43976] [SC-133375][CORE] Obsługa sytuacji, gdy zmodyfikowane konfiguracje nie występują w dziennikach zdarzeń
- [SPARK-32559] [SC-133992][SQL] Naprawa logiki przycinania nie obsługiwała poprawnie znaków kontrolek ASCII
- [SPARK-43421] [SC-132930][SS] Implementowanie punktów kontrolnych opartych na dziennikach zmian dla dostawcy magazynu stanów bazy danych RocksDB
- [SPARK-43594] [SC-133851][SQL] Dodawanie elementu LocalDateTime do dowolnegoToMicros
- [SPARK-43884] [SC-133867] Znaczniki parametrów w DDL
- [SPARK-43398] [SC-133894][CORE] Limit czasu funkcji wykonawczej powinien być maksymalnym limitem czasu bezczynności i limitu czasu rdd
-
[SPARK-43610] [SC-133892][CONNECT][PS] Włącz
InternalFrame.attach_distributed_column
w programie Spark Connect. - [SPARK-43971] [SC-133826][CONNECT][PYTHON] Obsługa funkcji createDataFrame języka Python w trybie strumieniowym
- [SPARK-44006] [SC-133652][CONNECT][PYTHON] Obsługa artefaktów pamięci podręcznej
-
[SPARK-43790] [SC-133468][PYTHON][CONNECT][ML] Dodawanie
copyFromLocalToFs
interfejsu API - [SPARK-43921] [SC-133461][PROTOBUF] Generowanie plików deskryptora Protobuf w czasie kompilacji
- [SPARK-43906] [SC-133638][SC-133404][PYTHON][CONNECT] Implementowanie obsługi plików w pliku SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][PYTHON][SS][DROBNE] Poprawka typu postępu kwerendy strumieniowej w Python - wierszeNaSekundę
- [SPARK-43768] [SC-132398][PYTHON][CONNECT] Obsługa zarządzania zależnościami języka Python w programie Python Spark Connect
- [SPARK-43979] [13.X] Przywróć wartość "[SC-133456][SQL] CollectedMetrics powinna być traktowana jako taka sama dla samosprzężenia"
- [SPARK-42290] [SC-133696][SQL] Naprawienie problemu z niemożliwością zgłoszenia błędu OOM, gdy AQE jest włączone
- [SPARK-43943] [SC-133648][SQL][PYTHON][CONNECT] Dodawanie funkcji matematycznych SQL do języków Scala i Python
- [SPARK-43747] [SC-132047][PYTHON][CONNECT] Wdrożenie obsługi pliku pyfile w SparkSession.addArtifacts
-
[SPARK-43700] [SC-133726][SPARK-43701][CONNECT][PS] Włączanie
TimedeltaOps.(sub|rsub)
za pomocą programu Spark Connect -
[SPARK-43712] [SC-133641][SPARK-43713][CONNECT][PS] Włącz test parzystości:
test_line_plot
,test_pie_plot
. - [SPARK-43867] [SC-132895][SQL] Ulepszanie sugerowanych kandydatów do nierozwiązanego atrybutu
- [SPARK-43901] [SC-133454][SQL] Avro do obsługi niestandardowego typu dziesiętnego wspieranego przez long
- [SPARK-43267] [SC-133024][JDBC] Obsługa nieznanej kolumny zdefiniowanej przez użytkownika Postgres jako string w tablicy
- [SPARK-43935] [SC-133637][SQL][PYTHON][CONNECT] Dodawanie funkcji xpath_* do języków Scala i Python
- [SPARK-43916] [SC-133647][SQL][PYTHON][CONNECT] Dodawanie percentylu do interfejsu API języka Python i języka Scala
- [SPARK-43717] [SC-133455][CONNECT] Operacja redukcji klienta Scala nie może obsłużyć partycji null dla prymitywnych danych wejściowych w Scala
-
[SPARK-43984] [SC-133469][SQL][PROTOBUF] Zmiana w celu użycia
foreach
, gdymap
nie generuje wyników - [SPARK-43612] [SC-132011][CONNECT][PYTHON] Zaimplementować SparkSession.addArtifact(s) w kliencie Python
- [SPARK-44002] [SC-133606][CONNECT] Naprawianie procedury obsługi stanu artefaktów
- [SPARK-43933] [SC-133470][SQL][PYTHON][CONNECT] Dodawanie funkcji agregacji regresji liniowej do języków Scala i Python
- [SPARK-43920] [SC-133614][SQL][CONNECT] Tworzenie modułu sql/api
- [SPARK-43979] [SC-133456][SQL] CollectedMetrics powinny być traktowane jako identyczne dla operacji self-join
-
[SPARK-43977] [SC-133373][CONNECT] Napraw nieoczekiwany wynik sprawdzania
dev/connect-jvm-client-mima-check
- [SPARK-43985] [SC-133412][PROTOBUF] spark protobuf: naprawa błędu wyliczeń jako liczb całkowitych
- [SPARK-43930] [SC-133406][SQL][PYTHON][CONNECT] Dodawanie funkcji unix_* do języków Scala i Python
- [SPARK-43807] [SC-132545][SQL] Migracja _LEGACY_ERROR_TEMP_1269 do PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123][SQL] Poprawka błędu, który powoduje, że SQL kolumny nie jest wyświetlany dla Percentyla[Cont|Disc]
- [SPARK-42626] [SC-133248][CONNECT] Dodaj iterator destrukcyjny dla SparkResult
- [SPARK-43333] [SC-132898][SQL] Pozwól Avro konwertować typ łączony na SQL z nazwą pola stabilną względem typu
-
[SPARK-43953] [SC-133134][CONNECT] Usuń
pass
- [SPARK-43970] [SC-133403][PYTHON][CONNECT] Ukryj nieobsługiwane metody ramki danych przed automatycznym uzupełnianiem
- [SPARK-43973] [SC-133272][SS][Interfejs użytkownika] Interfejs użytkownika dla Structured Streaming powinien prawidłowo wyświetlać nieudane zapytania
- [SPARK-42577] [SC-125445][CORE] Dodaj ograniczenie maksymalnej liczby prób dla etapów, aby uniknąć potencjalnego nieskończonego ponawiania próby
-
[SPARK-43841] [SC-132699][SQL] Obsługa atrybutów kandydatów bez prefiksu w
StringUtils#orderSuggestedIdentifiersBySimilarity
-
[SPARK-41497] [SC-124795][CORE][Kontynuacja]Zmodyfikować obsługę konfiguracji
spark.rdd.cache.visibilityTracking.enabled
do wersji 3.5.0 - [SPARK-37942] [SC-130983][CORE][SQL] Migrowanie klas błędów
-
[SPARK-43898] [SC-132926][CORE] Automatycznie zarejestruj
immutable.ArraySeq$ofRef
wKryoSerializer
dla Scali 2.13 - [SPARK-43775] [SC-132891][SQL] DataSource V2: Zezwalaj na reprezentowanie aktualizacji jako usuwania i wstawiania
- [SPARK-43817] [SC-132662][SPARK-43702][PYTHON] Obsługa elementu UserDefinedType w elemencie createDataFrame z ramki danych pandas i toPandas
- [SPARK-43418] [SC-132753][SC-130685][CONNECT] Dodawanie elementu SparkSession.Builder.getOrCreate
- [SPARK-43549] [SC-132383][SQL] Przekonwertuj _LEGACY_ERROR_TEMP_0036 na INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644][CORE] Naprawa niedoliczenia akumulatora w przypadku ponownego uruchomienia zadania z pamięcią podręczną RDD.
-
[SPARK-43892] [SC-133006][PYTHON] Dodaj obsługę autouzupełniania dla
df[|]
wpyspark.sql.dataframe.DataFrame
- [SPARK-43881] [SC-133140][SQL][PYTHON][CONNECT] Dodanie opcjonalnego wzorca dla Catalog.listDatabases
- [SPARK-43205] [SC-132623] klauzula IDENTIFIER
- [SPARK-43545] [SC-132378][SQL][PYTHON] Obsługa typu zagnieżdżonego znacznika czasu
- [SPARK-43949] [SC-133048][PYTHON] Uaktualnianie pakietu cloudpickle do wersji 2.2.1
- [SPARK-43760] [SC-132809][SQL] Nullowalność wyników podzapytania skalarnych
-
[SPARK-43696] [SC-132737][SPARK-43697][SPARK-43698][SPARK-43699][PS] Poprawka
TimedeltaOps
dotycząca programu Spark Connect - [SPARK-43895] [SC-132897][CONNECT][GO] Przygotuj ścieżkę pakietu go
- [SPARK-43894] [SC-132892][PYTHON] Naprawiono usterkę w pliku df.cache()
- [SPARK-43509] [SC-131625][CONNECT] Obsługa tworzenia wielu sesji programu Spark Connect
- [SPARK-43882] [SC-132888][SQL] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][SPARK-43688][SPARK-43689][SPARK-43690][PS] Poprawka
NumOps
dotycząca programu Spark Connect -
[SPARK-43604] [SC-132165][SQL] Refaktoryzacja
INVALID_SQL_SYNTAX
w celu uniknięcia osadzania tekstu błędu w kodzie źródłowym - [SPARK-43859] [SC-132883][SQL] Zastąp metodę toString w LateralColumnAliasReference
- [SPARK-43792] [SC-132939][SQL][PYTHON][CONNECT] Dodać opcjonalny wzorzec dla Catalog.listCatalogs
- [SPARK-43353] Cofnij "[SC-132734][PYTHON] Migracja pozostałych błędów sesji do klasy błędów"
- [SPARK-43375] [SC-130309][CONNECT] Ulepszanie komunikatów o błędach dla INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][CONNECT] Usuń nadmiarowe
toSeq
zSparkConnectPlanner
dla Scala 2.13 -
[SPARK-43676] [SC-132708][SPARK-43677][SPARK-43678][SPARK-43679][PS] Poprawka
DatetimeOps
dotycząca programu Spark Connect -
[SPARK-43666] [SC-132689][SPARK-43667][SPARK-43668][SPARK-43669][PS] Poprawka
BinaryOps
dotycząca programu Spark Connect -
[SPARK-43680] [SC-132709][SPARK-43681][SPARK-43682][SPARK-43683][PS] Poprawka
NullOps
dotycząca programu Spark Connect - [SPARK-43782] [SC-132885][CORE] Obsługa konfiguracji poziomu logowania za pomocą statycznej konfiguracji platformy Spark
- [SPARK-43132] [SC-131623] [SS] [CONNECT] Python Client DataStreamWriter foreach() API
- [SPARK-43290] [SC-131961][SQL] Dodaje obsługę AES IV i AAD do ExpressionImplUtils
- [SPARK-43795] [SC-132532][CONNECT] Usuwanie parametrów nieużytowanych dla sparkConnectPlanner
- [SPARK-42317] [SC-129194][SQL] Przypisz nazwę do _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960][SQL] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][SQL] Wykorzystanie klas błędów w błędach kompilacji
ResolveDefaultColumns
- [SPARK-43749] [SC-132423][SPARK-43750][SQL] Przypisywanie nazw do klasy błędów _LEGACY_ERROR_TEMP_240[4–5]
- [SPARK-43576] [SC-132533][CORE] Usuń nieużywane deklaracje z modułu Core
- [SPARK-43314] [SC-129970][CONNECT][PYTHON] Migrowanie błędów klienta programu Spark Connect do klasy błędów
- [SPARK-43799] [SC-132715][PYTHON] Dodaj opcję binarną deskryptora do interfejsu API PySpark Protobuf
- [SPARK-43837] [SC-132678][SQL] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_103[1–2]
- [SPARK-43862] [SC-132750][SQL] Nadać nazwę do klasy błędów LEGACY_ERROR_TEMP(1254 oraz 1315)
- [SPARK-43886] [SC-132808][PYTHON] Akceptowanie krotki generycznej jako wskazówek dotyczących funkcji UDF Pandas
- [SPARK-43530] [SC-132653][PROTOBUF] Odczytywanie pliku deskryptora tylko raz
- [SPARK-43820] [SC-132676][SPARK-43822][SPARK-43823][SPARK-43826][SPARK-43827] Przypisywanie nazw do klasy błędów _LEGACY_ERROR_TEMP_241[1–7]
-
[SPARK-43671] [SC-132519][SPARK-43672][SPARK-43673][SPARK-43674][PS] Poprawka
CategoricalOps
dotycząca programu Spark Connect - [SPARK-39979] [SC-132685][SQL] Dodaj opcję używania dużych wektorów szerokości zmiennych dla operacji UDF strzałki
-
[SPARK-43692] [SC-132660][SPARK-43693][SPARK-43694][SPARK-43695][PS] Poprawka
StringOps
dotycząca programu Spark Connect - [SPARK-43353] [SC-132734][PYTHON] Migrowanie pozostałych błędów sesji do klasy błędów
-
[SPARK-43815] [SC-132781][SQL] Dodawanie
to_varchar
aliasu dlato_char
- [SPARK-43543] [13.x][SC-131839][PYTHON] Naprawiono zachowanie zagnieżdżonego typu "MapType" w funkcji Pandas UDF
- [SPARK-43361] [SC-131789][PROTOBUF] aktualizacja dokumentacji dotyczącej błędów związanych z serializacją wyliczeń
-
[SPARK-43740] [SC-132035][PYTHON][CONNECT] Ukryj nieobsługiwane
session
metody przed automatycznym uzupełnianiem - [SPARK-43022] [SC-131681][CONNECT] Obsługa funkcji protobuf dla klienta Scala
-
[SPARK-43304] [13.x][SC-129969][CONNECT][PYTHON] Migrowanie
NotImplementedError
doPySparkNotImplementedError
- [SPARK-43860] [SC-132713][SQL] Włącz rekursję ogona wszędzie tam, gdzie jest to możliwe
- [SPARK-42421] [SC-132695][CORE] Użyj narzędzi, aby uzyskać przełącznik dynamicznej alokacji używanej w lokalnym punkcie kontrolnym
-
[SPARK-43590] [SC-132012][CONNECT] Zmodyfikuj
connect-jvm-client-mima-check
, aby obsługiwać sprawdzanie mima z modułemprotobuf
- [SPARK-43315] [13.x][CONNECT][PYTHON][SS] Przenieść pozostałe błędy z ramki danych (odczytu|zapisu) do klasy błędów
- [SPARK-43361] [SC-130980][PROTOBUF] spark-protobuf: zezwalaj na serializację i deserializację z wyliczeniami jako liczby całkowite.
- [SPARK-43789] [SC-132397][R] Domyślnie używa parametru "spark.sql.execution.arrow.maxRecordsPerBatch" w funkcji createDataFrame języka R ze strzałką
- [SPARK-43596] [SC-126994][SQL] Obsługa predykatu IsNull w rewriteDomainJoins
- [SPARK-42249] [SC-122565][SQL] Poprawianie linku HTML do dokumentacji w komunikatach o błędach.
-
[SPARK-43128] [SC-131628][CONNECT][SS] Spraw, aby
recentProgress
ilastProgress
zwracałyStreamingQueryProgress
zgodnie z natywnym interfejsem API języka Scala - [SPARK-43387] [SC-130448][SQL] Podaj czytelny dla człowieka kod błędu dla _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [Interfejs użytkownika] Napraw błąd podczas serializacji ExecutorPeakMetricsDistributions w odpowiedzi interfejsu API
-
[SPARK-42958] [SC-131475][CONNECT] Refaktoryzacja
connect-jvm-client-mima-check
w celu obsługi sprawdzania mima za pomocą modułu avro - [SPARK-43591] [SC-131977][SQL] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [SC-132211][CORE] Używanie klas błędów w org.apache.spark.io
- [SPARK-43759] [SC-132189][SQL][PYTHON] Uwidaczniaj typ TimestampNTZType w pyspark.sql.types
- [SPARK-43649] [SC-132036][SPARK-43650][SPARK-43651][SQL] Przypisywanie nazw do klasy błędów _LEGACY_ERROR_TEMP_240[1–3]
-
[SPARK-43719] [SC-132016][WEBUI] Obsługa
missing row.excludedInStages
pola - [SPARK-42956] [SC-127257][CONNECT] Obsługa funkcji avro dla klienta Scala
- [SPARK-43487] [SC-131975][SQL] Rozwiązano problem z komunikatem o błędzie zagnieżdżonym CTE
- [SPARK-43265] [SC-129653] Przenoszenie struktury błędów do wspólnego modułu narzędzi
- [SPARK-40912] [SC-131547][CORE]Nadwyżki związane z wyjątkami w KryoDeserializationStream
- [SPARK-43583] [SC-131976][CORE] uzyskaj MergedBlockedMetaReqHandler od delegata zamiast instancji SaslRpcHandler
- [SPARK-42996] [SC-131997][CONNECT][PS][ML] Utwórz i przypisz odpowiednie bilety JIRA dla wszystkich testów zakończonych niepowodzeniem.
- [SPARK-38469] [SC-131425][CORE] Używanie klasy błędu w pakiecie org.apache.spark.network
- [SPARK-43718] [SC-132014][SQL] Poprawnie ustaw wartość null dla kluczy w sprzężeniach USING
-
[SPARK-43502] [SC-131419][PYTHON][CONNECT]
DataFrame.drop
powinna zaakceptować pustą kolumnę - [SPARK-43743] [SC-132038][SQL] Port HIVE-12188 (DoAs nie działa prawidłowo w HS2 zabezpieczonym bez Kerberosa)
- [SPARK-43598] [SC-131929][SQL] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][CORE] Naprawiono wyjątek ClassNotFoundException podczas migracji
- [SPARK-43360] [SC-131526][SS][CONNECT] Scala client StreamingQueryManager
- [SPARK-38467] [SC-131025][CORE] Używanie klas błędów w pliku org.apache.spark.memory
- [SPARK-43345] [SC-131790][SPARK-43346][SQL] Zmień nazwę klas błędów LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450][SQL] Obsługa skrótów wyrażeń dla eliminacji podwyrażeń
- [SPARK-38462] [SC-130449][CORE] Dodaj klasę błędów INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][SQL] Poprawka
cannotBroadcastTableOverMaxTableBytesError
do użyciabytesToString
- [SPARK-43539] [SC-131830][SQL] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [SC-131688][SQL] Sklonuj buforowany plan InMemoryRelation, aby uniemożliwić klonowanemu planowi odwoływanie się do tych samych obiektów
- [SPARK-43309] [SC-129746][SPARK-38461][CORE] Rozszerzanie INTERNAL_ERROR o kategorie i dodawanie INTERNAL_ERROR_BROADCAST klasy błędów
- [SPARK-43281] [SC-131370][SQL] Poprawka dotycząca problemu, gdzie współbieżny proces zapisu nie aktualizuje metryk plików
-
[SPARK-43383] [SC-130660][SQL] Dodawanie
rowCount
statystyk do relacji lokalnej - [SPARK-43574] [SC-131739][PYTHON][SQL] Obsługa ustawiania wykonywalnego pliku Python dla interfejsów API funkcji UDF i pandas w pracownikach podczas działania programu
- [SPARK-43569] [SC-131694][SQL] Usuń obejście dla HADOOP-14067
- [SPARK-43183] [SC-128938][SS][13.x] Wprowadzenie nowego callbacku "onQueryIdle" do komponentu StreamingQueryListener
- [SPARK-43528] [SC-131531][SQL][PYTHON] Obsługa zduplikowanych nazw pól w obiekcie createDataFrame z ramką danych biblioteki pandas
- [SPARK-43548] [SC-131686][SS] Usuń obejście problemu HADOOP-16255
-
[SPARK-43494] [SC-131272][CORE] Bezpośrednio wywołaj
replicate()
dlaHdfsDataOutputStreamBuilder
zamiast odbijania wSparkHadoopUtil#createFile
- [SPARK-43471] [SC-131063][CORE] Zarządzanie brakującymi właściwościami hadoopProperties i metricsProperties
- [SPARK-42899] [SC-126456][SQL] Poprawka DataFrame.to(schemat) w celu obsługi przypadku, gdy w polu dopuszczającym wartości null istnieje pole zagnieżdżone, które nie może być null.
- [SPARK-43302] [SC-129747][SQL] Uczynienie UDAF języka Python funkcją agregującą
- [SPARK-43223] [SC-131270][Połącz] Agregacja typu, funkcje redukujące, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375][SS] Rozwiń zdarzenie QueryTerminatedEvent, aby zawierało klasę błędu, jeśli istnieje w wyjątku
- [SPARK-43359] [SC-131463][SQL] Usuwanie z tabeli w Hive powinno zgłosić wartość "UNSUPPORTED_FEATURE.TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Przełącz się z powrotem do ciągów zakodowanych w adresie URL
-
[SPARK-43492] [SC-131227][SQL] Dodanie aliasów funkcji 3-argumentowej
DATE_ADD
iDATE_DIFF
- [SPARK-43473] [SC-131372][PYTHON] Obsługa typu struktury w obiekcie createDataFrame z ramki danych biblioteki pandas
-
[SPARK-43386] [SC-131110][SQL] Ulepszanie listy sugerowanych kolumn/atrybutów w klasie błędów
UNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-43443] [SC-131332][SQL] Dodawanie testu porównawczego dla wnioskowania typu sygnatury czasowej w przypadku użycia nieprawidłowej wartości
-
[SPARK-43518] [SC-131420][SQL] Konwertowanie
_LEGACY_ERROR_TEMP_2029
na INTERNAL_ERROR - [SPARK-42604] [SC-130648][CONNECT] Implementowanie biblioteki functions.typedlit
-
[SPARK-42323] [ES-669513] Przywróć "[SC-123479][SQL] Assign name to
_LEGACY_ERROR_TEMP_2332
" - [SPARK-43357] [SC-130649][SQL] Filtruj daty według typu zmiennej 'date'
- [SPARK-43410] [SC-130526][SQL] Ulepszanie wektoryzowanej pętli dla spakowanych parametrów skipValues
-
[SPARK-43441] [SC-130995][CORE]
makeDotNode
nie powinna zakończyć się niepowodzeniem, gdy parametr DeterministicLevel jest nieobecny - [SPARK-43324] [SC-130455][SQL] Obsługa poleceń UPDATE dla źródeł opartych na delta
-
[SPARK-43272] [SC-131168][CORE] Bezpośrednie wywołanie
createFile
zamiast refleksji - [SPARK-43296] [13.x][SC-130627][CONNECT][PYTHON] Migrowanie błędów sesji programu Spark Connect do klasy błędów
-
[SPARK-43405] [SC-130987][SQL] Usuwanie bezużytecznych
getRowFormatSQL
,inputRowFormatSQL
,outputRowFormatSQL
metody - [SPARK-43447] [SC-131017][R] Wsparcie języka R 4.3.0
-
[SPARK-43425] [SC-130981][SQL] Dodaj
TimestampNTZType
doColumnarBatchRow
- [SPARK-41532] [SC-130523][CONNECT][KLIENT] Dodano sprawdzanie operacji obejmujących wiele ramek danych
- [SPARK-43262] [SC-129270][CONNECT][SS][PYTHON] Migrowanie błędów Strukturalnego Przesyłania Strumieniowego Spark Connect do klasy błędów
- [SPARK-42992] [13.x][SC-129465][PYTHON] Wprowadzenie PySparkRuntimeError
- [SPARK-43422] [SC-130982][SQL] Zachowaj tagi w usłudze LogicalRelation przy użyciu danych wyjściowych metadanych
- [SPARK-43390] [SC-130646][SQL] DSv2 zezwala CTAS/RTAS na rezerwowanie wartości null schematu
- [SPARK-43430] [SC-130989][CONNECT][PROTO] Funkcja ExecutePlanRequest obsługuje dowolne opcje żądania.
- [SPARK-43313] [SC-130254][SQL] Dodawanie brakujących wartości DOMYŚLNYch kolumn dla akcji MERGE INSERT
- [SPARK-42842] [SC-130438][SQL] Scal klasę błędów _LEGACY_ERROR_TEMP_2006 z REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][SQL] Włącz
spark.sql.thriftServer.interruptOnCancel
domyślnie -
[SPARK-43292] [SC-130525][CORE][CONNECT] Przenieść
ExecutorClassLoader
do modułucore
i uprościćExecutor#addReplClassLoaderIfNeeded
- [SPARK-43040] [SC-130310][SQL] Zwiększanie obsługi typów timestampNTZ w źródle danych JDBC
- [SPARK-43343] [SC-130629][SS] Element FileStreamSource powinien wyłączyć dodatkowe sprawdzanie globu pliku podczas tworzenia źródła danych
- [SPARK-43312] [SC-130294][PROTOBUF] Opcja konwertowania dowolnych pól na format JSON
- [SPARK-43404] [SC-130586][SS] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów
-
[SPARK-43397] [SC-130614][CORE] Zalogować czas trwania wycofywania wykonawcy w metodzie
executorLost
- [SPARK-42388] [SC-128568][SQL] Unikaj dwukrotnego odczytywania stopki parquet w wektoryzowanym czytniku
- [SPARK-43306] [13.x][SC-130320][PYTHON] Migracja ValueError z typów Spark SQL do klasy błędów
- [SPARK-43337] [SC-130353][UI][3.4] Ikony strzałek Asc/desc dla kolumny sortowania nie są wyświetlane w kolumnie tabeli
-
[SPARK-43279] [SC-130351][CORE] Czyszczenie nieużywanych członków z
SparkHadoopUtil
-
[SPARK-43250] [SC-130147][SQL] Zastąp klasę błędów
_LEGACY_ERROR_TEMP_2014
błędem wewnętrznym -
[SPARK-43363] [SC-130299][SQL][PYTHON] Wykonaj wywołanie
astype
typu kategorii tylko wtedy, gdy nie podano typu strzałki -
[SPARK-43261] [SC-130154][PYTHON] Migrowanie
TypeError
z typów Spark SQL do klasy błędów - [SPARK-41971] [SC-130230][SQL][PYTHON] Dodaj konfigurację konwersji biblioteki pandas dotyczącą tego, jak obsługiwać typy struktur
- [SPARK-43381] [SC-130464][CONNECT] Utwórz "transformStatCov" leniwy
- [SPARK-43362] [SC-130481][SQL] Specjalna obsługa typu JSON dla łącznika MySQL
- [SPARK-42843] [SC-130196][SQL] Zaktualizuj klasę błędów _LEGACY_ERROR_TEMP_2007 na REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][CONNECT] Przesyłanie strumieniowe relacji lokalnych
-
[SPARK-43181] [SC-130476][SQL] Pokaż adres URL interfejsu użytkownika w
spark-sql
powłoce - [SPARK-43051] [SC-130194][CONNECT] Dodaj opcję emitowania wartości domyślnych
- [SPARK-43204] [SC-129296][SQL] Wyrównanie przypisań MERGE z atrybutami tabeli
-
[SPARK-43348] [SC-130082][PYTHON] Obsługa
Python 3.8
w PyPy3 - [SPARK-42845] [SC-130078][SQL] Aktualizacja klasy błędów _LEGACY_ERROR_TEMP_2010 na InternalError
- [SPARK-43211] [SC-128978][HIVE] Usuń wsparcie dla Hadoop2 w module IsolatedClientLoader
Środowisko systemu
- System operacyjny: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | czarny | 22.6.0 | wybielacz | 4.1.0 |
kierunkowskaz | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certyfikat | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknij | 8.0.4 | kryptografia | 37.0.1 |
rowerzysta | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
dbus-python | 1.2.18 | debugpy | 1.5.1 | dekorator | 5.1.1 |
defusedxml | 0.7.1 | distlib | 0.3.6 | Konwersja docstring na Markdown | 0,12 |
punkty wejścia | 0,4 | Wykonywanie | 1.2.0 | aspekty — omówienie | 1.0.3 |
fastjsonschema | 2.16.3 | filelock | 3.12.0 | fonttools | 4.25.0 |
googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | Jeepney | 0.7.1 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | brelok do kluczy | 23.5.0 |
kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
nodeenv | 1.8.0 | notatnik | 6.4.12 | numpy | 1.21.5 |
oauthlib | 3.2.0 | opakowanie | 21,3 | Pandas | 1.4.4 |
pandocfilters | 1.5.0 | parso | 0.8.3 | specyfikacja ścieżki | 0.9.0 |
frajer | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Poduszka | 9.2.0 | pip | 22.2.2 | platformdirs | 2.5.2 |
kreślenie | 5.9.0 | wtyczka | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
pyright | 1.1.294 | pyrsistent | 0.18.0 | python-dateutil | 2.8.2 |
python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
pytz | 2022.1 | pyzmq | 23.2.0 | żądania | 2.28.1 |
lina | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
scipy | 1.9.1 | seaborn | 0.11.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 63.4.1 | Sześć | 1.16.0 |
sito do zupy | 2.3.1 | ssh-import-id | 5,11 | stack-data | 0.6.2 |
statsmodels | 0.13.2 | Wytrzymałość | 8.1.0 | zakończony | 0.13.1 |
ścieżka testowa | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
tomli | 2.0.1 | tornado | 6.1 | traitlets | 5.1.1 |
typing_extensions | 4.3.0 | ujson | 5.4.0 | nienadzorowane uaktualnienia | 0.1 |
urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
wcwidth | 0.2.5 | kodowania webowe | 0.5.1 | whatthepatch | 1.0.2 |
koło | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
zipp | 1.0.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2023-02-10.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałka | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backporty (funkcje przeniesione do starszych wersji oprogramowania) | 1.4.1 | baza | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
uruchamianie | 1.3-28 | warzyć | 1.0-8 | Brio | 1.1.3 |
miotła | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
obiekt wywołujący | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | klasa | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | zegar | 0.6.1 | klaster | 2.1.4 |
codetools | 0.2-19 | przestrzeń kolorów | 2.1-0 | commonmark | 1.8.1 |
— kompilator | 4.2.2 | konfiguracja | 0.3.1 | cpp11 | 0.4.3 |
kredka | 1.5.2 | Poświadczenia | 1.3.2 | skręt | 5.0.0 |
data.table | 1.14.6 | zbiory danych | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | Opis | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | streszczenie | 0.6.31 | oświetlenie skierowane w dół | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
wielokropek | 0.3.2 | ocenić | 0,20 | fani | 1.0.4 |
kolory | 2.1.1 | szybka mapa | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | zagraniczny | 0.8-82 |
kuźnia | 0.2.0 | Fs | 1.6.1 | przyszłość | 1.31.0 |
future.apply | 1.10.0 | płukać gardło | 1.3.0 | Generyczne | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globalna | 0.16.2 |
klej | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafika | 4.2.2 | grDevices | 4.2.2 |
siatka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | przystań | 2.5.1 |
wyższy | 0.10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
Etykietowanie | 0.4.2 | później | 1.3.0 | krata | 0.20-45 |
lawa | 1.7.1 | cykl życia | 1.0.3 | nasłuchiwanie | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1.5 |
MASA | 7.3-58.2 | Macierz | 1.5-1 | zapamiętywanie | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0,12 |
miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | równoległy | 4.2.2 |
równolegle | 1.34.0 | filar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Postęp | 1.2.2 |
progressr | 0.13.0 | Obietnice | 1.2.0.1 | Prototyp | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
czytnik | 2.1.3 | readxl | 1.4.2 | przepisy | 1.0.4 |
rewanż | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.4.2 |
przykład powtarzalny | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.5 | waga | 1.2.1 |
selektor | 0.4-2 | informacje o sesji | 1.2.2 | kształt | 1.4.6 |
błyszczący | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | przestrzenny | 7.3-15 | Splajny | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statystyki | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
przetrwanie | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | kształtowanie tekstu | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | zmiana czasu | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | narzędzia | 4.2.2 | tzdb | 0.3.0 |
sprawdzacz URL | 1.0.1 | użyj tego | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
wąs | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zamek błyskawiczny | 2.2.2 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kriogenicznie cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.kofeina | kofeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-rdzenni mieszkańcy |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-rodzimi mieszkańcy |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodowici |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natywni |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Tink | 1.7.0 |
com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfiguracja | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | parsery jednoznaczności | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | sprężarka powietrza | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.7.0 |
io.dropwizard.metrics | metryki —rdzeń | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metryki-kontrole stanu | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metryki-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | serwlety do monitorowania metryk | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | rozwiązywacz netty | 4.1.87.Final |
io.netty | transport sieciowy | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | kiszonka | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.29 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | szablon łańcuchowy | 3.2.1 |
org.apache.ant | mrówka | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | format strzałki | 11.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | wektor strzałki | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | bluszcz | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | podkładki orc-shim | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | opiekun zwierząt w zoo | 3.6.3 |
org.apache.zookeeper | juta dozorcy | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | serwer Jetty | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | serwer websocket | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Podkładki regulacyjne | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |