Databricks Runtime 11.3 LTS
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 11.3 LTS obsługiwanym przez platformę Apache Spark 3.3.0. Usługa Databricks wydała tę wersję w październiku 2022 r.
Uwaga
LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.
Napiwek
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.
Zmiany zachowań
[Zmiana powodująca niezgodność] Nowa wersja języka Python wymaga aktualizacji klientów języka Python programu Databricks Connect V1
Uwaga
Kolejna aktualizacja przenosi wersję języka Python w środowisku Databricks Runtime 11.3 LTS do wersji 3.9.21. Wersja 3.9.21 nie wprowadza żadnych zmian behawioralnych.
Aby zastosować wymagane poprawki zabezpieczeń, wersja języka Python w środowisku Databricks Runtime 11.3 LTS jest aktualizowana z wersji 3.9.5 do 3.9.19. Ponieważ te zmiany mogą powodować błędy w klientach korzystających z określonych funkcji PySpark, wszyscy klienci korzystający z programu Databricks Connect V1 dla języka Python z usługą Databricks Runtime 11.3 LTS muszą zostać zaktualizowani do języka Python w wersji 3.9.7 lub nowszej.
Nowe funkcje i ulepszenia
- python uaktualniono z wersji 3.9.19 do 3.9.21
- Wyzwalacz przesyłania strumieniowego ze strukturą po wycofaniu
- Zmienianie ścieżki źródłowej dla automatycznego modułu ładującego
- Łącznik Usługi Kinesis usługi Databricks obsługuje teraz odczytywanie strumieni danych z kinesis w trybie EFO
- Nowe funkcje geoprzestrzenne H3 i dodano obsługę funkcji Photon dla wszystkich funkcji H3
- Nowe funkcje predykcyjne we/wy
- Zwiększanie początkowych partycji do skanowania pod kątem zapytań selektywnych
- Wizualizacja nowych wersji planu AQE
- Nowe tryby śledzenia postępu asynchronicznego i przeczyszczania dzienników
-
Przesyłanie strumieniowe ze strukturą w wykazie aparatu Unity obsługuje teraz
display()
- Zdarzenia potoku są teraz rejestrowane w formacie JSON
- Dowolne przetwarzanie stanowe w strumieniu ustrukturyzowanym przy użyciu języka Python
- Wnioskowanie daty w plikach CSV
- Obsługa klonowania tabel Apache Parquet i Apache Iceberg (publiczna wersja zapoznawcza)
- Używanie języka SQL do określania lokalizacji magazynu na poziomie schematu i wykazu dla tabel zarządzanych wykazu aparatu Unity
Język Python został uaktualniony z wersji 3.9.19 do wersji 3.9.21
Wersja języka Python w środowisku Databricks Runtime 11.3 LTS jest aktualizowana z wersji 3.9.19 do 3.9.21.
Wyzwalacz przesyłania strumieniowego ze strukturą po wycofaniu
Ustawienie Trigger.Once
zostało przestarzałe. Usługa Databricks zaleca użycie polecenia Trigger.AvailableNow
. Zobacz Konfigurowanie interwałów wyzwalacza przesyłania strumieniowego ze strukturą.
Zmienianie ścieżki źródłowej dla automatycznego modułu ładującego
Teraz możesz zmienić ścieżkę wejściową katalogu dla automatycznego modułu ładującego skonfigurowanego z trybem listy katalogów bez konieczności wybierania nowego katalogu punktów kontrolnych. Zobacz Zmienianie ścieżki źródłowej dla modułu ładującego automatycznego.
Łącznik Usługi Kinesis usługi Databricks obsługuje teraz odczytywanie strumieni danych z kinesis w trybie EFO
Teraz możesz użyć źródła przesyłania strumieniowego ze strukturą usługi Databricks Kinesis w środowisku Databricks Runtime 11.3 LTS, aby uruchamiać zapytania odczytujące ze strumieni danych Kinesis w rozszerzonym trybie fan-out. Umożliwia to dedykowaną przepływność na fragmenty, na odbiorcę i dostarczanie rekordów w trybie wypychania.
Nowe funkcje geoprzestrzenne H3 i dodano obsługę funkcji Photon dla wszystkich funkcji H3
Wprowadzenie do 4 nowych funkcji H3, h3_maxchild
, h3_minchild
, h3_pointash3
i h3_pointash3string
. Te funkcje są dostępne w języku SQL, Scala i Python. Wszystkie wyrażenia H3 są teraz obsługiwane w aplikacji Photon. Zobacz Funkcje geoprzestrzenne H3.
Nowe funkcje predykcyjne we/wy
Aplikacja Photon obsługuje tryb zakresu na potrzeby uruchamiania ramek przy użyciu polecenia RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Aplikacja Photon obsługuje również tryb zakresu dla rosnących ramek przy użyciu polecenia RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Zwiększanie początkowych partycji do skanowania pod kątem zapytań selektywnych
Wartość początkowych partycji do skanowania została zwiększona do 10 na potrzeby selektywnego wykonywania zapytań w klastrach z włączoną usługą take/tail/limit
Photon i LIMIT
w usłudze Databricks SQL. Dzięki 10 partycjom można uniknąć obciążeń związanych z uruchamianiem wielu małych zadań i powolnym skalowaniem w górę. Można to również skonfigurować za pomocą programu spark.sql.limit.selectiveInitialNumPartitions
.
Wizualizacja nowych wersji planu AQE
Wprowadzenie do wersji planu AQE, które umożliwiają wizualizowanie aktualizacji planu środowiska uruchomieniowego z adaptacyjnego wykonywania zapytań (AQE).
Nowe tryby śledzenia postępu asynchronicznego i przeczyszczania dzienników
Wprowadzenie do trybów przesyłania strumieniowego ze strukturą nazywanych śledzeniem postępu asynchronicznego i przeczyszczania dzienników asynchronicznych. Tryb przeczyszczania dziennika asynchronicznego zmniejsza opóźnienie zapytań przesyłanych strumieniowo przez usunięcie dzienników używanych do śledzenia postępu w tle.
Przesyłanie strumieniowe ze strukturą w wykazie aparatu Unity obsługuje teraz display()
Teraz możesz użyć display()
funkcji przesyłania strumieniowego ze strukturą do pracy z tabelami zarejestrowanymi w wykazie aparatu Unity.
Zdarzenia potoku są teraz rejestrowane w formacie JSON
Usługa Azure Databricks zapisuje teraz zdarzenia potoku w dzienniku sterownika w formacie JSON. Chociaż każde zdarzenie będzie możliwe do analizowania w formacie JSON, duże zdarzenia mogą nie zawierać wszystkich pól lub pola mogą zostać obcięte. Każde zdarzenie jest rejestrowane w jednym wierszu z prefiksem Event received:
. Poniżej przedstawiono przykładowe zdarzenie.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Dowolne przetwarzanie stanowe w strumieniu ustrukturyzowanym przy użyciu języka Python
applyInPandasWithState
Wprowadzenie funkcji, która może służyć do wykonywania dowolnego przetwarzania stanowego w PySpark. Jest to odpowiednik flatMapGroupsWithState
funkcji w interfejsie API języka Java.
Wnioskowanie daty w plikach CSV
Wprowadzenie ulepszonego wnioskowania kolumn typu daty w plikach CSV. Gdy format daty jest spójny w rekordach dla kolumny, te kolumny można wywnioskować jako DateType
. Można również mieć kombinację formatów dat w różnych kolumnach. Usługa Azure Databricks może automatycznie wywnioskować format daty dla każdej kolumny. Kolumny dat w plikach CSV przed środowiskiem Databricks Runtime 11.3 LTS są pozostawione jako StringType
.
Obsługa klonowania tabel Apache Parquet i Apache Iceberg (publiczna wersja zapoznawcza)
Klonu można teraz używać do tworzenia i przyrostowego aktualizowania tabel delty, które dublować tabele Apache Parquet i Apache Iceberg. Możesz zaktualizować źródłową tabelę Parquet i przyrostowo zastosować zmiany do sklonowanej tabeli delty za pomocą polecenia klonowania. Zobacz Incrementally clone Parquet and Iceberg tables to Delta Lake (Przyrostowe klonowanie tabel Parquet i Góry Lodowej do usługi Delta Lake).
Używanie języka SQL do określania lokalizacji magazynu na poziomie schematu i wykazu dla tabel zarządzanych wykazu aparatu Unity
Teraz możesz użyć MANAGED LOCATION
polecenia SQL, aby określić lokalizację magazynu w chmurze dla zarządzanych tabel na poziomach katalogu i schematu. Zobacz CREATE CATALOG i CREATE SCHEMA.
Zmiany zachowania
Databricks Connect 11.3.2
Aktualizacja klienta programu Databricks Connect 11.3.2 jest teraz obsługiwana. Zobacz Informacje o wersji programu Databricks Connect i Databricks Connect.
Zaktualizowano łącznik usługi Azure Databricks Snowflake
Łącznik Snowflake usługi Azure Databricks został zaktualizowany do najnowszej wersji kodu z repozytorium open source Snowflake Data Source dla platformy Apache Spark. Jest ona teraz w pełni zgodna ze środowiskiem Databricks Runtime 11.3 LTS, w tym wypychanie predykatu i wypychanie wewnętrznego planu zapytań przy zachowaniu wszystkich funkcji wersji typu open source.
Pamięć podręczna hadoop dla usługi S3A jest teraz wyłączona
Pamięć podręczna Usługi Hadoop (interfejs API main 3.3.4 systemu plików Apache Hadoop) dla usługi S3A jest teraz wyłączony. Jest to zgodne z innymi łącznikami magazynu w chmurze. W przypadku obciążeń korzystających z buforowania systemu plików upewnij się, że nowo utworzone systemy plików są dostarczane z odpowiednimi konfiguracjami usługi Hadoop, w tym dostawcami poświadczeń.
Schemat kolekcji statystyk usługi Delta Lake odpowiada teraz kolejności kolumn w definicji schematu tabeli
Ta zmiana dotyczy błędu w protokole usługi Delta Lake, w którym statystyki nie zostały zebrane dla kolumn z powodu niezgodności w ramce danych i porządkoweniu kolumn tabeli. W niektórych przypadkach może wystąpić spadek wydajności zapisu ze względu na zbieranie statystyk we wcześniej nieśledzonych polach. Zobacz Pomijanie danych dla usługi Delta Lake.
applyInPandasWithState zgłasza błąd, jeśli zapytanie ma przetasowania po operatorze
Operator applyInPandasWithState
zgłasza błąd, jeśli zapytanie ma shuffle
wartość po operatorze. Dzieje się tak, gdy użytkownik dodaje po shuffle
operacji lub optymalizator lub ujście dodaje shuffle
niejawnie.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- distlib z 0.3.5 do 0.3.6
- Uaktualnione biblioteki języka R:
- miotła od 1.0.0 do 1.0.1
- callr od 3.7.1 do 3.7.2
- dplyr z wersji 1.0.9 do 1.0.10
- dtplyr z wersji 1.2.1 do 1.2.2
- forcats z 0.5.1 do 0.5.2
- przyszłość z wersji 1.27.0 do 1.28.0
- future.apply z wersji 1.9.0 do 1.9.1
- gert z 1.7.0 do 1.8.0
- globals from 0.16.0 to 0.16.1
- z wersji 0.3.0 do 0.3.1
- haven from 2.5.0 to 2.5.1 (przystanek od 2.5.0 do 2.5.1)
- hms od 1.1.1 do 1.1.2
- httr z 1.4.3 do 1.4.4
- knitr z 1.39 do 1.40
- modelr od 0.1.8 do 0.1.9
- od 1.8.0 do 1.8.1
- progressr z 0.10.1 do 0.11.0
- readxl z wersji 1.4.0 do 1.4.1
- reprex z 2.0.1 do 2.0.2
- rlang z wersji 1.0.4 do 1.0.5
- rmarkdown z 2.14 do 2.16
- RSQLite z wersji 2.2.15 do 2.2.16
- rstudioapi z 0.13 do 0.14
- rversions z 2.1.1 do 2.1.2
- rvest z 1.0.2 do 1.0.3
- skaluje z wersji 1.2.0 do 1.2.1
- sparklyr z 1.7.7 do 1.7.8
- stringr z 1.4.0 do 1.4.1
- przetrwanie z 3.2-13 do 3.4-0
- tinytex z 0.40 do 0.41
- viridisLite z wersji 0.4.0 do 0.4.1
- Uaktualnione biblioteki Java:
- com.fasterxml.jackson.core.jackson-adnotacje z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.core.jackson-core z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.core.jackson-databind z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda z 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer od 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 z wersji 2.13.3 do 2.13.4
- org.apache.hadoop.hadoop-client-api z wersji 3.3.2-databricks do 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime z wersji 3.3.2 do 3.3.4
- org.apache.orc.orc-core z wersji 1.7.5 do 1.7.6
- org.apache.orc.orc-mapreduce z wersji 1.7.5 do 1.7.6
- org.apache.orc.orc-shims od 1.7.5 do 1.7.6
- org.apache.parquet.parquet-column from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-common from 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures from 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop z 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson z 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet z 2.34 do 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-client od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-common od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-server od 2.34 do 2.36
- org.glassfish.jersey.inject.jersey-hk2 z 2.34 do 2.36
Apache Spark
Środowisko Databricks Runtime 11.3 LTS obejmuje platformę Apache Spark 3.3.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 11.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-39957] [WARMFIX][sc-111425][CORE] Opóźnienie onDisconnected, aby umożliwić Driverowi odbieranie ExecutorExitCode
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Ulepszyć proces LaunchTask, aby uniknąć błędów etapu spowodowanych niepowodzeniem wysyłania komunikatów LaunchTask
- [SPARK-40474] [SC-106248][cherry-pick] Poprawianie zachowania wnioskowania schematu CSV dla kolumn daty/godziny i wprowadzanie automatycznego wykrywania pól daty
- [SPARK-40535] [SC-111243][sql] Poprawka błędu, gdzie bufor AggregatingAccumulator nie zostanie utworzony, jeśli wiersze wejściowe są puste
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implement applyInPandasWithState w PySpark
-
[SPARK-40460] [SC-110832][ss] Napraw metryki przesyłania strumieniowego przy wyborze
_metadata
-
[SPARK-40324] [SC-109943][sql] Podaj kontekst zapytania
ParseException
- [SPARK-40466] [SC-110899][ss] Ulepszanie komunikatu o błędzie, gdy DSv2 jest wyłączony, a DSv1 niedostępny
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext powinien być tani do wielokrotnego wywoływania
- [SPARK-40169] [SC-110772][sql] Nie wypychaj filtrów Parquet bez odwołania do schematu danych
- [SPARK-40467] [SC-110759][ss] Podzielić FlatMapGroupsWithState na wiele zestawów testów
- [SPARK-40468] [SC-110813][sql] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
- [SPARK-40291] [SC-110085][sql] Ulepszanie komunikatu dla kolumny, która nie należy do grupy według błędu klauzuli
- [SPARK-40398] [SC-110762][core][SQL] Użyj pętli zamiast API Arrays.stream
- [SPARK-40433] [SC-110684][ss][PYTHON] Dodaj funkcję toJVMRow w PythonSQLUtils do konwersji serializowanego obiektu PySpark Row na obiekt JVM Row
- [SPARK-40414] [SC-110568][sql][PYTHON] Bardziej ogólny typ PythonArrowInput i PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Dodawanie aliasów funkcji: len, datepart, dateadd, date_diff i curdate
- [SPARK-40470] [SC-110761][sql] Obsługa GetArrayStructFields i GetMapValue w funkcji "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Ulepszono implementację typu Decimal platformy Spark
- [SPARK-40429] [SC-110675][sql] Ustaw KeyGroupedPartitioning tylko wtedy, gdy referowana kolumna znajduje się w danych wyjściowych
- [SPARK-40432] [SC-110716][ss][PYTHON] Wprowadzenie groupStateImpl i GroupStateTimeout w PySpark
- [SPARK-39915] [SC-110496][sql] Upewnij się, że partycjonowanie danych wyjściowych jest określone przez użytkownika w AQE
-
[SPARK-29260] [SQL] Obsługa
ALTER DATABASE SET LOCATION
, jeśli system HMS obsługuje - [SPARK-40185] [SC-110056][sql] Usuń sugestię kolumny, gdy lista kandydatów jest pusta
- [SPARK-40362] [SC-110401][sql] Naprawa kanonizacji BinaryComparison
- [SPARK-40411] [SC-110381][ss] Refactor FlatMapGroupsWithStateExec, aby mieć cechę nadrzędną
- [SPARK-40293] [SC-110084][sql] Uczyń komunikat o błędzie tabeli V2 bardziej zrozumiałym
-
[SPARK-38734] [SC-110383][sql] Usuń klasę błędów
INDEX_OUT_OF_BOUNDS
- [SPARK-40292] [SC-110300][sql] Poprawiono nazwy kolumn w funkcji "arrays_zip", gdy tablice są przywoływane z zagnieżdżonych struktur
- [SPARK-40276] [SC-109674][core] Zmniejsz rozmiar wyniku RDD.takeOrdered
- [SPARK-40197] [SC-109176][sql] Zastąp plan zapytania kontekstem MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrate to the
DATATYPE_MISMATCH
error class (Migrowanie do klasy błędówDATATYPE_MISMATCH
) - [SPARK-40149] [SC-110055][sql] Propagacja kolumn metadanych za pomocą projektu
- [SPARK-40280] [SC-110146][sql] Dodać obsługę przesyłania Parquet dla adnotowanych typów int i long
- [SPARK-40220] [SC-110143][sc-109175][SQL] Nie generuje pustej mapy parametrów komunikatu o błędzie
- [SPARK-40295] [SC-110070][sql] Zezwalaj na funkcje w wersji 2 z argumentami literałowymi w rozmieszczeniu/kolejności zapisu
-
[SPARK-40156] [SC-109264][sql]
url_decode()
powinna zwrócić klasę błędów - [SPARK-39195] [SQL] Moduł Spark OutputCommitCoordinator powinien przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-40260] [SC-109424][sql] Użyj klas błędów w błędach kompilacji pozycji GROUP BY.
- [SPARK-40205] [SC-110144][sc-109082][SQL] Podaj kontekst zapytania ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][sql] Ulepszanie funkcji TO_BINARY()
-
[SPARK-40209] [SC-109081][sql] Nie zmieniaj wartości interwału liczby dziesiętnej w
changePrecision()
błędów - [SPARK-40319] [SC-109873][sql] Usuń zduplikowaną metodę błędu wykonywania zapytania dla PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Numeryczne try_add/try_divide/try_subtract/try_multiply powinny zgłaszać błąd z ich elementów podrzędnych
- [SPARK-40183] [SC-108907][sql] Użyj klasy błędów NUMERIC_VALUE_OUT_OF_RANGE w przypadku przepełnienia w konwersji dziesiętnej
-
[SPARK-40180] [SC-109069][sql] Formatowanie komunikatów o błędach za pomocą
spark-sql
- [SPARK-40153] [SC-109165][sql] Ujednolicenie funkcji rozwiązywania i funkcji tabelowych
-
[SPARK-40308] [SC-109880][sql] Zezwalaj na nieskładane argumenty ogranicznika w funkcji
str_to_map
- [SPARK-40219] [SC-110052][sc-109663][SQL] Rozwiązany plan logiczny widoku powinien zawierać schemat, aby uniknąć nadmiarowego wyszukiwania
- [SPARK-40098] [SC-109939][sc-108693][SQL] Formatowanie komunikatów o błędach w serwerze Thrift
- [SPARK-39917] [SC-109038][sql] Użyj różnych klas błędów dla przepełnienia arytmetyki liczbowej/interwałowej
- [SPARK-40033] [SC-109875][sql] Obsługa oczyszczania schematu zagnieżdżonego przy użyciu element_at
- [SPARK-40194] [SC-109660][sql] FUNKCJA SPLIT dla pustego wyrażenia regularnego powinna usunąć pusty ciąg końcowy.
- [SPARK-40228] [SC-109835][sql] Nie upraszczaj funkcji multiLike, jeśli dziecko nie jest niskokosztowym wyrażeniem
- [SPARK-40039] [SC-109896][sc-109260][SS] Wprowadzenie menedżera plików punktu kontrolnego przesyłania strumieniowego opartego na interfejsie Abortable w Hadoop
-
[SPARK-40285] [SC-109679][sql] Uproszczenie
roundTo[Numeric]
dla platformy SparkDecimal
- [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison powinien działać, gdy literał in/InSet downcast nie powiódł się
- [SPARK-40040] [SC-109662][sql] Wypychanie limitu lokalnego do obu stron, jeśli warunek sprzężenia jest pusty
- [SPARK-40055] [SC-109075][sql] listCatalogs powinny również zwracać spark_catalog nawet wtedy, gdy implementacja spark_catalog jest domyślnaSessionCatalog
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) może nie tworzyć N partycji innych niż AQE
- [SPARK-40207] [SC-109401][sql] Określ nazwę kolumny, gdy typ danych nie jest obsługiwany przez źródło danych
- [SPARK-40245] [SC-109295][sql] Poprawka porównywania równoważności FileScan, gdy kolumny partycji lub filtru danych nie są odczytywane
- [SPARK-40113] [SC-109405][sql] Reactor ParquetScanBuilder Implementacje interfejsu DataSourceV2
- [SPARK-40211] [SC-109226][core][SQL] Zezwalaj na dostosowywanie liczby partycji początkowych w operacji take()
-
[SPARK-40252] [SC-109379][sql] Zastąp
Stream.collect(Collectors.joining)
StringJoiner
API - [SPARK-40247] [SC-109272][sql] Poprawka kontroli równości zestawu bitów
- [SPARK-40067] [SQL] Użyj polecenia Table#name() zamiast scan#name(), aby wypełnić nazwę tabeli w węźle BatchScan w usłudze SparkUI
- [SPARK-39966] [SQL] Używanie filtru w wersji 2 w obszarze SupportsDelete
- [SPARK-39607] [SC-109268][sql][DSV2] Obsługa dystrybucji i porządkowania w funkcji V2 podczas zapisu
- [SPARK-40224] [SC-109271][sql] Spraw, aby ObjectHashAggregateExec zwalniał pamięć szybko przy przejściu na oparte na sortowaniu
-
[SPARK-40013] [SQL] Wyrażenia DS w wersji 2 powinny mieć wartość domyślną
toString
- [SPARK-40214] [SC-109079][python][SQL] dodaj polecenie "get" do funkcji
- [SPARK-40192] [SC-109089][sql][ML] Usuń nadmiarowe grupowanie
- [SPARK-40146] [SC-108694][sql] Po prostu kodgen pobierania wartości mapy
- [SPARK-40109] [SQL] Nowa funkcja SQL: get()
- [SPARK-39929] [SQL] Usługa DS w wersji 2 obsługuje funkcje ciągów wypychanych (nie ANSI)
- [SPARK-39819] [SQL] Wypychanie agregujące DS w wersji 2 może współdziałać z wierzchołkiem N lub stronicowaniem (sortuj przy użyciu wyrażeń)
- [SPARK-40213] [SC-109077][sql] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- [SPARK-39887] [SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- [SPARK-39764] [SQL] Ustaw element PhysicalOperation na taki sam jak ScanOperation
- [SPARK-39964] [SQL] Wypychanie DS w wersji 2 powinno ujednolicić ścieżkę tłumaczenia
- [SPARK-39528] [SQL] Używanie filtru W wersji 2 w obszarze SupportsRuntimeFiltering
- [SPARK-40066] [SQL] Tryb ANSI: zawsze zwraca wartość null w nieprawidłowym dostępie do kolumny mapy
- [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
- [SPARK-39833] [SC-108736][sql] Wyłącz indeks kolumn Parquet w DSv1, aby rozwiązać problem z poprawnością w przypadku nakładających się kolumn partycji i danych
- [SPARK-39880] [SQL] V2 polecenie SHOW FUNCTIONS powinno wyświetlać kwalifikowaną nazwę funkcji, taką jak v1
- [SPARK-39767] [SQL] Usuń unresolvedDBObjectName i dodaj unresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] funkcja: SparkSession.config(Mapa)
- [SPARK-40136] [SQL] Naprawianie fragmentu kontekstów zapytań SQL
- [SPARK-40107] [SC-108689][sql] Wyciągnąć pustą konwersję 2null z narzędzia FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Zainicjuj projekcję używaną dla funkcji zdefiniowanej przez użytkownika w języku Python
- [SPARK-40128] [SQL] Ustaw element VectorizedColumnReader na rozpoznawanie DELTA_LENGTH_BYTE_ARRAY jako kodowanie kolumn autonomicznych
- [SPARK-40132] [ML] Przywracanie rawPredictionCol do wielowarstwowejPerceptronClassifier.setParams
-
[SPARK-40050] [SC-108696][sql] Ulepszenie
EliminateSorts
w celu wsparcia usuwania sortów za pomocąLocalLimit
- [SPARK-39629] [SQL] Support v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Dodawanie przeciążenia array_sort(kolumna, komparator) do operacji ramki danych
- [SPARK-40117] [PYTHON][sql] Konwertuj warunek na Java w metodzie DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Ulepszanie ponownej części w module ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Dodawanie nazwy wykazu sesji dla tabeli i funkcji bazy danych w wersji 1
- [SPARK-39889] [SQL] Użyj różnych klas błędów dla wartości liczbowych/interwałów podzielonych przez 0
- [SPARK-39741] [SQL] Obsługa kodowania/dekodowania adresu URL jako wbudowanej funkcji i porządkowania funkcji związanych z adresem URL
- [SPARK-40102] [SQL] Używanie elementu SparkException zamiast IllegalStateException w programie SparkPlan
- [SPARK-40014] [SQL] Obsługa rzutowania dziesiętnych do interwałów ANSI
- [SPARK-39776] [SQL][follow] Update UT of PlanStabilitySuite w trybie ANSI
-
[SPARK-39963] [SQL] Uprościć
SimplifyCasts.isWiderCast
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 11.3.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- python: 3.9.21
- R: 4.1.3
- Delta Lake: 2.1.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
argon2-cffi | 20.1.0 | async-generator | 1.10 | attrs | 21.2.0 |
backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 | black (czarny) | 22.3.0 |
wybielacz | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknięcie | 8.0.3 | kryptografia | 3.4.8 |
rowerzysta | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
debugpy | 1.4.1 | dekorator | 5.1.0 | defusedxml | 0.7.1 |
distlib | 0.3.6 | punkty wejścia | 0.3 | aspekty — omówienie | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | ipykernel | 6.12.1 |
ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
biblioteka matplotlib-inline | 0.1.2 | mistune | 0.8.4 | mypy-extensions | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | notes | 6.4.5 | numpy | 1.20.3 |
opakowanie | 21,0 | Pandas | 1.3.4 | pandocfilters | 1.4.3 |
parso | 0.8.2 | pathspec | 0.9.0 | Patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Poduszka | 8.4.0 |
pip | 21.2.4 | platformdirs | 2.5.2 | kreślenie | 5.9.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pirstent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | żądania | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
Sześć | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
Wytrzymałość | 8.0.1 | terminado | 0.9.4 | ścieżka testowa | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlety | 5.1.0 | wpisywanie rozszerzeń | 3.10.0.2 |
nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | koło | 0.37.0 |
widgetsnbextension | 3.6.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-09-08. Migawka nie jest już dostępna.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports (backports) | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bitowe | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | rozruch | 1.3-28 |
warzyć | 1.0-7 | Brio | 1.1.3 | miotła | 1.0.1 |
bslib | 0.4.0 | cachem | 1.0.6 | obiekt wywołujący | 3.7.2 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | przestrzeń kolorów | 2.0-3 |
commonmark | 1.8.0 | — kompilator | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | kredka | 1.5.1 | poświadczenia | 1.3.2 |
lok | 4.3.2 | data.table | 1.14.2 | usługi Power BI | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | trawić | 0.6.29 |
downlit (wyłączony) | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
e1071 | 1.7-11 | wielokropek | 0.3.2 | evaluate | 0.16 |
fani | 1.0.3 | farver | 2.1.1 | szybka mapa | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
zagraniczny | 0.8-82 | kuźnia | 0.2.0 | Fs | 1.5.2 |
przyszłość | 1.28.0 | future.apply | 1.9.1 | płukać gardło | 1.2.0 |
Generyczne | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globalna | 0.16.1 | klej | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | grafika | 4.1.3 |
grDevices | 4.1.3 | siatka | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.1 | hardhat | 1.2.0 |
przystań | 2.5.1 | wysoki | 0,9 | Hms | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | Identyfikatory | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iteratory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1,40 | Etykietowania | 0.4.2 | później | 1.3.0 |
krata | 0.20-45 | lawa | 1.6.10 | cykl życia | 1.0.1 |
nasłuchiwanie | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Markdown | 1.1 | MASA | 7.3-56 | Macierz | 1.4-1 |
zapamiętywanie | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
mim | 0,12 | miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 |
modeler | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | równolegle | 1.32.1 | filar | 1.8.1 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
pochwała | 1.0.0 | prettyunits | 1.1.1 | Proc | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Postęp | 1.2.2 | progressr | 0.11.0 | Obietnice | 1.2.0.1 |
Proto | 1.0.0 | proxy | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.1 |
przepisy | 1.0.1 | rewanż | 1.0.1 | rewanż2 | 2.1.2 |
Piloty | 2.4.2 | reprex | 2.0.2 | zmień kształt2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0,14 |
rversions (rversions) | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.2 |
waga | 1.2.1 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
kształt | 1.4.6 | błyszczący | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | przestrzenny | 7.3-11 |
Splajnów | 4.1.3 | sqldf | 0.4-11 | KWADRAT | 2021.1 |
Statystyki | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | przetrwanie | 3.4-0 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0.41 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
narzędzia | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.1 | Vroom | 1.5.7 | Waldo | 0.4.0 |
wąs | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zamek | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-klej | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofeina | kofeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transport netto | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 7.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | wektor strzałki | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | bluszcz | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | podkładki orc-shim | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
org.apache.parquet | kodowanie parquet | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.20 |
org.apache.yetus | adnotacje odbiorców | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | jute dozorców | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podkładki | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.threeten | trzydostępne dodatkowe | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |