Udostępnij za pośrednictwem


Databricks Runtime 11.3 LTS

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 11.3 LTS obsługiwanym przez platformę Apache Spark 3.3.0. Usługa Databricks wydała tę wersję w październiku 2022 r.

Uwaga

LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.

Napiwek

Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.

Zmiany zachowań

[Zmiana powodująca niezgodność] Nowa wersja języka Python wymaga aktualizacji klientów języka Python programu Databricks Connect V1

Uwaga

Kolejna aktualizacja przenosi wersję języka Python w środowisku Databricks Runtime 11.3 LTS do wersji 3.9.21. Wersja 3.9.21 nie wprowadza żadnych zmian behawioralnych.

Aby zastosować wymagane poprawki zabezpieczeń, wersja języka Python w środowisku Databricks Runtime 11.3 LTS jest aktualizowana z wersji 3.9.5 do 3.9.19. Ponieważ te zmiany mogą powodować błędy w klientach korzystających z określonych funkcji PySpark, wszyscy klienci korzystający z programu Databricks Connect V1 dla języka Python z usługą Databricks Runtime 11.3 LTS muszą zostać zaktualizowani do języka Python w wersji 3.9.7 lub nowszej.

Nowe funkcje i ulepszenia

Język Python został uaktualniony z wersji 3.9.19 do wersji 3.9.21

Wersja języka Python w środowisku Databricks Runtime 11.3 LTS jest aktualizowana z wersji 3.9.19 do 3.9.21.

Wyzwalacz przesyłania strumieniowego ze strukturą po wycofaniu

Ustawienie Trigger.Once zostało przestarzałe. Usługa Databricks zaleca użycie polecenia Trigger.AvailableNow. Zobacz Konfigurowanie interwałów wyzwalacza przesyłania strumieniowego ze strukturą.

Zmienianie ścieżki źródłowej dla automatycznego modułu ładującego

Teraz możesz zmienić ścieżkę wejściową katalogu dla automatycznego modułu ładującego skonfigurowanego z trybem listy katalogów bez konieczności wybierania nowego katalogu punktów kontrolnych. Zobacz Zmienianie ścieżki źródłowej dla modułu ładującego automatycznego.

Łącznik Usługi Kinesis usługi Databricks obsługuje teraz odczytywanie strumieni danych z kinesis w trybie EFO

Teraz możesz użyć źródła przesyłania strumieniowego ze strukturą usługi Databricks Kinesis w środowisku Databricks Runtime 11.3 LTS, aby uruchamiać zapytania odczytujące ze strumieni danych Kinesis w rozszerzonym trybie fan-out. Umożliwia to dedykowaną przepływność na fragmenty, na odbiorcę i dostarczanie rekordów w trybie wypychania.

Nowe funkcje geoprzestrzenne H3 i dodano obsługę funkcji Photon dla wszystkich funkcji H3

Wprowadzenie do 4 nowych funkcji H3, h3_maxchild, h3_minchild, h3_pointash3i h3_pointash3string. Te funkcje są dostępne w języku SQL, Scala i Python. Wszystkie wyrażenia H3 są teraz obsługiwane w aplikacji Photon. Zobacz Funkcje geoprzestrzenne H3.

Nowe funkcje predykcyjne we/wy

Aplikacja Photon obsługuje tryb zakresu na potrzeby uruchamiania ramek przy użyciu polecenia RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Aplikacja Photon obsługuje również tryb zakresu dla rosnących ramek przy użyciu polecenia RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Zwiększanie początkowych partycji do skanowania pod kątem zapytań selektywnych

Wartość początkowych partycji do skanowania została zwiększona do 10 na potrzeby selektywnego wykonywania zapytań w klastrach z włączoną usługą take/tail/limit Photon i LIMIT w usłudze Databricks SQL. Dzięki 10 partycjom można uniknąć obciążeń związanych z uruchamianiem wielu małych zadań i powolnym skalowaniem w górę. Można to również skonfigurować za pomocą programu spark.sql.limit.selectiveInitialNumPartitions.

Wizualizacja nowych wersji planu AQE

Wprowadzenie do wersji planu AQE, które umożliwiają wizualizowanie aktualizacji planu środowiska uruchomieniowego z adaptacyjnego wykonywania zapytań (AQE).

Nowe tryby śledzenia postępu asynchronicznego i przeczyszczania dzienników

Wprowadzenie do trybów przesyłania strumieniowego ze strukturą nazywanych śledzeniem postępu asynchronicznego i przeczyszczania dzienników asynchronicznych. Tryb przeczyszczania dziennika asynchronicznego zmniejsza opóźnienie zapytań przesyłanych strumieniowo przez usunięcie dzienników używanych do śledzenia postępu w tle.

Przesyłanie strumieniowe ze strukturą w wykazie aparatu Unity obsługuje teraz display()

Teraz możesz użyć display() funkcji przesyłania strumieniowego ze strukturą do pracy z tabelami zarejestrowanymi w wykazie aparatu Unity.

Zdarzenia potoku są teraz rejestrowane w formacie JSON

Usługa Azure Databricks zapisuje teraz zdarzenia potoku w dzienniku sterownika w formacie JSON. Chociaż każde zdarzenie będzie możliwe do analizowania w formacie JSON, duże zdarzenia mogą nie zawierać wszystkich pól lub pola mogą zostać obcięte. Każde zdarzenie jest rejestrowane w jednym wierszu z prefiksem Event received: . Poniżej przedstawiono przykładowe zdarzenie.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Dowolne przetwarzanie stanowe w strumieniu ustrukturyzowanym przy użyciu języka Python

applyInPandasWithState Wprowadzenie funkcji, która może służyć do wykonywania dowolnego przetwarzania stanowego w PySpark. Jest to odpowiednik flatMapGroupsWithState funkcji w interfejsie API języka Java.

Wnioskowanie daty w plikach CSV

Wprowadzenie ulepszonego wnioskowania kolumn typu daty w plikach CSV. Gdy format daty jest spójny w rekordach dla kolumny, te kolumny można wywnioskować jako DateType. Można również mieć kombinację formatów dat w różnych kolumnach. Usługa Azure Databricks może automatycznie wywnioskować format daty dla każdej kolumny. Kolumny dat w plikach CSV przed środowiskiem Databricks Runtime 11.3 LTS są pozostawione jako StringType.

Obsługa klonowania tabel Apache Parquet i Apache Iceberg (publiczna wersja zapoznawcza)

Klonu można teraz używać do tworzenia i przyrostowego aktualizowania tabel delty, które dublować tabele Apache Parquet i Apache Iceberg. Możesz zaktualizować źródłową tabelę Parquet i przyrostowo zastosować zmiany do sklonowanej tabeli delty za pomocą polecenia klonowania. Zobacz Incrementally clone Parquet and Iceberg tables to Delta Lake (Przyrostowe klonowanie tabel Parquet i Góry Lodowej do usługi Delta Lake).

Używanie języka SQL do określania lokalizacji magazynu na poziomie schematu i wykazu dla tabel zarządzanych wykazu aparatu Unity

Teraz możesz użyć MANAGED LOCATION polecenia SQL, aby określić lokalizację magazynu w chmurze dla zarządzanych tabel na poziomach katalogu i schematu. Zobacz CREATE CATALOG i CREATE SCHEMA.

Zmiany zachowania

Databricks Connect 11.3.2

Aktualizacja klienta programu Databricks Connect 11.3.2 jest teraz obsługiwana. Zobacz Informacje o wersji programu Databricks Connect i Databricks Connect.

Zaktualizowano łącznik usługi Azure Databricks Snowflake

Łącznik Snowflake usługi Azure Databricks został zaktualizowany do najnowszej wersji kodu z repozytorium open source Snowflake Data Source dla platformy Apache Spark. Jest ona teraz w pełni zgodna ze środowiskiem Databricks Runtime 11.3 LTS, w tym wypychanie predykatu i wypychanie wewnętrznego planu zapytań przy zachowaniu wszystkich funkcji wersji typu open source.

Pamięć podręczna hadoop dla usługi S3A jest teraz wyłączona

Pamięć podręczna Usługi Hadoop (interfejs API main 3.3.4 systemu plików Apache Hadoop) dla usługi S3A jest teraz wyłączony. Jest to zgodne z innymi łącznikami magazynu w chmurze. W przypadku obciążeń korzystających z buforowania systemu plików upewnij się, że nowo utworzone systemy plików są dostarczane z odpowiednimi konfiguracjami usługi Hadoop, w tym dostawcami poświadczeń.

Schemat kolekcji statystyk usługi Delta Lake odpowiada teraz kolejności kolumn w definicji schematu tabeli

Ta zmiana dotyczy błędu w protokole usługi Delta Lake, w którym statystyki nie zostały zebrane dla kolumn z powodu niezgodności w ramce danych i porządkoweniu kolumn tabeli. W niektórych przypadkach może wystąpić spadek wydajności zapisu ze względu na zbieranie statystyk we wcześniej nieśledzonych polach. Zobacz Pomijanie danych dla usługi Delta Lake.

applyInPandasWithState zgłasza błąd, jeśli zapytanie ma przetasowania po operatorze

Operator applyInPandasWithState zgłasza błąd, jeśli zapytanie ma shuffle wartość po operatorze. Dzieje się tak, gdy użytkownik dodaje po shuffle operacji lub optymalizator lub ujście dodaje shuffle niejawnie.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • distlib z 0.3.5 do 0.3.6
  • Uaktualnione biblioteki języka R:
    • miotła od 1.0.0 do 1.0.1
    • callr od 3.7.1 do 3.7.2
    • dplyr z wersji 1.0.9 do 1.0.10
    • dtplyr z wersji 1.2.1 do 1.2.2
    • forcats z 0.5.1 do 0.5.2
    • przyszłość z wersji 1.27.0 do 1.28.0
    • future.apply z wersji 1.9.0 do 1.9.1
    • gert z 1.7.0 do 1.8.0
    • globals from 0.16.0 to 0.16.1
    • z wersji 0.3.0 do 0.3.1
    • haven from 2.5.0 to 2.5.1 (przystanek od 2.5.0 do 2.5.1)
    • hms od 1.1.1 do 1.1.2
    • httr z 1.4.3 do 1.4.4
    • knitr z 1.39 do 1.40
    • modelr od 0.1.8 do 0.1.9
    • od 1.8.0 do 1.8.1
    • progressr z 0.10.1 do 0.11.0
    • readxl z wersji 1.4.0 do 1.4.1
    • reprex z 2.0.1 do 2.0.2
    • rlang z wersji 1.0.4 do 1.0.5
    • rmarkdown z 2.14 do 2.16
    • RSQLite z wersji 2.2.15 do 2.2.16
    • rstudioapi z 0.13 do 0.14
    • rversions z 2.1.1 do 2.1.2
    • rvest z 1.0.2 do 1.0.3
    • skaluje z wersji 1.2.0 do 1.2.1
    • sparklyr z 1.7.7 do 1.7.8
    • stringr z 1.4.0 do 1.4.1
    • przetrwanie z 3.2-13 do 3.4-0
    • tinytex z 0.40 do 0.41
    • viridisLite z wersji 0.4.0 do 0.4.1
  • Uaktualnione biblioteki Java:
    • com.fasterxml.jackson.core.jackson-adnotacje z wersji 2.13.3 do 2.13.4
    • com.fasterxml.jackson.core.jackson-core z wersji 2.13.3 do 2.13.4
    • com.fasterxml.jackson.core.jackson-databind z wersji 2.13.3 do 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor z wersji 2.13.3 do 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda z 2.13.3 do 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 z wersji 2.13.3 do 2.13.4
    • com.fasterxml.jackson.module.jackson-module-paranamer od 2.13.3 do 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 z wersji 2.13.3 do 2.13.4
    • org.apache.hadoop.hadoop-client-api z wersji 3.3.2-databricks do 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime z wersji 3.3.2 do 3.3.4
    • org.apache.orc.orc-core z wersji 1.7.5 do 1.7.6
    • org.apache.orc.orc-mapreduce z wersji 1.7.5 do 1.7.6
    • org.apache.orc.orc-shims od 1.7.5 do 1.7.6
    • org.apache.parquet.parquet-column from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-common from 1.12.0-databricks-0004 do 1.12.0-databricks-0007
    • org.apache.parquet.parquet-encoding from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures from 1.12.0-databricks-0004 do 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop z 1.12.0-databricks-0004 do 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson z 1.12.0-databricks-0004 do 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet z 2.34 do 2.36
    • org.glassfish.jersey.containers.jersey-container-servlet-core od 2.34 do 2.36
    • org.glassfish.jersey.core.jersey-client od 2.34 do 2.36
    • org.glassfish.jersey.core.jersey-common od 2.34 do 2.36
    • org.glassfish.jersey.core.jersey-server od 2.34 do 2.36
    • org.glassfish.jersey.inject.jersey-hk2 z 2.34 do 2.36

Apache Spark

Środowisko Databricks Runtime 11.3 LTS obejmuje platformę Apache Spark 3.3.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 11.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-39957] [WARMFIX][sc-111425][CORE] Opóźnienie onDisconnected, aby umożliwić Driverowi odbieranie ExecutorExitCode
  • [SPARK-39955] [WARMFIX][sc-111424][CORE] Ulepszyć proces LaunchTask, aby uniknąć błędów etapu spowodowanych niepowodzeniem wysyłania komunikatów LaunchTask
  • [SPARK-40474] [SC-106248][cherry-pick] Poprawianie zachowania wnioskowania schematu CSV dla kolumn daty/godziny i wprowadzanie automatycznego wykrywania pól daty
  • [SPARK-40535] [SC-111243][sql] Poprawka błędu, gdzie bufor AggregatingAccumulator nie zostanie utworzony, jeśli wiersze wejściowe są puste
  • [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implement applyInPandasWithState w PySpark
  • [SPARK-40460] [SC-110832][ss] Napraw metryki przesyłania strumieniowego przy wyborze _metadata
  • [SPARK-40324] [SC-109943][sql] Podaj kontekst zapytania ParseException
  • [SPARK-40466] [SC-110899][ss] Ulepszanie komunikatu o błędzie, gdy DSv2 jest wyłączony, a DSv1 niedostępny
  • [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext powinien być tani do wielokrotnego wywoływania
  • [SPARK-40169] [SC-110772][sql] Nie wypychaj filtrów Parquet bez odwołania do schematu danych
  • [SPARK-40467] [SC-110759][ss] Podzielić FlatMapGroupsWithState na wiele zestawów testów
  • [SPARK-40468] [SC-110813][sql] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
  • [SPARK-40291] [SC-110085][sql] Ulepszanie komunikatu dla kolumny, która nie należy do grupy według błędu klauzuli
  • [SPARK-40398] [SC-110762][core][SQL] Użyj pętli zamiast API Arrays.stream
  • [SPARK-40433] [SC-110684][ss][PYTHON] Dodaj funkcję toJVMRow w PythonSQLUtils do konwersji serializowanego obiektu PySpark Row na obiekt JVM Row
  • [SPARK-40414] [SC-110568][sql][PYTHON] Bardziej ogólny typ PythonArrowInput i PythonArrowOutput
  • [SPARK-40352] [SC-109945][sql] Dodawanie aliasów funkcji: len, datepart, dateadd, date_diff i curdate
  • [SPARK-40470] [SC-110761][sql] Obsługa GetArrayStructFields i GetMapValue w funkcji "arrays_zip"
  • [SPARK-40387] [SC-110685][sql] Ulepszono implementację typu Decimal platformy Spark
  • [SPARK-40429] [SC-110675][sql] Ustaw KeyGroupedPartitioning tylko wtedy, gdy referowana kolumna znajduje się w danych wyjściowych
  • [SPARK-40432] [SC-110716][ss][PYTHON] Wprowadzenie groupStateImpl i GroupStateTimeout w PySpark
  • [SPARK-39915] [SC-110496][sql] Upewnij się, że partycjonowanie danych wyjściowych jest określone przez użytkownika w AQE
  • [SPARK-29260] [SQL] Obsługa ALTER DATABASE SET LOCATION , jeśli system HMS obsługuje
  • [SPARK-40185] [SC-110056][sql] Usuń sugestię kolumny, gdy lista kandydatów jest pusta
  • [SPARK-40362] [SC-110401][sql] Naprawa kanonizacji BinaryComparison
  • [SPARK-40411] [SC-110381][ss] Refactor FlatMapGroupsWithStateExec, aby mieć cechę nadrzędną
  • [SPARK-40293] [SC-110084][sql] Uczyń komunikat o błędzie tabeli V2 bardziej zrozumiałym
  • [SPARK-38734] [SC-110383][sql] Usuń klasę błędów INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][sql] Poprawiono nazwy kolumn w funkcji "arrays_zip", gdy tablice są przywoływane z zagnieżdżonych struktur
  • [SPARK-40276] [SC-109674][core] Zmniejsz rozmiar wyniku RDD.takeOrdered
  • [SPARK-40197] [SC-109176][sql] Zastąp plan zapytania kontekstem MULTI_VALUE_SUBQUERY_ERROR
  • [SPARK-40300] [SC-109942][sql] Migrate to the DATATYPE_MISMATCH error class (Migrowanie do klasy błędów DATATYPE_MISMATCH)
  • [SPARK-40149] [SC-110055][sql] Propagacja kolumn metadanych za pomocą projektu
  • [SPARK-40280] [SC-110146][sql] Dodać obsługę przesyłania Parquet dla adnotowanych typów int i long
  • [SPARK-40220] [SC-110143][sc-109175][SQL] Nie generuje pustej mapy parametrów komunikatu o błędzie
  • [SPARK-40295] [SC-110070][sql] Zezwalaj na funkcje w wersji 2 z argumentami literałowymi w rozmieszczeniu/kolejności zapisu
  • [SPARK-40156] [SC-109264][sql] url_decode() powinna zwrócić klasę błędów
  • [SPARK-39195] [SQL] Moduł Spark OutputCommitCoordinator powinien przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
  • [SPARK-40260] [SC-109424][sql] Użyj klas błędów w błędach kompilacji pozycji GROUP BY.
  • [SPARK-40205] [SC-110144][sc-109082][SQL] Podaj kontekst zapytania ELEMENT_AT_BY_INDEX_ZERO
  • [SPARK-40112] [SC-109676][sql] Ulepszanie funkcji TO_BINARY()
  • [SPARK-40209] [SC-109081][sql] Nie zmieniaj wartości interwału liczby dziesiętnej w changePrecision() błędów
  • [SPARK-40319] [SC-109873][sql] Usuń zduplikowaną metodę błędu wykonywania zapytania dla PARSE_DATETIME_BY_NEW_PARSER
  • [SPARK-40222] [SC-109209][sql] Numeryczne try_add/try_divide/try_subtract/try_multiply powinny zgłaszać błąd z ich elementów podrzędnych
  • [SPARK-40183] [SC-108907][sql] Użyj klasy błędów NUMERIC_VALUE_OUT_OF_RANGE w przypadku przepełnienia w konwersji dziesiętnej
  • [SPARK-40180] [SC-109069][sql] Formatowanie komunikatów o błędach za pomocą spark-sql
  • [SPARK-40153] [SC-109165][sql] Ujednolicenie funkcji rozwiązywania i funkcji tabelowych
  • [SPARK-40308] [SC-109880][sql] Zezwalaj na nieskładane argumenty ogranicznika w funkcji str_to_map
  • [SPARK-40219] [SC-110052][sc-109663][SQL] Rozwiązany plan logiczny widoku powinien zawierać schemat, aby uniknąć nadmiarowego wyszukiwania
  • [SPARK-40098] [SC-109939][sc-108693][SQL] Formatowanie komunikatów o błędach w serwerze Thrift
  • [SPARK-39917] [SC-109038][sql] Użyj różnych klas błędów dla przepełnienia arytmetyki liczbowej/interwałowej
  • [SPARK-40033] [SC-109875][sql] Obsługa oczyszczania schematu zagnieżdżonego przy użyciu element_at
  • [SPARK-40194] [SC-109660][sql] FUNKCJA SPLIT dla pustego wyrażenia regularnego powinna usunąć pusty ciąg końcowy.
  • [SPARK-40228] [SC-109835][sql] Nie upraszczaj funkcji multiLike, jeśli dziecko nie jest niskokosztowym wyrażeniem
  • [SPARK-40039] [SC-109896][sc-109260][SS] Wprowadzenie menedżera plików punktu kontrolnego przesyłania strumieniowego opartego na interfejsie Abortable w Hadoop
  • [SPARK-40285] [SC-109679][sql] Uproszczenie roundTo[Numeric] dla platformy Spark Decimal
  • [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison powinien działać, gdy literał in/InSet downcast nie powiódł się
  • [SPARK-40040] [SC-109662][sql] Wypychanie limitu lokalnego do obu stron, jeśli warunek sprzężenia jest pusty
  • [SPARK-40055] [SC-109075][sql] listCatalogs powinny również zwracać spark_catalog nawet wtedy, gdy implementacja spark_catalog jest domyślnaSessionCatalog
  • [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) może nie tworzyć N partycji innych niż AQE
  • [SPARK-40207] [SC-109401][sql] Określ nazwę kolumny, gdy typ danych nie jest obsługiwany przez źródło danych
  • [SPARK-40245] [SC-109295][sql] Poprawka porównywania równoważności FileScan, gdy kolumny partycji lub filtru danych nie są odczytywane
  • [SPARK-40113] [SC-109405][sql] Reactor ParquetScanBuilder Implementacje interfejsu DataSourceV2
  • [SPARK-40211] [SC-109226][core][SQL] Zezwalaj na dostosowywanie liczby partycji początkowych w operacji take()
  • [SPARK-40252] [SC-109379][sql] Zastąp Stream.collect(Collectors.joining)StringJoiner API
  • [SPARK-40247] [SC-109272][sql] Poprawka kontroli równości zestawu bitów
  • [SPARK-40067] [SQL] Użyj polecenia Table#name() zamiast scan#name(), aby wypełnić nazwę tabeli w węźle BatchScan w usłudze SparkUI
  • [SPARK-39966] [SQL] Używanie filtru w wersji 2 w obszarze SupportsDelete
  • [SPARK-39607] [SC-109268][sql][DSV2] Obsługa dystrybucji i porządkowania w funkcji V2 podczas zapisu
  • [SPARK-40224] [SC-109271][sql] Spraw, aby ObjectHashAggregateExec zwalniał pamięć szybko przy przejściu na oparte na sortowaniu
  • [SPARK-40013] [SQL] Wyrażenia DS w wersji 2 powinny mieć wartość domyślną toString
  • [SPARK-40214] [SC-109079][python][SQL] dodaj polecenie "get" do funkcji
  • [SPARK-40192] [SC-109089][sql][ML] Usuń nadmiarowe grupowanie
  • [SPARK-40146] [SC-108694][sql] Po prostu kodgen pobierania wartości mapy
  • [SPARK-40109] [SQL] Nowa funkcja SQL: get()
  • [SPARK-39929] [SQL] Usługa DS w wersji 2 obsługuje funkcje ciągów wypychanych (nie ANSI)
  • [SPARK-39819] [SQL] Wypychanie agregujące DS w wersji 2 może współdziałać z wierzchołkiem N lub stronicowaniem (sortuj przy użyciu wyrażeń)
  • [SPARK-40213] [SC-109077][sql] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
  • [SPARK-39887] [SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
  • [SPARK-39764] [SQL] Ustaw element PhysicalOperation na taki sam jak ScanOperation
  • [SPARK-39964] [SQL] Wypychanie DS w wersji 2 powinno ujednolicić ścieżkę tłumaczenia
  • [SPARK-39528] [SQL] Używanie filtru W wersji 2 w obszarze SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] Tryb ANSI: zawsze zwraca wartość null w nieprawidłowym dostępie do kolumny mapy
  • [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
  • [SPARK-39833] [SC-108736][sql] Wyłącz indeks kolumn Parquet w DSv1, aby rozwiązać problem z poprawnością w przypadku nakładających się kolumn partycji i danych
  • [SPARK-39880] [SQL] V2 polecenie SHOW FUNCTIONS powinno wyświetlać kwalifikowaną nazwę funkcji, taką jak v1
  • [SPARK-39767] [SQL] Usuń unresolvedDBObjectName i dodaj unresolvedIdentifier
  • [SPARK-40163] [SC-108740][sql] funkcja: SparkSession.config(Mapa)
  • [SPARK-40136] [SQL] Naprawianie fragmentu kontekstów zapytań SQL
  • [SPARK-40107] [SC-108689][sql] Wyciągnąć pustą konwersję 2null z narzędzia FileFormatWriter
  • [SPARK-40121] [PYTHON][sql] Zainicjuj projekcję używaną dla funkcji zdefiniowanej przez użytkownika w języku Python
  • [SPARK-40128] [SQL] Ustaw element VectorizedColumnReader na rozpoznawanie DELTA_LENGTH_BYTE_ARRAY jako kodowanie kolumn autonomicznych
  • [SPARK-40132] [ML] Przywracanie rawPredictionCol do wielowarstwowejPerceptronClassifier.setParams
  • [SPARK-40050] [SC-108696][sql] Ulepszenie EliminateSorts w celu wsparcia usuwania sortów za pomocą LocalLimit
  • [SPARK-39629] [SQL] Support v2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][sql] Dodawanie przeciążenia array_sort(kolumna, komparator) do operacji ramki danych
  • [SPARK-40117] [PYTHON][sql] Konwertuj warunek na Java w metodzie DataFrameWriterV2.overwrite
  • [SPARK-40105] [SQL] Ulepszanie ponownej części w module ReplaceCTERefWithRepartition
  • [SPARK-39503] [SQL] Dodawanie nazwy wykazu sesji dla tabeli i funkcji bazy danych w wersji 1
  • [SPARK-39889] [SQL] Użyj różnych klas błędów dla wartości liczbowych/interwałów podzielonych przez 0
  • [SPARK-39741] [SQL] Obsługa kodowania/dekodowania adresu URL jako wbudowanej funkcji i porządkowania funkcji związanych z adresem URL
  • [SPARK-40102] [SQL] Używanie elementu SparkException zamiast IllegalStateException w programie SparkPlan
  • [SPARK-40014] [SQL] Obsługa rzutowania dziesiętnych do interwałów ANSI
  • [SPARK-39776] [SQL][follow] Update UT of PlanStabilitySuite w trybie ANSI
  • [SPARK-39963] [SQL] Uprościć SimplifyCasts.isWiderCast

Aktualizacje konserwacyjne

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 11.3.

Środowisko systemu

  • System operacyjny: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • python: 3.9.21
  • R: 4.1.3
  • Delta Lake: 2.1.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
argon2-cffi 20.1.0 async-generator 1.10 attrs 21.2.0
backcall 0.2.0 backports.entry-points-selectable 1.1.1 black (czarny) 22.3.0
wybielacz 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
charset-normalizer 2.0.4 kliknięcie 8.0.3 kryptografia 3.4.8
rowerzysta 0.10.0 Cython 0.29.24 dbus-python 1.2.16
debugpy 1.4.1 dekorator 5.1.0 defusedxml 0.7.1
distlib 0.3.6 punkty wejścia 0.3 aspekty — omówienie 1.0.0
filelock 3.8.0 idna 3.2 ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets 7.7.0
jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.0.1 jsonschema 3.2.0 jupyter-client 6.1.12
jupyter-core 4.8.1 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
biblioteka matplotlib-inline 0.1.2 mistune 0.8.4 mypy-extensions 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
nest-asyncio 1.5.1 notes 6.4.5 numpy 1.20.3
opakowanie 21,0 Pandas 1.3.4 pandocfilters 1.4.3
parso 0.8.2 pathspec 0.9.0 Patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Poduszka 8.4.0
pip 21.2.4 platformdirs 2.5.2 kreślenie 5.9.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 4.21.5
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pirstent 0.18.0 python-dateutil 2.8.2 pytz 2021.3
pyzmq 22.2.1 żądania 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 58.0.4
Sześć 1.16.0 ssh-import-id 5.10 statsmodels 0.12.2
Wytrzymałość 8.0.1 terminado 0.9.4 ścieżka testowa 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlety 5.1.0 wpisywanie rozszerzeń 3.10.0.2
nienadzorowane uaktualnienia 0.1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 koło 0.37.0
widgetsnbextension 3.6.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-09-08. Migawka nie jest już dostępna.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
askpass 1.1 assertthat 0.2.1 backports (backports) 1.4.1
base 4.1.3 base64enc 0.1-3 bitowe 4.0.4
bit64 4.0.5 blob 1.2.3 rozruch 1.3-28
warzyć 1.0-7 Brio 1.1.3 miotła 1.0.1
bslib 0.4.0 cachem 1.0.6 obiekt wywołujący 3.7.2
caret 6.0-93 cellranger 1.1.0 chron 2.3-57
class 7.3-20 cli 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 przestrzeń kolorów 2.0-3
commonmark 1.8.0 — kompilator 4.1.3 config 0.3.1
cpp11 0.4.2 kredka 1.5.1 poświadczenia 1.3.2
lok 4.3.2 data.table 1.14.2 usługi Power BI 4.1.3
DBI 1.1.3 dbplyr 2.2.1 Desc 1.4.1
devtools 2.4.4 diffobj 0.3.5 trawić 0.6.29
downlit (wyłączony) 0.4.2 dplyr 1.0.10 dtplyr 1.2.2
e1071 1.7-11 wielokropek 0.3.2 evaluate 0.16
fani 1.0.3 farver 2.1.1 szybka mapa 1.1.0
fontawesome 0.3.0 forcats 0.5.2 foreach 1.5.2
zagraniczny 0.8-82 kuźnia 0.2.0 Fs 1.5.2
przyszłość 1.28.0 future.apply 1.9.1 płukać gardło 1.2.0
Generyczne 0.1.3 Gert 1.8.0 ggplot2 3.3.6
Gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globalna 0.16.1 klej 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 Gower 1.0.0 grafika 4.1.3
grDevices 4.1.3 siatka 4.1.3 gridExtra 2.3
gsubfn 0,7 gtable 0.3.1 hardhat 1.2.0
przystań 2.5.1 wysoki 0,9 Hms 1.1.2
htmltools 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 Identyfikatory 1.0.1 ini 0.3.1
ipred 0.9-13 isoband 0.2.5 Iteratory 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
knitr 1,40 Etykietowania 0.4.2 później 1.3.0
krata 0.20-45 lawa 1.6.10 cykl życia 1.0.1
nasłuchiwanie 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Markdown 1.1 MASA 7.3-56 Macierz 1.4-1
zapamiętywanie 2.0.1 metody 4.1.3 mgcv 1.8-40
mim 0,12 miniUI 0.1.1.1 Metryki modelu 1.2.2.2
modeler 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
parallel 4.1.3 równolegle 1.32.1 filar 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
pochwała 1.0.0 prettyunits 1.1.1 Proc 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
Postęp 1.2.2 progressr 0.11.0 Obietnice 1.2.0.1
Proto 1.0.0 proxy 0.4-27 PS 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 readr 2.1.2 readxl 1.4.1
przepisy 1.0.1 rewanż 1.0.1 rewanż2 2.1.2
Piloty 2.4.2 reprex 2.0.2 zmień kształt2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0,14
rversions (rversions) 2.1.2 rvest 1.0.3 Sass 0.4.2
waga 1.2.1 selektor 0.4-2 sessioninfo 1.2.2
kształt 1.4.6 błyszczący 1.7.2 sourcetools 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 przestrzenny 7.3-11
Splajnów 4.1.3 sqldf 0.4-11 KWADRAT 2021.1
Statystyki 4.1.3 stats4 4.1.3 stringi 1.7.8
stringr 1.4.1 przetrwanie 3.4-0 sys 3.4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
textshaping 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 timeDate 4021.104
tinytex 0.41 tools 4.1.3 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
narzędzia 4.1.3 uuid 1.1-0 vctrs 0.4.1
viridisLite 0.4.1 Vroom 1.5.7 Waldo 0.4.0
wąs 0,4 withr 2.5.0 xfun 0.32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 zamek 2.2.0

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-klej 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-biblioteka-biblioteka 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics strumień 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core adnotacje jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.kofeina kofeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guawa 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.5.1
io.dropwizard.metrics metryki —rdzeń 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics serwlety metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transport netto 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx kolekcjoner 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine Pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant tat 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format strzałki 7.0.0
org.apache.arrow strzałka-pamięć-rdzeń 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow wektor strzałki 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1,9
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy bluszcz 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc podkładki orc-shim 1.7.6
org.apache.parquet parquet-column 1.12.0-databricks-0007
org.apache.parquet parquet-common 1.12.0-databricks-0007
org.apache.parquet kodowanie parquet 1.12.0-databricks-0007
org.apache.parquet parquet-format-structures 1.12.0-databricks-0007
org.apache.parquet parquet-hadoop 1.12.0-databricks-0007
org.apache.parquet parquet-jackson 1.12.0-databricks-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-cieniowane 4.20
org.apache.yetus adnotacje odbiorców 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper jute dozorców 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-kontynuacja 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket —wspólne 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Podkładki 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark.spark Nieużywane 1.0.0
org.threeten trzydostępne dodatkowe 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1