Udostępnij za pośrednictwem


Databricks Runtime 14.0 (EoS)

Uwaga

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 14.0 obsługiwanym przez platformę Apache Spark 3.5.0.

Usługa Databricks wydała tę wersję we wrześniu 2023 r.

Nowe funkcje i ulepszenia

Śledzenie wierszy jest ogólnie dostępne

Śledzenie rekordów w Delta Lake jest teraz ogólnie dostępne. Zobacz Używanie śledzenia wierszy dla tabel delty.

Predykcyjne wejścia/wyjścia dla aktualizacji to wersja ogólnodostępna.

Funkcja predykcyjnego I/O dla aktualizacji jest teraz powszechnie dostępna. Zobacz Co to jest predykcyjne wejście/wyjście?

Wektory usuwania są GA

Wektory usuwania są teraz ogólnie dostępne. Zobacz Co to są wektory usuwania?.

Spark 3.5.0 jest ogólnie dostępny

Platforma Apache Spark 3.5.0 jest teraz ogólnie dostępna. Zobacz Spark Release 3.5.0.

Publiczna wersja zapoznawcza funkcji tabel zdefiniowanych przez użytkownika dla języka Python

Funkcje tabeli zdefiniowane przez użytkownika (UDTFs) umożliwiają rejestrowanie funkcji, które zwracają tabele zamiast wartości skalarnych. Zobacz Funkcje tabeli zdefiniowane przez użytkownika w języku Python (UDTFs).

Publiczna wersja próbna dla współbieżności na poziomie wiersza

Współbieżność na poziomie wiersza zmniejsza konflikty między współbieżnych operacji zapisu, wykrywając zmiany na poziomie wiersza i automatycznie rozwiązując konkurencyjne zmiany w współbieżnych zapisach, które aktualizują lub usuwają różne wiersze w tym samym pliku danych. Zobacz Konflikty zapisu ze współbieżnością na poziomie wiersza.

Domyślny bieżący katalog roboczy został zmieniony

Domyślny bieżący katalog roboczy (CWD) dla kodu wykonywanego lokalnie to teraz katalog zawierający notes lub skrypt, który jest uruchamiany. Obejmuje to kod, taki jak %sh, oraz kod w Pythonie lub R, który nie korzysta z platformy Spark. Zobacz Co to jest domyślny bieżący katalog roboczy?.

Znany problem z sparklyr

Zainstalowana wersja sparklyr pakietu (wersja 1.8.1) nie jest zgodna z środowiskiem Databricks Runtime 14.0. Aby użyć sparklyrprogramu , zainstaluj wersję 1.8.3 lub nowszą.

Wprowadzenie Spark Connect w architekturze wspólnego klastra

W przypadku środowiska Databricks Runtime 14.0 lub nowszego udostępnione klastry domyślnie używają programu Spark Connect ze sterownikiem Spark ze środowiska REPL języka Python. Wewnętrzne interfejsy API platformy Spark nie są już dostępne z poziomu kodu użytkownika.

Program Spark Connect współdziała teraz ze sterownikiem Spark z wersji REPL zamiast starszej integracji REPL.

Lista dostępnych aktualizacji interfejsu API wersji platformy Spark

Włącz Photon, ustawiając runtime_engine = PHOTON, a funkcję aarch64 włącz, wybierając typ instancji graviton. Usługa Azure Databricks ustawia poprawną wersję środowiska Databricks Runtime. Wcześniej interfejs API wersji platformy Spark zwracał środowiska uruchomieniowe zależne od implementacji dla każdej wersji. Zobacz GET /api/2.0/clusters/spark-versions w dokumentacji API REST.

Zmiany łamiące zgodność

W środowisku Databricks Runtime 14.0 lub nowszym klastry ze standardowym trybem dostępu (dawniej tryb dostępu współdzielonego) używają programu Spark Connect do komunikacji między klientem a serwerem. Obejmuje to następujące zmiany.

Aby uzyskać więcej informacji na temat ograniczeń trybu dostępu standardowego, zobacz Ograniczenia trybu dostępu komputerowego dla katalogu Unity.

Język Python w klastrach ze standardowym trybem dostępu (dawniej trybem dostępu współdzielonego)

  • sqlContext jest niedostępny. Usługa Azure Databricks zaleca używanie zmiennej sparkSparkSession dla wystąpienia.
  • Kontekst Spark (sc) nie jest już dostępny w notesach ani podczas korzystania z Databricks Connect na klastrze ze standardowym trybem dostępu. Następujące sc funkcje nie są już dostępne:
    • emptyRDD, range, init_batched_serializerparallelizepickleFiletextFilewholeTextFilesbinaryFilesbinaryRecordssequenceFilenewAPIHadoopFilenewAPIHadoopRDDhadoopFilehadoopRDDunionrunJobsetSystemPropertyuiWebUrlstopsetJobGroupsetLocalPropertygetConf
  • Funkcja Informacje o zestawie danych nie jest już obsługiwana.
  • Nie istnieje już zależność od JVM podczas wykonywania zapytań w Apache Spark, i w związku z tym wewnętrzne interfejsy API związane z JVM, takie jak _jsc, _jconf, _jvm, _jsparkSession, _jreader, _jc, _jseq, _jdf, _jmap i _jcols, nie są już obsługiwane.
  • Podczas uzyskiwania dostępu do wartości konfiguracji za pomocą spark.conf dostępne są jedynie dynamiczne wartości konfiguracji środowiska uruchomieniowego.
  • Polecenia analizy DLT nie są jeszcze obsługiwane w udostępnionych klastrach.

Funkcja delta w klastrach ze standardowym trybem dostępu (dawniej trybem dostępu współdzielonego)

  • W języku Python nie istnieje już zależność od maszyny wirtualnej JVM podczas wykonywania zapytań dotyczących platformy Apache Spark. Wewnętrzne interfejsy API związane z maszyną wirtualną JVM, takie jak DeltaTable._jdt, DeltaTableBuilder._jbuilder, DeltaMergeBuilder._jbuilderi DeltaOptimizeBuilder._jbuilder nie są już obsługiwane.

Sql w klastrach ze standardowym trybem dostępu (dawniej trybem dostępu współdzielonego)

  • DBCACHE i DBUNCACHE komendy nie są już obsługiwane.
  • Rzadkie przypadki użycia, takie jak cache table db as show databases , nie są już obsługiwane.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • asttokens z 2.2.1 do 2.0.5
    • attrs z 21.4.0 do 22.1.0
    • botocore z wersji 1.27.28 do 1.27.96
    • certifi od 2022-09-14 do 2022-12-07
    • Kryptografia z wersji 37.0.1 do 39.0.1
    • debugpy z wersji 1.6.0 do 1.6.7
    • docstring-to-markdown z 0.12 do 0.11
    • wykonywanie z wersji 1.2.0 do 0.8.3
    • przegląd-faset od 1.0.3 do 1.1.1
    • googleapis-common-protos z 1.56.4 do 1.60.0
    • grpcio z 1.48.1 do 1.48.2
    • idna od 3.3 do 3.4
    • ipykernel z wersji 6.17.1 do 6.25.0
    • ipython z 8.10.0 do 8.14.0
    • Jinja2 z wersji 2.11.3 do 3.1.2
    • jsonschema z wersji 4.16.0 do 4.17.3
    • jupyter_core z wersji 4.11.2 do 5.2.0
    • kiwisolver z 1.4.2 do 1.4.4
    • MarkupSafe od 2.0.1 do 2.1.1
    • matplotlib z wersji 3.5.2 do 3.7.0
    • nbconvert z 6.4.4 do 6.5.4
    • nbformat z wersji 5.5.0 do 5.7.0
    • nest-asyncio z wersji 1.5.5 do 1.5.6
    • notatnik z wersji 6.4.12 do 6.5.2
    • numpy z wersji 1.21.5 do 1.23.5
    • opakowania od 21.3 do 22.0
    • pandas z wersji 1.4.4 do 1.5.3
    • pathspec z 0.9.0 do 0.10.3
    • patsy z 0.5.2 do 0.5.3
    • Pillow od wersji 9.2.0 do 9.4.0
    • z 22.2.2 do 22.3.1
    • protobuf z wersji 3.19.4 do 4.24.0
    • pytoolconfig z wersji 1.2.2 do 1.2.5
    • pytz od 2022.1 do 2022.7
    • s3transfer z 0.6.0 do 0.6.1
    • seaborn od 0.11.2 do 0.12.2
    • setuptools z 63.4.1 do 65.6.3
    • soupsieve od 2.3.1 do 2.3.2.post1
    • stack-data z wersji 0.6.2 do 0.2.0
    • statsmodels z 0.13.2 do 0.13.5
    • terminado z 0.13.1 do 0.17.1
    • traitlets z wersji 5.1.1 do 5.7.1
    • typing_extensions z wersji 4.3.0 do 4.4.0
    • urllib3 z 1.26.11 do 1.26.14
    • virtualenv z wersji 20.16.3 do wersji 20.16.7
    • pakiet wheel od wersji 0.37.1 do 0.38.4
  • Uaktualnione biblioteki języka R:
    • strzałka od 10.0.1 do 12.0.1
    • od 4.2.2 do 4.3.1
    • Przejście obiektu blob z wersji 1.2.3 do 1.2.4
    • aktualizacja broom z wersji 1.0.3 do 1.0.5
    • bslib z 0.4.2 do 0.5.0
    • cachem z wersji 1.0.6 do 1.0.8
    • caret od 6.0-93 do 6.0-94
    • chron z 2.3-59 do 2.3-61
    • zajęcia od 7.3-21 do 7.3-22
    • Interfejs CLI z wersji 3.6.0 do 3.6.1
    • zegar od 0.6.1 do 0.7.0
    • commonmark z wersji 1.8.1 do 1.9.0
    • kompilator z wersji 4.2.2 do 4.3.1
    • cpp11 z 0.4.3 do 0.4.4
    • curl z 5.0.0 do 5.0.1
    • data.table z wersji 1.14.6 do 1.14.8
    • zestawy danych z wersji 4.2.2 do 4.3.1
    • dbplyr z wersji 2.3.0 do 2.3.3
    • przegląd wersji z 0.6.31 do 0.6.33
    • Downlit z 0.4.2 do 0.4.3
    • dplyr z wersji 1.1.0 do 1.1.2
    • dtplyr z wersji 1.2.2 do 1.3.1
    • ocena z zakresu od 0,20 do 0,21
    • fastmap z wersji 1.1.0 do 1.1.1
    • fontawesome z 0.5.0 do 0.5.1
    • fs z 1.6.1 do 1.6.2
    • przyszłości od 1.31.0 do 1.33.0
    • future.apply z wersji 1.10.0 do 1.11.0
    • gargle z 1.3.0 do 1.5.1
    • ggplot2 z 3.4.0 do 3.4.2
    • gh z 1.3.1 do 1.4.0
    • glmnet z 4.1-6 do 4.1-7
    • googledrive z wersji 2.0.0 do 2.1.1
    • googlesheets4 z 1.0.1 do 1.1.1
    • grafika z wersji 4.2.2 do 4.3.1
    • grDevices z wersji 4.2.2 do 4.3.1
    • siatka z 4.2.2 do 4.3.1
    • zmiana gtable z wersji 0.3.1 do 0.3.3
    • hardhat z 1.2.0 do 1.3.0
    • haven z wersji 2.5.1 do 2.5.3
    • hms od 1.1.2 do 1.1.3
    • Aktualizacja htmltools z wersji 0.5.4 do 0.5.5
    • htmlwidgets z wersji 1.6.1 do 1.6.2
    • httpuv z wersji 1.6.8 do 1.6.11
    • httr z 1.4.4 do 1.4.6
    • ipred z 0.9-13 do 0.9-14
    • jsonlite z wersji 1.8.4 do 1.8.7
    • KernSmooth z 2.23-20 do 2.23-21
    • knitr z 1.42 do 1.43
    • później z 1.3.0 do 1.3.1
    • lattice z 0.20-45 do 0.21-8
    • lawa z 1.7.1 do 1.7.2.1
    • lubridate z wersji 1.9.1 do 1.9.2
    • markdown od 1.5 do 1.7
    • Masa od 7,3-58,2 do 7,3-60
    • Macierz z zakresu od 1,5-1 do 1,5-4,1
    • metody z wersji 4.2.2 do 4.3.1
    • mgcv z 1.8-41 do 1.8-42
    • modelr z wersji 0.1.10 do 0.1.11
    • wersja nnet z 7.3-18 do 7.3-19
    • openssl z 2.0.5 do 2.0.6
    • przejście z wersji 4.2.2 do 4.3.1
    • równolegle od wersji 1.34.0 do 1.36.0
    • filar od 1.8.1 do 1.9.0
    • pkgbuild z 1.4.0 do 1.4.2
    • pkgload z wersji 1.3.2 do 1.3.2.1
    • pROC z 1.18.0 do 1.18.4
    • processx z wersji 3.8.0 do 3.8.2
    • prodlim od 2019.11.13 do 2023.03.31
    • profvis z wersji 0.3.7 do 0.3.8
    • ps z 1.7.2 do 1.7.5
    • Program Rcpp z wersji 1.0.10 do 1.0.11
    • readr z wersji 2.1.3 do 2.1.4
    • readxl z wersji 1.4.2 do 1.4.3
    • przepisy od 1.0.4 do 1.0.6
    • rlang z wersji 1.0.6 do 1.1.1
    • rmarkdown z 2.20 do 2.23
    • Rserve z 1.8-12 do 1.8-11
    • RSQLite z wersji 2.2.20 do 2.3.1
    • rstudioapi z 0.14 do 0.15.0
    • sass z wersji 0.4.5 do 0.4.6
    • błyszczące z 1.7.4 do 1.7.4.1
    • sparklyr z 1.7.9 do 1.8.1
    • SparkR z wersji 3.4.1 do 3.5.0
    • spline'y od 4.2.2 do 4.3.1
    • statystyki z 4.2.2 do 4.3.1
    • stats4 z 4.2.2 do 4.3.1
    • wskaźnik przeżycia z 3,5-3 do 3,5-5
    • system z wersji 3.4.1 do 3.4.2
    • tcltk z wersji 4.2.2 do 4.3.1
    • testthat z 3.1.6 do 3.1.10
    • tibble z 3.1.8 do 3.2.1
    • tidyverse z 1.3.2 do 2.0.0
    • tinytex z 0.44 do 0.45
    • narzędzia z wersji 4.2.2 do 4.3.1
    • tzdb z 0.3.0 do 0.4.0
    • usethis z 2.1.6 do 2.2.2
    • Narzędzia z wersji 4.2.2 do 4.3.1
    • vctrs z 0.5.2 do 0.6.3
    • viridisLite z wersji 0.4.1 do 0.4.2
    • vroom od 1.6.1 do 1.6.3
    • waldo od 0.4.0 do 0.5.1
    • xfun od 0.37 do 0.39
    • xml2 z wersji 1.3.3 do 1.3.5
    • zip z wersji 2.2.2 do 2.3.0
  • Uaktualnione biblioteki Java:
    • com.fasterxml.jackson.core.jackson-annotations z wersji 2.14.2 do 2.15.2
    • com.fasterxml.jackson.core.jackson-core z wersji 2.14.2 do 2.15.2
    • com.fasterxml.jackson.core.jackson-databind z 2.14.2 do 2.15.2
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor z wersji 2.14.2 do 2.15.2
    • com.fasterxml.jackson.datatype.jackson-datatype-joda z wersji 2.14.2 do 2.15.2
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 z wersji 2.13.4 do 2.15.1
    • com.fasterxml.jackson.module.jackson-module-paranamer od 2.14.2 do 2.15.2
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 z wersji 2.14.2 do 2.15.2
    • com.github.luben.zstd-jni z 1.5.2-5 do 1.5.5-4
    • com.google.code.gson.gson z 2.8.9 do 2.10.1
    • com.google.crypto.tink.tink z 1.7.0 do 1.9.0
    • commons-codec.commons-codec z wersji 1.15 do 1.16.0
    • commons-io.commons-io z wersji 2.11.0 do 2.13.0
    • io.airlift.aircompressor od 0.21 do 0.24
    • io.dropwizard.metrics.metrics-core z wersji 4.2.10 do 4.2.19
    • io.dropwizard.metrics.metrics-graphite z wersji 4.2.10 do 4.2.19
    • io.dropwizard.metrics.metrics-healthchecks z wersji 4.2.10 do 4.2.19
    • Aktualizacja io.dropwizard.metrics.metrics-jetty9 z wersji 4.2.10 do 4.2.19
    • io.dropwizard.metrics.metrics-jmx z wersji 4.2.10 do 4.2.19
    • io.dropwizard.metrics.metrics-json zaktualizowano z wersji 4.2.10 do 4.2.19
    • io.dropwizard.metrics.metrics-jvm z 4.2.10 na 4.2.19
    • io.dropwizard.metrics.metrics-servlets z wersji 4.2.10 do 4.2.19
    • io.netty.netty-all z 4.1.87.Final do 4.1.93.Final
    • io.netty.netty-buffer z 4.1.87.Final na 4.1.93.Final
    • io.netty.netty-codec z wersji 4.1.87.Final do 4.1.93.Final
    • io.netty.netty-codec-http z 4.1.87.Final na 4.1.93.Final
    • io.netty.netty-codec-http2 z wersji 4.1.87.Final do 4.1.93.Final
    • io.netty.netty-codec-socks z wersji 4.1.87.Final do 4.1.93.Final
    • io.netty.netty-common z 4.1.87.Final do 4.1.93.Final
    • io.netty.netty-handler from 4.1.87.Final to 4.1.93.Final
    • io.netty.netty-handler-proxy z wersji 4.1.87.Final do 4.1.93.Final
    • Aktualizacja io.netty.netty-resolver z wersji 4.1.87.Final do wersji 4.1.93.Final
    • io.netty.netty-transport z wersji 4.1.87.Final do wersji 4.1.93.Final
    • io.netty.netty-transport-classes-epoll from 4.1.87.Final to 4.1.93.Final
    • io.netty.netty-transport-classes-kqueue od 4.1.87.Final do 4.1.93.Final
    • io.netty.netty-transport-native-epoll from 4.1.87.Final-linux-x86_64 to 4.1.93.Final-linux-x86_64
    • io.netty.netty-transport-native-kqueue from 4.1.87.Final-osx-x86_64 to 4.1.93.Final-osx-x86_64
    • io.netty.netty-transport-native-unix-common z 4.1.87.Final do 4.1.93.Final
    • org.apache.arrow.arrow-format od wersji 11.0.0 do 12.0.1
    • org.apache.arrow.arrow-memory-core z 11.0.0 do 12.0.1
    • org.apache.arrow.arrow-memory-netty od 11.0.0 do 12.0.1
    • org.apache.arrow.arrow-vector z 11.0.0 do 12.0.1
    • org.apache.avro.avro z wersji 1.11.1 do 1.11.2
    • org.apache.avro.avro-ipc z wersji 1.11.1 do 1.11.2
    • org.apache.avro.avro-mapred z wersji 1.11.1 do 1.11.2
    • org.apache.commons.commons-compress od wersji 1.21 do wersji 1.23.0
    • org.apache.hadoop.hadoop-client-runtime z wersji 3.3.4 do 3.3.6
    • org.apache.logging.log4j.log4j-1.2-api z wersji 2.19.0 do 2.20.0
    • org.apache.logging.log4j.log4j-api z wersji 2.19.0 do 2.20.0
    • org.apache.logging.log4j.log4j-core z wersji 2.19.0 do 2.20.0
    • org.apache.logging.log4j.log4j-slf4j2-impl z wersji 2.19.0 do 2.20.0
    • org.apache.orc.orc-core z wersji 1.8.4-shaded-protobuf do wersji 1.9.0-shaded-protobuf
    • org.apache.orc.orc-mapreduce z 1.8.4-shaded-protobuf na 1.9.0-shaded-protobuf
    • org.apache.orc.orc-shims z wersji 1.8.4 do 1.9.0
    • org.apache.xbean.xbean-asm9-shaded z 4.22 do 4.23
    • org.checkerframework.checker-qual od 3.19.0 do 3.31.0
    • org.glassfish.jersey.containers.jersey-container-servlet z 2.36 do 2.40
    • org.glassfish.jersey.containers.jersey-container-servlet-core od 2.36 do 2.40
    • org.glassfish.jersey.core.jersey-client od 2.36 do 2.40
    • org.glassfish.jersey.core.jersey-common od 2.36 do 2.40
    • org.glassfish.jersey.core.jersey-server od 2.36 do 2.40
    • org.glassfish.jersey.inject.jersey-hk2 z 2.36 do 2.40
    • org.javassist.javassist z wersji 3.25.0-GA do 3.29.2-GA
    • org.mariadb.jdbc.mariadb-java-client z wersji 2.7.4 do 2.7.9
    • org.postgresql.postgresql z wersji 42.3.8 do 42.6.0
    • org.roaringbitmap.RoaringBitmap z 0.9.39 do 0.9.45
    • org.roaringbitmap.shims od 0.9.39 do 0.9.45
    • org.rocksdb.rocksdbjni z wersji 7.8.3 do 8.3.2
    • org.scala-lang.modules.scala-collection-compat_2.12 z wersji 2.4.3 do 2.9.0
    • org.slf4j.jcl-over-slf4j od 2.0.6 do 2.0.7
    • org.slf4j.jul-to-slf4j od 2.0.6 do 2.0.7
    • org.slf4j.slf4j-api od 2.0.6 do 2.0.7
    • org.xerial.snappy.snappy-java z wersji 1.1.10.1 do 1.1.10.3
    • org.yaml.snakeyaml z 1.33 do 2.0

Apache Spark

Databricks Runtime 14.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 13.3 LTS, a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-45109] [DBRRM-462][sc-142247][SQL][connect] Poprawki funkcji aes_decrypt i ln w programie Connect
  • [SPARK-44980] [DBRRM-462][sc-141024][PYTHON][connect] Poprawka dziedziczona nazwanych elementów do pracy w createDataFrame
  • [SPARK-44795] [DBRRM-462][sc-139720][CONNECT] Pamięć podręczna CodeGenerator powinna być specyficzna dla ładowarki klas
  • [SPARK-44861] [DBRRM-498][sc-140716][CONNECT] jsonignore SparkListenerConnectOperationStarted.planRequest
  • [SPARK-44794] [DBRRM-462][sc-139767][CONNECT] Umożliwienie działania zapytań przesyłania strumieniowego z zarządzaniem artefaktami programu Connect
  • [SPARK-44791] [DBRRM-462][sc-139623][CONNECT] Działanie narzędzia ArrowDeserializer z wygenerowanymi klasami REPL
  • [SPARK-44876] [DBRRM-480][sc-140431][PYTHON] Naprawa zoptymalizowanej na bazie Arrow funkcji UDF w Pythonie na Spark Connect
  • [SPARK-44877] [DBRRM-482][sc-140437][CONNECT][python] Obsługa funkcji protobuf języka Python dla programu Spark Connect
  • [SPARK-44882] [DBRRM-463][sc-140430][PYTHON][connect] Usuń funkcję uuid/random/chr z PySpark
  • [SPARK-44740] [DBRRM-462][sc-140320][CONNECT][follow] Poprawa wartości metadanych dla artefaktów
  • [SPARK-44822] [DBRRM-464][python][SQL] Domyślne funkcje UDF języka Python niedeterministyczne
  • [SPARK-44836] [DBRRM-468][sc-140228][PYTHON] Refactor Arrow Python UDTF
  • [SPARK-44738] [DBRRM-462][sc-139347][PYTHON][connect] Dodawanie brakujących metadanych klienta do wywołań
  • [SPARK-44722] [DBRRM-462][sc-139306][CONNECT] ExecutePlanResponseReattachableIterator._call_iter: AttributeError: obiekt NoneType nie ma atrybutu "message"
  • [SPARK-44625] [DBRRM-396][sc-139535][CONNECT] SparkConnectExecutionManager do śledzenia wszystkich procesów
  • [SPARK-44663] [SC-139020][dbrrm-420][PYTHON] Wyłącz optymalizację strzałek domyślnie dla funkcji UDF języka Python
  • [SPARK-44709] [DBRRM-396][sc-139250][CONNECT] Uruchom ExecuteGrpcResponseSender w reattachable execute w nowym wątku, aby naprawić sterowanie przepływem
  • [SPARK-44656] [DBRRM-396][sc-138924][CONNECT] Uczyń wszystkie iteratory zamykalnymi iteratorami (CloseableIterators)
  • [SPARK-44671] [DBRRM-396][sc-138929][PYTHON][connect] Ponownie wykonaj ExecutePlan w przypadku, gdy początkowe żądanie nie dotarło do serwera w kliencie języka Python
  • [SPARK-44624] [DBRRM-396][sc-138919][CONNECT] Ponów próbę wykonania planu w przypadku, gdy początkowe żądanie nie dotarło do serwera
  • [SPARK-44574] [DBRRM-396][sc-138288][SQL][connect] Błędy przeniesione do sq/api powinny również używać funkcji AnalysisException
  • [SPARK-44613] [DBRRM-396][sc-138473][CONNECT] Dodawanie obiektu koderów
  • [SPARK-44626] [DBRRM-396][sc-138828][SS][connect] Nadzór nad zakończeniem zapytań przesyłania strumieniowego po przekroczeniu limitu czasu sesji klienta dla programu Spark Connect
  • [SPARK-44642] [DBRRM-396][sc-138882][CONNECT] ReleaseExecute in ExecutePlanResponseReattachableIterator po wystąpieniu błędu z serwera
  • [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Usuń zależność Catalyst dla klienta Connect
  • [SPARK-44664] [DBRRM-396][python][CONNECT] Zwolnij wykonanie podczas zamykania iteratora w kliencie języka Python
  • [SPARK-44631] [DBRRM-396][sc-138823][CONNECT][core][14.0.0] Usuń katalog oparty na sesji, gdy eksmitowana jest izolowana pamięć podręczna sesji
  • [SPARK-42941] [DBRRM-396][sc-138389][SS][connect] Python StreamingQueryListener
  • [SPARK-44636] [DBRRM-396][sc-138570][CONNECT] Nie pozostawiaj wiszących iteratorów
  • [SPARK-44424] [DBRRM-396][connect][PYTHON][14.0.0] Klient języka Python do ponownego połączenia się z istniejącym procesem wykonawczym w Spark Connect
  • [SPARK-44637] [SC-138571] Synchronizowanie dostępu do serwera ExecuteResponseObserver
  • [SPARK-44538] [SC-138178][connect][SQL] Przywrócenie funkcji Row.jsonValue i podobnych funkcji
  • [SPARK-44421] [SC-138434][spark-44423][CONNECT] Ponowne łączenie w Spark Connect
  • [SPARK-44418] [SC-136807][python][CONNECT] Uaktualnianie protobufu z wersji 3.19.5 do 3.20.3
  • [SPARK-44587] [SC-138315][sql][CONNECT] Zwiększenie limitu rekursji protobuf marshaller
  • [SPARK-44591] [SC-138292][connect][SQL] Add jobTags to SparkListenerSQLExecutionStart
  • [SPARK-44610] [SC-138368][sql] DeduplikatorRelacji powinien zachowywać metadane Alias podczas tworzenia nowego wystąpienia
  • [SPARK-44542] [SC-138323][core] Chętne ładowanie klasy SparkExitCode w procedurze obsługi wyjątków
  • [SPARK-44264] [SC-138143][python]Testowanie E2E na potrzeby deepspeed
  • [SPARK-43997] [SC-138347][connect] Dodawanie obsługi funkcji UDF języka Java
  • [SPARK-44507] [SQL][connect][14.x][14.0] Przenieś AnalysisException do sql/api
  • [SPARK-44453] [SC-137013][python] Użyj biblioteki difflib do wyświetlania błędów w assertDataFrameEqual
  • [SPARK-44394] [SC-138291][connect][WEBUI][14.0] Dodawanie strony interfejsu użytkownika platformy Spark dla programu Spark Connect
  • [SPARK-44611] [SC-138415][connect] Nie wykluczaj scala-xml
  • [SPARK-44531] [SC-138044][connect][SQL][14.x][14.0] Przenieś wnioskowanie kodera do sql/api
  • [SPARK-43744] [SC-138289][connect][14.x][14.0] Rozwiązać problem z ładowaniem klas...
  • [SPARK-44590] [SC-138296][sql][CONNECT] Usuń limit rekordów wsadowych strzałek dla polecenia SqlCommandResult
  • [SPARK-43968] [SC-138115][python] Ulepszanie komunikatów o błędach dla funkcji UDF języka Python z nieprawidłową liczbą danych wyjściowych
  • [SPARK-44432] [SC-138293][ss][CONNECT] Kończenie zapytań przesyłania strumieniowego po upływie limitu czasu sesji w programie Spark Connect
  • [SPARK-44584] [SC-138295][connect] Ustaw informacje o typie klienta dla AddArtifactsRequest i ArtifactStatusesRequest w kliencie Scala
  • [SPARK-44552] [14.0][sc-138176][SQL] Usuwanie definicji private object ParseState z IntervalUtils
  • [SPARK-43660] [SC-136183][connect][PS] Włączanie resample za pomocą programu Spark Connect
  • [SPARK-44287] [SC-136223][sql] Użyj interfejsu API PartitionEvaluator w operatorach SQL RowToColumnarExec & ColumnarToRowExec.
  • [SPARK-39634] [SC-137566][sql] Zezwalaj na dzielenie plików w połączeniu z generowaniem indeksu wierszy
  • [SPARK-44533] [SC-138058][python] Dodaj obsługę akumulatorów, transmisji i plików Spark w analizie języka Python UDTF
  • [SPARK-44479] [SC-138146][python] Poprawka ArrowStreamPandasUDFSerializer w celu zaakceptowania pandas DataFrame bez kolumn
  • [SPARK-44425] [SC-138177][connect] Sprawdź, czy podany przez użytkownika identyfikator sessionId jest identyfikatorem UUID
  • [SPARK-44535] [SC-138038][connect][SQL] Przenieś wymaganą API Streaming do sql/api
  • [SPARK-44264] [SC-136523][ml][PYTHON] Napisz klasę Deepspeed do rozproszonego uczenia DeepspeedTorchDistributor
  • [SPARK-42098] [SC-138164][sql] Fix ResolveInlineTables nie może obsłużyć wyrażenia RuntimeReplaceable
  • [SPARK-44060] [SC-135693][sql] Generowanie kodu dla zewnętrznego mieszającego sprzężenia skrótu po stronie budowy
  • [SPARK-44496] [SC-137682][sql][CONNECT] Przenoszenie interfejsów wymaganych przez scSC do sql/api
  • [SPARK-44532] [SC-137893][connect][SQL] Move ArrowUtils to sql/api
  • [SPARK-44413] [SC-137019][python] Wyjaśnienie błędu dla nieobsługiwanego typu danych arg w assertDataFrameEqual
  • [SPARK-44530] [SC-138036][core][CONNECT] Move SparkBuildInfo to common/util
  • [SPARK-36612] [SC-133071][sql] Obsługa lewej kompilacji sprzężenia zewnętrznego lub prawej kompilacji sprzężenia zewnętrznego w mieszanym sprzężeniu skrótu
  • [SPARK-44519] [SC-137728][connect] SparkConnectServerUtils wygenerowało nieprawidłowe parametry dla plików jar
  • [SPARK-44449] [SC-137818][connect] Podnoszenie typu dla bezpośredniej deserializacji Arrow
  • [SPARK-44131] [SC-136346][sql] Dodawanie call_function i oznaczanie call_udf dla interfejsu API języka Scala
  • [SPARK-44541] [SQL] Usuń bezużyteczną funkcję hasRangeExprAgainstEventTimeCol z UnsupportedOperationChecker
  • [SPARK-44523] [SC-137859][sql] Wartość maxRows/maxRowsPerPartition filtru wynosi 0, jeśli warunek to FalseLiteral
  • [SPARK-44540] [SC-137873][ui] Usuń nieużywany arkusz stylów i pliki javascript jsonFormatter
  • [SPARK-44466] [SC-137856][sql] Wykluczanie konfiguracji rozpoczynających się od SPARK_DRIVER_PREFIX i SPARK_EXECUTOR_PREFIX z zmodyfikowanych konfiguracji
  • [SPARK-44477] [SC-137508][sql] Traktuj TYPE_CHECK_FAILURE_WITH_HINT jako podklasę błędów
  • [SPARK-44509] [SC-137855][python][CONNECT] Dodanie funkcji anulowania zadań w kliencie Spark Connect dla języka Python
  • [SPARK-44059] [SC-137023] Dodawanie obsługi nazwanych argumentów analizatora dla wbudowanych funkcji
  • [SPARK-38476] [SC-136448][core] Użyj klasy błędów w org.apache.spark.storage
  • [SPARK-44486] [SC-137817][python][CONNECT] Implementowanie funkcji self_destruct PyArrow dla toPandas
  • [SPARK-44361] [SC-137200][sql] Używanie PartitionEvaluator API w MapInBatchExec
  • [SPARK-44510] [SC-137652][ui] Aktualizowanie tabel danych do wersji 1.13.5 i usuwanie niektórych nieochwyconych plików PNG
  • [SPARK-44503] [SC-137808][sql] Dodaj gramatykę SQL dla klauzuli PARTITION BY i ORDER BY po argumentach TABLE dla wywołań TVF
  • [SPARK-38477] [SC-136319][core] Użyj klasy błędów w org.apache.spark.shuffle
  • [SPARK-44299] [SC-136088][sql] Przypisywanie nazw do klasy błędów _LEGACY_ERROR_TEMP_227[4-6,8]
  • [SPARK-44422] [SC-137567][connect] Precyzyjne przerywanie połączenia Spark Connect
  • [SPARK-44380] [SC-137415][sql][PYTHON] Obsługa funkcji UDTF języka Python do analizowania w języku Python
  • [SPARK-43923] [SC-137020][connect] Publikuj zdarzenia listenerBus podczas…
  • [SPARK-44303] [SC-136108][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2320-2324]
  • [SPARK-44294] [SC-135885][ui] Poprawka kolumny HeapHistogramu jest nieoczekiwanie wyświetlana z polem wyboru „zaznacz wszystko”
  • [SPARK-44409] [SC-136975][sql] Obsługuj char/varchar w Dataset.to, aby zachować spójność z resztą
  • pl-PL: [SPARK-44334] [SC-136576][sql][UI] Status w odpowiedzi interfejsu API REST dla nieudanego polecenia DDL/DML bez uruchomionych zadań powinien mieć wartość FAILED zamiast UKOŃCZONO.
  • [SPARK-42309] [SC-136703][sql] Wprowadzenie INCOMPATIBLE_DATA_TO_TABLE i jej klas podrzędnych.
  • [SPARK-44367] [SC-137418][sql][interfejs użytkownika] Pokaż komunikat o błędzie w interfejsie użytkownika dla każdego zapytania, które zakończyło się niepowodzeniem
  • [SPARK-44474] [SC-137195][connect] Ponowne włączenie "Test obserwuj odpowiedź" w SparkConnectServiceSuite
  • [SPARK-44320] [SC-136446][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[1067,1150,1220,1265,1277]
  • [SPARK-44310] [SC-136055][connect] Dziennik uruchamiania programu Connect Server powinien wyświetlić nazwę hosta i port
  • [SPARK-44309] [SC-136193][ui] Wyświetlanie czasu dodawania/usuwania executorów na karcie Executorów
  • [SPARK-42898] [SC-137556][sql] Oznacz, że konwersje napisów i dat nie potrzebują identyfikatora strefy czasowej
  • [SPARK-44475] [SC-137422][sql][CONNECT] Przeniesienie obiektu DataType i analizatora do sql/api
  • [SPARK-44484] [SC-137562][ss]Dodawanie batchDuration do metody json StreamingQueryProgress
  • [SPARK-43966] [SC-137559][sql][PYTHON] Obsługa funkcji niedeterministycznych wartości tabeli
  • [SPARK-44439] [SC-136973][connect][SS]Naprawiono listListeners, aby wysyłać identyfikatory tylko z powrotem do klienta
  • [SPARK-44341] [SC-137054][sql][PYTHON] Definiowanie logiki obliczeniowej poprzez API PartitionEvaluator i używanie go w modułach WindowExec i WindowInPandasExec
  • [SPARK-43839] [SC-132680][sql] Konwertowanie _LEGACY_ERROR_TEMP_1337 na UNSUPPORTED_FEATURE.TIME_TRAVEL
  • [SPARK-44244] [SC-135703][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2305-2309]
  • [SPARK-44201] [SC-136778][connect][SS]Dodaj wsparcie dla nasłuchiwacza przesyłania strumieniowego w języku Scala dla Spark Connect
  • [SPARK-44260] [SC-135618][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[1215-1245-2329] & Użyj checkError(), aby sprawdzić wyjątek w _CharVarchar_Suite
  • [SPARK-42454] [SC-136913][sql] SPJ: hermetyzowanie wszystkich parametrów związanych z SPJ w BatchScanExec
  • [SPARK-44292] [SC-135844][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2315-2319]
  • [SPARK-44396] [SC-137221][connect] Deserializacja strzałek bezpośrednich
  • [SPARK-44324] [SC-137172][sql][CONNECT] Przenieś CaseInsensitiveMap do sql/api
  • [SPARK-44395] [SC-136744][sql] Dodawanie testu z powrotem do aplikacji StreamingTableSuite
  • [SPARK-44481] [SC-137401][connect][PYTHON] Uczyń pyspark.sql.is_remote API
  • [SPARK-44278] [SC-137400][connect] Zaimplementować interceptor serwera GRPC, który czyści właściwości lokalne wątku
  • [SPARK-44264] [SC-137211][ml][PYTHON] Obsługa rozproszonego trenowania funkcji przy użyciu DeepSpeed
  • [SPARK-44430] [SC-136970][sql] Dodaj przyczynę AnalysisException, gdy opcja jest nieprawidłowa
  • [SPARK-44264] [SC-137167][ml][PYTHON] Dołączanie elementu FunctionPickler do TorchDistributor
  • [SPARK-44216] [SC-137046] [PYTHON] Udostępnij interfejs API assertSchemaEqual publicznie
  • [SPARK-44398] [SC-136720][connect] Scala foreachBatch API
  • [SPARK-43203] [SC-134528][sql] Przenieś wszystkie przypadki usuwania tabel do DataSource w wersji 2
  • [SPARK-43755] [SC-137171][connect][MINOR] Otwórz AdaptiveSparkPlanHelper.allChildren zamiast używać kopii w MetricGenerator
  • [SPARK-44264] [SC-137187][ml][PYTHON] Refaktoryzacja TorchDistributor, aby umożliwić niestandardowy wskaźnik funkcji "run_training_on_file"
  • [SPARK-43755] [SC-136838][connect] Przenieś wykonywanie ze SparkExecutePlanStreamHandler do innego wątku
  • [SPARK-44411] [SC-137198][sql] Użycie interfejsu API PartitionEvaluator w ArrowEvalPythonExec i BatchEvalPythonExec
  • [SPARK-44375] [SC-137197][sql] Używanie interfejsu API PartitionEvaluator w DebugExec
  • [SPARK-43967] [SC-137057][python] Obsługa zwykłych funkcji UDF języka Python z pustymi wartościami zwracanymi
  • [SPARK-43915] [SC-134766][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2438-2445]
  • [SPARK-43965] [SC-136929][python][CONNECT] Obsługa funkcji UDTF języka Python w programie Spark Connect
  • [SPARK-44154] [SC-137050][sql] Dodano więcej testów jednostkowych do aplikacji BitmapExpressionUtilsSuite i wprowadzono drobne ulepszenia w wyrażeniach agregacji mapy bitowej
  • [SPARK-44169] [SC-135497][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2300-2304]
  • [SPARK-44353] [SC-136578][connect][SQL] Usuń StructType.toAttributes
  • [SPARK-43964] [SC-136676][sql][PYTHON] Obsługa zoptymalizowanych pod kątem strzałek funkcji UDTFs języka Python
  • [SPARK-44321] [SC-136308][connect] Oddzielić ParseException od AnalysisException
  • [SPARK-44348] [SAS-1910][sc-136644][CORE][connect][PYTHON] Ponowne włączenie test_artifact z odpowiednimi zmianami
  • [SPARK-44145] [SC-136698][sql] Wywołanie zwrotne, gdy będzie gotowe do wykonania
  • [SPARK-43983] [SC-136404][python][ML][connect] Włącz test estymatora walidatora krzyżowego
  • [SPARK-44399] [SC-136669][python][CONNECT] Importuj SparkSession w Python UDF tylko wtedy, gdy useArrow jest równy None
  • [SPARK-43631] [SC-135300][connect][PS] Umożliwić Series.interpolate z Spark Connect
  • [SPARK-44374] [SC-136544][python][ML] Dodawanie przykładowego kodu rozproszonego uczenia maszynowego na potrzeby połączenia spark
  • [SPARK-44282] [SC-135948][connect] Przygotowywanie analizy typu danych do użycia w kliencie Spark Connect Scala
  • [SPARK-44052] [SC-134469][connect][PS] Dodaj narzędzie, aby uzyskać odpowiednią klasę Kolumna lub Ramka danych dla programu Spark Connect.
  • [SPARK-43983] [SC-136404][python][ML][connect] Implementacja estymatora walidacji krzyżowej
  • [SPARK-44290] [SC-136300][connect] Pliki i archiwa oparte na sesji w programie Spark Connect
  • [SPARK-43710] [SC-134860][ps][CONNECT] Obsługa functions.date_part dla programu Spark Connect
  • [SPARK-44036] [SC-134036][connect][PS] Oczyszczanie & skonsolidowano zgłoszenia, aby uprościć zadania.
  • [SPARK-44150] [SC-135790][python][CONNECT] Jawne rzutowanie Arrow dla niedopasowanego typu zwracanego w funkcji UDF Pythona w Arrow
  • [SPARK-43903] [SC-134754][python][CONNECT] Ulepsz obsługę danych wejściowych ArrayType w funkcji Python UDF w technologii Arrow
  • [SPARK-44250] [SC-135819][ml][PYTHON][connect] Implementowanie ewaluatora klasyfikacji
  • [SPARK-44255] [SC-135704][sql] Przeniesienie elementu StorageLevel do common/utils
  • [SPARK-42169] [SC-135735] [SQL] Implementowanie generowania kodu dla funkcji to_csv (StructsToCsv)
  • [SPARK-44249] [SC-135719][sql][PYTHON] Refaktoryzacja PythonUDTFRunner w celu oddzielnego wysyłania typu zwracanego.
  • [SPARK-43353] [SC-132734][python] Migrowanie pozostałych błędów sesji do klasy błędów
  • [SPARK-44133] [SC-134795][python] Aktualizacja MyPy z wersji 0.920 do 0.982
  • [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener — Serde zdarzeń w formacie JSON
  • [SPARK-43353] przywróć "[SC-132734][es-729763][PYTHON] Migrowanie pozostałych błędów sesji do klasy błędów"
  • [SPARK-44100] [SC-134576][ml][CONNECT][python] Przenoszenie przestrzeni nazw z pyspark.mlv2 do pyspark.ml.connect
  • [SPARK-44220] [SC-135484][sql] Move StringConcat do SQL/API
  • [SPARK-43992] [SC-133645][sql][PYTHON][connect] Dodaj opcjonalny wzorzec dla Catalog.listFunctions
  • [SPARK-43982] [SC-134529][ml][PYTHON][connect] Wdrożenie oszacowującego elementu rurociągu dla ML na Spark Connect
  • [SPARK-43888] [SC-132893][core] Przeniesienie logowania do wspólne/utils
  • [SPARK-42941] Przywróć “[SC-134707][ss][CONNECT][1/2] StreamingQueryListener — Serde zdarzeń w formacie JSON”
  • [SPARK-43624] [SC-134557][ps][CONNECT] Dodaj EWM do sparkConnectPlanner.
  • [SPARK-43981] [SC-134137][python][ML] Podstawowa implementacja zapisywania/ładowania uczenia maszynowego na platformie Spark Connect
  • [SPARK-43205] [SC-133371][sql] naprawa SQLQueryTestSuite
  • [SPARK-43376] Revert “[SC-130433][sql] Poprawa ponownego używania podzapytania za pomocą pamięci podręcznej tabel”
  • [SPARK-44040] [SC-134366][sql] Naprawić statystyki obliczeniowe, gdy węzeł AggregateExec jest powyżej węzła QueryStageExec
  • [SPARK-43919] [SC-133374][sql] Wyodrębnianie funkcji JSON z wiersza
  • [SPARK-42618] [SC-134433][python][PS] Ostrzeżenie o zmianach zachowania związanych z biblioteką pandas w następnej wersji głównej
  • [SPARK-43893] [SC-133381][python][CONNECT] Obsługa nieatomowego typu danych w Arrow-optymalizowanej funkcji UDF języka Python
  • [SPARK-43627] [SC-134290][spark-43626][PS][connect] Włącz pyspark.pandas.spark.functions.{kurt, skew} w Spark Connect.
  • [SPARK-43798] [SC-133990][sql][PYTHON] Obsługa funkcji tabel zdefiniowanych przez użytkownika języka Python
  • [SPARK-43616] [SC-133849][ps][CONNECT] Włączanie pyspark.pandas.spark.functions.mode w programie Spark Connect
  • [SPARK-43133] [SC-133728] Obsługa programu Scala Client DataStreamWriter Foreach
  • [SPARK-43684] [SC-134107][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Poprawka (NullOps|NumOps).(eq|ne) dla programu Spark Connect.
  • [SPARK-43645] [SC-134151][spark-43622][PS][connect] Włącz pyspark.pandas.spark.functions.{var, stddev} w Spark Connect
  • [SPARK-43617] [SC-133893][ps][CONNECT] Włączanie pyspark.pandas.spark.functions.product w programie Spark Connect
  • [SPARK-43610] [SC-133832][connect][PS] Włączanie InternalFrame.attach_distributed_column w programie Spark Connect.
  • [SPARK-43621] [SC-133852][ps][CONNECT] Włączanie pyspark.pandas.spark.functions.repeat w programie Spark Connect
  • [SPARK-43921] [SC-133461][protobuf] Generowanie plików deskryptora Protobuf w czasie kompilacji
  • [SPARK-43613] [SC-133727][ps][CONNECT] Włączanie pyspark.pandas.spark.functions.covar w programie Spark Connect
  • [SPARK-43376] [SC-130433][sql] Ulepszanie ponownego używania podzapytania za pomocą pamięci podręcznej tabel
  • [SPARK-43612] [SC-132011][connect][PYTHON] Implement SparkSession.addArtifact(s) w kliencie języka Python
  • [SPARK-43920] [SC-133611][sql][CONNECT] Tworzenie modułu sql/api
  • [SPARK-43097] [SC-133372][ml] Nowe narzędzie pyspark ML do regresji logistycznej zaimplementowane na dystrybutorze
  • [SPARK-43783] [SC-133240][spark-43784][SPARK-43788][ml] Spraw, aby MLv2 (ML w spark connect) wspierał bibliotekę pandas >= 2.0
  • [SPARK-43024] [SC-132716][python] Uaktualnianie biblioteki pandas do wersji 2.0.0
  • [SPARK-43881] [SC-133140][sql][PYTHON][connect] Dodaj opcjonalny wzorzec dla Catalog.listDatabases
  • [SPARK-39281] [SC-131422][sql] Przyspieszenie ustalania typu znacznika czasu przy użyciu starszego formatu w źródle danych JSON/CSV
  • [SPARK-43792] [SC-132887][sql][PYTHON][connect] Dodanie opcjonalnego wzorca dla Catalog.listCatalogs
  • [SPARK-43132] [SC-131623] [SS] [CONNECT] Python Client DataStreamWriter foreach() API
  • [SPARK-43545] [SC-132378][sql][PYTHON] Obsługa typu zagnieżdżonego znacznika czasu
  • [SPARK-43353] [SC-132734][python] Migrowanie pozostałych błędów sesji do klasy błędów
  • [SPARK-43304] [SC-129969][connect][PYTHON] Migracja NotImplementedError do PySparkNotImplementedError
  • [SPARK-43516] [SC-132202][ml][PYTHON][connect] Podstawowe interfejsy sparkML dla platformy Spark3.5: narzędzie do szacowania/przekształcania/modelu/ewaluatora
  • [SPARK-43128] Przywróć "[SC-131628][connect][SS] Upewnij się, że recentProgress i lastProgress zwracają StreamingQueryProgress zgodnie z natywnym interfejsem API języka Scala"
  • [SPARK-43543] [SC-131839][python] Poprawka zagnieżdżonego zachowania MapType w funkcji definicji użytkownika (UDF) biblioteki Pandas
  • [SPARK-38469] [SC-131425][core] Użyj klasy błędów w org.apache.spark.network
  • [SPARK-43309] [SC-129746][spark-38461][CORE] Rozszerzyć INTERNAL_ERROR o kategorie i dodać klasę błędów INTERNAL_ERROR_BROADCAST
  • [SPARK-43265] [SC-129653] Przenoszenie struktury błędów do wspólnego modułu narzędzi
  • [SPARK-43440] [SC-131229][python][CONNECT] Wsparcie dla rejestracji funkcji zdefiniowanej przez użytkownika w Pythonie zoptymalizowanej za pomocą Arrow
  • [SPARK-43528] [SC-131531][sql][PYTHON] Obsługa zduplikowanych nazw pól w createDataFrame z ramkami danych biblioteki pandas
  • [SPARK-43412] [SC-130990][python][CONNECT] Wprowadzenie SQL_ARROW_BATCHED_UDF EvalType dla funkcji UDF języka Python zoptymalizowanych pod kątem Apache Arrow
  • [SPARK-40912] [SC-130986][core]Nadwyżka wyjątków w KryoDeserializationStream
  • [SPARK-39280] [SC-131206][sql] Przyspieszenie wnioskowania typu sygnatury czasowej przy użyciu formatu dostarczonego przez użytkownika w źródle danych JSON/CSV
  • [SPARK-43473] [SC-131372][python] Obsługa typu struct w createDataFrame z pandas DataFrame
  • [SPARK-43443] [SC-131024][sql] Dodaj test porównawczy dla wnioskowania typu Timestamp w przypadku użycia nieprawidłowej wartości
  • [SPARK-41532] [SC-130523][connect][CLIENT] Dodaj sprawdzenie dla operacji obejmujących wiele ramek danych
  • [SPARK-43296] [SC-130627][connect][PYTHON] Przeniesienie błędów sesji programu Spark Connect do kategorii błędów
  • [SPARK-43324] [SC-130455][sql] Obsługa poleceń UPDATE dla źródeł opartych na delta
  • [SPARK-43347] [SC-130148][python] Usuwanie obsługi języka Python 3.7
  • [SPARK-43292] [SC-130525][core][CONNECT] Przenoszenie ExecutorClassLoader do modułu core i uproszczenie Executor#addReplClassLoaderIfNeeded
  • [SPARK-43081] [SC-129900] [ML] [CONNECT] Dodawanie modułu ładującego dane dystrybutora torch, który ładuje dane z danych partycji platformy Spark
  • [SPARK-43331] [SC-130061][connect] Dodaj SparkSession.interruptAll
  • [SPARK-43306] [SC-130320][python] Migruj ValueError z typów Spark SQL do klasy błędów
  • [SPARK-43261] [SC-129674][python] Migrowanie TypeError z typów Spark SQL do klasy błędów.
  • [SPARK-42992] [SC-129465][python] Wprowadzenie błędu PySparkRuntimeError
  • [SPARK-16484] [SC-129975][sql] Dodać obsługę funkcji Datasketches HllSketch
  • [SPARK-43165] [SC-128823][sql] Przenieść canWrite do DataTypeUtils
  • [SPARK-43082] [SC-129112][connect][PYTHON] Funkcje użytkownika Pythona zoptymalizowane przez Arrow w Spark Connect
  • [SPARK-43084] [SC-128654] [SS] Dodanie obsługi funkcji applyInPandasWithState dla połączenia Spark
  • [SPARK-42657] [SC-128621][connect] Wsparcie dla wyszukiwania i przesyłania plików klas REPL po stronie klienta jako artefaktów do serwera
  • [SPARK-43098] [SC-77059][sql] Naprawiono usterkę funkcji COUNT dotyczącą poprawności działania, gdy podzapytanie skalarne ma klauzulę GROUP BY
  • [SPARK-42884] [SC-126662][connect] Dodaj integrację REPL Ammonite
  • [SPARK-42994] [SC-128333][ml][CONNECT] Dystrybutor PyTorch obsługuje tryb lokalny
  • [SPARK-41498] [SC-125343]Przywróć "Propagacja metadanych za pomocą unii"
  • [SPARK-42993] [SC-127829][ml][CONNECT] Zgodność dystrybutora PyTorch z programem Spark Connect
  • [SPARK-42683] [LC-75] Automatyczna zmiana nazwy kolumn metadanych powodujących konflikt
  • [SPARK-42874] [SC-126442][sql] Włączanie nowej złotej struktury testów plików na potrzeby analizy wszystkich plików wejściowych
  • [SPARK-42779] [SC-126042][sql] Zezwalaj na zapisy w wersji 2 dla wskazania sugerowanego rozmiaru partycji mieszania
  • [SPARK-42891] [SC-126458][connect][PYTHON] Implementowanie API Mapy Współgrupowanej
  • [SPARK-42791] [SC-126134][sql] Tworzenie nowej złotej struktury testów plików na potrzeby analizy
  • [SPARK-42615] [SC-124237][connect][PYTHON] Refaktoryzację elementu AnalyzePlan RPC i dodawanie session.version
  • [SPARK-41302] przywróć "[WSZYSTKIE TESTY][sc-122423][SQL] Assign name to _LEGACY_ERROR_TEMP_1185"
  • [SPARK-40770] [SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu
  • [SPARK-40770] Cofnij "[WSZYSTKIE TESTY][sc-122652][PYTHON] Ulepszone komunikaty o błędach dla applyInPandas dla niezgodności schematu"
  • [SPARK-42398] [SC-123500][sql] Uściślij domyślną wartość kolumny w interfejsie DS v2
  • [SPARK-40770] [WSZYSTKIE TESTY][sc-122652][PYTHON] Ulepszone komunikaty o błędach w funkcji applyInPandas przy niezgodności schematu
  • [SPARK-40770] Przywróć “[SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas w przypadku niezgodności schematu”
  • [SPARK-40770] [SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu
  • [SPARK-42038] [WSZYSTKIE TESTY] Przywróć "Przywróć "[SC-122533][sql] SPJ: Obsługa częściowo klastrowanej dystrybucji""
  • [SPARK-42038] przywróć "[SC-122533][sql] SPJ: Obsługa częściowo klastrowanej dystrybucji"
  • [SPARK-42038] [SC-122533][sql] SPJ: Obsługa dystrybucji częściowo klastrowanej
  • [SPARK-40550] [SC-120989][sql] DataSource V2: Obsługa poleceń DELETE dla źródeł delta
  • [SPARK-40770] Przywróć "[SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu"
  • [SPARK-40770] [SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu
  • [SPARK-41302] Cofnij “[SC-122423][sql] Przypisz nazwę do _LEGACY_ERROR_TEMP_1185”
  • [SPARK-40550] cofnij "[SC-120989][sql] DataSource V2: Obsługa poleceń DELETE dla źródeł opartych na delta"
  • [SPARK-42123] Przywróć "[SC-121453][sql] Uwzględnij wartości domyślne kolumn w artykule DESCRIBE i SHOW CREATE TABLE danych wyjściowych"
  • [SPARK-42146] [SC-121172][core] Refaktoryzacja Utils#setStringField, aby kompilacja Maven powiodła się, gdy moduł SQL korzysta z tej metody
  • [SPARK-42119] Przywróć "[SC-121342][sql] Dodaj wbudowane funkcje tabelaryczne inline i inline_outer"

Najważniejsze informacje

  • Poprawka aes_decrypfunkcji t i ln w programie Connect SPARK-45109
  • Popraw dziedziczone nazwane krotki, aby działały w module createDataFrame SPARK-44980
  • Pamięć podręczna CodeGenerator jest teraz specyficzna dla ładowacza klas [SPARK-44795]
  • Dodano SparkListenerConnectOperationStarted.planRequest[SPARK-44861]
  • Uruchamianie zapytań przesyłania strumieniowego w połączeniu z zarządzaniem artefaktami Connect [SPARK-44794]
  • ArrowDeserializer współpracuje z klasami wygenerowanymi przez REPL [SPARK-44791]
  • Naprawiono zoptymalizowaną pod kątem Arrow funkcję UDF w Pythonie w programie Spark Connect [SPARK-44876]
  • Obsługa klienta języka Scala i Go w rozwiązaniu Spark Connect SPARK-42554SPARK-43351
  • Obsługa rozproszonego uczenia maszynowego opartego na protokole PyTorch dla platformy Spark Connect SPARK-42471
  • Obsługa przesyłania strumieniowego ze strukturą dla programu Spark Connect w językach Python i Scala SPARK-42938
  • Obsługa interfejsu API Pandas dla klienta Spark Connect w języku Python SPARK-42497
  • Wprowadzenie Arrow Python UDF SPARK-40307
  • Obsługa funkcji tabeli zdefiniowanej przez użytkownika języka Python SPARK-43798
  • Migrowanie błędów PySpark na klasy błędów SPARK-42986
  • PySpark Test Framework SPARK-44042
  • Dodano obsługę funkcji Datasketches HllSketch SPARK-16484
  • Wbudowane ulepszenie funkcji SQL SPARK-41231
  • IDENTIFIER klauzula SPARK-43205
  • Dodawanie funkcji SQL do języków Scala, Python i R API SPARK-43907
  • Dodaj obsługę nazwanych argumentów dla funkcji SQL SPARK-43922
  • Unikaj niepotrzebnego ponownego uruchamiania zadania przy utracie zlikwidowanego executora, jeśli dane typu shuffle zostały zmigrowane SPARK-41469
  • Rozproszone uczenie maszynowe <> spark connect SPARK-42471
  • Dystrybutor DeepSpeed SPARK-44264
  • Implementowanie punktów kontrolnych dla zmieniającego się dziennika w magazynie stanów RocksDB SPARK-43421
  • Wprowadź propagację znaku wodnego między operatorami SPARK-42376
  • Wprowadzenie dropDuplicatesWithinWatermark SPARK-42931
  • Rozszerzenia zarządzania pamięcią dostawcy magazynu stanów RocksDB SPARK-43311

Spark Connect

  • Refaktoryzacja modułu SQL w języku SQL i interfejsie SQL-API w celu utworzenia minimalnego zestawu zależności, które mogą być współużytkowane przez klienta Scala Spark Connect i platformy Spark i pozwala uniknąć ściągania wszystkich zależności przechodnich platformy Spark. SPARK-44273
  • Wprowadzenie do klienta Scala dla platformy Spark Connect SPARK-42554
  • Obsługa interfejsu API biblioteki Pandas dla klienta Spark Connect w języku Python SPARK-42497
  • Obsługa rozproszonego uczenia maszynowego opartego na protokole PyTorch dla platformy Spark Connect SPARK-42471
  • Obsługa przesyłania strumieniowego ze strukturą dla programu Spark Connect w językach Python i Scala SPARK-42938
  • Początkowa wersja klienta GO SPARK-43351
  • Wiele ulepszeń zgodności między natywnymi platformami Spark i klientami Spark Connect w języku Python i Scala
  • Ulepszono debugowanie i obsługę żądań dla aplikacji klienckich (przetwarzanie asynchroniczne, ponawianie prób, długotrwałe zapytania)

Spark SQL

Funkcje

  • Dodaj kolumnę metadanych dla bloku pliku: początek i długość SPARK-42423
  • Obsługa parametrów pozycyjnych w języku Scala/Java sql() SPARK-44066
  • Dodano obsługę nazwanych parametrów w parserze dla wywołań funkcji SPARK-43922
  • Obsługa SELECT DEFAULT z użyciem ORDER BY, LIMIT, OFFSET dla relacji źródłowej INSERTSPARK-43071
  • Dodaj gramatykę SQL dla klauzul PARTITION BY i ORDER BY, które pojawiają się po argumentach TABLE w wywołaniach TVF SPARK-44503.
  • Uwzględnij wartości domyślne kolumn w DESCRIBE i w danych wyjściowych SHOW CREATE TABLESPARK-42123
  • Dodawanie opcjonalnego wzorca dla elementu Catalog.listCatalogs SPARK-43792
  • Dodawanie opcjonalnego wzorca dla elementu Catalog.listDatabases SPARK-43881
  • Wywołanie zwrotne, gdy gotowe do uruchomienia SPARK-44145
  • Obsługa instrukcji "Insert By Name" SPARK-42750
  • Dodaj call_function dla interfejsu API Scala SPARK-44131
  • Stabilne aliasy kolumn pochodnych SPARK-40822
  • Obsługa ogólnych wyrażeń stałych jako wartości CREATE/REPLACE TABLE OPTIONS SPARK-43529
  • Obsługa podzapytania z korelacją za pośrednictwem interSECT/EXCEPT SPARK-36124
  • IDENTIFIER klauzula SPARK-43205
  • TRYB ANSI: Conv powinien zwrócić błąd, jeśli konwersja wewnętrzna przepełnia SPARK-42427

Funkcje

  • Dodano obsługę funkcji Datasketches HllSketch SPARK-16484
  • Obsługa trybu CBC przez aes_encrypt()/aes_decrypt() SPARK-43038
  • Obsługa reguły analizatora argumentów TABLE dla funkcji TableValuedFunction SPARK-44200
  • Implementacja funkcji bitmapowych SPARK-44154
  • Dodawanie funkcji try_aes_decrypt() SPARK-42701
  • array_insert powinna zakończyć się niepowodzeniem przy indeksie 0 SPARK-43011
  • Dodaj alias to_varchar dla to_char SPARK-43815
  • Funkcja wyższego rzędu: implementacja array_compact SPARK-41235
  • Dodaj obsługę nazwanych argumentów w analizatorze dla wbudowanych funkcji SPARK-44059
  • Dodawanie wartości NULL dla INSERT-ów z listami określonych przez użytkownika o mniejszej liczbie kolumn niż tabela docelowa SPARK-42521
  • Dodaje obsługę aes_encrypt IV i AAD SPARK-43290
  • Funkcja DECODE zwraca nieprawidłowe wyniki po przekazaniu wartości NULL SPARK-41668
  • Obsługa funkcji udf "luhn_check" SPARK-42191
  • Obsługa niejawnego rozpoznawania aliasu kolumny bocznej w ramach agregacji SPARK-41631
  • Obsługa niejawnego aliasu bocznej kolumny w zapytaniach z użyciem okna SPARK-42217
  • Dodawanie aliasów funkcji 3-args DATE_ADD i DATE_DIFF SPARK-43492

Źródła danych

  • Obsługa CHAR/VARCHAR dla katalogu JDBC SPARK-42904
  • Obsługa dynamicznego pobierania słów kluczowych SQL za pomocą interfejsu API JDBC i TVF SPARK-43119
  • DataSource V2: Obsługa poleceń MERGE dla źródeł opartych na delcie SPARK-43885
  • DataSource V2: Obsługa poleceń MERGE dla źródeł opartych na grupach SPARK-43963
  • DataSource V2: Obsługa poleceń UPDATE dla źródeł opartych na grupach SPARK-43975
  • DataSource V2: Zezwalaj na reprezentowanie aktualizacji jako usunięcia i wstawienia SPARK-43775
  • Zezwalaj dialektom jdbc na zastępowanie zapytania użytego do utworzenia tabeli SPARK-41516
  • SPJ: Obsługa częściowo klastrowanej dystrybucji SPARK-42038
  • DSv2 daje możliwość CTAS/RTAS rezerwowania null'owalności schematu SPARK-43390
  • Dodaj spark.sql.files.maxPartitionNum SPARK-44021
  • Obsługa komend UPDATE dla źródeł opartych na delcie SPARK-43324
  • Zezwalaj na zapisy V2, aby wskazać doradczy rozmiar partycji shuffle SPARK-42779
  • Obsługa kodera kompresji lz4raw dla Parquet SPARK-43273
  • Avro: pisanie złożonych związków SPARK-25050
  • Przyspieszanie wnioskowania typu znacznika czasu za pomocą formatu dostarczonego przez użytkownika w źródle danych JSON/CSV SPARK-39280
  • Avro to Support custom decimal type backed by Long SPARK-43901 (Obsługa niestandardowego typu dziesiętnego obsługiwanego przez platformę Long SPARK-43901)
  • Unikaj przetasowania w złączaniu partycjonowanego magazynu, gdy klucze partycji są niezgodne, ale wyrażenia złączenia są zgodne SPARK-41413
  • Zmień typ binarny na nieobsługiwany typ danych w formacie CSV SPARK-42237
  • Zezwól Avro na konwertowanie typu związkowego na SQL ze stabilną nazwą pola z typem SPARK-43333
  • Przyspiesz rozpoznawanie typu znacznika czasu z wykorzystaniem starszego formatu w źródle danych JSON/CSV SPARK-39281

Optymalizacja zapytań

  • Wsparcie dla eliminacji podwyrażeń w wyrażeniach skrótu SPARK-42815
  • Popraw szacowanie statystyk sprzężenia, jeśli jedna ze stron może zachować unikatowość danych SPARK-39851
  • Wprowadzenie limitu grupy okna dla filtru opartego na rangi w celu optymalizacji obliczeń top-k SPARK-37099
  • Naprawiono zachowanie wartości null IN (pusta lista) w SPARK-44431 regułach optymalizacji
  • Wnioskuj o limit okna i pomniejsz go, jeśli partitionSpec jest pusty SPARK-41171
  • Usuń sprzężenie zewnętrzne, jeśli są to wszystkie odrębne funkcje agregujące. SPARK-42583
  • Zwiń dwa okna obok siebie z tą samą partycją/kolejnością w podzapytaniu SPARK-42525
  • Obniżenie limitu poprzez funkcje zdefiniowane przez użytkownika Pythona SPARK-42115
  • Optymalizowanie kolejności filtrowania predykatów SPARK-40045

Generowanie kodu i wykonywanie zapytań

  • Filtr środowiska uruchomieniowego powinien obsługiwać stronę sprzężenia wielopoziomowego jako stronę tworzenia filtru SPARK-41674
  • Obsługa generowania kodu dla HiveSimpleUDF SPARK-42052
  • Generowanie kodu dla HiveGenericUDF SPARK-42051
  • Obsługa generowania kodu dla po stronie budowania z zewnętrznym mieszanym połączeniem skrótu SPARK-44060
  • Implementowanie generowania kodu dla funkcji to_csv (StructsToCsv) SPARK-42169
  • Wprowadzenie obsługi AQE dla InMemoryTableScanExec SPARK-42101
  • Obsługa budowy złącza zewnętrznego lewego lub budowy złącza zewnętrznego prawego w potasowanym sprzężeniu mieszającym SPARK-36612
  • Uwzględniaj WymagaDystrybucjiIKolejnosci w CTAS/RTAS SPARK-43088
  • Scalanie zasobników w łączeniu stosowanym po stronie strumienia łączenia rozgłaszanego SPARK-43107
  • Poprawnie ustaw wartość null na połączonym kluczu sprzężenia w pełnym zewnętrznym sprzężeniu SPARK-44251
  • Napraw podzapytanie ListQuery nullability SPARK-43413

Inne istotne zmiany

  • Poprawnie ustaw wartość null dla kluczy przy użyciu sprzężeń SPARK-43718
  • Naprawiono błąd COUNT(*) is null w skorelowanym skalarnym podzapytaniu SPARK-43156
  • Element Dataframe.joinWith outer-join powinien zwrócić wartość null dla niedopasowanego wiersza SPARK-37829
  • Automatyczna zmiana nazwy kolumn metadanych powodujących konflikt SPARK-42683
  • Udokumentuj klasy błędów Spark SQL w dokumentacji użytkownika SPARK-42706

PySpark

Funkcje

Inne istotne zmiany

  • Dodać obsługę autouzupełniania dla df[|] w pyspark.sql.dataframe.DataFrame [SPARK-43892]
  • Oznacz jako przestarzałe i usuń interfejsy API, które zostaną usunięte w pandas 2.0 [SPARK-42593]
  • Tworzenie pierwszej karty języka Python dla przykładów kodu — Spark SQL, DataFrames i Datasets Guide SPARK-42493
  • Aktualizowanie pozostałych przykładów kodu dokumentacji platformy Spark w celu wyświetlenia języka Python domyślnie SPARK-42642
  • Użyj deduplikowanych nazw pól podczas tworzenia Arrow RecordBatch [SPARK-41971]
  • Obsługa zduplikowanych nazw pól w createDataFrame z ramką danych pandas [SPARK-43528]
  • Zezwalaj na parametr kolumn podczas tworzenia ramki danych z serii [SPARK-42194]

Rdzeń

  • Zaplanuj mergeFinalize podczas ponowienia scalania push shuffleMapStage, ale nie są uruchamiane żadne zadania SPARK-40082
  • Wprowadzenie PartitionEvaluator do wykonywania operatora SQL SPARK-43061
  • Zezwól komponentowi ShuffleDriverComponent na deklarowanie, czy dane z tasowania są niezawodnie przechowywane SPARK-42689
  • Dodaj ograniczenie maksymalnej liczby prób dla etapów, aby uniknąć potencjalnego nieskończonego ponawiania próby spark-42577
  • Obsługa konfiguracji poziomu dziennika przy użyciu statycznej platformy Spark conf SPARK-43782
  • Optymalizacja PercentileHeap SPARK-42528
  • Dodaj argument przyczyny do elementu TaskScheduler.cancelTasks SPARK-42602
  • Unikaj niepotrzebnego ponownego uruchamiania zadania w przypadku likwidowanego modułu wykonawczego utraconego w przypadku mieszania danych zmigrowanych platformy SPARK-41469
  • Poprawa niepełnego liczenia akumulatora w przypadku ponawiania zadań z użyciem pamięci podręcznej RDD SPARK-41497
  • Domyślnie użyj RocksDB dla spark.history.store.hybridStore.diskBackend SPARK-42277.
  • Opakowanie NonFateSharingCache dla Guava Cache SPARK-43300
  • Popraw wydajność MapOutputTracker.updateMapOutput SPARK-43043
  • Zezwalanie aplikacjom na kontrolowanie, czy metadane są zapisywane w bazie danych przez zewnętrzną usługę Shuffle Service SPARK-43179
  • Dodaj zmienną środowiskową SPARK_DRIVER_POD_IP do zasobników wykonawczych SPARK-42769
  • Montuje mapę konfiguracji Hadoop na podzie wykonawczym SPARK-43504

Przesyłanie strumieniowe ze strukturą

  • Dodanie obsługi śledzenia użycia pamięci przez przypięte bloki dla magazynu stanów RocksDB SPARK-43120
  • Dodaj ulepszenia zarządzania pamięcią dla dostawcy magazynu stanów RocksDB SPARK-43311
  • Wprowadzenie dropDuplicatesWithinWatermark SPARK-42931
  • Wprowadź nowe wywołanie zwrotne onQueryIdle() w StreamingQueryListener SPARK-43183
  • Dodaj opcję pomijania koordynatora zatwierdzania w ramach interfejsu API StreamingWrite dla źródeł/ujściów DSv2 SPARK-42968
  • Wprowadź nowe wywołanie zwrotne "onQueryIdle" dla StreamingQueryListener SPARK-43183
  • Implementowanie punktów kontrolnych opartych na dziennikach zmian dla dostawcy magazynu stanów bazy danych RocksDB SPARK-43421
  • Dodano obsługę WRITE_FLUSH_BYTES dla bazy danych RocksDB używanej w operatorach stanowych przesyłania strumieniowego SPARK-42792
  • Dodano obsługę ustawiania max_write_buffer_number i write_buffer_size dla bazy danych RocksDB używanej podczas przesyłania strumieniowego SPARK-42819
  • Pozyskiwanie blokady magazynu stanów bazy danych RocksDB powinno nastąpić po otrzymaniu iteratora wejściowego z elementu inputRDD SPARK-42566
  • Wprowadzenie propagacji znaku wodnego wśród operatorów SPARK-42376
  • Czyszczenie oddzielonych plików sst i plików dziennika w katalogu punktów kontrolnych bazy danych RocksDB SPARK-42353
  • Rozwiń zdarzenie QueryTerminatedEvent, aby zawierało klasę błędu, jeśli istnieje w wyjątku SPARK-43482

ML (uczenie maszynowe)

  • Obsługa rozproszonego trenowania funkcji przy użyciu deepspeed SPARK-44264
  • Podstawowe interfejsy sparkML dla platformy Spark3.5: narzędzie do szacowania/transformator/model/ewaluator SPARK-43516
  • Spraw, aby MLv2 (ML na spark connect) wspierało bibliotekę pandas >= 2.0 SPARK-43783
  • Aktualizacja interfejsów Transformer MLv2 SPARK-43516
  • Nowy narzędzie do szacowania regresji logistycznej uczenia maszynowego pyspark zaimplementowane na platformie SPARK-43097
  • Dodaj ponownie classifier.getNumClasses SPARK-42526
  • Napisz klasę Deepspeed Distributed Learning DeepspeedTorchDistributor SPARK-44264
  • Podstawowa implementacja zapisywania/ładowania dla uczenia maszynowego na platformie Spark connect SPARK-43981
  • Zwiększanie oszczędności modelu regresji logistycznej SPARK-43097
  • Implementowanie narzędzia do szacowania potoku dla uczenia maszynowego na platformie Spark connect SPARK-43982
  • Implementować estymator walidacji krzyżowej SPARK-43983
  • Implementacja ewaluatora klasyfikacji SPARK-44250
  • Upewnij się, że dystrybutor PyTorch jest zgodny z platformą Spark Connect SPARK-42993

INTERFEJS UŻYTKOWNIKA

  • Dodawanie strony interfejsu użytkownika platformy Spark dla platformy Spark Connect SPARK-44394
  • Obsługa kolumny Histogramu sterty na karcie Funkcji wykonawczych SPARK-44153
  • Pokaż komunikat o błędzie w interfejsie użytkownika dla każdego nieudanego zapytania SPARK-44367
  • Wyświetlanie czasu dodania/usunięcia wykonawców na karcie Wykonawców SPARK-44309

Budowanie i inne

Usunięcia, zmiany zachowania i wycofanie

Nadchodzące usunięcie

Następujące funkcje zostaną usunięte w następnej wersji głównej platformy Spark

  • Obsługa języków Java 8 i Java 11, a minimalna obsługiwana wersja języka Java to Java 17
  • Obsługa Scala w wersji 2.12, a minimalna obsługiwana wersja Scala to 2.13

Przewodniki po migracji

Obsługa sterowników ODBC/JDBC usługi Databricks

Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).

Środowisko systemu

  • System operacyjny: Ubuntu 22.04.3 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 2.4.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 attrs 22.1.0 backcall 0.2.0
beautifulsoup4 4.11.1 czarny 22.6.0 wybielacz 4.1.0
kierunkowskaz 1.4 boto3 1.24.28 botocore 1.27.96
certyfikat 2022.12.7 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 kliknięcie 8.0.4 Komunikacja 0.1.2
contourpy 1.0.5 kryptografia 39.0.1 rowerzysta 0.11.0
Cython 0.29.32 databricks-sdk 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 dekorator 5.1.1 defusedxml 0.7.1
distlib 0.3.7 docstring-to-markdown 0,11 punkty wejścia 0,4
Wykonywanie 0.8.3 aspekty — omówienie 1.1.1 fastjsonschema 2.18.0
filelock 3.12.2 fonttools 4.25.0 Biblioteka środowiska uruchomieniowego GCC 1.10.0
googleapis-common-protos 1.60.0 grpcio 1.48.2 grpcio-status 1.48.1
httplib2 0.20.2 idna 3.4 importlib-metadata 4.6.4
ipykernel 6.25.0 ipython 8.14.0 ipython-genutils 0.2.0
ipywidgets 7.7.2 jedi 0.18.1 Jeepney 0.7.1
Jinja2 3.1.2 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.17.3 jupyter-client 7.3.4 jupyter-server 1.23.4
jupyter_core 5.2.0 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
brelok 23.5.0 kiwisolver 1.4.4 launchpadlib 1.10.16
lazr.restfulclient 0.14.4 lazr.uri 1.0.6 lxml 4.9.1
MarkupSafe 2.1.1 matplotlib 3.7.0 matplotlib-inline 0.1.6
Mccabe 0.7.0 mistune 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclassic 0.5.2 nbclient 0.5.13
nbconvert 6.5.4 nbformat 5.7.0 nest-asyncio 1.5.6
nodeenv 1.8.0 notatnik 6.5.2 notebook_shim 0.2.2
numpy 1.23.5 oauthlib 3.2.0 opakowanie 22,0
Pandas 1.5.3 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.10.3 frajer 0.5.3 pexpect 4.8.0
pickleshare 0.7.5 Poduszka 9.4.0 pip 22.3.1
platformdirs 2.5.2 kreślenie 5.9.0 wtyczka 1.0.0
prometheus-client 0.14.1 prompt-toolkit 3.0.36 protobuf 4.24.0
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 8.0.0 pycparser 2.21
pydantic 1.10.6 pyflakes 3.0.1 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 pyright 1.1.294 pyrsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0 python-lsp-server 1.7.1
pytoolconfig 1.2.5 pytz 2022.7 pyzmq 23.2.0
żądania 2.28.1 lina 1.7.0 s3transfer 0.6.1
scikit-learn 1.1.1 seaborn 0.12.2 SecretStorage 3.3.1
Send2Trash 1.8.0 setuptools 65.6.3 Sześć 1.16.0
sniffio 1.2.0 sito do zup 2.3.2.post1 ssh-import-id 5,11
stack-data 0.2.0 statsmodels 0.13.5 Wytrzymałość 8.1.0
zakończony 0.17.1 threadpoolctl 2.2.0 tinycss2 1.2.1
tokenize-rt 4.2.1 tomli 2.0.1 tornado 6.1
Traitlet 5.7.1 typing_extensions 4.4.0 ujson 5.4.0
nienadzorowane uaktualnienia 0.1 urllib3 1.26.14 virtualenv 20.16.7
wadllib 1.3.6 wcwidth 0.2.5 kodowania sieciowe 0.5.1
klient WebSocket 0.58.0 whatthepatch 1.0.2 koło 0.38.4
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Zainstalowane biblioteki języka R

Biblioteki R są instalowane z migawki CRAN Posit Package Manager z dnia 2023-07-13.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzałka 12.0.1 askpass 1.1 assertthat 0.2.1
wsteczne portowanie 1.4.1 baza 4.3.1 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 kłębek 1.2.4
rozruch systemu 1.3-28 warzyć 1.0-8 Brio 1.1.3
miotła 1.0.5 bslib 0.5.0 cachem 1.0.8
obiekt wywołujący 3.7.3 caret 6.0-94 cellranger 1.1.0
chron 2.3-61 klasa 7.3-22 cli 3.6.1
clipr 0.8.0 zegar 0.7.0 klaster 2.1.4
codetools 0.2-19 przestrzeń kolorów 2.1-0 commonmark 1.9.0
— kompilator 4.3.1 konfiguracja 0.3.1 skonfliktowany 1.2.0
cpp11 0.4.4 kredka 1.5.2 poświadczenia 1.3.2
kręcić 5.0.1 data.table 1.14.8 zbiory danych 4.3.1
DBI 1.1.3 dbplyr 2.3.3 Opis 1.4.2
devtools 2.4.5 diagram 1.6.5 diffobj 0.3.5
trawić 0.6.33 skierowany w dół 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 wielokropek 0.3.2
ocenić 0.21 fani 1.0.4 kolory 2.1.1
szybka mapa 1.1.1 fontawesome 0.5.1 forcats 1.0.0
foreach 1.5.2 zagraniczny 0.8-82 kuźnia 0.2.0
Fs 1.6.2 przyszłość 1.33.0 future.apply 1.11.0
płukać gardło 1.5.1 Generyczne 0.1.3 Gert 1.9.2
ggplot2 3.4.2 Gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 globalna 0.16.2 klej 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafika 4.3.1 grDevices 4.3.1 siatka 4.3.1
gridExtra 2.3 gsubfn 0,7 gtable 0.3.3
hardhat 1.3.0 przystań 2.5.3 wysoki 0.10
hms 1.1.3 htmltools 0.5.5 htmlwidgets 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
Identyfikatory 1.0.1 ini 0.3.1 ipred 0.9-14
isoband 0.2.7 Iteratory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 knitr 1,43
Etykietowanie 0.4.2 później 1.3.1 krata 0.21-8
lawa 1.7.2.1 cykl życia 1.0.3 nasłuchiwanie 0.9.0
lubridate 1.9.2 magrittr 2.0.3 Markdown 1,7
MASA 7.3-60 Macierz 1.5-4.1 zapamiętywanie 2.0.1
metody 4.3.1 mgcv 1.8-42 mim 0,12
miniUI 0.1.1.1 Metryki modelu 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-162 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 równoległy 4.3.1
równolegle 1.36.0 filar 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
plogr 0.2.0 plyr 1.8.8 pochwała 1.0.0
prettyunits 1.1.1 pROC 1.18.4 processx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 Postęp 1.2.2
progressr 0.13.0 Obietnice 1.2.0.1 Proto 1.0.0
proxy 0.4-27 PS 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
readr 2.1.4 readxl 1.4.3 przepisy 1.0.6
rewanż 1.0.1 rematch2 2.1.2 Piloty 2.4.2
reprex 2.0.2 zmień kształt2 1.4.4 rlang 1.1.1
rmarkdown 2.23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 Sass 0.4.6 wagi 1.2.1
selektor 0.4-2 informacje o sesji 1.2.2 kształt 1.4.6
błyszczący 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
SparkR 3.5.0 przestrzenny 7.3-15 Splajny 4.3.1
sqldf 0.4-11 SQUAREM 2021.1 Statystyki 4.3.1
stats4 4.3.1 stringi 1.7.12 stringr 1.5.0
przetrwanie 3.5-5 sys 3.4.2 systemfonts 1.0.4
tcltk 4.3.1 testthat 3.1.10 kształtowanie tekstu 0.3.6
tibble 3.2.1 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 2.0.0 zmiana czasu 0.2.0 czasData 4022.108
tinytex 0,45 narzędzia 4.3.1 Baza Danych Stref Czasowych (tzdb) 0.4.0
sprawdzacz URL 1.0.1 użyj tego 2.2.2 utf8 1.2.3
narzędzia programowe 4.3.1 uuid 1.1-0 vctrs 0.6.3
viridisLite 0.4.2 Vroom 1.6.3 Waldo 0.5.1
wąsik 0.4.1 withr 2.5.0 xfun 0.39
xml2 1.3.5 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zamek 2.3.0

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-biblioteki 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics strumień 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.2.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core Adnotacje Jackson 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofeina kofeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-rodzimi
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-rodzimi
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-rodowici mieszkańcy
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone error_prone_annotations (anotacje podatne na błędy) 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guawa 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfiguracja 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload Przesyłanie plików Commons 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift sprężarka powietrza 0,24
io.delta delta-sharing-spark_2.12 0.7.1
io.dropwizard.metrics adnotacja metryk 4.2.19
io.dropwizard.metrics metryki —rdzeń 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metryki-kontrole stanu 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.93.Final
io.netty netty-buffer 4.1.93.Final
io.netty netty-codec 4.1.93.Final
io.netty netty-codec-http 4.1.93.Final
io.netty netty-codec-http2 4.1.93.Final
io.netty netty-codec-socks 4.1.93.Final
io.netty netty-common 4.1.93.Final
io.netty netty-handler 4.1.93.Final
io.netty netty-handler-proxy 4.1.93.Final
io.netty netty-resolver 4.1.93.Final
io.netty netty-transport 4.1.93.Final
io.netty netty-transport-classes-epoll 4.1.93.Final
io.netty netty-transport-classes-kqueue 4.1.93.Final
io.netty netty-transport-native-epoll 4.1.93.Final
io.netty netty-transport-native-epoll 4.1.93.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.93.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.93.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.93.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.93.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx kolekcjoner 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pikla 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.29
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr szablon ciągów 3.2.1
org.apache.ant mrówka 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow format strzałki 12.0.1
org.apache.arrow strzałka-pamięć-rdzeń 12.0.1
org.apache.arrow arrow-memory-netty 12.0.1
org.apache.arrow wektor strzałki 12.0.1
org.apache.avro avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy bluszcz 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.9.0-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.0-shaded-protobuf
org.apache.orc podkładki orc-shim 1.9.0
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus adnotacje odbiorców 0.13.0
org.apache.zookeeper opiekun zwierząt 3.6.3
org.apache.zookeeper juta dla opiekunów zwierząt 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.51.v20230217
org.eclipse.jetty jetty-kontynuacja 9.4.51.v20230217
org.eclipse.jetty jetty-http 9.4.51.v20230217
org.eclipse.jetty jetty-io 9.4.51.v20230217
org.eclipse.jetty jetty-jndi 9.4.51.v20230217
org.eclipse.jetty jetty-plus 9.4.51.v20230217
org.eclipse.jetty jetty-proxy 9.4.51.v20230217
org.eclipse.jetty jetty-security 9.4.51.v20230217
org.eclipse.jetty serwer Jetty 9.4.51.v20230217
org.eclipse.jetty jetty-servlet 9.4.51.v20230217
org.eclipse.jetty jetty-servlets 9.4.51.v20230217
org.eclipse.jetty jetty-util 9.4.51.v20230217
org.eclipse.jetty jetty-util-ajax 9.4.51.v20230217
org.eclipse.jetty jetty-webapp 9.4.51.v20230217
org.eclipse.jetty jetty-xml 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-api 9.4.51.v20230217
org.eclipse.jetty.websocket klient websocket 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-common 9.4.51.v20230217
org.eclipse.jetty.websocket serwer WebSocket 9.4.51.v20230217
org.eclipse.jetty.websocket websocket-servlet 9.4.51.v20230217
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.9
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Podkładki regulacyjne 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.9.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest zgodny ze standardem scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.threeten ThreeTen Extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1