Databricks Runtime 14.0 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 14.0 obsługiwanym przez platformę Apache Spark 3.5.0.
Usługa Databricks wydała tę wersję we wrześniu 2023 r.
Nowe funkcje i ulepszenia
- Śledzenie wierszy jest ogólnie dostępne
- Predykcyjne I/O dla aktualizacji jest ogólnie dostępne
- Wektory usuwania są ogólnie dostępne
- Platforma Spark 3.5.0 jest ogólnie dostępna
- Publiczna wersja zapoznawcza funkcji tabel zdefiniowanych przez użytkownika dla języka Python
- Publiczna wersja zapoznawcza współbieżności na poziomie wiersza
- Domyślny bieżący katalog roboczy został zmieniony
- Znany problem z interfejsem sparklyr
- Wprowadzenie Spark Connect w udostępnionej architekturze klastra
- Lista dostępnych aktualizacji interfejsu API wersji platformy Spark
Śledzenie wierszy jest ogólnie dostępne
Śledzenie rekordów w Delta Lake jest teraz ogólnie dostępne. Zobacz Używanie śledzenia wierszy dla tabel delty.
Predykcyjne wejścia/wyjścia dla aktualizacji to wersja ogólnodostępna.
Funkcja predykcyjnego I/O dla aktualizacji jest teraz powszechnie dostępna. Zobacz Co to jest predykcyjne wejście/wyjście?
Wektory usuwania są GA
Wektory usuwania są teraz ogólnie dostępne. Zobacz Co to są wektory usuwania?.
Spark 3.5.0 jest ogólnie dostępny
Platforma Apache Spark 3.5.0 jest teraz ogólnie dostępna. Zobacz Spark Release 3.5.0.
Publiczna wersja zapoznawcza funkcji tabel zdefiniowanych przez użytkownika dla języka Python
Funkcje tabeli zdefiniowane przez użytkownika (UDTFs) umożliwiają rejestrowanie funkcji, które zwracają tabele zamiast wartości skalarnych. Zobacz Funkcje tabeli zdefiniowane przez użytkownika w języku Python (UDTFs).
Publiczna wersja próbna dla współbieżności na poziomie wiersza
Współbieżność na poziomie wiersza zmniejsza konflikty między współbieżnych operacji zapisu, wykrywając zmiany na poziomie wiersza i automatycznie rozwiązując konkurencyjne zmiany w współbieżnych zapisach, które aktualizują lub usuwają różne wiersze w tym samym pliku danych. Zobacz Konflikty zapisu ze współbieżnością na poziomie wiersza.
Domyślny bieżący katalog roboczy został zmieniony
Domyślny bieżący katalog roboczy (CWD) dla kodu wykonywanego lokalnie to teraz katalog zawierający notes lub skrypt, który jest uruchamiany. Obejmuje to kod, taki jak %sh
, oraz kod w Pythonie lub R, który nie korzysta z platformy Spark. Zobacz Co to jest domyślny bieżący katalog roboczy?.
Znany problem z sparklyr
Zainstalowana wersja sparklyr
pakietu (wersja 1.8.1) nie jest zgodna z środowiskiem Databricks Runtime 14.0. Aby użyć sparklyr
programu , zainstaluj wersję 1.8.3 lub nowszą.
Wprowadzenie Spark Connect w architekturze wspólnego klastra
W przypadku środowiska Databricks Runtime 14.0 lub nowszego udostępnione klastry domyślnie używają programu Spark Connect ze sterownikiem Spark ze środowiska REPL języka Python. Wewnętrzne interfejsy API platformy Spark nie są już dostępne z poziomu kodu użytkownika.
Program Spark Connect współdziała teraz ze sterownikiem Spark z wersji REPL zamiast starszej integracji REPL.
Lista dostępnych aktualizacji interfejsu API wersji platformy Spark
Włącz Photon, ustawiając runtime_engine = PHOTON
, a funkcję aarch64
włącz, wybierając typ instancji graviton. Usługa Azure Databricks ustawia poprawną wersję środowiska Databricks Runtime. Wcześniej interfejs API wersji platformy Spark zwracał środowiska uruchomieniowe zależne od implementacji dla każdej wersji. Zobacz GET /api/2.0/clusters/spark-versions w dokumentacji API REST.
Zmiany łamiące zgodność
W środowisku Databricks Runtime 14.0 lub nowszym klastry ze standardowym trybem dostępu (dawniej tryb dostępu współdzielonego) używają programu Spark Connect do komunikacji między klientem a serwerem. Obejmuje to następujące zmiany.
Aby uzyskać więcej informacji na temat ograniczeń trybu dostępu standardowego, zobacz Ograniczenia trybu dostępu komputerowego dla katalogu Unity.
Język Python w klastrach ze standardowym trybem dostępu (dawniej trybem dostępu współdzielonego)
-
sqlContext
jest niedostępny. Usługa Azure Databricks zaleca używanie zmiennejspark
SparkSession
dla wystąpienia. - Kontekst Spark (
sc
) nie jest już dostępny w notesach ani podczas korzystania z Databricks Connect na klastrze ze standardowym trybem dostępu. Następującesc
funkcje nie są już dostępne:-
emptyRDD
,range
,init_batched_serializer
parallelize
pickleFile
textFile
wholeTextFiles
binaryFiles
binaryRecords
sequenceFile
newAPIHadoopFile
newAPIHadoopRDD
hadoopFile
hadoopRDD
union
runJob
setSystemProperty
uiWebUrl
stop
setJobGroup
setLocalProperty
getConf
-
- Funkcja Informacje o zestawie danych nie jest już obsługiwana.
- Nie istnieje już zależność od JVM podczas wykonywania zapytań w Apache Spark, i w związku z tym wewnętrzne interfejsy API związane z JVM, takie jak
_jsc
,_jconf
,_jvm
,_jsparkSession
,_jreader
,_jc
,_jseq
,_jdf
,_jmap
i_jcols
, nie są już obsługiwane. - Podczas uzyskiwania dostępu do wartości konfiguracji za pomocą
spark.conf
dostępne są jedynie dynamiczne wartości konfiguracji środowiska uruchomieniowego. - Polecenia analizy DLT nie są jeszcze obsługiwane w udostępnionych klastrach.
Funkcja delta w klastrach ze standardowym trybem dostępu (dawniej trybem dostępu współdzielonego)
- W języku Python nie istnieje już zależność od maszyny wirtualnej JVM podczas wykonywania zapytań dotyczących platformy Apache Spark. Wewnętrzne interfejsy API związane z maszyną wirtualną JVM, takie jak
DeltaTable._jdt
,DeltaTableBuilder._jbuilder
,DeltaMergeBuilder._jbuilder
iDeltaOptimizeBuilder._jbuilder
nie są już obsługiwane.
Sql w klastrach ze standardowym trybem dostępu (dawniej trybem dostępu współdzielonego)
-
DBCACHE
iDBUNCACHE
komendy nie są już obsługiwane. - Rzadkie przypadki użycia, takie jak
cache table db as show databases
, nie są już obsługiwane.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- asttokens z 2.2.1 do 2.0.5
- attrs z 21.4.0 do 22.1.0
- botocore z wersji 1.27.28 do 1.27.96
- certifi od 2022-09-14 do 2022-12-07
- Kryptografia z wersji 37.0.1 do 39.0.1
- debugpy z wersji 1.6.0 do 1.6.7
- docstring-to-markdown z 0.12 do 0.11
- wykonywanie z wersji 1.2.0 do 0.8.3
- przegląd-faset od 1.0.3 do 1.1.1
- googleapis-common-protos z 1.56.4 do 1.60.0
- grpcio z 1.48.1 do 1.48.2
- idna od 3.3 do 3.4
- ipykernel z wersji 6.17.1 do 6.25.0
- ipython z 8.10.0 do 8.14.0
- Jinja2 z wersji 2.11.3 do 3.1.2
- jsonschema z wersji 4.16.0 do 4.17.3
- jupyter_core z wersji 4.11.2 do 5.2.0
- kiwisolver z 1.4.2 do 1.4.4
- MarkupSafe od 2.0.1 do 2.1.1
- matplotlib z wersji 3.5.2 do 3.7.0
- nbconvert z 6.4.4 do 6.5.4
- nbformat z wersji 5.5.0 do 5.7.0
- nest-asyncio z wersji 1.5.5 do 1.5.6
- notatnik z wersji 6.4.12 do 6.5.2
- numpy z wersji 1.21.5 do 1.23.5
- opakowania od 21.3 do 22.0
- pandas z wersji 1.4.4 do 1.5.3
- pathspec z 0.9.0 do 0.10.3
- patsy z 0.5.2 do 0.5.3
- Pillow od wersji 9.2.0 do 9.4.0
- z 22.2.2 do 22.3.1
- protobuf z wersji 3.19.4 do 4.24.0
- pytoolconfig z wersji 1.2.2 do 1.2.5
- pytz od 2022.1 do 2022.7
- s3transfer z 0.6.0 do 0.6.1
- seaborn od 0.11.2 do 0.12.2
- setuptools z 63.4.1 do 65.6.3
- soupsieve od 2.3.1 do 2.3.2.post1
- stack-data z wersji 0.6.2 do 0.2.0
- statsmodels z 0.13.2 do 0.13.5
- terminado z 0.13.1 do 0.17.1
- traitlets z wersji 5.1.1 do 5.7.1
- typing_extensions z wersji 4.3.0 do 4.4.0
- urllib3 z 1.26.11 do 1.26.14
- virtualenv z wersji 20.16.3 do wersji 20.16.7
- pakiet wheel od wersji 0.37.1 do 0.38.4
- Uaktualnione biblioteki języka R:
- strzałka od 10.0.1 do 12.0.1
- od 4.2.2 do 4.3.1
- Przejście obiektu blob z wersji 1.2.3 do 1.2.4
- aktualizacja broom z wersji 1.0.3 do 1.0.5
- bslib z 0.4.2 do 0.5.0
- cachem z wersji 1.0.6 do 1.0.8
- caret od 6.0-93 do 6.0-94
- chron z 2.3-59 do 2.3-61
- zajęcia od 7.3-21 do 7.3-22
- Interfejs CLI z wersji 3.6.0 do 3.6.1
- zegar od 0.6.1 do 0.7.0
- commonmark z wersji 1.8.1 do 1.9.0
- kompilator z wersji 4.2.2 do 4.3.1
- cpp11 z 0.4.3 do 0.4.4
- curl z 5.0.0 do 5.0.1
- data.table z wersji 1.14.6 do 1.14.8
- zestawy danych z wersji 4.2.2 do 4.3.1
- dbplyr z wersji 2.3.0 do 2.3.3
- przegląd wersji z 0.6.31 do 0.6.33
- Downlit z 0.4.2 do 0.4.3
- dplyr z wersji 1.1.0 do 1.1.2
- dtplyr z wersji 1.2.2 do 1.3.1
- ocena z zakresu od 0,20 do 0,21
- fastmap z wersji 1.1.0 do 1.1.1
- fontawesome z 0.5.0 do 0.5.1
- fs z 1.6.1 do 1.6.2
- przyszłości od 1.31.0 do 1.33.0
- future.apply z wersji 1.10.0 do 1.11.0
- gargle z 1.3.0 do 1.5.1
- ggplot2 z 3.4.0 do 3.4.2
- gh z 1.3.1 do 1.4.0
- glmnet z 4.1-6 do 4.1-7
- googledrive z wersji 2.0.0 do 2.1.1
- googlesheets4 z 1.0.1 do 1.1.1
- grafika z wersji 4.2.2 do 4.3.1
- grDevices z wersji 4.2.2 do 4.3.1
- siatka z 4.2.2 do 4.3.1
- zmiana gtable z wersji 0.3.1 do 0.3.3
- hardhat z 1.2.0 do 1.3.0
- haven z wersji 2.5.1 do 2.5.3
- hms od 1.1.2 do 1.1.3
- Aktualizacja htmltools z wersji 0.5.4 do 0.5.5
- htmlwidgets z wersji 1.6.1 do 1.6.2
- httpuv z wersji 1.6.8 do 1.6.11
- httr z 1.4.4 do 1.4.6
- ipred z 0.9-13 do 0.9-14
- jsonlite z wersji 1.8.4 do 1.8.7
- KernSmooth z 2.23-20 do 2.23-21
- knitr z 1.42 do 1.43
- później z 1.3.0 do 1.3.1
- lattice z 0.20-45 do 0.21-8
- lawa z 1.7.1 do 1.7.2.1
- lubridate z wersji 1.9.1 do 1.9.2
- markdown od 1.5 do 1.7
- Masa od 7,3-58,2 do 7,3-60
- Macierz z zakresu od 1,5-1 do 1,5-4,1
- metody z wersji 4.2.2 do 4.3.1
- mgcv z 1.8-41 do 1.8-42
- modelr z wersji 0.1.10 do 0.1.11
- wersja nnet z 7.3-18 do 7.3-19
- openssl z 2.0.5 do 2.0.6
- przejście z wersji 4.2.2 do 4.3.1
- równolegle od wersji 1.34.0 do 1.36.0
- filar od 1.8.1 do 1.9.0
- pkgbuild z 1.4.0 do 1.4.2
- pkgload z wersji 1.3.2 do 1.3.2.1
- pROC z 1.18.0 do 1.18.4
- processx z wersji 3.8.0 do 3.8.2
- prodlim od 2019.11.13 do 2023.03.31
- profvis z wersji 0.3.7 do 0.3.8
- ps z 1.7.2 do 1.7.5
- Program Rcpp z wersji 1.0.10 do 1.0.11
- readr z wersji 2.1.3 do 2.1.4
- readxl z wersji 1.4.2 do 1.4.3
- przepisy od 1.0.4 do 1.0.6
- rlang z wersji 1.0.6 do 1.1.1
- rmarkdown z 2.20 do 2.23
- Rserve z 1.8-12 do 1.8-11
- RSQLite z wersji 2.2.20 do 2.3.1
- rstudioapi z 0.14 do 0.15.0
- sass z wersji 0.4.5 do 0.4.6
- błyszczące z 1.7.4 do 1.7.4.1
- sparklyr z 1.7.9 do 1.8.1
- SparkR z wersji 3.4.1 do 3.5.0
- spline'y od 4.2.2 do 4.3.1
- statystyki z 4.2.2 do 4.3.1
- stats4 z 4.2.2 do 4.3.1
- wskaźnik przeżycia z 3,5-3 do 3,5-5
- system z wersji 3.4.1 do 3.4.2
- tcltk z wersji 4.2.2 do 4.3.1
- testthat z 3.1.6 do 3.1.10
- tibble z 3.1.8 do 3.2.1
- tidyverse z 1.3.2 do 2.0.0
- tinytex z 0.44 do 0.45
- narzędzia z wersji 4.2.2 do 4.3.1
- tzdb z 0.3.0 do 0.4.0
- usethis z 2.1.6 do 2.2.2
- Narzędzia z wersji 4.2.2 do 4.3.1
- vctrs z 0.5.2 do 0.6.3
- viridisLite z wersji 0.4.1 do 0.4.2
- vroom od 1.6.1 do 1.6.3
- waldo od 0.4.0 do 0.5.1
- xfun od 0.37 do 0.39
- xml2 z wersji 1.3.3 do 1.3.5
- zip z wersji 2.2.2 do 2.3.0
- Uaktualnione biblioteki Java:
- com.fasterxml.jackson.core.jackson-annotations z wersji 2.14.2 do 2.15.2
- com.fasterxml.jackson.core.jackson-core z wersji 2.14.2 do 2.15.2
- com.fasterxml.jackson.core.jackson-databind z 2.14.2 do 2.15.2
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor z wersji 2.14.2 do 2.15.2
- com.fasterxml.jackson.datatype.jackson-datatype-joda z wersji 2.14.2 do 2.15.2
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 z wersji 2.13.4 do 2.15.1
- com.fasterxml.jackson.module.jackson-module-paranamer od 2.14.2 do 2.15.2
- com.fasterxml.jackson.module.jackson-module-scala_2.12 z wersji 2.14.2 do 2.15.2
- com.github.luben.zstd-jni z 1.5.2-5 do 1.5.5-4
- com.google.code.gson.gson z 2.8.9 do 2.10.1
- com.google.crypto.tink.tink z 1.7.0 do 1.9.0
- commons-codec.commons-codec z wersji 1.15 do 1.16.0
- commons-io.commons-io z wersji 2.11.0 do 2.13.0
- io.airlift.aircompressor od 0.21 do 0.24
- io.dropwizard.metrics.metrics-core z wersji 4.2.10 do 4.2.19
- io.dropwizard.metrics.metrics-graphite z wersji 4.2.10 do 4.2.19
- io.dropwizard.metrics.metrics-healthchecks z wersji 4.2.10 do 4.2.19
- Aktualizacja io.dropwizard.metrics.metrics-jetty9 z wersji 4.2.10 do 4.2.19
- io.dropwizard.metrics.metrics-jmx z wersji 4.2.10 do 4.2.19
- io.dropwizard.metrics.metrics-json zaktualizowano z wersji 4.2.10 do 4.2.19
- io.dropwizard.metrics.metrics-jvm z 4.2.10 na 4.2.19
- io.dropwizard.metrics.metrics-servlets z wersji 4.2.10 do 4.2.19
- io.netty.netty-all z 4.1.87.Final do 4.1.93.Final
- io.netty.netty-buffer z 4.1.87.Final na 4.1.93.Final
- io.netty.netty-codec z wersji 4.1.87.Final do 4.1.93.Final
- io.netty.netty-codec-http z 4.1.87.Final na 4.1.93.Final
- io.netty.netty-codec-http2 z wersji 4.1.87.Final do 4.1.93.Final
- io.netty.netty-codec-socks z wersji 4.1.87.Final do 4.1.93.Final
- io.netty.netty-common z 4.1.87.Final do 4.1.93.Final
- io.netty.netty-handler from 4.1.87.Final to 4.1.93.Final
- io.netty.netty-handler-proxy z wersji 4.1.87.Final do 4.1.93.Final
- Aktualizacja io.netty.netty-resolver z wersji 4.1.87.Final do wersji 4.1.93.Final
- io.netty.netty-transport z wersji 4.1.87.Final do wersji 4.1.93.Final
- io.netty.netty-transport-classes-epoll from 4.1.87.Final to 4.1.93.Final
- io.netty.netty-transport-classes-kqueue od 4.1.87.Final do 4.1.93.Final
- io.netty.netty-transport-native-epoll from 4.1.87.Final-linux-x86_64 to 4.1.93.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue from 4.1.87.Final-osx-x86_64 to 4.1.93.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common z 4.1.87.Final do 4.1.93.Final
- org.apache.arrow.arrow-format od wersji 11.0.0 do 12.0.1
- org.apache.arrow.arrow-memory-core z 11.0.0 do 12.0.1
- org.apache.arrow.arrow-memory-netty od 11.0.0 do 12.0.1
- org.apache.arrow.arrow-vector z 11.0.0 do 12.0.1
- org.apache.avro.avro z wersji 1.11.1 do 1.11.2
- org.apache.avro.avro-ipc z wersji 1.11.1 do 1.11.2
- org.apache.avro.avro-mapred z wersji 1.11.1 do 1.11.2
- org.apache.commons.commons-compress od wersji 1.21 do wersji 1.23.0
- org.apache.hadoop.hadoop-client-runtime z wersji 3.3.4 do 3.3.6
- org.apache.logging.log4j.log4j-1.2-api z wersji 2.19.0 do 2.20.0
- org.apache.logging.log4j.log4j-api z wersji 2.19.0 do 2.20.0
- org.apache.logging.log4j.log4j-core z wersji 2.19.0 do 2.20.0
- org.apache.logging.log4j.log4j-slf4j2-impl z wersji 2.19.0 do 2.20.0
- org.apache.orc.orc-core z wersji 1.8.4-shaded-protobuf do wersji 1.9.0-shaded-protobuf
- org.apache.orc.orc-mapreduce z 1.8.4-shaded-protobuf na 1.9.0-shaded-protobuf
- org.apache.orc.orc-shims z wersji 1.8.4 do 1.9.0
- org.apache.xbean.xbean-asm9-shaded z 4.22 do 4.23
- org.checkerframework.checker-qual od 3.19.0 do 3.31.0
- org.glassfish.jersey.containers.jersey-container-servlet z 2.36 do 2.40
- org.glassfish.jersey.containers.jersey-container-servlet-core od 2.36 do 2.40
- org.glassfish.jersey.core.jersey-client od 2.36 do 2.40
- org.glassfish.jersey.core.jersey-common od 2.36 do 2.40
- org.glassfish.jersey.core.jersey-server od 2.36 do 2.40
- org.glassfish.jersey.inject.jersey-hk2 z 2.36 do 2.40
- org.javassist.javassist z wersji 3.25.0-GA do 3.29.2-GA
- org.mariadb.jdbc.mariadb-java-client z wersji 2.7.4 do 2.7.9
- org.postgresql.postgresql z wersji 42.3.8 do 42.6.0
- org.roaringbitmap.RoaringBitmap z 0.9.39 do 0.9.45
- org.roaringbitmap.shims od 0.9.39 do 0.9.45
- org.rocksdb.rocksdbjni z wersji 7.8.3 do 8.3.2
- org.scala-lang.modules.scala-collection-compat_2.12 z wersji 2.4.3 do 2.9.0
- org.slf4j.jcl-over-slf4j od 2.0.6 do 2.0.7
- org.slf4j.jul-to-slf4j od 2.0.6 do 2.0.7
- org.slf4j.slf4j-api od 2.0.6 do 2.0.7
- org.xerial.snappy.snappy-java z wersji 1.1.10.1 do 1.1.10.3
- org.yaml.snakeyaml z 1.33 do 2.0
Apache Spark
Databricks Runtime 14.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 13.3 LTS, a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-45109] [DBRRM-462][sc-142247][SQL][connect] Poprawki funkcji aes_decrypt i ln w programie Connect
- [SPARK-44980] [DBRRM-462][sc-141024][PYTHON][connect] Poprawka dziedziczona nazwanych elementów do pracy w createDataFrame
- [SPARK-44795] [DBRRM-462][sc-139720][CONNECT] Pamięć podręczna CodeGenerator powinna być specyficzna dla ładowarki klas
- [SPARK-44861] [DBRRM-498][sc-140716][CONNECT] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44794] [DBRRM-462][sc-139767][CONNECT] Umożliwienie działania zapytań przesyłania strumieniowego z zarządzaniem artefaktami programu Connect
- [SPARK-44791] [DBRRM-462][sc-139623][CONNECT] Działanie narzędzia ArrowDeserializer z wygenerowanymi klasami REPL
- [SPARK-44876] [DBRRM-480][sc-140431][PYTHON] Naprawa zoptymalizowanej na bazie Arrow funkcji UDF w Pythonie na Spark Connect
- [SPARK-44877] [DBRRM-482][sc-140437][CONNECT][python] Obsługa funkcji protobuf języka Python dla programu Spark Connect
- [SPARK-44882] [DBRRM-463][sc-140430][PYTHON][connect] Usuń funkcję uuid/random/chr z PySpark
- [SPARK-44740] [DBRRM-462][sc-140320][CONNECT][follow] Poprawa wartości metadanych dla artefaktów
- [SPARK-44822] [DBRRM-464][python][SQL] Domyślne funkcje UDF języka Python niedeterministyczne
- [SPARK-44836] [DBRRM-468][sc-140228][PYTHON] Refactor Arrow Python UDTF
- [SPARK-44738] [DBRRM-462][sc-139347][PYTHON][connect] Dodawanie brakujących metadanych klienta do wywołań
- [SPARK-44722] [DBRRM-462][sc-139306][CONNECT] ExecutePlanResponseReattachableIterator._call_iter: AttributeError: obiekt NoneType nie ma atrybutu "message"
- [SPARK-44625] [DBRRM-396][sc-139535][CONNECT] SparkConnectExecutionManager do śledzenia wszystkich procesów
- [SPARK-44663] [SC-139020][dbrrm-420][PYTHON] Wyłącz optymalizację strzałek domyślnie dla funkcji UDF języka Python
- [SPARK-44709] [DBRRM-396][sc-139250][CONNECT] Uruchom ExecuteGrpcResponseSender w reattachable execute w nowym wątku, aby naprawić sterowanie przepływem
- [SPARK-44656] [DBRRM-396][sc-138924][CONNECT] Uczyń wszystkie iteratory zamykalnymi iteratorami (CloseableIterators)
- [SPARK-44671] [DBRRM-396][sc-138929][PYTHON][connect] Ponownie wykonaj ExecutePlan w przypadku, gdy początkowe żądanie nie dotarło do serwera w kliencie języka Python
- [SPARK-44624] [DBRRM-396][sc-138919][CONNECT] Ponów próbę wykonania planu w przypadku, gdy początkowe żądanie nie dotarło do serwera
- [SPARK-44574] [DBRRM-396][sc-138288][SQL][connect] Błędy przeniesione do sq/api powinny również używać funkcji AnalysisException
- [SPARK-44613] [DBRRM-396][sc-138473][CONNECT] Dodawanie obiektu koderów
- [SPARK-44626] [DBRRM-396][sc-138828][SS][connect] Nadzór nad zakończeniem zapytań przesyłania strumieniowego po przekroczeniu limitu czasu sesji klienta dla programu Spark Connect
- [SPARK-44642] [DBRRM-396][sc-138882][CONNECT] ReleaseExecute in ExecutePlanResponseReattachableIterator po wystąpieniu błędu z serwera
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Usuń zależność Catalyst dla klienta Connect
- [SPARK-44664] [DBRRM-396][python][CONNECT] Zwolnij wykonanie podczas zamykania iteratora w kliencie języka Python
- [SPARK-44631] [DBRRM-396][sc-138823][CONNECT][core][14.0.0] Usuń katalog oparty na sesji, gdy eksmitowana jest izolowana pamięć podręczna sesji
- [SPARK-42941] [DBRRM-396][sc-138389][SS][connect] Python StreamingQueryListener
- [SPARK-44636] [DBRRM-396][sc-138570][CONNECT] Nie pozostawiaj wiszących iteratorów
- [SPARK-44424] [DBRRM-396][connect][PYTHON][14.0.0] Klient języka Python do ponownego połączenia się z istniejącym procesem wykonawczym w Spark Connect
- [SPARK-44637] [SC-138571] Synchronizowanie dostępu do serwera ExecuteResponseObserver
- [SPARK-44538] [SC-138178][connect][SQL] Przywrócenie funkcji Row.jsonValue i podobnych funkcji
- [SPARK-44421] [SC-138434][spark-44423][CONNECT] Ponowne łączenie w Spark Connect
- [SPARK-44418] [SC-136807][python][CONNECT] Uaktualnianie protobufu z wersji 3.19.5 do 3.20.3
- [SPARK-44587] [SC-138315][sql][CONNECT] Zwiększenie limitu rekursji protobuf marshaller
- [SPARK-44591] [SC-138292][connect][SQL] Add jobTags to SparkListenerSQLExecutionStart
- [SPARK-44610] [SC-138368][sql] DeduplikatorRelacji powinien zachowywać metadane Alias podczas tworzenia nowego wystąpienia
- [SPARK-44542] [SC-138323][core] Chętne ładowanie klasy SparkExitCode w procedurze obsługi wyjątków
- [SPARK-44264] [SC-138143][python]Testowanie E2E na potrzeby deepspeed
- [SPARK-43997] [SC-138347][connect] Dodawanie obsługi funkcji UDF języka Java
- [SPARK-44507] [SQL][connect][14.x][14.0] Przenieś AnalysisException do sql/api
- [SPARK-44453] [SC-137013][python] Użyj biblioteki difflib do wyświetlania błędów w assertDataFrameEqual
- [SPARK-44394] [SC-138291][connect][WEBUI][14.0] Dodawanie strony interfejsu użytkownika platformy Spark dla programu Spark Connect
- [SPARK-44611] [SC-138415][connect] Nie wykluczaj scala-xml
- [SPARK-44531] [SC-138044][connect][SQL][14.x][14.0] Przenieś wnioskowanie kodera do sql/api
- [SPARK-43744] [SC-138289][connect][14.x][14.0] Rozwiązać problem z ładowaniem klas...
- [SPARK-44590] [SC-138296][sql][CONNECT] Usuń limit rekordów wsadowych strzałek dla polecenia SqlCommandResult
- [SPARK-43968] [SC-138115][python] Ulepszanie komunikatów o błędach dla funkcji UDF języka Python z nieprawidłową liczbą danych wyjściowych
- [SPARK-44432] [SC-138293][ss][CONNECT] Kończenie zapytań przesyłania strumieniowego po upływie limitu czasu sesji w programie Spark Connect
- [SPARK-44584] [SC-138295][connect] Ustaw informacje o typie klienta dla AddArtifactsRequest i ArtifactStatusesRequest w kliencie Scala
-
[SPARK-44552] [14.0][sc-138176][SQL] Usuwanie definicji
private object ParseState
zIntervalUtils
-
[SPARK-43660] [SC-136183][connect][PS] Włączanie
resample
za pomocą programu Spark Connect - [SPARK-44287] [SC-136223][sql] Użyj interfejsu API PartitionEvaluator w operatorach SQL RowToColumnarExec & ColumnarToRowExec.
- [SPARK-39634] [SC-137566][sql] Zezwalaj na dzielenie plików w połączeniu z generowaniem indeksu wierszy
- [SPARK-44533] [SC-138058][python] Dodaj obsługę akumulatorów, transmisji i plików Spark w analizie języka Python UDTF
- [SPARK-44479] [SC-138146][python] Poprawka ArrowStreamPandasUDFSerializer w celu zaakceptowania pandas DataFrame bez kolumn
- [SPARK-44425] [SC-138177][connect] Sprawdź, czy podany przez użytkownika identyfikator sessionId jest identyfikatorem UUID
- [SPARK-44535] [SC-138038][connect][SQL] Przenieś wymaganą API Streaming do sql/api
- [SPARK-44264] [SC-136523][ml][PYTHON] Napisz klasę Deepspeed do rozproszonego uczenia DeepspeedTorchDistributor
- [SPARK-42098] [SC-138164][sql] Fix ResolveInlineTables nie może obsłużyć wyrażenia RuntimeReplaceable
- [SPARK-44060] [SC-135693][sql] Generowanie kodu dla zewnętrznego mieszającego sprzężenia skrótu po stronie budowy
- [SPARK-44496] [SC-137682][sql][CONNECT] Przenoszenie interfejsów wymaganych przez scSC do sql/api
- [SPARK-44532] [SC-137893][connect][SQL] Move ArrowUtils to sql/api
- [SPARK-44413] [SC-137019][python] Wyjaśnienie błędu dla nieobsługiwanego typu danych arg w assertDataFrameEqual
- [SPARK-44530] [SC-138036][core][CONNECT] Move SparkBuildInfo to common/util
- [SPARK-36612] [SC-133071][sql] Obsługa lewej kompilacji sprzężenia zewnętrznego lub prawej kompilacji sprzężenia zewnętrznego w mieszanym sprzężeniu skrótu
- [SPARK-44519] [SC-137728][connect] SparkConnectServerUtils wygenerowało nieprawidłowe parametry dla plików jar
- [SPARK-44449] [SC-137818][connect] Podnoszenie typu dla bezpośredniej deserializacji Arrow
- [SPARK-44131] [SC-136346][sql] Dodawanie call_function i oznaczanie call_udf dla interfejsu API języka Scala
-
[SPARK-44541] [SQL] Usuń bezużyteczną funkcję
hasRangeExprAgainstEventTimeCol
zUnsupportedOperationChecker
- [SPARK-44523] [SC-137859][sql] Wartość maxRows/maxRowsPerPartition filtru wynosi 0, jeśli warunek to FalseLiteral
- [SPARK-44540] [SC-137873][ui] Usuń nieużywany arkusz stylów i pliki javascript jsonFormatter
-
[SPARK-44466] [SC-137856][sql] Wykluczanie konfiguracji rozpoczynających się od
SPARK_DRIVER_PREFIX
iSPARK_EXECUTOR_PREFIX
z zmodyfikowanych konfiguracji - [SPARK-44477] [SC-137508][sql] Traktuj TYPE_CHECK_FAILURE_WITH_HINT jako podklasę błędów
- [SPARK-44509] [SC-137855][python][CONNECT] Dodanie funkcji anulowania zadań w kliencie Spark Connect dla języka Python
- [SPARK-44059] [SC-137023] Dodawanie obsługi nazwanych argumentów analizatora dla wbudowanych funkcji
- [SPARK-38476] [SC-136448][core] Użyj klasy błędów w org.apache.spark.storage
-
[SPARK-44486] [SC-137817][python][CONNECT] Implementowanie funkcji
self_destruct
PyArrow dlatoPandas
- [SPARK-44361] [SC-137200][sql] Używanie PartitionEvaluator API w MapInBatchExec
- [SPARK-44510] [SC-137652][ui] Aktualizowanie tabel danych do wersji 1.13.5 i usuwanie niektórych nieochwyconych plików PNG
- [SPARK-44503] [SC-137808][sql] Dodaj gramatykę SQL dla klauzuli PARTITION BY i ORDER BY po argumentach TABLE dla wywołań TVF
- [SPARK-38477] [SC-136319][core] Użyj klasy błędów w org.apache.spark.shuffle
- [SPARK-44299] [SC-136088][sql] Przypisywanie nazw do klasy błędów _LEGACY_ERROR_TEMP_227[4-6,8]
- [SPARK-44422] [SC-137567][connect] Precyzyjne przerywanie połączenia Spark Connect
- [SPARK-44380] [SC-137415][sql][PYTHON] Obsługa funkcji UDTF języka Python do analizowania w języku Python
- [SPARK-43923] [SC-137020][connect] Publikuj zdarzenia listenerBus podczas…
- [SPARK-44303] [SC-136108][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2320-2324]
- [SPARK-44294] [SC-135885][ui] Poprawka kolumny HeapHistogramu jest nieoczekiwanie wyświetlana z polem wyboru „zaznacz wszystko”
- [SPARK-44409] [SC-136975][sql] Obsługuj char/varchar w Dataset.to, aby zachować spójność z resztą
- pl-PL: [SPARK-44334] [SC-136576][sql][UI] Status w odpowiedzi interfejsu API REST dla nieudanego polecenia DDL/DML bez uruchomionych zadań powinien mieć wartość FAILED zamiast UKOŃCZONO.
-
[SPARK-42309] [SC-136703][sql] Wprowadzenie
INCOMPATIBLE_DATA_TO_TABLE
i jej klas podrzędnych. - [SPARK-44367] [SC-137418][sql][interfejs użytkownika] Pokaż komunikat o błędzie w interfejsie użytkownika dla każdego zapytania, które zakończyło się niepowodzeniem
- [SPARK-44474] [SC-137195][connect] Ponowne włączenie "Test obserwuj odpowiedź" w SparkConnectServiceSuite
- [SPARK-44320] [SC-136446][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[1067,1150,1220,1265,1277]
- [SPARK-44310] [SC-136055][connect] Dziennik uruchamiania programu Connect Server powinien wyświetlić nazwę hosta i port
- [SPARK-44309] [SC-136193][ui] Wyświetlanie czasu dodawania/usuwania executorów na karcie Executorów
- [SPARK-42898] [SC-137556][sql] Oznacz, że konwersje napisów i dat nie potrzebują identyfikatora strefy czasowej
- [SPARK-44475] [SC-137422][sql][CONNECT] Przeniesienie obiektu DataType i analizatora do sql/api
- [SPARK-44484] [SC-137562][ss]Dodawanie batchDuration do metody json StreamingQueryProgress
- [SPARK-43966] [SC-137559][sql][PYTHON] Obsługa funkcji niedeterministycznych wartości tabeli
- [SPARK-44439] [SC-136973][connect][SS]Naprawiono listListeners, aby wysyłać identyfikatory tylko z powrotem do klienta
- [SPARK-44341] [SC-137054][sql][PYTHON] Definiowanie logiki obliczeniowej poprzez API PartitionEvaluator i używanie go w modułach WindowExec i WindowInPandasExec
-
[SPARK-43839] [SC-132680][sql] Konwertowanie
_LEGACY_ERROR_TEMP_1337
naUNSUPPORTED_FEATURE.TIME_TRAVEL
- [SPARK-44244] [SC-135703][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2305-2309]
- [SPARK-44201] [SC-136778][connect][SS]Dodaj wsparcie dla nasłuchiwacza przesyłania strumieniowego w języku Scala dla Spark Connect
- [SPARK-44260] [SC-135618][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[1215-1245-2329] & Użyj checkError(), aby sprawdzić wyjątek w _CharVarchar_Suite
- [SPARK-42454] [SC-136913][sql] SPJ: hermetyzowanie wszystkich parametrów związanych z SPJ w BatchScanExec
- [SPARK-44292] [SC-135844][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2315-2319]
- [SPARK-44396] [SC-137221][connect] Deserializacja strzałek bezpośrednich
- [SPARK-44324] [SC-137172][sql][CONNECT] Przenieś CaseInsensitiveMap do sql/api
- [SPARK-44395] [SC-136744][sql] Dodawanie testu z powrotem do aplikacji StreamingTableSuite
- [SPARK-44481] [SC-137401][connect][PYTHON] Uczyń pyspark.sql.is_remote API
- [SPARK-44278] [SC-137400][connect] Zaimplementować interceptor serwera GRPC, który czyści właściwości lokalne wątku
- [SPARK-44264] [SC-137211][ml][PYTHON] Obsługa rozproszonego trenowania funkcji przy użyciu DeepSpeed
-
[SPARK-44430] [SC-136970][sql] Dodaj przyczynę
AnalysisException
, gdy opcja jest nieprawidłowa - [SPARK-44264] [SC-137167][ml][PYTHON] Dołączanie elementu FunctionPickler do TorchDistributor
- [SPARK-44216] [SC-137046] [PYTHON] Udostępnij interfejs API assertSchemaEqual publicznie
- [SPARK-44398] [SC-136720][connect] Scala foreachBatch API
- [SPARK-43203] [SC-134528][sql] Przenieś wszystkie przypadki usuwania tabel do DataSource w wersji 2
-
[SPARK-43755] [SC-137171][connect][MINOR] Otwórz
AdaptiveSparkPlanHelper.allChildren
zamiast używać kopii wMetricGenerator
- [SPARK-44264] [SC-137187][ml][PYTHON] Refaktoryzacja TorchDistributor, aby umożliwić niestandardowy wskaźnik funkcji "run_training_on_file"
- [SPARK-43755] [SC-136838][connect] Przenieś wykonywanie ze SparkExecutePlanStreamHandler do innego wątku
- [SPARK-44411] [SC-137198][sql] Użycie interfejsu API PartitionEvaluator w ArrowEvalPythonExec i BatchEvalPythonExec
- [SPARK-44375] [SC-137197][sql] Używanie interfejsu API PartitionEvaluator w DebugExec
- [SPARK-43967] [SC-137057][python] Obsługa zwykłych funkcji UDF języka Python z pustymi wartościami zwracanymi
- [SPARK-43915] [SC-134766][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43965] [SC-136929][python][CONNECT] Obsługa funkcji UDTF języka Python w programie Spark Connect
- [SPARK-44154] [SC-137050][sql] Dodano więcej testów jednostkowych do aplikacji BitmapExpressionUtilsSuite i wprowadzono drobne ulepszenia w wyrażeniach agregacji mapy bitowej
- [SPARK-44169] [SC-135497][sql] Przypisywanie nazw do klasy błędów LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-44353] [SC-136578][connect][SQL] Usuń StructType.toAttributes
- [SPARK-43964] [SC-136676][sql][PYTHON] Obsługa zoptymalizowanych pod kątem strzałek funkcji UDTFs języka Python
- [SPARK-44321] [SC-136308][connect] Oddzielić ParseException od AnalysisException
- [SPARK-44348] [SAS-1910][sc-136644][CORE][connect][PYTHON] Ponowne włączenie test_artifact z odpowiednimi zmianami
- [SPARK-44145] [SC-136698][sql] Wywołanie zwrotne, gdy będzie gotowe do wykonania
- [SPARK-43983] [SC-136404][python][ML][connect] Włącz test estymatora walidatora krzyżowego
- [SPARK-44399] [SC-136669][python][CONNECT] Importuj SparkSession w Python UDF tylko wtedy, gdy useArrow jest równy None
- [SPARK-43631] [SC-135300][connect][PS] Umożliwić Series.interpolate z Spark Connect
- [SPARK-44374] [SC-136544][python][ML] Dodawanie przykładowego kodu rozproszonego uczenia maszynowego na potrzeby połączenia spark
- [SPARK-44282] [SC-135948][connect] Przygotowywanie analizy typu danych do użycia w kliencie Spark Connect Scala
- [SPARK-44052] [SC-134469][connect][PS] Dodaj narzędzie, aby uzyskać odpowiednią klasę Kolumna lub Ramka danych dla programu Spark Connect.
- [SPARK-43983] [SC-136404][python][ML][connect] Implementacja estymatora walidacji krzyżowej
- [SPARK-44290] [SC-136300][connect] Pliki i archiwa oparte na sesji w programie Spark Connect
-
[SPARK-43710] [SC-134860][ps][CONNECT] Obsługa
functions.date_part
dla programu Spark Connect - [SPARK-44036] [SC-134036][connect][PS] Oczyszczanie & skonsolidowano zgłoszenia, aby uprościć zadania.
- [SPARK-44150] [SC-135790][python][CONNECT] Jawne rzutowanie Arrow dla niedopasowanego typu zwracanego w funkcji UDF Pythona w Arrow
- [SPARK-43903] [SC-134754][python][CONNECT] Ulepsz obsługę danych wejściowych ArrayType w funkcji Python UDF w technologii Arrow
- [SPARK-44250] [SC-135819][ml][PYTHON][connect] Implementowanie ewaluatora klasyfikacji
- [SPARK-44255] [SC-135704][sql] Przeniesienie elementu StorageLevel do common/utils
- [SPARK-42169] [SC-135735] [SQL] Implementowanie generowania kodu dla funkcji to_csv (StructsToCsv)
- [SPARK-44249] [SC-135719][sql][PYTHON] Refaktoryzacja PythonUDTFRunner w celu oddzielnego wysyłania typu zwracanego.
- [SPARK-43353] [SC-132734][python] Migrowanie pozostałych błędów sesji do klasy błędów
- [SPARK-44133] [SC-134795][python] Aktualizacja MyPy z wersji 0.920 do 0.982
- [SPARK-42941] [SC-134707][ss][CONNECT][1/2] StreamingQueryListener — Serde zdarzeń w formacie JSON
- [SPARK-43353] przywróć "[SC-132734][es-729763][PYTHON] Migrowanie pozostałych błędów sesji do klasy błędów"
-
[SPARK-44100] [SC-134576][ml][CONNECT][python] Przenoszenie przestrzeni nazw z
pyspark.mlv2
dopyspark.ml.connect
- [SPARK-44220] [SC-135484][sql] Move StringConcat do SQL/API
- [SPARK-43992] [SC-133645][sql][PYTHON][connect] Dodaj opcjonalny wzorzec dla Catalog.listFunctions
- [SPARK-43982] [SC-134529][ml][PYTHON][connect] Wdrożenie oszacowującego elementu rurociągu dla ML na Spark Connect
- [SPARK-43888] [SC-132893][core] Przeniesienie logowania do wspólne/utils
- [SPARK-42941] Przywróć “[SC-134707][ss][CONNECT][1/2] StreamingQueryListener — Serde zdarzeń w formacie JSON”
-
[SPARK-43624] [SC-134557][ps][CONNECT] Dodaj
EWM
do sparkConnectPlanner. - [SPARK-43981] [SC-134137][python][ML] Podstawowa implementacja zapisywania/ładowania uczenia maszynowego na platformie Spark Connect
- [SPARK-43205] [SC-133371][sql] naprawa SQLQueryTestSuite
- [SPARK-43376] Revert “[SC-130433][sql] Poprawa ponownego używania podzapytania za pomocą pamięci podręcznej tabel”
- [SPARK-44040] [SC-134366][sql] Naprawić statystyki obliczeniowe, gdy węzeł AggregateExec jest powyżej węzła QueryStageExec
- [SPARK-43919] [SC-133374][sql] Wyodrębnianie funkcji JSON z wiersza
- [SPARK-42618] [SC-134433][python][PS] Ostrzeżenie o zmianach zachowania związanych z biblioteką pandas w następnej wersji głównej
- [SPARK-43893] [SC-133381][python][CONNECT] Obsługa nieatomowego typu danych w Arrow-optymalizowanej funkcji UDF języka Python
-
[SPARK-43627] [SC-134290][spark-43626][PS][connect] Włącz
pyspark.pandas.spark.functions.{kurt, skew}
w Spark Connect. - [SPARK-43798] [SC-133990][sql][PYTHON] Obsługa funkcji tabel zdefiniowanych przez użytkownika języka Python
-
[SPARK-43616] [SC-133849][ps][CONNECT] Włączanie
pyspark.pandas.spark.functions.mode
w programie Spark Connect - [SPARK-43133] [SC-133728] Obsługa programu Scala Client DataStreamWriter Foreach
-
[SPARK-43684] [SC-134107][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Poprawka
(NullOps|NumOps).(eq|ne)
dla programu Spark Connect. -
[SPARK-43645] [SC-134151][spark-43622][PS][connect] Włącz
pyspark.pandas.spark.functions.{var, stddev}
w Spark Connect -
[SPARK-43617] [SC-133893][ps][CONNECT] Włączanie
pyspark.pandas.spark.functions.product
w programie Spark Connect -
[SPARK-43610] [SC-133832][connect][PS] Włączanie
InternalFrame.attach_distributed_column
w programie Spark Connect. -
[SPARK-43621] [SC-133852][ps][CONNECT] Włączanie
pyspark.pandas.spark.functions.repeat
w programie Spark Connect - [SPARK-43921] [SC-133461][protobuf] Generowanie plików deskryptora Protobuf w czasie kompilacji
-
[SPARK-43613] [SC-133727][ps][CONNECT] Włączanie
pyspark.pandas.spark.functions.covar
w programie Spark Connect - [SPARK-43376] [SC-130433][sql] Ulepszanie ponownego używania podzapytania za pomocą pamięci podręcznej tabel
- [SPARK-43612] [SC-132011][connect][PYTHON] Implement SparkSession.addArtifact(s) w kliencie języka Python
- [SPARK-43920] [SC-133611][sql][CONNECT] Tworzenie modułu sql/api
- [SPARK-43097] [SC-133372][ml] Nowe narzędzie pyspark ML do regresji logistycznej zaimplementowane na dystrybutorze
- [SPARK-43783] [SC-133240][spark-43784][SPARK-43788][ml] Spraw, aby MLv2 (ML w spark connect) wspierał bibliotekę pandas >= 2.0
- [SPARK-43024] [SC-132716][python] Uaktualnianie biblioteki pandas do wersji 2.0.0
- [SPARK-43881] [SC-133140][sql][PYTHON][connect] Dodaj opcjonalny wzorzec dla Catalog.listDatabases
- [SPARK-39281] [SC-131422][sql] Przyspieszenie ustalania typu znacznika czasu przy użyciu starszego formatu w źródle danych JSON/CSV
- [SPARK-43792] [SC-132887][sql][PYTHON][connect] Dodanie opcjonalnego wzorca dla Catalog.listCatalogs
- [SPARK-43132] [SC-131623] [SS] [CONNECT] Python Client DataStreamWriter foreach() API
- [SPARK-43545] [SC-132378][sql][PYTHON] Obsługa typu zagnieżdżonego znacznika czasu
- [SPARK-43353] [SC-132734][python] Migrowanie pozostałych błędów sesji do klasy błędów
-
[SPARK-43304] [SC-129969][connect][PYTHON] Migracja
NotImplementedError
doPySparkNotImplementedError
- [SPARK-43516] [SC-132202][ml][PYTHON][connect] Podstawowe interfejsy sparkML dla platformy Spark3.5: narzędzie do szacowania/przekształcania/modelu/ewaluatora
-
[SPARK-43128] Przywróć "[SC-131628][connect][SS] Upewnij się, że
recentProgress
ilastProgress
zwracająStreamingQueryProgress
zgodnie z natywnym interfejsem API języka Scala" - [SPARK-43543] [SC-131839][python] Poprawka zagnieżdżonego zachowania MapType w funkcji definicji użytkownika (UDF) biblioteki Pandas
- [SPARK-38469] [SC-131425][core] Użyj klasy błędów w org.apache.spark.network
- [SPARK-43309] [SC-129746][spark-38461][CORE] Rozszerzyć INTERNAL_ERROR o kategorie i dodać klasę błędów INTERNAL_ERROR_BROADCAST
- [SPARK-43265] [SC-129653] Przenoszenie struktury błędów do wspólnego modułu narzędzi
- [SPARK-43440] [SC-131229][python][CONNECT] Wsparcie dla rejestracji funkcji zdefiniowanej przez użytkownika w Pythonie zoptymalizowanej za pomocą Arrow
- [SPARK-43528] [SC-131531][sql][PYTHON] Obsługa zduplikowanych nazw pól w createDataFrame z ramkami danych biblioteki pandas
-
[SPARK-43412] [SC-130990][python][CONNECT] Wprowadzenie
SQL_ARROW_BATCHED_UDF
EvalType dla funkcji UDF języka Python zoptymalizowanych pod kątem Apache Arrow - [SPARK-40912] [SC-130986][core]Nadwyżka wyjątków w KryoDeserializationStream
- [SPARK-39280] [SC-131206][sql] Przyspieszenie wnioskowania typu sygnatury czasowej przy użyciu formatu dostarczonego przez użytkownika w źródle danych JSON/CSV
- [SPARK-43473] [SC-131372][python] Obsługa typu struct w createDataFrame z pandas DataFrame
- [SPARK-43443] [SC-131024][sql] Dodaj test porównawczy dla wnioskowania typu Timestamp w przypadku użycia nieprawidłowej wartości
- [SPARK-41532] [SC-130523][connect][CLIENT] Dodaj sprawdzenie dla operacji obejmujących wiele ramek danych
- [SPARK-43296] [SC-130627][connect][PYTHON] Przeniesienie błędów sesji programu Spark Connect do kategorii błędów
- [SPARK-43324] [SC-130455][sql] Obsługa poleceń UPDATE dla źródeł opartych na delta
- [SPARK-43347] [SC-130148][python] Usuwanie obsługi języka Python 3.7
-
[SPARK-43292] [SC-130525][core][CONNECT] Przenoszenie
ExecutorClassLoader
do modułucore
i uproszczenieExecutor#addReplClassLoaderIfNeeded
- [SPARK-43081] [SC-129900] [ML] [CONNECT] Dodawanie modułu ładującego dane dystrybutora torch, który ładuje dane z danych partycji platformy Spark
- [SPARK-43331] [SC-130061][connect] Dodaj SparkSession.interruptAll
-
[SPARK-43306] [SC-130320][python] Migruj
ValueError
z typów Spark SQL do klasy błędów -
[SPARK-43261] [SC-129674][python] Migrowanie
TypeError
z typów Spark SQL do klasy błędów. - [SPARK-42992] [SC-129465][python] Wprowadzenie błędu PySparkRuntimeError
- [SPARK-16484] [SC-129975][sql] Dodać obsługę funkcji Datasketches HllSketch
- [SPARK-43165] [SC-128823][sql] Przenieść canWrite do DataTypeUtils
- [SPARK-43082] [SC-129112][connect][PYTHON] Funkcje użytkownika Pythona zoptymalizowane przez Arrow w Spark Connect
- [SPARK-43084] [SC-128654] [SS] Dodanie obsługi funkcji applyInPandasWithState dla połączenia Spark
- [SPARK-42657] [SC-128621][connect] Wsparcie dla wyszukiwania i przesyłania plików klas REPL po stronie klienta jako artefaktów do serwera
- [SPARK-43098] [SC-77059][sql] Naprawiono usterkę funkcji COUNT dotyczącą poprawności działania, gdy podzapytanie skalarne ma klauzulę GROUP BY
- [SPARK-42884] [SC-126662][connect] Dodaj integrację REPL Ammonite
- [SPARK-42994] [SC-128333][ml][CONNECT] Dystrybutor PyTorch obsługuje tryb lokalny
- [SPARK-41498] [SC-125343]Przywróć "Propagacja metadanych za pomocą unii"
- [SPARK-42993] [SC-127829][ml][CONNECT] Zgodność dystrybutora PyTorch z programem Spark Connect
- [SPARK-42683] [LC-75] Automatyczna zmiana nazwy kolumn metadanych powodujących konflikt
- [SPARK-42874] [SC-126442][sql] Włączanie nowej złotej struktury testów plików na potrzeby analizy wszystkich plików wejściowych
- [SPARK-42779] [SC-126042][sql] Zezwalaj na zapisy w wersji 2 dla wskazania sugerowanego rozmiaru partycji mieszania
- [SPARK-42891] [SC-126458][connect][PYTHON] Implementowanie API Mapy Współgrupowanej
- [SPARK-42791] [SC-126134][sql] Tworzenie nowej złotej struktury testów plików na potrzeby analizy
-
[SPARK-42615] [SC-124237][connect][PYTHON] Refaktoryzację elementu AnalyzePlan RPC i dodawanie
session.version
- [SPARK-41302] przywróć "[WSZYSTKIE TESTY][sc-122423][SQL] Assign name to _LEGACY_ERROR_TEMP_1185"
- [SPARK-40770] [SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu
- [SPARK-40770] Cofnij "[WSZYSTKIE TESTY][sc-122652][PYTHON] Ulepszone komunikaty o błędach dla applyInPandas dla niezgodności schematu"
- [SPARK-42398] [SC-123500][sql] Uściślij domyślną wartość kolumny w interfejsie DS v2
- [SPARK-40770] [WSZYSTKIE TESTY][sc-122652][PYTHON] Ulepszone komunikaty o błędach w funkcji applyInPandas przy niezgodności schematu
- [SPARK-40770] Przywróć “[SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas w przypadku niezgodności schematu”
- [SPARK-40770] [SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu
- [SPARK-42038] [WSZYSTKIE TESTY] Przywróć "Przywróć "[SC-122533][sql] SPJ: Obsługa częściowo klastrowanej dystrybucji""
- [SPARK-42038] przywróć "[SC-122533][sql] SPJ: Obsługa częściowo klastrowanej dystrybucji"
- [SPARK-42038] [SC-122533][sql] SPJ: Obsługa dystrybucji częściowo klastrowanej
- [SPARK-40550] [SC-120989][sql] DataSource V2: Obsługa poleceń DELETE dla źródeł delta
- [SPARK-40770] Przywróć "[SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu"
- [SPARK-40770] [SC-122652][python] Ulepszone komunikaty o błędach dla funkcji applyInPandas dla niezgodności schematu
- [SPARK-41302] Cofnij “[SC-122423][sql] Przypisz nazwę do _LEGACY_ERROR_TEMP_1185”
- [SPARK-40550] cofnij "[SC-120989][sql] DataSource V2: Obsługa poleceń DELETE dla źródeł opartych na delta"
- [SPARK-42123] Przywróć "[SC-121453][sql] Uwzględnij wartości domyślne kolumn w artykule DESCRIBE i SHOW CREATE TABLE danych wyjściowych"
-
[SPARK-42146] [SC-121172][core] Refaktoryzacja
Utils#setStringField
, aby kompilacja Maven powiodła się, gdy moduł SQL korzysta z tej metody - [SPARK-42119] Przywróć "[SC-121342][sql] Dodaj wbudowane funkcje tabelaryczne inline i inline_outer"
Najważniejsze informacje
- Poprawka
aes_decryp
funkcji t iln
w programie Connect SPARK-45109 - Popraw dziedziczone nazwane krotki, aby działały w module createDataFrame SPARK-44980
- Pamięć podręczna CodeGenerator jest teraz specyficzna dla ładowacza klas [SPARK-44795]
- Dodano
SparkListenerConnectOperationStarted.planRequest
[SPARK-44861] - Uruchamianie zapytań przesyłania strumieniowego w połączeniu z zarządzaniem artefaktami Connect [SPARK-44794]
- ArrowDeserializer współpracuje z klasami wygenerowanymi przez REPL [SPARK-44791]
- Naprawiono zoptymalizowaną pod kątem Arrow funkcję UDF w Pythonie w programie Spark Connect [SPARK-44876]
- Obsługa klienta języka Scala i Go w rozwiązaniu Spark Connect SPARK-42554SPARK-43351
- Obsługa rozproszonego uczenia maszynowego opartego na protokole PyTorch dla platformy Spark Connect SPARK-42471
- Obsługa przesyłania strumieniowego ze strukturą dla programu Spark Connect w językach Python i Scala SPARK-42938
- Obsługa interfejsu API Pandas dla klienta Spark Connect w języku Python SPARK-42497
- Wprowadzenie Arrow Python UDF SPARK-40307
- Obsługa funkcji tabeli zdefiniowanej przez użytkownika języka Python SPARK-43798
- Migrowanie błędów PySpark na klasy błędów SPARK-42986
- PySpark Test Framework SPARK-44042
- Dodano obsługę funkcji Datasketches HllSketch SPARK-16484
- Wbudowane ulepszenie funkcji SQL SPARK-41231
- IDENTIFIER klauzula SPARK-43205
- Dodawanie funkcji SQL do języków Scala, Python i R API SPARK-43907
- Dodaj obsługę nazwanych argumentów dla funkcji SQL SPARK-43922
- Unikaj niepotrzebnego ponownego uruchamiania zadania przy utracie zlikwidowanego executora, jeśli dane typu shuffle zostały zmigrowane SPARK-41469
- Rozproszone uczenie maszynowe <> spark connect SPARK-42471
- Dystrybutor DeepSpeed SPARK-44264
- Implementowanie punktów kontrolnych dla zmieniającego się dziennika w magazynie stanów RocksDB SPARK-43421
- Wprowadź propagację znaku wodnego między operatorami SPARK-42376
- Wprowadzenie dropDuplicatesWithinWatermark SPARK-42931
- Rozszerzenia zarządzania pamięcią dostawcy magazynu stanów RocksDB SPARK-43311
Spark Connect
- Refaktoryzacja modułu SQL w języku SQL i interfejsie SQL-API w celu utworzenia minimalnego zestawu zależności, które mogą być współużytkowane przez klienta Scala Spark Connect i platformy Spark i pozwala uniknąć ściągania wszystkich zależności przechodnich platformy Spark. SPARK-44273
- Wprowadzenie do klienta Scala dla platformy Spark Connect SPARK-42554
- Obsługa interfejsu API biblioteki Pandas dla klienta Spark Connect w języku Python SPARK-42497
- Obsługa rozproszonego uczenia maszynowego opartego na protokole PyTorch dla platformy Spark Connect SPARK-42471
- Obsługa przesyłania strumieniowego ze strukturą dla programu Spark Connect w językach Python i Scala SPARK-42938
- Początkowa wersja klienta GO SPARK-43351
- Wiele ulepszeń zgodności między natywnymi platformami Spark i klientami Spark Connect w języku Python i Scala
- Ulepszono debugowanie i obsługę żądań dla aplikacji klienckich (przetwarzanie asynchroniczne, ponawianie prób, długotrwałe zapytania)
Spark SQL
Funkcje
- Dodaj kolumnę metadanych dla bloku pliku: początek i długość SPARK-42423
- Obsługa parametrów pozycyjnych w języku Scala/Java sql() SPARK-44066
- Dodano obsługę nazwanych parametrów w parserze dla wywołań funkcji SPARK-43922
- Obsługa SELECT DEFAULT z użyciem ORDER BY, LIMIT, OFFSET dla relacji źródłowej INSERTSPARK-43071
- Dodaj gramatykę SQL dla klauzul PARTITION BY i ORDER BY, które pojawiają się po argumentach TABLE w wywołaniach TVF SPARK-44503.
- Uwzględnij wartości domyślne kolumn w DESCRIBE i w danych wyjściowych SHOW CREATE TABLESPARK-42123
- Dodawanie opcjonalnego wzorca dla elementu Catalog.listCatalogs SPARK-43792
- Dodawanie opcjonalnego wzorca dla elementu Catalog.listDatabases SPARK-43881
- Wywołanie zwrotne, gdy gotowe do uruchomienia SPARK-44145
- Obsługa instrukcji "Insert By Name" SPARK-42750
- Dodaj call_function dla interfejsu API Scala SPARK-44131
- Stabilne aliasy kolumn pochodnych SPARK-40822
- Obsługa ogólnych wyrażeń stałych jako wartości CREATE/REPLACE TABLE OPTIONS SPARK-43529
- Obsługa podzapytania z korelacją za pośrednictwem interSECT/EXCEPT SPARK-36124
- IDENTIFIER klauzula SPARK-43205
- TRYB ANSI: Conv powinien zwrócić błąd, jeśli konwersja wewnętrzna przepełnia SPARK-42427
Funkcje
- Dodano obsługę funkcji Datasketches HllSketch SPARK-16484
- Obsługa trybu CBC przez aes_encrypt()/aes_decrypt() SPARK-43038
- Obsługa reguły analizatora argumentów TABLE dla funkcji TableValuedFunction SPARK-44200
- Implementacja funkcji bitmapowych SPARK-44154
- Dodawanie funkcji try_aes_decrypt() SPARK-42701
- array_insert powinna zakończyć się niepowodzeniem przy indeksie 0 SPARK-43011
- Dodaj alias to_varchar dla to_char SPARK-43815
- Funkcja wyższego rzędu: implementacja array_compact SPARK-41235
- Dodaj obsługę nazwanych argumentów w analizatorze dla wbudowanych funkcji SPARK-44059
- Dodawanie wartości NULL dla INSERT-ów z listami określonych przez użytkownika o mniejszej liczbie kolumn niż tabela docelowa SPARK-42521
- Dodaje obsługę aes_encrypt IV i AAD SPARK-43290
- Funkcja DECODE zwraca nieprawidłowe wyniki po przekazaniu wartości NULL SPARK-41668
- Obsługa funkcji udf "luhn_check" SPARK-42191
- Obsługa niejawnego rozpoznawania aliasu kolumny bocznej w ramach agregacji SPARK-41631
- Obsługa niejawnego aliasu bocznej kolumny w zapytaniach z użyciem okna SPARK-42217
- Dodawanie aliasów funkcji 3-args DATE_ADD i DATE_DIFF SPARK-43492
Źródła danych
- Obsługa CHAR/VARCHAR dla katalogu JDBC SPARK-42904
- Obsługa dynamicznego pobierania słów kluczowych SQL za pomocą interfejsu API JDBC i TVF SPARK-43119
- DataSource V2: Obsługa poleceń MERGE dla źródeł opartych na delcie SPARK-43885
- DataSource V2: Obsługa poleceń MERGE dla źródeł opartych na grupach SPARK-43963
- DataSource V2: Obsługa poleceń UPDATE dla źródeł opartych na grupach SPARK-43975
- DataSource V2: Zezwalaj na reprezentowanie aktualizacji jako usunięcia i wstawienia SPARK-43775
- Zezwalaj dialektom jdbc na zastępowanie zapytania użytego do utworzenia tabeli SPARK-41516
- SPJ: Obsługa częściowo klastrowanej dystrybucji SPARK-42038
- DSv2 daje możliwość CTAS/RTAS rezerwowania null'owalności schematu SPARK-43390
- Dodaj spark.sql.files.maxPartitionNum SPARK-44021
- Obsługa komend UPDATE dla źródeł opartych na delcie SPARK-43324
- Zezwalaj na zapisy V2, aby wskazać doradczy rozmiar partycji shuffle SPARK-42779
- Obsługa kodera kompresji lz4raw dla Parquet SPARK-43273
- Avro: pisanie złożonych związków SPARK-25050
- Przyspieszanie wnioskowania typu znacznika czasu za pomocą formatu dostarczonego przez użytkownika w źródle danych JSON/CSV SPARK-39280
- Avro to Support custom decimal type backed by Long SPARK-43901 (Obsługa niestandardowego typu dziesiętnego obsługiwanego przez platformę Long SPARK-43901)
- Unikaj przetasowania w złączaniu partycjonowanego magazynu, gdy klucze partycji są niezgodne, ale wyrażenia złączenia są zgodne SPARK-41413
- Zmień typ binarny na nieobsługiwany typ danych w formacie CSV SPARK-42237
- Zezwól Avro na konwertowanie typu związkowego na SQL ze stabilną nazwą pola z typem SPARK-43333
- Przyspiesz rozpoznawanie typu znacznika czasu z wykorzystaniem starszego formatu w źródle danych JSON/CSV SPARK-39281
Optymalizacja zapytań
- Wsparcie dla eliminacji podwyrażeń w wyrażeniach skrótu SPARK-42815
- Popraw szacowanie statystyk sprzężenia, jeśli jedna ze stron może zachować unikatowość danych SPARK-39851
- Wprowadzenie limitu grupy okna dla filtru opartego na rangi w celu optymalizacji obliczeń top-k SPARK-37099
- Naprawiono zachowanie wartości null IN (pusta lista) w SPARK-44431 regułach optymalizacji
- Wnioskuj o limit okna i pomniejsz go, jeśli partitionSpec jest pusty SPARK-41171
- Usuń sprzężenie zewnętrzne, jeśli są to wszystkie odrębne funkcje agregujące. SPARK-42583
- Zwiń dwa okna obok siebie z tą samą partycją/kolejnością w podzapytaniu SPARK-42525
- Obniżenie limitu poprzez funkcje zdefiniowane przez użytkownika Pythona SPARK-42115
- Optymalizowanie kolejności filtrowania predykatów SPARK-40045
Generowanie kodu i wykonywanie zapytań
- Filtr środowiska uruchomieniowego powinien obsługiwać stronę sprzężenia wielopoziomowego jako stronę tworzenia filtru SPARK-41674
- Obsługa generowania kodu dla HiveSimpleUDF SPARK-42052
- Generowanie kodu dla HiveGenericUDF SPARK-42051
- Obsługa generowania kodu dla po stronie budowania z zewnętrznym mieszanym połączeniem skrótu SPARK-44060
- Implementowanie generowania kodu dla funkcji to_csv (StructsToCsv) SPARK-42169
- Wprowadzenie obsługi AQE dla InMemoryTableScanExec SPARK-42101
- Obsługa budowy złącza zewnętrznego lewego lub budowy złącza zewnętrznego prawego w potasowanym sprzężeniu mieszającym SPARK-36612
- Uwzględniaj WymagaDystrybucjiIKolejnosci w CTAS/RTAS SPARK-43088
- Scalanie zasobników w łączeniu stosowanym po stronie strumienia łączenia rozgłaszanego SPARK-43107
- Poprawnie ustaw wartość null na połączonym kluczu sprzężenia w pełnym zewnętrznym sprzężeniu SPARK-44251
- Napraw podzapytanie ListQuery nullability SPARK-43413
Inne istotne zmiany
- Poprawnie ustaw wartość null dla kluczy przy użyciu sprzężeń SPARK-43718
- Naprawiono błąd COUNT(*) is null w skorelowanym skalarnym podzapytaniu SPARK-43156
- Element Dataframe.joinWith outer-join powinien zwrócić wartość null dla niedopasowanego wiersza SPARK-37829
- Automatyczna zmiana nazwy kolumn metadanych powodujących konflikt SPARK-42683
- Udokumentuj klasy błędów Spark SQL w dokumentacji użytkownika SPARK-42706
PySpark
Funkcje
- Obsługa parametrów pozycyjnych w języku Python SQL() SPARK-44140
- Obsługa zapytania sparametryzowanego SQL za pomocą sql() SPARK-41666
- Obsługa funkcji tabeli zdefiniowanych przez użytkownika języka Python SPARK-43797
- Obsługa ustawiania pliku wykonywalnego języka Python dla interfejsów API funkcji UDF i pandas w środowiskach roboczych podczas wykonywania SPARK-43574
- Dodawanie elementu DataFrame.offset do PySpark SPARK-43213
- Implementowanie dir() w ramce pyspark.sql.dataframe.DataFrame w celu uwzględnienia kolumn SPARK-43270
- Dodaj opcję używania dużych wektorów szerokości zmiennych dla operacji UDF strzałki SPARK-39979
- Wspieranie wykonywania w trybie bariery w mapInPandas/mapInArrow SPARK-42896
- Dodaj interfejsy API JobTag do platformy PySpark SparkContext SPARK-44194
- Obsługa języka Python UDTF do analizowania w języku Python SPARK-44380
- Uwidaczniaj typ TimestampNTZType w pyspark.sql.types SPARK-43759
- Obsługa zagnieżdżonego typu znacznika czasu SPARK-43545
- Obsługa UserDefinedType w createDataFrame z ramek danych pandas i toPandas [SPARK-43817][spark-43702]https://issues.apache.org/jira/browse/SPARK-43702)
- Dodaj opcję binarną deskryptora do interfejsu API Pyspark Protobuf SPARK-43799
- Akceptowanie krotki typów ogólnych jako wskazówek typowania w Pandas UDF SPARK-43886
- Dodaj funkcję array_prepend SPARK-41233
- Dodaj funkcję narzędziową assertDataFrameEqual SPARK-44061
- Obsługa zoptymalizowanych pod kątem strzałek funkcji UDTF języka Python SPARK-43964
- Zezwól na niestandardową precyzję dla przybliżonej równości fp SPARK-44217
- Ustaw publiczny interfejs API assertSchemaEqual API SPARK-44216
- Obsługa fill_value dla ps. Seria SPARK-42094
- Obsługuj typ struktury w createDataFrame z pandas DataFrame SPARK-43473
Inne istotne zmiany
- Dodać obsługę autouzupełniania dla df[|] w pyspark.sql.dataframe.DataFrame [SPARK-43892]
- Oznacz jako przestarzałe i usuń interfejsy API, które zostaną usunięte w pandas 2.0 [SPARK-42593]
- Tworzenie pierwszej karty języka Python dla przykładów kodu — Spark SQL, DataFrames i Datasets Guide SPARK-42493
- Aktualizowanie pozostałych przykładów kodu dokumentacji platformy Spark w celu wyświetlenia języka Python domyślnie SPARK-42642
- Użyj deduplikowanych nazw pól podczas tworzenia Arrow RecordBatch [SPARK-41971]
- Obsługa zduplikowanych nazw pól w createDataFrame z ramką danych pandas [SPARK-43528]
- Zezwalaj na parametr kolumn podczas tworzenia ramki danych z serii [SPARK-42194]
Rdzeń
- Zaplanuj mergeFinalize podczas ponowienia scalania push shuffleMapStage, ale nie są uruchamiane żadne zadania SPARK-40082
- Wprowadzenie PartitionEvaluator do wykonywania operatora SQL SPARK-43061
- Zezwól komponentowi ShuffleDriverComponent na deklarowanie, czy dane z tasowania są niezawodnie przechowywane SPARK-42689
- Dodaj ograniczenie maksymalnej liczby prób dla etapów, aby uniknąć potencjalnego nieskończonego ponawiania próby spark-42577
- Obsługa konfiguracji poziomu dziennika przy użyciu statycznej platformy Spark conf SPARK-43782
- Optymalizacja PercentileHeap SPARK-42528
- Dodaj argument przyczyny do elementu TaskScheduler.cancelTasks SPARK-42602
- Unikaj niepotrzebnego ponownego uruchamiania zadania w przypadku likwidowanego modułu wykonawczego utraconego w przypadku mieszania danych zmigrowanych platformy SPARK-41469
- Poprawa niepełnego liczenia akumulatora w przypadku ponawiania zadań z użyciem pamięci podręcznej RDD SPARK-41497
- Domyślnie użyj RocksDB dla spark.history.store.hybridStore.diskBackend SPARK-42277.
- Opakowanie NonFateSharingCache dla Guava Cache SPARK-43300
- Popraw wydajność MapOutputTracker.updateMapOutput SPARK-43043
- Zezwalanie aplikacjom na kontrolowanie, czy metadane są zapisywane w bazie danych przez zewnętrzną usługę Shuffle Service SPARK-43179
- Dodaj zmienną środowiskową SPARK_DRIVER_POD_IP do zasobników wykonawczych SPARK-42769
- Montuje mapę konfiguracji Hadoop na podzie wykonawczym SPARK-43504
Przesyłanie strumieniowe ze strukturą
- Dodanie obsługi śledzenia użycia pamięci przez przypięte bloki dla magazynu stanów RocksDB SPARK-43120
- Dodaj ulepszenia zarządzania pamięcią dla dostawcy magazynu stanów RocksDB SPARK-43311
- Wprowadzenie dropDuplicatesWithinWatermark SPARK-42931
- Wprowadź nowe wywołanie zwrotne onQueryIdle() w StreamingQueryListener SPARK-43183
- Dodaj opcję pomijania koordynatora zatwierdzania w ramach interfejsu API StreamingWrite dla źródeł/ujściów DSv2 SPARK-42968
- Wprowadź nowe wywołanie zwrotne "onQueryIdle" dla StreamingQueryListener SPARK-43183
- Implementowanie punktów kontrolnych opartych na dziennikach zmian dla dostawcy magazynu stanów bazy danych RocksDB SPARK-43421
- Dodano obsługę WRITE_FLUSH_BYTES dla bazy danych RocksDB używanej w operatorach stanowych przesyłania strumieniowego SPARK-42792
- Dodano obsługę ustawiania max_write_buffer_number i write_buffer_size dla bazy danych RocksDB używanej podczas przesyłania strumieniowego SPARK-42819
- Pozyskiwanie blokady magazynu stanów bazy danych RocksDB powinno nastąpić po otrzymaniu iteratora wejściowego z elementu inputRDD SPARK-42566
- Wprowadzenie propagacji znaku wodnego wśród operatorów SPARK-42376
- Czyszczenie oddzielonych plików sst i plików dziennika w katalogu punktów kontrolnych bazy danych RocksDB SPARK-42353
- Rozwiń zdarzenie QueryTerminatedEvent, aby zawierało klasę błędu, jeśli istnieje w wyjątku SPARK-43482
ML (uczenie maszynowe)
- Obsługa rozproszonego trenowania funkcji przy użyciu deepspeed SPARK-44264
- Podstawowe interfejsy sparkML dla platformy Spark3.5: narzędzie do szacowania/transformator/model/ewaluator SPARK-43516
- Spraw, aby MLv2 (ML na spark connect) wspierało bibliotekę pandas >= 2.0 SPARK-43783
- Aktualizacja interfejsów Transformer MLv2 SPARK-43516
- Nowy narzędzie do szacowania regresji logistycznej uczenia maszynowego pyspark zaimplementowane na platformie SPARK-43097
- Dodaj ponownie classifier.getNumClasses SPARK-42526
- Napisz klasę Deepspeed Distributed Learning DeepspeedTorchDistributor SPARK-44264
- Podstawowa implementacja zapisywania/ładowania dla uczenia maszynowego na platformie Spark connect SPARK-43981
- Zwiększanie oszczędności modelu regresji logistycznej SPARK-43097
- Implementowanie narzędzia do szacowania potoku dla uczenia maszynowego na platformie Spark connect SPARK-43982
- Implementować estymator walidacji krzyżowej SPARK-43983
- Implementacja ewaluatora klasyfikacji SPARK-44250
- Upewnij się, że dystrybutor PyTorch jest zgodny z platformą Spark Connect SPARK-42993
INTERFEJS UŻYTKOWNIKA
- Dodawanie strony interfejsu użytkownika platformy Spark dla platformy Spark Connect SPARK-44394
- Obsługa kolumny Histogramu sterty na karcie Funkcji wykonawczych SPARK-44153
- Pokaż komunikat o błędzie w interfejsie użytkownika dla każdego nieudanego zapytania SPARK-44367
- Wyświetlanie czasu dodania/usunięcia wykonawców na karcie Wykonawców SPARK-44309
Budowanie i inne
- Usunięcie wsparcia dla Pythona 3.7 SPARK-43347
- Zwiększenie minimalnej wersji PyArrow do 4.0.0 SPARK-44183
- Obsługa R 4.3.1 SPARK-43447SPARK-44192
- Dodaj interfejsy API JobTag do SparkR SparkContext SPARK-44195
- Dodawanie funkcji matematycznych do platformy SparkR SPARK-44349
- Uaktualnij Parquet do wersji 1.13.1 SPARK-43519
- Uaktualnianie programu ASM do wersji 9.5 SPARK-43537SPARK-43588
- Uaktualnić rocksdbjni do 8.3.2 SPARK-41569SPARK-42718SPARK-43007SPARK-43436SPARK-44256
- Uaktualnij Netty do wersji 4.1.93 SPARK-42218SPARK-42417SPARK-42487SPARK-43609SPARK-44128
- Zaktualizuj zstd-jni do wersji 1.5.5-5 SPARK-42409SPARK-42625SPARK-43080SPARK-43294SPARK-43737SPARK-43994SPARK-44465
- Uaktualnij metryki Dropwizard do wersji 4.2.19 SPARK-42654SPARK-43738SPARK-44296
- Uaktualnianie łącznika gcs-connector do wersji 2.2.14 SPARK-42888SPARK-43842
- Uaktualnianie commons-crypto do wersji 1.2.0 SPARK-42488
- Uaktualnij kombinatory scala-parser z wersji 2.1.1 do 2.2.0 SPARK-42489
- Zaktualizuj protobuf-java do wersji 3.23.4 SPARK-41711SPARK-42490SPARK-42798SPARK-43899SPARK-44382
- Uaktualnij koder commons-codec do wersji 1.16.0 SPARK-44151
- Uaktualnianie platformy Apache Kafka do wersji 3.4.1 SPARK-42396SPARK-44181
- Uaktualnij mapę RoaringBitmap do wersji 0.9.45 SPARK-42385 SPARK-43495SPARK-44221
- Aktualizacja ORC do wersji 1.9.0 SPARK-42820SPARK-44053SPARK-44231
- Uaktualnianie do wersji Avro 1.11.2 SPARK-44277
- Uaktualnianie commons-compress do wersji 1.23.0 SPARK-43102
- Zaktualizuj bibliotekę Joda-Time z wersji 2.12.2 do 2.12.5 SPARK-43008
- Zaktualizuj snappy-java do wersji 1.1.10.3 SPARK-42242SPARK-43758SPARK-44070SPARK-44415SPARK-44513
- Uaktualnianie programu mysql-connector-java z wersji 8.0.31 do wersji 8.0.32 SPARK-42717
- Uaktualnianie narzędzia Apache Arrow do wersji 12.0.1 SPARK-42161SPARK-43446SPARK-44094
- Uaktualnianie commons-io do wersji 2.12.0 SPARK-43739
- Uaktualnianie platformy Apache commons-io do wersji 2.13.0 SPARK-43739SPARK-44028
- Uaktualnianie rozszerzenia FasterXML jackson do wersji 2.15.2 SPARK-42354SPARK-43774SPARK-43904
- Uaktualnianie log4j2 do wersji 2.20.0 SPARK-42536
- Uaktualnianie biblioteki slf4j do wersji 2.0.7 SPARK-42871
- Uaktualnianie pakietów numpy i biblioteki pandas w wersji Dockerfile SPARK-42524
- Uaktualnij jersey do wersji 2.40 SPARK-44316
- Uaktualnianie H2 z wersji 2.1.214 do wersji 2.2.220 SPARK-44393
- Aktualizacja opcji do ^0.9.3 SPARK-44279
- Uaktualnianie bcprov-jdk15on i bcpkix-jdk15on do wersji 1.70 SPARK-44441
- Zaktualizuj mlflow do wersji 2.3.1 SPARK-43344
- Uaktualnianie narzędzia Tink do wersji 1.9.0 SPARK-42780
- Uaktualnianie tłumika do wersji 1.7.13 SPARK-41787SPARK-44031
- Uaktualnianie aplikacji Ammonite do wersji 2.5.9 SPARK-44041
- Uaktualnianie języka Scala do wersji 2.12.18 SPARK-43832
- Uaktualnij org.scalatestplus:selenium-4-4 do org.scalatestplus:selenium-4-7 SPARK-41587
- Uaktualnij minimatch do wersji 3.1.2 SPARK-41634
- Uaktualnianie zestawu sbt-assembly z wersji 2.0.0 do 2.1.0 SPARK-41704
- Aktualizacja wtyczki maven-checkstyle-plugin z wersji 3.1.2 do 3.2.0 SPARK-41714
- Uaktualnij bibliotekę dev.ludovic.netlib do wersji 3.0.3 SPARK-41750
- Uaktualnianie interfejsu hive-storage-api do wersji 2.8.1 SPARK-41798
- Uaktualnianie rdzeni httpcore platformy Apache do wersji 4.4.16 SPARK-41802
- Uaktualnij jetty do wersji 9.4.52.v20230823 SPARK-45052
- Uaktualnij kompres-lzf do wersji 1.1.2 SPARK-42274
Usunięcia, zmiany zachowania i wycofanie
Nadchodzące usunięcie
Następujące funkcje zostaną usunięte w następnej wersji głównej platformy Spark
- Obsługa języków Java 8 i Java 11, a minimalna obsługiwana wersja języka Java to Java 17
- Obsługa Scala w wersji 2.12, a minimalna obsługiwana wersja Scala to 2.13
Przewodniki po migracji
- Spark Core
- SQL, Zestawy danych i ramka danych
- Przesyłanie strumieniowe ze strukturą
- MLlib (uczenie maszynowe)
- PySpark (Python na platformie Spark)
- SparkR (R na platformie Spark)
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Środowisko systemu
- System operacyjny: Ubuntu 22.04.3 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 2.4.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | czarny | 22.6.0 | wybielacz | 4.1.0 |
kierunkowskaz | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certyfikat | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknięcie | 8.0.4 | Komunikacja | 0.1.2 |
contourpy | 1.0.5 | kryptografia | 39.0.1 | rowerzysta | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | dekorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0,11 | punkty wejścia | 0,4 |
Wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 | fastjsonschema | 2.18.0 |
filelock | 3.12.2 | fonttools | 4.25.0 | Biblioteka środowiska uruchomieniowego GCC | 1.10.0 |
googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | Jeepney | 0.7.1 |
Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.17.3 | jupyter-client | 7.3.4 | jupyter-server | 1.23.4 |
jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
brelok | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
nodeenv | 1.8.0 | notatnik | 6.5.2 | notebook_shim | 0.2.2 |
numpy | 1.23.5 | oauthlib | 3.2.0 | opakowanie | 22,0 |
Pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.10.3 | frajer | 0.5.3 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Poduszka | 9.4.0 | pip | 22.3.1 |
platformdirs | 2.5.2 | kreślenie | 5.9.0 | wtyczka | 1.0.0 |
prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
żądania | 2.28.1 | lina | 1.7.0 | s3transfer | 0.6.1 |
scikit-learn | 1.1.1 | seaborn | 0.12.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 65.6.3 | Sześć | 1.16.0 |
sniffio | 1.2.0 | sito do zup | 2.3.2.post1 | ssh-import-id | 5,11 |
stack-data | 0.2.0 | statsmodels | 0.13.5 | Wytrzymałość | 8.1.0 |
zakończony | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
Traitlet | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
wadllib | 1.3.6 | wcwidth | 0.2.5 | kodowania sieciowe | 0.5.1 |
klient WebSocket | 0.58.0 | whatthepatch | 1.0.2 | koło | 0.38.4 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Zainstalowane biblioteki języka R
Biblioteki R są instalowane z migawki CRAN Posit Package Manager z dnia 2023-07-13.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
strzałka | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
wsteczne portowanie | 1.4.1 | baza | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | kłębek | 1.2.4 |
rozruch systemu | 1.3-28 | warzyć | 1.0-8 | Brio | 1.1.3 |
miotła | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
obiekt wywołujący | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | klasa | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | zegar | 0.7.0 | klaster | 2.1.4 |
codetools | 0.2-19 | przestrzeń kolorów | 2.1-0 | commonmark | 1.9.0 |
— kompilator | 4.3.1 | konfiguracja | 0.3.1 | skonfliktowany | 1.2.0 |
cpp11 | 0.4.4 | kredka | 1.5.2 | poświadczenia | 1.3.2 |
kręcić | 5.0.1 | data.table | 1.14.8 | zbiory danych | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | Opis | 1.4.2 |
devtools | 2.4.5 | diagram | 1.6.5 | diffobj | 0.3.5 |
trawić | 0.6.33 | skierowany w dół | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | wielokropek | 0.3.2 |
ocenić | 0.21 | fani | 1.0.4 | kolory | 2.1.1 |
szybka mapa | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | zagraniczny | 0.8-82 | kuźnia | 0.2.0 |
Fs | 1.6.2 | przyszłość | 1.33.0 | future.apply | 1.11.0 |
płukać gardło | 1.5.1 | Generyczne | 0.1.3 | Gert | 1.9.2 |
ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globalna | 0.16.2 | klej | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafika | 4.3.1 | grDevices | 4.3.1 | siatka | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | przystań | 2.5.3 | wysoki | 0.10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
Etykietowanie | 0.4.2 | później | 1.3.1 | krata | 0.21-8 |
lawa | 1.7.2.1 | cykl życia | 1.0.3 | nasłuchiwanie | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | Markdown | 1,7 |
MASA | 7.3-60 | Macierz | 1.5-4.1 | zapamiętywanie | 2.0.1 |
metody | 4.3.1 | mgcv | 1.8-42 | mim | 0,12 |
miniUI | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | równoległy | 4.3.1 |
równolegle | 1.36.0 | filar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | Postęp | 1.2.2 |
progressr | 0.13.0 | Obietnice | 1.2.0.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | przepisy | 1.0.6 |
rewanż | 1.0.1 | rematch2 | 2.1.2 | Piloty | 2.4.2 |
reprex | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.6 | wagi | 1.2.1 |
selektor | 0.4-2 | informacje o sesji | 1.2.2 | kształt | 1.4.6 |
błyszczący | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
SparkR | 3.5.0 | przestrzenny | 7.3-15 | Splajny | 4.3.1 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statystyki | 4.3.1 |
stats4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
przetrwanie | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
tcltk | 4.3.1 | testthat | 3.1.10 | kształtowanie tekstu | 0.3.6 |
tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 2.0.0 | zmiana czasu | 0.2.0 | czasData | 4022.108 |
tinytex | 0,45 | narzędzia | 4.3.1 | Baza Danych Stref Czasowych (tzdb) | 0.4.0 |
sprawdzacz URL | 1.0.1 | użyj tego | 2.2.2 | utf8 | 1.2.3 |
narzędzia programowe | 4.3.1 | uuid | 1.1-0 | vctrs | 0.6.3 |
viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
wąsik | 0.4.1 | withr | 2.5.0 | xfun | 0.39 |
xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zamek | 2.3.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.2.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | Adnotacje Jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.kofeina | kofeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-rodzimi |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-rodzimi |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodowici mieszkańcy |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | error_prone_annotations (anotacje podatne na błędy) | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | konfiguracja | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | Przesyłanie plików Commons | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | sprężarka powietrza | 0,24 |
io.delta | delta-sharing-spark_2.12 | 0.7.1 |
io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metryki-kontrole stanu | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.93.Final |
io.netty | netty-buffer | 4.1.93.Final |
io.netty | netty-codec | 4.1.93.Final |
io.netty | netty-codec-http | 4.1.93.Final |
io.netty | netty-codec-http2 | 4.1.93.Final |
io.netty | netty-codec-socks | 4.1.93.Final |
io.netty | netty-common | 4.1.93.Final |
io.netty | netty-handler | 4.1.93.Final |
io.netty | netty-handler-proxy | 4.1.93.Final |
io.netty | netty-resolver | 4.1.93.Final |
io.netty | netty-transport | 4.1.93.Final |
io.netty | netty-transport-classes-epoll | 4.1.93.Final |
io.netty | netty-transport-classes-kqueue | 4.1.93.Final |
io.netty | netty-transport-native-epoll | 4.1.93.Final |
io.netty | netty-transport-native-epoll | 4.1.93.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.93.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.93.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.93.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.93.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pikla | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.29 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | szablon ciągów | 3.2.1 |
org.apache.ant | mrówka | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | format strzałki | 12.0.1 |
org.apache.arrow | strzałka-pamięć-rdzeń | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | wektor strzałki | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | bluszcz | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.9.0-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.0-shaded-protobuf |
org.apache.orc | podkładki orc-shim | 1.9.0 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | adnotacje odbiorców | 0.13.0 |
org.apache.zookeeper | opiekun zwierząt | 3.6.3 |
org.apache.zookeeper | juta dla opiekunów zwierząt | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-http | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-security | 9.4.51.v20230217 |
org.eclipse.jetty | serwer Jetty | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-webapp | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-api | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | klient websocket | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | serwer WebSocket | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | Podkładki regulacyjne | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.threeten | ThreeTen Extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |