Udostępnij za pośrednictwem


Databricks Runtime 12.1 (EoS)

Uwaga

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 12.1 obsługiwanym przez platformę Apache Spark 3.3.1.

Usługa Databricks wydała tę wersję w styczniu 2023 r.

Nowe funkcje i ulepszenia

Funkcje tabel usługi Delta Lake obsługiwane na potrzeby zarządzania protokołami

Usługa Azure Databricks wprowadziła obsługę funkcji tabeli usługi Delta Lake, które wprowadzają szczegółowe flagi określające, które funkcje są obsługiwane przez daną tabelę. Zobacz artykuł Jak usługa Azure Databricks zarządza zgodnością funkcji usługi Delta Lake?.

Predyktywne I/O dla aktualizacji jest w publicznej wersji próbnej

Predykcyjne operacje wejścia/wyjścia przyspieszają teraz operacje DELETE, MERGE i UPDATE dla tabel Delta z włączonymi wektorami usuwania na komputerach z włączoną funkcją Photon. Zobacz Co to jest predykcyjne I/O?

Eksplorator wykazu jest teraz dostępny dla wszystkich osób

Eksplorator wykazu jest teraz dostępny dla wszystkich osób usługi Azure Databricks w przypadku korzystania z środowiska Databricks Runtime 7.3 LTS i nowszych wersji.

Obsługa wielu operatorów stanowych w jednym zapytaniu przesyłanym strumieniowo

Użytkownicy mogą teraz łączyć operatory stanowe z trybem dołączania w zapytaniu przesyłanym strumieniowo. Nie wszystkie operatory są w pełni obsługiwane. Łączenie interwałów czasowych strumienia ze strumieniem oraz flatMapGroupsWithState nie zezwalają na łączenie z innymi operatorami stanowymi.

Obsługa buforów protokołów jest dostępna w publicznej wersji zapoznawczej

Za pomocą funkcji from_protobuf i to_protobuf można wymieniać dane między typami binarnymi i strukturami. Zobacz Bufory protokołu odczytu i zapisu.

Obsługa uwierzytelniania rejestru schematów platformy Confluent

Integracja usługi Azure Databricks z rejestrem schematów confluent obsługuje teraz zewnętrzne adresy rejestru schematów z uwierzytelnianiem. Ta funkcja jest dostępna dla from_avro, to_avro, from_protobuf i to_protobuf. Zobacz Protobuf lub Avro.

Obsługa udostępniania historii tabel przy użyciu udziałów Delta Sharing

Teraz możesz udostępnić tabelę z pełną historią przy użyciu Delta Sharing, umożliwiając odbiorcom wykonywanie zapytań typu time travel i realizację zapytań w tabeli z użyciem Spark Structured Streaming. WITH HISTORY jest zalecane zamiast CHANGE DATA FEED, chociaż ta ostatnia nadal jest obsługiwana. Zobacz ALTER SHARE i Dodaj tabele do udziału.

Obsługa przesyłania strumieniowego dla udziałów Delta Sharing

Spark Structured Streaming współpracuje teraz z formatem deltasharing w źródłowej tabeli Delta Sharing, która została udostępniona przy użyciu WITH HISTORY.

Tabele Delta Sharing w katalogach są teraz obsługiwane w wersji z użyciem znacznika czasu.

Teraz możesz użyć składni SQL TIMESTAMP AS OF w instrukcjach SELECT, aby określić wersję tabeli Delta Sharing zamontowanej w katalogu. Tabele muszą być współużytkowane przy użyciu WITH HISTORY.

Obsługa WHEN NOT MATCHED BY SOURCE dla MERGE INTO

Możesz teraz dodać klauzule WHEN NOT MATCHED BY SOURCE do MERGE INTO, aby aktualizować lub usuwać wiersze w wybranej tabeli, które nie mają dopasowań w tabeli źródłowej na podstawie warunku scalania. Nowa klauzula jest dostępna w języku SQL, Python, Scala i Java. Zobacz MERGE INTO.

Zoptymalizowana kolekcja statystyk dla CONVERT TO DELTA

Zbieranie statystyk dla CONVERT TO DELTA operacji jest teraz znacznie szybsze. To zmniejsza liczbę obciążeń, które mogą używać NO STATISTICS dla wydajności.

Obsługa Unity Catalog dla przywracania tabel

Ta funkcja została początkowo wydana w publicznej wersji zapoznawczej. Jest ogólnodostępny od 25 października 2023 r.

Teraz można przywrócić usuniętą tabelę zarządzaną lub zewnętrzną w ramach istniejącego schematu w ciągu siedmiu dni od usunięcia. Zobacz UNDROP i SHOW TABLES DROPPED.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • filelock z wersji 3.8.0 do 3.8.2
    • platformdirs z wersji 2.5.4 do 2.6.0
    • setuptools z wersji 58.0.4 do wersji 61.2.0
  • Uaktualnione biblioteki języka R:
  • Uaktualnione biblioteki Java:
    • io.delta.delta-sharing-spark_2.12 z 0.5.2 do 0.6.2
    • org.apache.hive.hive-storage-api z wersji 2.7.2 do 2.8.1
    • org.apache.parquet.parquet-column from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common from 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding z 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • z org.apache.parquet.parquet-format-structures na 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop z 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson z 1.12.3-databricks-0001 do 1.12.3-databricks-0002
    • org.tukaani.xz od 1.8 do 1.9

Apache Spark

Środowisko Databricks Runtime 12.1 obejmuje platformę Apache Spark 3.3.1. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 12.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Cofnięcie „[SC-119411][sql] Scentralizowanie logiki rozpoznawania kolumn” i „[SC-117170][spark-41338][SQL] Rozwiązywanie odwołań zewnętrznych i normalnych kolumn w tej samej partii analizatora”
  • [SPARK-41405] [SC-119411][sql] Scentralizowanie logiki rozpoznawania kolumn
  • [SPARK-41859] [SC-119514][sql] Komenda CreateHiveTableAsSelectCommand powinna poprawnie ustawić flagę nadpisania
  • [SPARK-41659] [SC-119526][connect][12.X] Włącz testy dokumentacji w pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][sql] Poprawka regresji wydajności czytnika ORC z powodu funkcji wartości domyślnej
  • [SPARK-41807] [SC-119399][core] Usuń nieistniejącą klasę błędów: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Przypisz nazwę do _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][connect] Wywnioskuj nazwy z listy słowników w SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Przenieś dokumentację i skrypt Spark Connect do dev/ oraz dokumentacji Python
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] Konfigurowanie początkowego modułu klienta dla programu Spark Connect
  • [SPARK-41365] [SC-118498][ui][3.3] Nie można załadować strony interfejsu użytkownika Stages na serwerze proxy w określonym środowisku dla Yarn.
  • [SPARK-41481] [SC-118150][core][SQL] Ponowne użycie INVALID_TYPED_LITERAL zamiast _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][sql] Ponowne rozważenie obsługi wyrażeń stanowych
  • [SPARK-41726] [SC-119248][sql] Usuń OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][sc-118348][SQL] Obsługa sparametryzowanych zapytań SQL przez sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] Zaimplementować DataFrame.sampleBy i DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][sc-119012][SQL][wszystkie testy] Wydzielenie zapisu v1 do WriteFiles
  • [SPARK-41565] [SC-118868][sql] Dodaj klasę błędów UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] Funkcja DECODE zwraca nieprawidłowe wyniki po przekazaniu wartości NULL
  • [SPARK-41554] [SC-119274] Poprawka zmiany skali dziesiętnej, gdy skala zmniejszyła się o m...
  • [SPARK-41065] [SC-119324][connect][PYTHON] Implementuj DataFrame.freqItems i DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Ponowne przeprowadzenie testów dokumentów i dodanie brakującego aliasu kolumny do count()
  • [SPARK-41069] [SC-119310][connect][PYTHON] Zaimplementuj DataFrame.approxQuantile i DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][connect][PYTHON] Aby funkcja from_json obsługiwała schemat DataType
  • pl-PL: [SPARK-41804] [SC-119382][sql] Wybierz prawidłowy rozmiar elementu w InterpretedUnsafeProjection dla tablicy UDT
  • [SPARK-41786] [SC-119308][connect][PYTHON] Funkcje pomocnika deduplikacji
  • [SPARK-41745] [SC-119378][spark-41789][12.X] Umożliwienie createDataFrame obsługi listy wierszy
  • [SPARK-41344] [SC-119217][sql] Wyjaśnij błąd, gdy tabela nie zostanie znaleziona w katalogu SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][connect][PYTHON] Dodaj brakującą funkcję log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] Tworzenie opcji obsługi funkcji JSON
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Spraw, by __getitem__ obsługiwało filtr oraz wybieranie
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Tworzenie obsługi operacji kolumny Brak
  • [SPARK-41440] [SC-119279][connect][PYTHON] Unikaj operatora pamięci podręcznej dla ogólnego przykładu.
  • [SPARK-41785] [SC-119290][connect][PYTHON] Implement GroupedData.mean
  • [SPARK-41629] [SC-119276][connect] Obsługa rozszerzeń protokołu w relacjach i wyrażeniach
  • [SPARK-41417] [SC-118000][core][SQL] Zmień nazwę _LEGACY_ERROR_TEMP_0019 na INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] Właściwa obsługa błędów dla serwera Spark Connect/ klienta
  • [SPARK-41292] [SC-119357][connect][12.X] Obsługa okienka w przestrzeni nazw pyspark.sql.window
  • [SPARK-41493] [SC-119339][connect][PYTHON] Tworzenie opcji obsługi funkcji csv
  • [SPARK-39591] [SC-118675][ss] Śledzenie postępu asynchronicznego
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Implement Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][connect][PYTHON] Implement DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Włączanie testów dokumentu w kolumnie pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][connect] Zmieszać ClientId w pamięci podręcznej SparkSession
  • [SPARK-41354] [SC-119194][connect] Dodano RepartitionByExpression do proto
  • [SPARK-41784] [SC-119289][connect][PYTHON] Dodaj brakujące __rmod__ w kolumnie
  • [SPARK-41778] [SC-119262][sql] Dodawanie aliasu "reduce" do arrayAggregate
  • [SPARK-41067] [SC-119171][connect][PYTHON] Implementacja DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] Ustaw wewnętrzną nazwę operacji ciągu na spójność z funkcją FunctionRegistry
  • [SPARK-41734] [SC-119160][connect] Dodaj komunikat nadrzędny dla katalogu
  • [SPARK-41742] [SC-119263] Obsługa df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][connect][PYTHON] Fix arithmetic ops: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][sql] Zmień nazwę UNSUPPORTED_CORRELATED_REFERENCE na CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Poprawka Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] Zaimplementować funkcję unwrap_udt
  • [SPARK-41333] [SC-119195][spark-41737] Implementacja GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Poprawka Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][sql] Obsługa niejawnego rozpoznawania aliasów kolumn bocznych w agregacji
  • [SPARK-41529] [SC-119207][connect][12.X] Implementacja SparkSession.stop
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Zmień nazwę _LEGACY_ERROR_TEMP_0011 na UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][connect][12.X] Deduplikacja wydruku i repr_html w LogicalPlan
  • [SPARK-41740] [SC-119169][connect][PYTHON] Implementowanie Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Zastosowanie przycinania opartego na wzorze drzewa dla reguły ResolveWindowTime
  • [SPARK-41732] [SC-119157][sql][SS] Przycinanie oparte na wzorcu drzewa dla reguły SessionWindowing
  • [SPARK-41498] [SC-119018] Propagacja metadanych przez Union
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Zaimplementuj metodę dostępu do kolumny
  • [SPARK-41736] [SC-119161][connect][PYTHON] pyspark_types_to_proto_types powinna obsługiwać ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Implementowanie funkcji format_number
  • [SPARK-41707] [SC-119141][connect][12.X] Implementacja interfejsu API katalogu w programie Spark Connect
  • [SPARK-41710] [SC-119062][connect][PYTHON] Implementacja Column.between
  • [SPARK-41235] [SC-119088][sql][PYTHON]Funkcja o wysokiej kolejności: implementacja array_compact
  • [SPARK-41518] [SC-118453][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] Implementowanie funkcji sequence
  • [SPARK-41703] [SC-119060][connect][PYTHON] Combine NullType and typed_null in Literal
  • [SPARK-41722] [SC-119090][connect][PYTHON] Zaimplementowanie 3 brakujących funkcji przedziału czasu
  • [SPARK-41503] [SC-119043][connect][PYTHON] Implementowanie funkcji przekształcania partycji
  • [SPARK-41413] [SC-118968][sql] Unikaj przetasowania w Storage-Partitioned Join w przypadku niezgodności kluczy partycji, ale wyrażenia łączenia są zgodne
  • [SPARK-41700] [SC-119046][connect][PYTHON] Usuń FunctionBuilder
  • [SPARK-41706] [SC-119094][connect][PYTHON] pyspark_types_to_proto_types powinna obsługiwać MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Dodawanie nieprawidłowych operacji kolumn
  • [SPARK-41660] [SC-118866][sql] Propagacja kolumn metadanych tylko wtedy, gdy są używane
  • [SPARK-41637] [SC-119003][sql] ORDER BY WSZYSTKIE
  • [SPARK-41513] [SC-118945][sql] Implementowanie akumulatora w celu zbierania metryk liczby wierszy mapowania
  • [SPARK-41647] [SC-119064][connect][12.X] Deduplikacja docstringów w pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][connect][PYTHON] Zapewnienie obsługi operacji na kolumnach decimal
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Implementowanie rollup, cube i pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY WSZYSTKIE
  • [SPARK-41645] [SC-119057][connect][12.X] Deduplikacja docstringów w pyspark.sql.connect.DataFrame
  • [SPARK-41688] [SC-118951][connect][PYTHON] Move Expressions to expressions.py
  • [SPARK-41687] [SC-118949][connect] Deduplikacja docstringów w pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][connect] Usuwaj duplikaty w docstringach w pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][connect] Wydziel GroupedData do group.py
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Implementowanie funkcji Window
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Zapewnienie obsługi operacji kolumn datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Włącz przestarzałe funkcje
  • [SPARK-41673] [SC-118932][connect][PYTHON] Zaimplementować Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] Implementowanie funkcji broadcast
  • [SPARK-41648] [SC-118914][connect][12.X] Zdeduplikować docstringi w pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][connect][12.X] Usunięcie duplikatów docstringów w pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][connect][12.X] Deduplikacja komentarzy dokumentacyjnych w pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Implementowanie pozostałych funkcji lambda
  • [SPARK-41441] [SC-118557][sql] Obsługa generowania bez wymaganych danych wyjściowych podrzędnych do hostowania odwołań zewnętrznych
  • [SPARK-41669] [SC-118923][sql] Wczesne przycinanie w canCollapseExpressions
  • [SPARK-41639] [SC-118927][sql][PROTOBUF] : Remove ScalaReflectionLock from SchemaConverters
  • [SPARK-41464] [SC-118861][connect][PYTHON] Implementowanie DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Początkowa implementacja LambdaFunction
  • [SPARK-41539] [SC-118802][sql] Mapowanie statystyk i ograniczeń na dane wyjściowe w planie logicznym dla LogicalRDD
  • [SPARK-41396] [SC-118786][sql][PROTOBUF] Obsługa pól OneOf i sprawdzanie rekursji
  • [SPARK-41528] [SC-118769][connect][12.X] Połącz przestrzeń nazw interfejsu API Spark Connect i PySpark
  • [SPARK-41568] [SC-118715][sql] Przypisywanie nazwy do _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][connect][PYTHON] Implementacja DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Dodawanie programu Spark Connect i protobuf do setup.py z określeniem zależności
  • [SPARK-27561] [SC-101081][12.x][SQL] Obsługa niejawnego rozpoznawania aliasu kolumny bocznej w programie Project
  • [SPARK-41535] [SC-118645][sql] Ustaw wartość null dla pól interwału kalendarza w InterpretedUnsafeProjection i InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][sql] Obsługa maskowania danych wbudowanej funkcji "maska"
  • [SPARK-41520] [SC-118440][sql] Podziel TreePattern AND_OR na oddzielne wzorce drzew AND i OR
  • [SPARK-41349] [SC-118668][connect][PYTHON] Zaimplementować DataFrame.hint
  • [SPARK-41546] [SC-118541][connect][PYTHON] pyspark_types_to_proto_types powinien obsługiwać StructType.
  • [SPARK-41334] [SC-118549][connect][PYTHON] Move SortOrder proto from relations to expressions
  • [SPARK-41387] [SC-118450][ss] Potwierdzenie bieżącego przesunięcia końcowego ze źródła danych platformy Kafka dla elementu Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][core][SQL] Zmień nazwę _LEGACY_ERROR_TEMP_1180 na UNEXPECTED_INPUT_TYPE i usuń _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Implementuj kolumnę. {when, w przeciwnym razie} i function when z UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Napraw zaproszenie do niewłaściwej metody podrzędnej w SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][connect][PYTHON] Zaimplementować DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Dodaj „spark.sql.json.enablePartialResults”, aby umożliwić lub wyłączyć częściowe wyniki JSON
  • [SPARK-41437] Przywróć "[SC-117601][sql] Nie optymalizuj zapytania wejściowego dwa razy dla rezerwowego zapisu w wersji 1"
  • [SPARK-41472] [SC-118352][connect][PYTHON] Zaimplementować resztę funkcji ciągów/binarnych
  • [SPARK-41526] [SC-118355][connect][PYTHON] Implementowanie Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Popraw spekulacje za pomocą metryk zadań etapu.
  • [SPARK-41524] [SC-118399][ss] Rozróżnianie obiektów SQLConf i extraOptions w StateStoreConf na potrzeby użycia w RocksDBConf
  • [SPARK-41465] [SC-118381][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][sql] Obsługa LongToUnsafeRowMap ignoruje DuplicatedKey
  • [SPARK-41409] [SC-118302][core][SQL] Zmień nazwę _LEGACY_ERROR_TEMP_1043 na WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Implementowanie DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Nie optymalizuj ponownie zapytania wejściowego dla zapisu awaryjnego w wersji 1
  • [SPARK-41314] [SC-117172][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Refactor LiteralExpression w celu obsługi elementu DataType
  • [SPARK-41448] [SC-118046] Ustaw spójne identyfikatory zadań MR w fileBatchWriter i FileFormatWriter
  • [SPARK-41456] [SC-117970][sql] Zwiększanie wydajności try_cast
  • [SPARK-41495] [SC-118125][connect][PYTHON] Implementowanie funkcji collection: P~Z
  • [SPARK-41478] [SC-118167][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] Zrefaktoryzować komunikat o błędzie dla NUM_COLUMNS_MISMATCH, aby uczynić go bardziej ogólnym
  • [SPARK-41404] [SC-118016][sql] Refaktoryzacja ColumnVectorUtils#toBatch, aby ColumnarBatchSuite#testRandomRows testować bardziej podstawowy typ danych
  • [SPARK-41468] [SC-118044][sql] Naprawa obsługi PlanExpression w równoważnych wyrażeniach
  • [SPARK-40775] [SC-118045][sql] Poprawiono zduplikowane odpisy opisu dla skanów plików V2
  • [SPARK-41492] [SC-118042][connect][PYTHON] Implementowanie funkcji MISC
  • [SPARK-41459] [SC-118005][sql] naprawa pustego wydruku dziennika operacji serwera thrift
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjection należy użyć setDecimal, aby ustawić wartości pustych dla wartości dziesiętnych w niebezpiecznym wierszu
  • [SPARK-41376] [SC-117840][core][3.3] Popraw logikę sprawdzania operacji preferDirectBufs w Netty podczas rozruchu wykonawcy
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Implementowanie funkcji collection: E~M
  • [SPARK-41389] [SC-117426][core][SQL] Ponowne użycie WRONG_NUM_ARGS zamiast _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][sql] Typ daty i znacznika czasu może zostać rzutowany do TimestampNTZ
  • [SPARK-41435] [SC-117810][sql] Zmiana wywołania invalidFunctionArgumentsError dla curdate(), gdy expressions nie jest pusta
  • [SPARK-41187] [SC-118030][core] Wycieki pamięci w LiveExecutor w AppStatusListener, gdy występuje utrata Executor
  • [SPARK-41360] [SC-118083][core] Unikaj ponownej rejestracji modułu BlockManager, jeśli proces wykonawczy został utracony
  • [SPARK-41378] [SC-117686][sql] Obsługa statystyk kolumn w DS v2
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Przesłonić prettyName funkcji StringDecode
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Implementowanie funkcji znacznika daty/godziny
  • [SPARK-41329] [SC-117975][connect] Rozwiązywanie cyklicznych importów w programie Spark Connect
  • [SPARK-41477] [SC-118025][connect][PYTHON] Prawidłowe wnioskowanie typu danych literału liczb całkowitych
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] Tworzenie schematu obsługi createDataFrame i większej liczby typów wejściowych zestawów danych
  • [SPARK-41475] [SC-117997][connect] Poprawka błędu polecenia lint-scala i błędu literowego
  • [SPARK-38277] [SC-117799][ss] Wyczyść partię zapisu po zatwierdzeniu magazynu stanów bazy danych RocksDB
  • [SPARK-41375] [SC-117801][ss] Unikaj pustej najnowszej wersji platformy KafkaSourceOffset
  • [SPARK-41412] [SC-118015][connect] Implement Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Zaimplementować DataFrame.melt i DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Refaktoryzuj testy związane z kolumnami do test_connect_column
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Kolumna powinna obsługiwać operator !=
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Dodawanie wypełnienia znaków po stronie odczytu w celu pokrycia zewnętrznych plików danych
  • [SPARK-41349] [SC-117594][connect][12.X] Implement DataFrame.hint
  • [SPARK-41338] [SC-117170][sql] Rozwiązywanie odwołań zewnętrznych i normalnych kolumn w tej samej partii analizatora
  • [SPARK-41436] [SC-117805][connect][PYTHON] Implementowanie funkcji collection: A~C
  • [SPARK-41445] [SC-117802][connect] Implement DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][sql] to_char powinna zwracać wartość null, gdy format ma wartość null
  • [SPARK-41444] [SC-117796][connect] Support read.json()
  • [SPARK-41398] [SC-117508][sql] Złagodzenie ograniczeń dotyczących sprzężenia Storage-Partitioned, gdy klucze partycji po filtrowaniu środowiska uruchomieniowego nie są zgodne
  • [SPARK-41228] [SC-117169][sql] Zmień nazwę & Ulepsz komunikat o błędzie dla COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][connect][PYTHON] Implementowanie funkcji count_distinct i sum_distinct
  • [SPARK-41433] [SC-117596][connect] Umożliwienie konfiguracji Maksymalnego Rozmiaru Partii Arrow
  • [SPARK-41397] [SC-117590][connect][PYTHON] Implementacja części funkcji tekstowych/binarnych
  • [SPARK-41382] [SC-117588][connect][PYTHON] Implementowanie funkcji product
  • [SPARK-41403] [SC-117595][connect][PYTHON] Zaimplementować DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() powinien być zgodny
  • [SPARK-41369] [SC-117584][connect] Dodawanie połączenia wspólnego z cieniowanym plikiem jar serwerów
  • [SPARK-41411] [SC-117562][ss] Poprawka błędu obsługi wielostanowego znaku wodnego operatora
  • [SPARK-41176] [SC-116630][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Implementowanie funkcji agregacji
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Implementowanie normalnych funkcji
  • [SPARK-41305] [SC-117411][connect] Ulepszanie dokumentacji polecenia proto
  • [SPARK-41372] [SC-117427][connect][PYTHON] Zaimplementuj TempView ramki danych
  • [SPARK-41379] [SC-117420][ss][PYTHON] Dostarczanie sklonowanej sesji Spark w DataFrame w funkcji użytkownika dla odbiornika foreachBatch w PySpark
  • [SPARK-41373] [SC-117405][sql][ERROR] Zmień nazwę CAST_WITH_FUN_SUGGESTION na CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Refaktoryzacja metody ColumnVectorUtils#populate do używania PhysicalDataType zamiast DataType
  • [SPARK-41355] [SC-117423][sql] Obejście problemu z weryfikacją nazwy tabeli hive
  • [SPARK-41390] [SC-117429][sql] Aktualizowanie skryptu używanego do generowania funkcji register w UDFRegistration
  • [SPARK-41206] [SC-117233][sc-116381][SQL] Zmień nazwę klasy błędów _LEGACY_ERROR_TEMP_1233 na COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Implementowanie funkcji matematycznych
  • [SPARK-40970] [SC-117308][connect][PYTHON] Wsparcie dla Listy[Kolumna] dla argumentu operacji Połącz jako "on"
  • [SPARK-41345] [SC-117178][connect] Dodaj wskazówkę do Connect Proto
  • [SPARK-41226] [SC-117194][sql][12.x] Refaktoryzacja typów platformy Spark przez wprowadzenie typów fizycznych
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Dodawanie podstawowej obsługi elementu DataFrameWriter
  • [SPARK-41347] [SC-117173][connect] Dodawanie rzutowania do proto wyrażenia
  • [SPARK-41323] [SC-117128][sql] Obsługa current_schema
  • [SPARK-41339] [SC-117171][sql] Zamknij i ponownie utwórz partię zapisu RocksDB zamiast tylko wyczyścić
  • [SPARK-41227] [SC-117165][connect][PYTHON] Implementowanie sprzężenia krzyżowego ramki danych
  • [SPARK-41346] [SC-117176][connect][PYTHON] Implementowanie funkcji asc i desc
  • [SPARK-41343] [SC-117166][connect] Przenieść analizowanie FunctionName na stronę serwera
  • [SPARK-41321] [SC-117163][connect] Obsługuj pole docelowe dla UnresolvedStar
  • [SPARK-41237] [SC-117167][sql] Ponowne użycie klasy błędów UNSUPPORTED_DATATYPE dla _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][sql] Ponowne użycie INVALID_SCHEMA.NON_STRING_LITERAL zamiast _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Optymalizacja użycia konstruktora StructType
  • [SPARK-41335] [SC-117135][connect][PYTHON] Wsparcie dla IsNull i IsNotNull w Kolumnie
  • [SPARK-41332] [SC-117131][connect][PYTHON] Poprawka nullOrdering w SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] Poprawka brakującej funkcji avg() dla grupowania według DF
  • [SPARK-41327] [SC-117137][core] Popraw SparkStatusTracker.getExecutorInfos, przełączając informację On/Off dla pamięci HeapStorage.
  • [SPARK-41315] [SC-117129][connect][PYTHON] Zaimplementować DataFrame.replace i DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Dodanie interfejsu API logicznego i tekstowego do kolumny
  • [SPARK-41331] [SC-117127][connect][PYTHON] Dodaj orderBy i drop_duplicates
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal należy upewnić się, że blokada jest odblokowana bezpiecznie
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Refaktoryzacja "Kolumny" dla zgodności z API
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Wdrożenie DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][sql] Dodaj klasę błędów INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] Ponowne użycie INVALID_SCHEMA zamiast _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][python][SS][12.x] W aktualizacji GroupState rzutowanie instancji biblioteki NumPy na typy pierwotne języka Python
  • [SPARK-41174] [SC-116609][core][SQL] Przekazanie klasy błędów użytkownikom dla nieprawidłowych formatto_binary()
  • [SPARK-41264] [SC-116971][connect][PYTHON] Umożliwienie literałowi obsługi większej liczby typów danych
  • [SPARK-41326] [SC-116972] [CONNECT] Naprawa deduplikacji brakujących danych wejściowych
  • [SPARK-41316] [SC-116900][sql] Włącz rekursję ogonową tam, gdzie to możliwe
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Obsługa wyrażeń ciągu w filtrze.
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] Implement DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] Migrowanie błędów opcji mapy do klas błędów
  • [SPARK-40940] [SC-115993][12.x] Usuń kontrolery operatorów wielostanowych dla zapytań przesyłanych strumieniowo.
  • [SPARK-41310] [SC-116885][connect][PYTHON] Implement DataFrame.toDF
  • [SPARK-41179] [SC-116631][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] LeftAnti nie aktualizuje wartości numOutputRows, gdy codegen jest wyłączony
  • [SPARK-41148] [SC-116878][connect][PYTHON] Zaimplementować DataFrame.dropna i DataFrame.na.drop
  • [SPARK-41217] [SC-116380][sql] Dodaj klasę błędów FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] Usprawnij DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Ujednolicić zachowanie dla SparkSession.range()
  • [SPARK-41306] [SC-116860][connect] Ulepszenie dokumentacji protokołu Connect Expression
  • [SPARK-41280] [SC-116733][connect] Implement DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] Nieustawiony schemat jest traktowany jako schemat
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Zmień nazwę RemoteSparkSession
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas nie powinien zwracać opcjonalnej ramki danych biblioteki pandas
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain powinno wydrukować i zwrócić None
  • [SPARK-41278] [SC-116732][connect] Czyszczenie nieużywanego atrybutu QualifiedAttribute w pliku Expression.proto
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Usuwanie nadmiarowej bazy konwersji kolekcji w kodzie Scala 2.13
  • [SPARK-41261] [SC-116718][python][SS] Rozwiązano problem dotyczący funkcji applyInPandasWithState, gdy kolumny kluczy grupowania nie są umieszczane w kolejności od najwcześniejszego
  • [SPARK-40872] [SC-116717][3.3] Przywrócenie do oryginalnego bloku losowego sortowania, gdy scalony z użyciem push fragment losowego sortowania ma rozmiar zerowy
  • [SPARK-41114] [SC-116628][connect] Obsługa danych lokalnych dla LocalRelation
  • [SPARK-41216] [SC-116678][connect][PYTHON] Implementacja DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] Obsługa bardziej wbudowanych typów danych
  • [SPARK-41230] [SC-116674][connect][PYTHON] Usuń str z typu wyrażenia agregacji
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Zoptymalizowana implementacja zbierania oparta na Arrow w celu przesyłania strumieniowego z serwera do klienta
  • [SPARK-41222] [SC-116625][connect][PYTHON] Ujednolicenie definicji wpisywania
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Wyłącz nieobsługiwane funkcje.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Implementowanie DataFrame.SelectExpr w kliencie języka Python
  • [SPARK-41203] [SC-116258] [CONNECT] Obsługa funkcji Dataframe.transform w kliencie języka Python.
  • [SPARK-41213] [SC-116375][connect][PYTHON] Zaimplementować DataFrame.__repr__ i DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Implementacja DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] Przemigrowano niejednoznaczny błąd odwołania do klasy błędów
  • [SPARK-41122] [SC-116141][connect] Wyjaśnij interfejs API może obsługiwać różne tryby
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] Ulepszanie wnioskowania typu PySpark w metodzie _merge_type
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Homogenizowanie wersji protobuf na serwerze spark connect do korzystania z tej samej wersji głównej.
  • [SPARK-35531] [SC-116409][sql] Aktualizowanie statystyk tabeli hive bez niepotrzebnej konwersji
  • [SPARK-41154] [SC-116289][sql] Niepoprawne buforowanie relacji dla zapytań ze specyfikacją podróży czasowych
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Implement DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Zmień nazwę UNSUPPORTED_EMPTY_LOCATION na INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Dodawanie interfejsu API rozszerzenia do planowania normalizacji buforowania
  • [SPARK-41054] [SC-116447][ui][CORE] Obsługa bazy danych RocksDB jako magazynu KVStore w interfejsie użytkownika na żywo
  • [SPARK-38550] [SC-115223]Przywracanie "[SQL][core] Użyj magazynu opartego na dyskach, aby zapisać więcej informacji debugowania dla dynamicznego interfejsu użytkownika"
  • [SPARK-41173] [SC-116185][sql] Przenieś require() z konstruktorów wyrażeń ciągu
  • [SPARK-41188] [SC-116242][core][ML] Ustaw środowisko wykonawcze OMP_NUM_THREADS na wartość spark.task.cpus domyślnie dla procesów JVM dla platformy Spark
  • [SPARK-41130] [SC-116155][sql] Zmień nazwę OUT_OF_DECIMAL_TYPE_RANGE na NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Zmniejsz konwersję kolekcji podczas tworzenia AtrybutMap
  • [SPARK-41139] [SC-115983][sql] Ulepszanie klasy błędów: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Wymagaj zaciemniania dla pliku JAR klasy Java, ulepsz obsługę błędów
  • [SPARK-40999] [SC-116168] Propagacja wskazówek do podzapytań
  • [SPARK-41017] [SC-116054][sql] Obsługa oczyszczania kolumn z wieloma nieokreślonymi filtrami
  • [SPARK-40834] [SC-114773][sql] Używanie elementu SparkListenerSQLExecutionEnd do śledzenia końcowego stanu SQL w interfejsie użytkownika
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_number powinny zwracać null, gdy format jest null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: Wyświetlanie interfejsu wykazu
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Unikaj osadzania programu Spark Connect w wersji binarnej platformy Apache Spark
  • [SPARK-41048] [SC-116043][sql] Ulepszanie partycjonowania i porządkowania danych wyjściowych za pomocą pamięci podręcznej AQE
  • [SPARK-41198] [SC-116256][ss] Poprawiono metryki w zapytaniu przesyłanym strumieniowo wykorzystującym CTE i źródło przesyłania strumieniowego DSv1
  • [SPARK-41199] [SC-116244][ss] Rozwiązano problem z metrykami, gdy źródło przesyłania strumieniowego DSv1 i źródło przesyłania strumieniowego DSv2 są współużytowane
  • [SPARK-40957] [SC-116261][sc-114706] Dodaj pamięć podręczną w HDFSMetadataLog
  • [SPARK-40940] Cofnij “[SC-115993] Usuń wielostanowe kontrolery operatorów dla zapytań przesyłanych strumieniowo”.
  • [SPARK-41090] [SC-116040][sql] Rzuć wyjątek dla db_name.view_name podczas tworzenia widoku tymczasowego za pomocą API zestawu danych
  • [SPARK-41133] [SC-116085][sql] Integracja UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION z NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] 9 zatwierdzeń zestawu kodu
  • [SPARK-40448] [SC-114447][sc-1113114][CONNECT] Kompilacja programu Spark Connect jako wtyczka sterownika z cieniowanymi zależnościami
  • [SPARK-41096] [SC-115812][sql] Obsługa odczytywania typu parquet FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][sql] Zmień nazwę klasy błędów _LEGACY_ERROR_TEMP_2440 na INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Niezgodność między FileSourceScanExec a Orc i ParquetFileFormat podczas tworzenia danych wyjściowych kolumnowych
  • [SPARK-41155] [SC-115991][sql] Dodanie komunikatu o błędzie do SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Usuń wielostanowe sprawdzacze operatorów w zapytaniach strumieniowych.
  • [SPARK-41098] [SC-115790][sql] Zmień nazwę GROUP_BY_POS_REFERS_AGG_EXPR na GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] Przenieś błędy kontroli typów formatowania liczb do klas błędów
  • [SPARK-41059] [SC-115658][sql] Zmień nazwę _LEGACY_ERROR_TEMP_2420 na NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Konwertuj DATATYPE_MISMATCH.UNSPECIFIED_FRAME do INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][sql] Zmień nazwę _LEGACY_ERROR_TEMP_0055 na UNCLOSED_BRACKETED_COMMENT

Aktualizacje konserwacyjne

Zobacz konserwacyjne aktualizacje środowiska Databricks Runtime 12.1.

Środowisko systemu

  • System operacyjny: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 wywołanie zwrotne 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 czarny 22.3.0 wybielacz 4.1.0
boto3 1.21.32 botocore 1.24.32 certyfikat 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
kliknij 8.0.4 kryptografia 3.4.8 rowerzysta 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
dekorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
konwersja docstring na markdown 0,11 punkty wejścia 0,4 Wykonywanie 0.8.3
aspekty — omówienie 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Mccabe 0.7.0 rozstroić 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notatnik 6.4.8 numpy 1.21.5 opakowanie 21,3
Pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
specyfikacja ścieżki 0.9.0 Patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Poduszka 9.0.1 pip 21.2.4
platformdirs 2.6.0 kreślenie 5.6.0 Pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
żądania 2.27.1 requests-unixsocket 0.2.0 lina 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
Sześć 1.16.0 sito do zupy 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 Wytrzymałość 8.0.1
ukończony 0.13.1 ścieżka testowa 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
nienadzorowane uaktualnienia 0.1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.3
koło 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki CRAN Microsoft z dnia 2022-11-11.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzałka 10.0.0 askpass 1.1 assertthat 0.2.1
backports (przeniesione wstecz) 1.4.1 baza 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 plama 1.2.3
bootowanie 1.3-28 warzyć 1.0-8 Brio 1.1.3
miotła 1.0.1 bslib 0.4.1 cachem 1.0.6
obiekt wywołujący 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 klasa 7.3-20 cli 3.4.1
clipr 0.8.0 zegar 0.6.1 klaster 2.1.4
codetools 0.2-18 przestrzeń kolorów 2.0-3 commonmark 1.8.1
— kompilator 4.2.2 konfiguracja 0.3.1 cpp11 0.4.3
kredka 1.5.2 Poświadczenia 1.3.2 skręt 4.3.3
tabela danych 1.14.4 zbiory danych 4.2.2 DBI 1.1.3
dbplyr 2.2.1 opis 1.4.2 devtools 2.4.5
diffobj 0.3.5 trawić / streszczenie 0.6.30 przygaszony 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
wielokropek 0.3.2 ocenić 0.18 fani 1.0.3
kolory 2.1.1 szybka mapa 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 zagraniczny 0.8-82
kuźnia 0.2.0 fs 1.5.2 przyszłość 1.29.0
wprowadź przyszłość 1.10.0 płukać gardło 1.2.1 Generyczne 0.1.3
Gert 1.9.1 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globalna 0.16.1
klej 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 grafika 4.2.2 grDevices 4.2.2
siatka 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 przystań 2.5.1
wyższy 0,9 Hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
Identyfikatory 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iteratory 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
Etykietowanie 0.4.2 później 1.3.0 krata 0.20-45
lawa 1.7.0 cykl życia 1.0.3 nasłuchiwanie 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1.3
MASA 7.3-58 Macierz 1.5-1 zapamiętywanie 2.0.1
metody 4.2.2 mgcv 1.8-41 mim 0,12
miniUI 0.1.1.1 Metryki modelu 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 równoległy 4.2.2
równolegle 1.32.1 filar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 pochwała 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Postęp 1.2.2
progressr 0.11.0 Obietnice 1.2.0.1 Proto 1.0.0
proxy 0.4-27 PS 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 przepisy 1.0.3
rewanż 1.0.1 rewanż 2 2.1.2 Zdalne sterowania 2.4.2
przykładowy kod reprodukcyjny 2.0.2 zmień kształt2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0,14 rversions (wersje r) 2.1.2
rvest 1.0.3 Sass 0.4.2 waga 1.2.1
selektor 0.4-2 informacja o sesji 1.2.2 kształt 1.4.6
błyszczący 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 przestrzenny 7.3-11 Splajny 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Statystyki 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
przetrwanie 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 kształtowanie tekstu 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 zmiana czasu 0.1.1 timeDate 4021.106
tinytex 0.42 narzędzia 4.2.2 tzdb 0.3.0
sprawdzacz URL 1.0.1 użyj tego 2.1.6 utf8 1.2.2
narzędzia 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 Vroom 1.6.0 Waldo 0.4.0
włos czuciowy 0,4 Withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zamek 2.2.2

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws Klient Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-uczenie-maszynowe 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-biblioteki 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics strumień 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kriogenicznie cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core Adnotacje Jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.kofeina kofeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib rdzeń 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib natywny_system java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guawa 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger Profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfiguracja 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity parsery jednoznaczności 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload (przesyłanie plików commons) 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor powietrza 0.21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metryki —rdzeń 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metryki-sprawdzanie zdrowia 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metryki-JVM 4.1.1
io.dropwizard.metrics serwlety metryczne 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx kolekcjoner 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine ogórek konserwowy 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr StringTemplate 3.2.1
org.apache.ant mrówka 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format strzałki 7.0.0
org.apache.arrow strzałka-pamięć-rdzeń 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow wektor strzałki 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy bluszcz 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc podkładki orc 1.7.6
org.apache.parquet kolumna Parquet 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet kodowanie formatu parquet 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus adnotacje dla publiczności 0.13.0
org.apache.zookeeper opiekun zoo 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-kontynuacja 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket WebSocket API 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-klient 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket serwer WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Podkładki regulacyjne 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark Nieużywane 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1