Databricks Runtime 10.4 LTS
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 10.4 LTS i Databricks Runtime 10.4 LTS Photon obsługiwanym przez platformę Apache Spark 3.2.1. Photon jest w publicznej wersji zapoznawczej. Usługa Databricks wydała tę wersję w marcu 2022 r.
Uwaga
LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.
Napiwek
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.
Nowe funkcje i ulepszenia
- Konwerter tabel góry lodowej do delty (publiczna wersja zapoznawcza)
- Automatyczne wycofywanie kompaktowania jest teraz domyślnie włączone
- Funkcja Low Shuffle Merge jest teraz domyślnie włączona
-
Tagi kolejności wstawiania są teraz zachowywane dla
UPDATE
s iDELETE
s - HikariCP jest teraz domyślną pulą połączeń magazynu metadanych Hive
- Łącznik usługi Azure Synapse umożliwia teraz ustawienie maksymalnej liczby dozwolonych wierszy odrzucania
- Asynchroniczne sprawdzanie stanu jest teraz ogólnie dostępne
- Wartości domyślne parametrów można teraz określić dla funkcji zdefiniowanych przez użytkownika SQL
- Nowe funkcje Spark SQL
- Nowy katalog roboczy dla klastrów o wysokiej współbieżności
- Obsługa kolumn tożsamości w tabelach delty jest teraz ogólnie dostępna
Konwerter tabel góry lodowej do delty (publiczna wersja zapoznawcza)
Funkcja Konwertuj na funkcję Delta obsługuje teraz konwertowanie tabeli góry lodowej na tabelę delty. Robi to przy użyciu natywnych metadanych i manifestów plików Iceberg. Zobacz Konwertowanie na usługę Delta Lake.
Automatyczne wycofywanie kompaktowania jest teraz domyślnie włączone
Ta wersja poprawia zachowanie zapisów usługi Delta Lake, które zatwierdzają się w przypadku równoczesnych transakcji automatycznego kompaktowania. Przed tą wersją takie operacje zapisu często kończyłyby się z powodu współbieżnych modyfikacji tabeli. Operacje zapisu powiedzą się teraz nawet wtedy, gdy istnieją współbieżne transakcje autokompaktacji.
Funkcja Low Shuffle Merge jest teraz domyślnie włączona
Polecenie MERGE INTO
zawsze używa teraz nowej implementacji niskiego mieszania. To zachowanie znacznie poprawia wydajność MERGE INTO
polecenia dla większości obciążeń. Ustawienie konfiguracji, które zostało wcześniej użyte do włączenia tej funkcji, zostało usunięte. Zobacz Low shuffle merge on Azure Databricks (Niska ilość operacji mieszania w usłudze Azure Databricks).
Tagi kolejności wstawiania są teraz zachowywane dla UPDATE
s i DELETE
s
Polecenia UPDATE
i DELETE
zachowują teraz istniejące informacje klastrowania (w tym kolejność Z) dla plików, które są aktualizowane lub usuwane. Takie zachowanie jest najlepszym rozwiązaniem i takie podejście nie ma zastosowania do przypadków, gdy pliki są tak małe, że te pliki są łączone podczas aktualizacji lub usuwania.
HikariCP jest teraz domyślną pulą połączeń magazynu metadanych Hive
HikariCP zapewnia wiele ulepszeń stabilności dostępu do magazynu metadanych Hive przy zachowaniu mniejszej liczby połączeń w porównaniu z poprzednią implementacją puli połączeń BoneCP. Funkcja HikariCP jest domyślnie włączona w dowolnym klastrze środowiska Databricks Runtime używającym magazynu metadanych Hive usługi Databricks (na przykład, gdy spark.sql.hive.metastore.jars
nie jest ustawiona). Można również jawnie przełączyć się do innych implementacji puli połączeń, na przykład BoneCP, ustawiając wartość spark.databricks.hive.metastore.client.pool.type
.
Łącznik usługi Azure Synapse umożliwia teraz ustawienie maksymalnej liczby dozwolonych wierszy odrzucania
Łącznik usługi Azure Synapse obsługuje teraz opcję maxErrors DataFrame. Ta aktualizacja umożliwia skonfigurowanie maksymalnej liczby odrzuconych wierszy, które są dozwolone podczas operacji odczytu i zapisu przed anulowaniem operacji ładowania. Wszystkie odrzucone wiersze są ignorowane. Jeśli na przykład dwa z dziesięciu rekordów zawierają błędy, przetwarzane są tylko osiem rekordów.
Ta opcja jest mapowania bezpośrednio na REJECT_VALUE
opcję instrukcji CREATE EXTERNAL TABLE
w programie PolyBase i do MAXERRORS
opcji polecenia łącznika COPY
usługi Azure Synapse.
Domyślnie maxErrors
wartość jest ustawiona na 0
wartość : wszystkie rekordy powinny być prawidłowe.
Asynchroniczne sprawdzanie stanu jest teraz ogólnie dostępne
Możesz włączyć asynchroniczne tworzenie punktów kontrolnych stanu w stanowych zapytaniach przesyłania strumieniowego z dużymi aktualizacjami stanu. Może to zmniejszyć kompleksowe opóźnienie mikrosadowe. Ta funkcja jest teraz ogólnie dostępna. Zobacz Asynchroniczne punkty kontrolne stanu dla zapytań stanowych.
Wartości domyślne parametrów można teraz określić dla funkcji zdefiniowanych przez użytkownika SQL
Podczas tworzenia funkcji zdefiniowanej przez użytkownika SQL (SQL UDF) można teraz określić wyrażenia domyślne dla parametrów funkcji zdefiniowanej przez użytkownika SQL. Następnie można wywołać funkcję zdefiniowanej przez użytkownika SQL bez podawania argumentów dla tych parametrów, a usługa Databricks wypełni wartości domyślne dla tych parametrów. Zobacz CREATE FUNCTION (SQL i Python).
Nowe funkcje Spark SQL
Następujące funkcje Spark SQL są teraz dostępne w tej wersji:
-
try_multiply: zwraca
multiplier
wartość pomnożona przezmultiplicand
wartość lubNULL
przy przepełnieniu. -
try_subtract: zwraca odejmowanie
expr2
wartości zexpr1
, lubNULL
na przepełnieniu.
Nowy katalog roboczy dla klastrów o wysokiej współbieżności
W klastrach o wysokiej współbieżności z włączoną kontrolą dostępu do tabeli lub przekazywaniem poświadczeń bieżący katalog roboczy notesów jest teraz katalogiem macierzysty użytkownika. Wcześniej katalog roboczy to /databricks/driver
.
Obsługa kolumn tożsamości w tabelach delty jest teraz ogólnie dostępna
Usługa Delta Lake obsługuje teraz kolumny tożsamości. Podczas zapisywania w tabeli delty, która definiuje kolumnę tożsamości i nie podajesz wartości dla tej kolumny, funkcja Delta automatycznie przypisuje unikatową i statystycznie rosnącą lub malejącą wartość. Zobacz CREATE TABLE [USING].
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- filelock z wersji 3.4.2 do 3.6.0
- Uaktualnione biblioteki języka R:
- warzenie od 1.0-6 do 1.0-7
- miotła od 0.7.11 do 0.7.12
- interfejs wiersza polecenia z wersji 3.1.0 do 3.2.0
- program clipr z wersji 0.7.1 do 0.8.0
- przestrzeń kolorów z zakresu od 2.0 do 2.0-3
- kredka z 1.4.2 do 1.5.0
- dplyr z wersji 1.0.7 do 1.0.8
- dtplyr z wersji 1.2.0 do 1.2.1
- ocena z zakresu od 0,14 do 0,15
- foreach z wersji 1.5.1 do 1.5.2
- przyszłość z wersji 1.23.0 do 1.24.0
- typy ogólne od 0.1.1 do 0.1.2
- klej z 1.6.0 do 1.6.1
- przejdź z wersji 0.2.2 do 1.0.0
- iteratory z wersji 1.0.13 do 1.0.14
- jsonlite z wersji 1.7.3 do 1.8.0
- magrittr z wersji 2.0.1 do 2.0.2
- mgcv z 1.8-38 do 1.8-39
- od 1.6.4 do 1.7.0
- randomForest z 4.6-14 do 4.7-1
- readr z wersji 2.1.1 do 2.1.2
- przepisy od 0.1.17 do 0.2.0
- rlang z wersji 0.4.12 do 1.0.1
- rpart z 4.1-15 do 4.1.16
- RSQLite z wersji 2.2.9 do 2.2.10
- sparklyr z 1.7.4 do 1.7.5
- testthat z 3.1.1 do 3.1.2
- od 1.1.4 do 1.2.0
- tidyselect z 1.1.1 do 1.1.2
- tinytex z 0.36 do 0.37
- yaml z wersji 2.2.1 do 2.3.5
- Uaktualnione biblioteki Java:
- io.delta.delta-sharing-spark_2.12 z wersji 0.3.0 do 0.4.0
Apache Spark
Środowisko Databricks Runtime 10.4 LTS obejmuje platformę Apache Spark 3.2.1. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 10.3 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-38322] [SQL] Etap zapytania pomocy technicznej pokazuje statystyki środowiska uruchomieniowego w trybie objaśnienia sformatowanego
- [SPARK-38162] [SQL] Optymalizowanie planu jednego wiersza w normalnym i optymalizatorze AQE
- [SPARK-38229] [SQL] Nie należy sprawdzać temp/external/ifNotExists z visitReplaceTable podczas analizatora
- [SPARK-34183] [SS] DataSource V2: wymagana dystrybucja i kolejność wykonywania mikrosadowego
- [SPARK-37932] [SQL]Poczekaj, aby rozwiązać problem z brakującymi atrybutami przed zastosowaniem deduplikacjiRelations
- [SPARK-37904] [SQL] Ulepszanie elementów RebalancePartition w regułach optymalizatora
- [SPARK-38236] [SQL][3.2][3.1] Sprawdź, czy lokalizacja tabeli jest bezwzględna według wartości "new Path(locationUri).isAbsolute" w tabeli create/alter
- [SPARK-38035] [SQL] Dodawanie testów platformy Docker dla dialektu JDBC kompilacji
- [SPARK-38042] [SQL] Upewnij się, że funkcja ScalaReflection.dataTypeFor działa w przypadku aliasowanych typów tablic
-
[SPARK-38273] [SQL]
decodeUnsafeRows
' iteratory s powinny zamknąć bazowe strumienie wejściowe - [SPARK-38311] [SQL] Naprawiono element DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite w trybie ANSI
- [SPARK-38305] [CORE] Jawne sprawdzanie, czy źródło istnieje w unpack() przed wywołaniem metod FileUtil
- [SPARK-38275] [SS] Uwzględnij użycie pamięci writeBatch jako całkowite użycie pamięci magazynu stanów bazy danych RocksDB
-
[SPARK-38132] [SQL] Usuń
NotPropagation
regułę - [SPARK-38286] [SQL] MaxRows i maxRowsPerPartition unii mogą przepełnić się
- [SPARK-38306] [SQL] Fix ExplainSuite,StatisticsCollectionSuite i StringFunctionsSuite w trybie ANSI
- [SPARK-38281] [SQL][Testy] Naprawianie aplikacji AnalysisSuite w trybie ANSI
- [SPARK-38307] [SQL][Testy] Naprawiono element ExpressionTypeCheckingSuite i CollectionExpressionsSuite w trybie ANSI
-
[SPARK-38300] [SQL] Użyj
ByteStreams.toByteArray
, aby uprościćfileToString
iresourceToBytes
w catalyst.util - [SPARK-38304] [SQL] Funkcja Elt() powinna zwracać wartość null, jeśli indeks ma wartość null w trybie ANSI
- [SPARK-38271] PoissonSampler może zwracać więcej wierszy niż MaxRows
- [SPARK-38297] [PYTHON] Jawne rzutowanie wartości zwracanej na DataFrame.to_numpy w usłudze POS
- [SPARK-38295] [SQL][Testy] Naprawiono element ArithmeticExpressionSuite w trybie ANSI
- [SPARK-38290] [SQL] Naprawianie aplikacji JsonSuite i ParquetIOSuite w trybie ANSI
-
[SPARK-38299] [SQL] Czyszczenie przestarzałego użycia
StringBuilder.newBuilder
- [SPARK-38060] [SQL] Uwzględnianie wartości allowNonNumericNumber podczas analizowania cytowanych wartości NaN i Infinity w czytniku JSON
- [SPARK-38276] [SQL] Dodawanie zatwierdzonych planów TPCDS w trybie ANSI
- [SPARK-38206] [SS] Ignoruj wartość null podczas porównywania typu danych kluczy sprzężenia w sprzężeniu strumienia
- [SPARK-37290] [SQL] — czas planowania wykładniczego w przypadku funkcji niedeterministycznej
- [SPARK-38232] [SQL] Wyjaśnienie sformatowane nie zbiera podzapytania na etapie zapytania w usłudze AQE
- [SPARK-38283] [SQL] Testowanie nieprawidłowej analizy daty/godziny w trybie ANSI
- [SPARK-38140] [SQL] Statystyki kolumn desc (min, max) dla typu znacznika czasu nie są zgodne z wartościami z powodu różnicy strefy czasowej
- [SPARK-38227] [SQL][SS] Stosowanie ścisłej wartości null kolumny zagnieżdżonej w oknie czasu/w oknie sesji
- [SPARK-38221] [SQL] Z niecierpliwością iteruje grupowanieWyrażenia podczas przenoszenia złożonych wyrażeń grupowania z węzła Agregacja
- [SPARK-38216] [SQL] Niepowodzenie na wczesnym etapie, jeśli wszystkie kolumny są partycjonowane podczas tworzenia tabeli Programu Hive
- [SPARK-38214] [SS]Nie trzeba filtrować okien, gdy funkcja windowDuration jest wielokrotną wartością slideDuration
- [SPARK-38182] [SQL] Napraw wyjątek NoSuchElementException, jeśli wypchnięty filtr nie zawiera żadnych odwołań
- [SPARK-38159] [SQL] Dodawanie nowego atrybutu FileSourceMetadataAttribute dla metadanych pliku ukrytego
-
[SPARK-38123] [SQL] Ujednolicone użycie
DataType
jakotargetType
QueryExecutionErrors#castingCauseOverflowError
- [SPARK-38118] [SQL] Func(nieprawidłowy typ danych) w klauzuli HAVING powinien zgłaszać błąd niezgodności danych
- [SPARK-35173] [SQL][PYTHON] Dodawanie wielu kolumn dodających obsługę
- [SPARK-38177] [SQL] Naprawianie nieprawidłowych przekształceńExpressions w optymalizatorze
- [SPARK-38228] [SQL] Starsze przypisanie magazynu nie powinno zakończyć się niepowodzeniem po błędzie w trybie ANSI
- [SPARK-38173] [SQL] Nie można poprawnie rozpoznać cytowanej kolumny podczas cytowaniaRegexColumnNa...
- [SPARK-38130] [SQL] Usuwanie array_sort sprawdzania wpisów możliwych do zamówienia
-
[SPARK-38199] [SQL] Usuń nieużywane
dataType
określone w definicjiIntervalColumnAccessor
- [SPARK-38203] [SQL] Naprawianie aplikacji SQLInsertTestSuite i SchemaPruningSuite w trybie ANSI
-
[SPARK-38163] [SQL] Zachowaj klasę
SparkThrowable
błędów podczas konstruowania konstruktora funkcji - [SPARK-38157] [SQL] Jawne ustawienie anSI na wartość false w teście timestampNTZ/timestamp.sql i SQLQueryTestSuite w celu dopasowania do oczekiwanych złotych wyników
- [SPARK-38069] [SQL][SS] Ulepszanie obliczania przedziału czasu
- [SPARK-38164] [SQL] Nowe funkcje SQL: try_subtract i try_multiply
- [SPARK-38176] [SQL] Tryb ANSI: zezwalaj na niejawne rzutowanie ciągu do innych prostych typów
- [SPARK-37498] [PYTHON] Dodaj ostatecznie dla test_reuse_worker_of_parallelize_range
- [SPARK-38198] [SQL][3.2] Poprawka queryExecution.debug#toFile użyj przekazanego elementu maxFields, gdy element explainMode to CodegenMode
- [SPARK-38131] [SQL] Używanie klas błędów tylko w wyjątkach napotykanych przez użytkownika
- [SPARK-37652] [SQL] Dodawanie testu optymalizacji niesymetrycznego sprzężenia za pomocą unii
- [SPARK-37585] [SQL] Aktualizowanie metryki wejściowej w źródle danychRDD za pomocą elementu TaskCompletionListener
- [SPARK-38113] [SQL] Używanie klas błędów w błędach wykonywania przestawnych
- [SPARK-38178] [SS] Poprawianie logiki w celu mierzenia użycia pamięci bazy danych RocksDB
- [SPARK-37969] [SQL] Format HiveFileFormat powinien sprawdzać nazwę pola
- [SPARK-37652] Przywróć "[SQL]Dodaj test optymalizacji niesymetrycznego sprzężenia za pomocą unii"
- [SPARK-38124] [SQL][SS] Wprowadzenie elementu StatefulOpClusteredDistribution i zastosowanie do sprzężenia strumienia
- [SPARK-38030] [SQL] Canonicalization nie powinna usuwać wartości null atrybutu AttributeReference dataType
- [SPARK-37907] [SQL] Obsługa metody InvokeLike — stałefoldowanie
- [SPARK-37891] [CORE] Dodaj sprawdzanie stylu scalastyle, aby wyłączyć funkcję scala.concurrent.ExecutionContext.Implicits.global
- [SPARK-38150] [SQL] Update comment of RelationConversions
- [SPARK-37943] [SQL] Używanie klas błędów w błędach kompilacji grupowania
- [SPARK-37652] [SQL]Dodawanie testu optymalizacji niesymetrycznego sprzężenia za pomocą unii
- [SPARK-38056] [Internetowy interfejs użytkownika][3.2] Rozwiązano problem polegający na tym, że przesyłanie strumieniowe ze strukturą nie działało na serwerze historii podczas korzystania z bazy danych LevelDB
-
[SPARK-38144] [CORE] Usuń nieużywaną
spark.storage.safetyFraction
konfigurację - [SPARK-38120] [SQL] Napraw hiveExternalCatalog.listPartitions, gdy nazwa kolumny partycji ma wielkie litery i kropkę w wartości partycji
- [SPARK-38122] [Docs] Aktualizowanie klucza aplikacji w usłudze DocSearch
- [SPARK-37479] [SQL] Migrowanie PRZESTRZENI NAZW DROP do domyślnego używania polecenia V2
- [SPARK-35703] [SQL] Ograniczenie relaksowania dla sprzężenia zasobnika i usuwanie skrótuClusteredDistribution
- [SPARK-37983] [SQL] Wycofaj metryki czasu kompilacji agg z agregacji sortowania
- [SPARK-37915] [SQL] Łączenie związków, jeśli istnieje projekt między nimi
- [SPARK-38105] [SQL] Używanie klas błędów w błędach analizowania sprzężeń
- [SPARK-38073] [PYTHON] Aktualizowanie funkcji atexit w celu uniknięcia problemów z późnym powiązaniem
- [SPARK-37941] [SQL] Używanie klas błędów w błędach kompilacji rzutowania
- [SPARK-37937] [SQL] Używanie klas błędów w błędach analizowania sprzężenia bocznego
-
[SPARK-38100] [SQL] Usuń nieużywaną metodę prywatną w
Decimal
- [SPARK-37987] [SS] Naprawianie niestabilnego testu StreamingAggregationSuite.zmiana schematu stanu podczas ponownego uruchamiania zapytania
- [SPARK-38003] [SQL] Reguła LookupFunctions powinna wyszukiwać tylko funkcje z rejestru funkcji skalarnych
-
[SPARK-38075] [SQL] Poprawka
hasNext
wHiveScriptTransformationExec
iteratorze danych wyjściowych procesu - [SPARK-37965] [SQL] Usuwanie nazwy pola wyboru podczas odczytywania/zapisywania istniejących danych w orc
- [SPARK-37922] [SQL] Połącz z jednym rzutem, jeśli możemy bezpiecznie rzutować dwie rzuty (dla dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] Zapobiegaj zastępowaniu scalonych plików wypychanych po zakończeniu mieszania
- [SPARK-38011] [SQL] Usuwanie zduplikowanej i bezużytecznej konfiguracji w pliku ParquetFileFormat
-
[SPARK-37929] [SQL] Obsługa trybu kaskadowego dla interfejsu
dropNamespace
API - [SPARK-37931] [SQL] W razie potrzeby podaj nazwę kolumny
- [SPARK-37990] [SQL] Obsługa funkcji TimestampNTZ w obiekcie RowToColumnConverter
-
[SPARK-38001] [SQL] Zastąp klasy błędów związane z nieobsługiwanych funkcjami według
UNSUPPORTED_FEATURE
-
[SPARK-37839] [SQL] Ds v2 obsługuje częściowe wypychanie agregacji
AVG
- [SPARK-37878] [SQL] Migruj SHOW CREATE TABLE na domyślne użycie polecenia w wersji 2
- [SPARK-37731] [SQL] Refaktoryzacja i oczyszczanie wyszukiwania funkcji w analizatorze
- [SPARK-37979] [SQL] Przełączanie do bardziej ogólnych klas błędów w funkcjach AES
- [SPARK-37867] [SQL] Kompilowanie funkcji agregujących kompilacji dialektu JDBC
- [SPARK-38028] [SQL] Uwidaczniaj wektor strzałki ze strzałkiKolumnVector
- [SPARK-30062] [SQL] Dodawanie instrukcji IMMEDIATE do implementacji obcinania dialektu DB2
-
[SPARK-36649] [SQL] Obsługa
Trigger.AvailableNow
źródła danych platformy Kafka - [SPARK-38018] [SQL] Napraw kolumnę ColumnVectorUtils.populate, aby poprawnie obsługiwać typ CalendarIntervalType
-
[SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemoved
powinna obsłużyćExecutorDecommission
jako zakończona -
[SPARK-38019] [CORE] Określanie
ExecutorMonitor.timedOutExecutors
- [SPARK-37957] [SQL] Poprawnie przekaż flagę deterministyczną dla funkcji skalarnych w wersji 2
- [SPARK-37985] [SQL] Naprawianie niestabilnego testu dla platformy SPARK-37578
- [SPARK-37986] [SQL] Obsługa funkcji TimestampNTZ w sortowaniu promieniowym
- [SPARK-37967] [SQL] Literał.create obsługuje typ obiektu
- [SPARK-37827] [SQL] Umieść kilka wbudowanych właściwości tabeli w wersji 1Table.propertie, aby dostosować się do polecenia V2
- [SPARK-37963] [SQL] Należy zaktualizować identyfikator URI partycji po zmianie nazwy tabeli w inMemoryCatalog
- [SPARK-35442] [SQL] Obsługa propagacji pustej relacji za pomocą agregacji/unii
- [SPARK-37933] [SQL] Zmienianie metody przechodzenia reguł wypychania V2ScanRelationPushDown
- [SPARK-37917] [SQL] Wypchnij limit 1 dla prawej strony lewej części/antysprzężenia, jeśli warunek sprzężenia jest pusty
- [SPARK-37959] [ML] Naprawienie ut sprawdzania norm w KMeans i BiKMeans
- [SPARK-37906] [SQL] spark-sql nie powinien przekazywać ostatniego komentarza do zaplecza
- [SPARK-37627] [SQL] Dodawanie posortowanej kolumny w bucketTransform
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 10.4 LTS.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.2
- Delta Lake: 1.1.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (rolling ISO) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
async-generator | 1.10 | attrs | 20.3.0 | backcall | 0.2.0 |
bidict | 0.21.4 | wybielacz | 3.3.0 | boto3 | 1.16.7 |
botocore | 1.19.7 | certifi | 2020.12.5 | cffi | 1.14.5 |
chardet | 4.0.0 | rowerzysta | 0.10.0 | Cython | 0.29.23 |
dbus-python | 1.2.16 | dekorator | 5.0.6 | defusedxml | 0.7.1 |
distlib | 0.3.4 | dystrybucja informacji | 0.23ubuntu1 | punkty wejścia | 0.3 |
aspekty — omówienie | 1.0.0 | filelock | 3.6.0 | idna | 2.10 |
ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.6.3 | jedi | 0.17.2 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
jupyter-client | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 | Koale | 1.8.2 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | mistune | 0.8.4 |
nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | notes | 6.3.0 | numpy | 1.20.1 |
opakowanie | 20.9 | Pandas | 1.2.4 | pandocfilters | 1.4.3 |
parso | 0.7.0 | Patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Poduszka | 8.2.0 | pip | 21.0.1 |
kreślenie | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
pyarrow | 4.0.0 | pycparser | 2,20 | Pygments | 2.8.1 |
PyGObject | 3.36.0 | pyparsing | 2.4.7 | pirstent | 0.17.3 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
żądania | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | seaborn | 0.11.1 |
Send2Trash | 1.5.0 | setuptools | 52.0.0 | Sześć | 1.15.0 |
ssh-import-id | 5.10 | statsmodels | 0.12.2 | Wytrzymałość | 8.0.1 |
terminado | 0.9.4 | ścieżka testowa | 0.4.4 | threadpoolctl | 2.1.0 |
tornado | 6.1 | traitlety | 5.0.5 | nienadzorowane uaktualnienia | 0.1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | koło | 0.36.2 | widgetsnbextension | 3.5.1 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2022-02-24.
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports (backports) | 1.4.1 |
base | 4.1.2 | base64enc | 0.1-3 | bitowe | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.2 | rozruch | 1.3-28 |
warzyć | 1.0-7 | Brio | 1.1.3 | miotła | 0.7.12 |
bslib | 0.3.1 | cachem | 1.0.6 | obiekt wywołujący | 3.7.0 |
caret | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
class | 7.3-20 | cli | 3.2.0 | clipr | 0.8.0 |
cluster | 2.1.2 | codetools | 0.2-18 | przestrzeń kolorów | 2.0-3 |
commonmark | 1,7 | — kompilator | 4.1.2 | config | 0.3.1 |
cpp11 | 0.4.2 | kredka | 1.5.0 | poświadczenia | 1.3.2 |
lok | 4.3.2 | data.table | 1.14.2 | usługi Power BI | 4.1.2 |
DBI | 1.1.2 | dbplyr | 2.1.1 | Desc | 1.4.0 |
devtools | 2.4.3 | diffobj | 0.3.5 | trawić | 0.6.29 |
dplyr | 1.0.8 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
wielokropek | 0.3.2 | evaluate | 0,15 | fani | 1.0.2 |
farver | 2.1.0 | szybka mapa | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.2 | zagraniczny | 0.8-82 |
kuźnia | 0.2.0 | Fs | 1.5.2 | przyszłość | 1.24.0 |
future.apply | 1.8.1 | płukać gardło | 1.2.0 | Generyczne | 0.1.2 |
Gert | 1.5.0 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-3 | globalna | 0.14.0 |
klej | 1.6.1 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
Gower | 1.0.0 | grafika | 4.1.2 | grDevices | 4.1.2 |
siatka | 4.1.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.0 | hardhat | 0.2.0 | przystań | 2.4.3 |
wysoki | 0,9 | Hms | 1.1.1 | htmltools | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.2 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | Identyfikatory | 1.0.1 |
ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
Iteratory | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
KernSmooth | 2.23-20 | knitr | 1,37 | Etykietowania | 0.4.2 |
później | 1.3.0 | krata | 0.20-45 | lawa | 1.6.10 |
cykl życia | 1.0.1 | nasłuchiwanie | 0.8.0 | lubridate | 1.8.0 |
magrittr | 2.0.2 | Markdown | 1.1 | MASA | 7.3-55 |
Macierz | 1.4-0 | zapamiętywanie | 2.0.1 | metody | 4.1.2 |
mgcv | 1.8-39 | mim | 0,12 | Metryki modelu | 1.2.2.2 |
modeler | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-155 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 1.4.6 |
parallel | 4.1.2 | równolegle | 1.30.0 | filar | 1.7.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgload | 1.2.4 |
plogr | 0.2.0 | plyr | 1.8.6 | pochwała | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.5.2 |
prodlim | 2019.11.13 | Postęp | 1.2.2 | progressr | 0.10.0 |
Obietnice | 1.2.0.1 | Proto | 1.0.0 | proxy | 0.4-26 |
PS | 1.6.0 | purrr | 0.3.4 | r2d3 | 0.2.5 |
R6 | 2.5.1 | randomForest | 4.7-1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-2 | Rcpp | 1.0.8 |
RcppEigen | 0.3.3.9.1 | readr | 2.1.2 | readxl | 1.3.1 |
przepisy | 0.2.0 | rewanż | 1.0.1 | rewanż2 | 2.1.2 |
Piloty | 2.4.2 | reprex | 2.0.1 | zmień kształt2 | 1.4.4 |
rlang | 1.0.1 | rmarkdown | 2,11 | RODBC | 1.3-19 |
roxygen2 | 7.1.2 | rpart | 4.1.16 | rprojroot | 2.0.2 |
Rserve | 1.8-10 | RSQLite | 2.2.10 | rstudioapi | 0,13 |
rversions (rversions) | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.0 |
waga | 1.1.1 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
kształt | 1.4.6 | błyszczący | 1.7.1 | sourcetools | 0.1.7 |
sparklyr | 1.7.5 | SparkR | 3.2.0 | przestrzenny | 7.3-11 |
Splajnów | 4.1.2 | sqldf | 0.4-11 | KWADRAT | 2021.1 |
Statystyki | 4.1.2 | stats4 | 4.1.2 | stringi | 1.7.6 |
stringr | 1.4.0 | przetrwanie | 3.2-13 | sys | 3.4 |
tcltk | 4.1.2 | NauczanieDemos | 2.10 | testthat | 3.1.2 |
tibble | 3.1.6 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0,37 |
tools | 4.1.2 | tzdb | 0.2.0 | usethis | 2.1.5 |
utf8 | 1.2.2 | narzędzia | 4.1.2 | uuid | 1.0-3 |
vctrs | 0.3.8 | viridisLite | 0.4.0 | Vroom | 1.5.7 |
Waldo | 0.3.1 | wąs | 0,4 | withr | 2.4.3 |
xfun | 0.29 | xml2 | 1.3.3 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.3.5 | zamek | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-klej | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | strumień | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.3.4 |
com.fasterxml.jackson.core | adnotacje jackson | 2.12.3 |
com.fasterxml.jackson.core | jackson-core | 2.12.3 |
com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
com.github.ben-manes.kofeina | kofeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | Profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | parsery jednowołciowości | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.4.0 |
io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.68.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | kolekcjoner | 0.12.0 |
jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.10 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
drzewa maven | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolit | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 2.0.0 |
org.apache.arrow | strzałka-pamięć-rdzeń | 2.0.0 |
org.apache.arrow | arrow-memory-netty | 2.0.0 |
org.apache.arrow | wektor strzałki | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | kurator-klient | 2.13.0 |
org.apache.curator | struktura kuratora | 2.13.0 |
org.apache.curator | przepisy kuratora | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | podkładki hive | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | bluszcz | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.12 |
org.apache.orc | orc-mapreduce | 1.6.12 |
org.apache.orc | podkładki orc-shim | 1.6.12 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | kodowanie parquet | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-cieniowane | 4.20 |
org.apache.yetus | adnotacje odbiorców | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | jute dozorców | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-kontynuacja | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-http | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-plus | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-security | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-server | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-webapp | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-api | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-client | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket —wspólne | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-server | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Adnotacje | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | Podkładki | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.threeten | trzydostępne dodatkowe | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |