Databricks Runtime 5.0 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w listopadzie 2018 r.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 5.0 obsługiwanym przez platformę Apache Spark.
Nowe funkcje
Delta Lake
- Podzapytania są teraz obsługiwane w
WHERE
klauzuli dotyczącej obsługiDELETE
poleceń iUPDATE
. - Nowa skalowalna implementacja poleceń
MERGE
.- Brak limitu liczby wstawiania i aktualizacji.
- Może służyć do obsługi zapytań typu SCD 1 i typu 2.
- Może być wykonywanie operacji upsert z zapytań przesyłanych strumieniowo w trybie "update" (na przykład zapisywanie danych wyjściowych agregacji przesyłania strumieniowego do tabeli delty). Zobacz przykład Zapisywanie agregacji przesyłania strumieniowego w funkcji delta usługi Databricks przy użyciu scalania i notesu foreachBatch .
- Podzapytania są teraz obsługiwane w
Przesyłanie strumieniowe ze strukturą
- Źródło przesyłania strumieniowego opartego na plikach usługi Azure Blob Storage. Może to znacznie zmniejszyć koszty wyświetlania listy podczas uruchamiania zapytania przesyłania strumieniowego ze strukturą w plikach w usłudze Azure Blob Storage. Zamiast znajdować nowe pliki do przetwarzania za pomocą listy, to źródło przesyłania strumieniowego może bezpośrednio odczytywać powiadomienia o zdarzeniach plików w celu znalezienia nowych plików. Zobacz Źródło pliku usługi Azure Blob Storage za pomocą usługi Azure Queue Storage (starsza wersja).
Dodano obsługę narzędzia TensorBoard do monitorowania zadań uczenia głębokiego. Zobacz TensorBoard.
Ulepszenia
- Delta Lake
-
OPTIMIZE
wydajność i stabilność.- Polecenie
OPTIMIZE
zatwierdza partie tak szybko, jak to możliwe, zamiast na końcu. - Zmniejszono domyślną liczbę wątków uruchamianych
OPTIMIZE
równolegle. Jest to ścisły wzrost wydajności dla dużych tabel. - Sped up
OPTIMIZE
writes by uniknąć niepotrzebnego sortowania danych podczas zapisywania w tabeli podzielonej na partycje. - Przyspieszył
OPTIMIZE ZORDER BY
, tworząc go przyrostowy. Oznacza to, że polecenie pozwala teraz uniknąć ponownego zapisywania plików danych, które zostały już uporządkowane według tych samych kolumn. Zobacz Pomijanie danych dla usługi Delta Lake.
- Polecenie
- Izolacja migawki podczas wykonywania zapytań względem tabel delty. Każde zapytanie z wieloma odwołaniami do tabeli delty (na przykład samosprzężenie) odczytuje z tej samej migawki tabeli, nawet jeśli istnieją współbieżne aktualizacje tabeli.
- Ulepszone opóźnienie zapytań podczas odczytywania z małych (< 2000 plików) tabel różnicowych przez buforowanie metadanych sterownika.
-
- Zwiększona wydajność regresji logistycznej MLlib.
- Ulepszona wydajność algorytmu drzewa MLlib.
- Uaktualniono kilka bibliotek Java i Scala. Zobacz Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11).
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- : od 10.0.1 do 18.0
- setuptools: 39.2.0 do 40.4.1
- tornado: 5.0.2 do 5.1.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
Poprawki błędów
- Delta Lake
- Konfiguracje ustawione w programie SQL Conf są teraz poprawnie stosowane do operacji usługi Delta Lake, które zostały po raz pierwszy załadowane w innym notesie.
- Usunięto usterkę w
DELETE
poleceniu, która niepoprawnie usuwała wiersze, w których warunek ma wartość null. - Strumienie, które zajmują więcej niż dwa dni, aby przetworzyć początkową partię (czyli dane, które znajdowały się w tabeli po uruchomieniu strumienia), nie kończą się już niepowodzeniem
FileNotFoundException
podczas próby odzyskania z punktu kontrolnego. - Unika stanu wyścigu, który prowadzi do
NoClassDefError
ładowania nowej tabeli. - Poprawka polegająca na
VACUUM
tym, że operacja może zakończyć się niepowodzeniem z komunikatem AssertionError z informacją: "Nie powinno mieć żadnych bezwzględnych ścieżek do usunięcia w tym miejscu". - Naprawiono
SHOW CREATE TABLE
polecenie, aby nie uwzględniać właściwości magazynu wygenerowanego przez program Hive.
- Funkcje wykonawcze, które zgłaszają wiele
NoClassDefFoundError
błędów dla wewnętrznych klas platformy Spark, są teraz automatycznie uruchamiane ponownie, aby rozwiązać ten problem.
Znane problemy
- Nazwy kolumn określone w
replaceWhere
opcjioverwrite
trybu w usłudze Delta Lake są uwzględniane wielkości liter, nawet jeśli nie jest włączona wrażliwość na wielkość liter (co jest ustawieniem domyślnym). - Łącznik Snowflake dla środowiska Databricks Runtime 5.0 jest w wersji zapoznawczej.
- Jeśli anulujesz uruchomioną komórkę przesyłania strumieniowego w notesie dołączonym do klastra środowiska Databricks Runtime 5.0, nie można uruchomić żadnych kolejnych poleceń w notesie, chyba że wyczyścisz stan notesu lub uruchom ponownie klaster. Aby obejść ten problem, zobacz bazę wiedzy.
Apache Spark
Środowisko Databricks Runtime 5.0 obejmuje platformę Apache Spark 2.4.0.
Core i Spark SQL
Uwaga
Ten artykuł zawiera odwołania do terminu podrzędnego — terminu, którego usługa Azure Databricks nie używa. Po usunięciu tego terminu z oprogramowania usuniemy go również z artykułu.
Główne funkcje
- Tryb wykonywania barier: [SPARK-24374] Obsługa trybu wykonywania barier w harmonogramie, aby lepiej zintegrować się z platformami uczenia głębokiego.
- Obsługa języka Scala 2.12: [SPARK-14220] Dodawanie eksperymentalnej obsługi języka Scala 2.12. Teraz możesz skompilować platformę Spark przy użyciu języka Scala 2.12 i napisać aplikacje platformy Spark w języku Scala 2.12.
- Funkcje wyższego porządku: [SPARK-23899] Dodaj wiele nowych wbudowanych funkcji, w tym funkcji o wysokiej kolejności, aby ułatwić pracę ze złożonymi typami danych. Zobacz Funkcje wbudowane platformy Apache Spark.
- Wbudowane źródło danych Avro: [SPARK-24768] Wbudowany pakiet Spark-Avro z obsługą typu logicznego, lepszą wydajnością i użytecznością.
API
- [SPARK-24035] Składnia SQL dla tabeli przestawnej
- [SPARK-24940] Łączenie i repartycja wskazówek dotyczących zapytań SQL
- [SPARK-19602] Obsługa rozpoznawania kolumn w pełni kwalifikowanej nazwy kolumny
- [SPARK-21274] Implementowanie z WYJĄTKIEM WSZYSTKICH i MIĘDZYSEKTOWYCH WSZYSTKICH
Wydajność i stabilność
- [SPARK-16406] Rozpoznawanie odwołań dla dużej liczby kolumn powinno być szybsze
- [SPARK-23486] Buforowanie nazwy funkcji z wykazu zewnętrznego dla funkcji lookupFunctions
- [SPARK-23803] Obsługa oczyszczania zasobnika
- [SPARK-24802] Wykluczenie reguły optymalizacji
- [SPARK-4502] Zagnieżdżone oczyszczanie schematu dla tabel Parquet
- [SPARK-24296] Obsługa replikowania bloków większych niż 2 GB
- [SPARK-24307] Obsługa wysyłania komunikatów ponad 2 GB z pamięci
- [SPARK-23243] Shuffle+Repartition na RDD może prowadzić do nieprawidłowych odpowiedzi
- [SPARK-25181] Ograniczono rozmiar pul wątków głównych i podrzędnych BlockManager, obniżając obciążenie pamięci, gdy sieć działa wolno
Łączniki
- [SPARK-23972] Zaktualizuj parquet z wersji 1.8.2 do wersji 1.10.0
- [SPARK-25419] Poprawa wypychania predykatu Parquet
- [SPARK-23456] Natywny czytnik ORC jest domyślnie włączony
- [SPARK-22279] Domyślnie odczytywanie tabel serde hive przy użyciu natywnego czytnika ORC
- [SPARK-21783] Domyślnie włącz wypychanie filtru ORC
- [SPARK-24959] Przyspieszanie liczby () dla plików JSON i CSV
- [SPARK-24244] Analizowanie tylko wymaganych kolumn w analizatorze CSV
- [SPARK-23786] Sprawdzanie poprawności schematu CSV — nazwy kolumn nie są sprawdzane
- [SPARK-24423] Kwerenda opcji określająca zapytanie do odczytu z JDBC
- [SPARK-22814] Data/sygnatura czasowa obsługi w kolumnie partycji JDBC
- [SPARK-24771] Aktualizacja avro z wersji 1.7.7 do 1.8
PySpark
- [SPARK-24215] Implementowanie chętnej oceny dla interfejsów API ramki danych
- [SPARK-22274] - [SPARK-22239] Funkcje agregacji zdefiniowane przez użytkownika za pomocą biblioteki pandas udf
- [SPARK-24396] Dodawanie przesyłania strumieniowego ze strukturą ForeachWriter dla języka Python
- [SPARK-23874] Uaktualnianie narzędzia Apache Arrow do wersji 0.10.0
- [SPARK-25004] Dodawanie limitu spark.executor.pyspark.memory
- [SPARK-23030] Używanie formatu strumienia strzałki do tworzenia i zbierania ramek danych biblioteki pandas
- [SPARK-24624] Obsługa kombinacji funkcji zdefiniowanej przez użytkownika języka Python i biblioteki UDF języka Scalar
Inne istotne zmiany
- [SPARK-24596] Unieważnienie nieskadującej pamięci podręcznej
- [SPARK-23880] Nie wyzwalaj żadnego zadania buforowania danych
- [SPARK-23510][SPARK-24312] Obsługa magazynu metadanych Hive 2.2 i Hive 2.3
- [SPARK-23711] Dodawanie generatora rezerwowego dla elementu UnsafeProjection
- [SPARK-24626] Równoległe obliczanie rozmiaru lokalizacji w poleceniu Analizuj tabelę
Przesyłanie strumieniowe ze strukturą
Główne funkcje
- [SPARK-24565] Uwidocznił wiersze wyjściowe każdego mikrobajta jako ramki danych przy użyciu elementu foreachBatch (Python, Scala i Java)
- [SPARK-24396] Dodano interfejs API języka Python dla foreach i ForeachWriter
- [SPARK-25005] Obsługa polecenia "kafka.isolation.level" w celu odczytu tylko zatwierdzonych rekordów z tematów platformy Kafka napisanych przy użyciu producenta transakcyjnego.
Inne istotne zmiany
- [SPARK-24662] Obsługa operatora LIMIT dla strumieni w trybie dołączania lub całkowitym
- [SPARK-24763] Usuwanie nadmiarowych danych klucza z wartości w agregacji przesyłania strumieniowego
- [SPARK-24156] Szybsze generowanie wyników wyjściowych i/lub oczyszczania stanu przy użyciu operacji stanowych (mapGroupsWithState, sprzężenia strumienia, agregacji przesyłania strumieniowego, dropDuplikatów przesyłania strumieniowego), gdy nie ma danych w strumieniu wejściowym.
- [SPARK-24730] Obsługa wybierania minimalnego lub maksymalnego limitu w przypadku wielu strumieni wejściowych w zapytaniu
- [SPARK-25399] Usunięto usterkę polegającą na tym, że ponowne korzystanie z wątków wykonywania z ciągłego przetwarzania na potrzeby przesyłania strumieniowego mikrobajtów może spowodować problem z poprawnością
- [SPARK-18057] Uaktualniono wersję klienta platformy Kafka z wersji 0.10.0.1 do 2.0.0
MLlib
Główne funkcje
- [SPARK-22666] Źródło danych platformy Spark dla formatu obrazu
Inne istotne zmiany
- [SPARK-22119][SPARK-23412][SPARK-23217] Dodawanie miary odległości cosinusu do KMeans/BisectingKMeans/Clustering evaluator
- [SPARK-10697] Obliczanie metodą "lift" w górnictwie reguł skojarzenia
- [SPARK-14682][SPARK-24231] Podaj metodę evaluateEachIteration lub równoważną dla spark.ml GBT
- [SPARK-7132][SPARK-24333] Dodaj dopasowanie z zestawem weryfikacji do spark.ml GBT
- [SPARK-15784][SPARK-19826] Dodawanie klastra iteracji zasilania do spark.ml
- [SPARK-15064] Obsługa ustawień regionalnych w StopWordsRemover
- [SPARK-21741] Interfejs API języka Python dla wielowariancji oparty na ramce danych
- [SPARK-21898][SPARK-23751] Parzystość funkcji dla KolmogorovSmirnovTest w MLlib
- [SPARK-10884] Obsługa przewidywania dla pojedynczego wystąpienia dla modeli związanych z regresją i klasyfikacją
- [SPARK-23783] Dodawanie nowej ogólnej cechy eksportu dla potoków uczenia maszynowego
- [SPARK-11239] Eksport PMML na potrzeby regresji liniowej uczenia maszynowego
SparkR
- [SPARK-25393] Dodawanie nowej funkcji from_csv()
- [SPARK-21291] dodawanie interfejsu API partycji RBy w ramce danych
- [SPARK-25007] Dodawanie array_intersect/array_except/array_union/shuffle do platformy SparkR
- [SPARK-25234] unikanie przepełnienia liczby całkowitej w równoległości
- [SPARK-25117] Dodaj obsługę Z WYJĄTKIEM WSZYSTKICH i INTERSECT ALL w języku R
- [SPARK-24537] Dodawanie array_remove/array_zip/map_from_arrays/array_distinct
- [SPARK-24187] Dodawanie funkcji array_join do aparatu SparkR
- [SPARK-24331] Dodawanie arrays_overlap, array_repeat map_entries do platformy SparkR
- [SPARK-24198] Dodawanie funkcji fragmentatora do aparatu SparkR
- [SPARK-24197] Dodawanie funkcji array_sort do aparatu SparkR
- [SPARK-24185] dodawanie funkcji spłaszczanych do aparatu SparkR
- [SPARK-24069] Dodawanie funkcji array_min/array_max
- [SPARK-24054] Dodawanie funkcji array_position/funkcji element_at
- [SPARK-23770] Dodawanie interfejsu API repartitionByRange w usłudze SparkR
GraphX
- [SPARK-25268] Uruchamianie równoległego spersonalizowanego elementu PageRank zgłasza wyjątek serializacji
Przestarzałe elementy
- [SPARK-23451] Przestarzałe koszt obliczeniowy KMeans
- [SPARK-25345] Przestarzałe interfejsy API readImages z obrazuSchema
Zmiany zachowania
- [SPARK-23549] Rzutowanie do znacznika czasu podczas porównywania znacznika czasu z datą
- [SPARK-24324] Biblioteka pandas Grouped Map UDF powinna przypisywać kolumny wyników według nazwy
- [SPARK-25088] Domyślne i domyślne aktualizacje dokumentu serwera REST
- [SPARK-23425] ładowanie danych dla ścieżki pliku hdfs z użyciem symboli wieloznacznych nie działa prawidłowo
- [SPARK-23173] from_json może generować wartości null dla pól oznaczonych jako niepuste
- [SPARK-24966] Implementowanie reguł pierwszeństwa dla operacji zestawu
- [SPARK-25708]HAVING bez GROUP BY powinny być agregacją globalną
- [SPARK-24341] Poprawnie obsłuż podzapytywanie funkcji IN z wieloma wartościami
- [SPARK-19724] Tworzenie tabeli zarządzanej z istniejącą lokalizacją domyślną powinno zgłosić wyjątek
Znane problemy
- [SPARK-25793] Usterki ładowania modelu w bisectingKMeans
- [SPARK-25271] CTAS z tabelami Parquet Hive powinny korzystać z natywnego źródła parquet
- [SPARK-24935] Problem z wykonywaniem programu Hive UDAF z platformy Spark 2.2
Aktualizacje konserwacji
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 5.0.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.5 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Uwaga
Mimo że język Scala 2.12 jest obsługiwany w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 5.0.
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 18,0 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.1.1 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | koło | 0.31.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports (backports) | 1.1.2 |
base | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
bindr | 0.1.1 | bindrcpp | 0.2.2 | bitowe | 1.1-14 |
bit64 | 0.9-7 | bitops | 1.0-6 | blob | 1.1.1 |
rozruch | 1.3-20 | warzyć | 1.0-6 | miotła | 0.5.0 |
obiekt wywołujący | 3.0.0 | samochód | 3.0-2 | carData | 3.0-1 |
caret | 6.0-80 | cellranger | 1.1.0 | chron | 2.3-52 |
class | 7.3-14 | cli | 1.0.0 | cluster | 2.0.7-1 |
codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 | commonmark | 1.5 |
— kompilator | 3.4.4 | kredka | 1.3.4 | lok | 3.2 |
CVST | 0.2-2 | data.table | 1.11.4 | usługi Power BI | 3.4.4 |
DBI | 1.0.0 | ddalpha | 1.3.4 | DEoptimR | 1.0-8 |
Desc | 1.2.0 | devtools | 1.13.6 | trawić | 0.6.16 |
dimRed | 0.1.0 | DoMC | 1.3.5 | dplyr | 0.7.6 |
Odzyskiwanie po awarii | 0.0.3 | fani | 0.3.0 | forcats | 0.3.0 |
foreach | 1.4.4 | zagraniczny | 0.8-70 | Gbm | 2.1.3 |
geometria | 0.3-6 | ggplot2 | 3.0.0 | git2r | 0.23.0 |
glmnet | 2.0-16 | klej | 1.3.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | h2o | 3.20.0.2 |
przystań | 1.1.2 | Hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
Iteratory | 1.0.10 | jsonlite | 1.5 | kernlab | 0.9-27 |
KernSmooth | 2.23-15 | Etykietowania | 0.3 | krata | 0.20-35 |
lawa | 1.6.3 | opóźnienie | 0.2.1 | littler | 0.3.4 |
lme4 | 1.1-18-1 | lubridate | 1.7.4 | magia | 1.5-8 |
magrittr | 1.5 | mapproj | 1.2.6 | Mapy | 3.3.0 |
maptools | 0.9-3 | MASA | 7.3-50 | Macierz | 1.2-14 |
MatrixModels | 0.4-1 | zapamiętywanie | 1.1.0 | metody | 3.4.4 |
mgcv | 1.8-24 | mim | 0.5 | minqa | 1.2.4 |
Metryki modelu | 1.2.0 | munsell | 0.5.0 | mvtnorm | 1.0-8 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsxx | 4.1.0 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | filar | 1.3.0 |
pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.0 | plogr | 0.2.0 | Pls | 2.7-0 |
plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
Proc | 1.12.1 | processx | 3.2.0 | prodlim | 2018.04.18 |
Proto | 1.0.0 | PS | 1.1.0 | purrr | 0.2.5 |
quantreg | 5,36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.7.0 | R6 | 2.2.2 | randomForest | 4.6-14 |
RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | readr | 1.1.1 |
readxl | 1.1.0 | przepisy | 0.1.3 | rewanż | 1.0.1 |
zmień kształt2 | 1.4.3 | Rio | 0.5.10 | rlang | 0.2.2 |
robustbase | 0.93-2 | RODBC | 1.3-15 | roxygen2 | 6.1.0 |
rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.7-3 |
RSQLite | 2.1.1 | rstudioapi | 0,7 | waga | 1.0.0 |
sfsmisc | 1.1-2 | Sp | 1.3-1 | SparkR | 2.4.0 |
Rozrzednia | 1.77 | przestrzenny | 7.3-11 | Splajnów | 3.4.4 |
sqldf | 0.4-11 | KWADRAT | 2017.10-1 | statmod | 1.4.30 |
Statystyki | 3.4.4 | stats4 | 3.4.4 | stringi | 1.2.4 |
stringr | 1.3.1 | przetrwanie | 2.42-6 | tcltk | 3.4.4 |
NauczanieDemos | 2.10 | testthat | 2.0.0 | tibble | 1.4.2 |
tidyr | 0.8.1 | tidyselect | 0.2.4 | timeDate | 3043.102 |
tools | 3.4.4 | utf8 | 1.1.4 | narzędzia | 3.4.4 |
viridisLite | 0.3.0 | wąs | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | zamek | 1.0.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db7-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-cieniowane | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.10.0 |
org.apache.arrow | strzałka w pamięci | 0.10.0 |
org.apache.arrow | wektor strzałki | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | calcite-core | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | podkładki orc-shim | 1.5.2 |
org.apache.parquet | parquet-column | 1.10.1-databricks2 |
org.apache.parquet | parquet-common | 1.10.1-databricks2 |
org.apache.parquet | kodowanie parquet | 1.10.1-databricks2 |
org.apache.parquet | format parquet | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks2 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-cieniowany | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.9 |
org.codehaus.janino | janino | 3.0.9 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |