Databricks Runtime 4.3 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w opisie wersji i zgodności środowiska Databricks Runtime.
Usługa Databricks wydała tę wersję w sierpniu 2018 r.
Ważne
Ta wersja została uznana za przestarzałą 9 kwietnia 2019 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykl życia wsparcia Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.3 obsługiwanym przez platformę Apache Spark.
Nowe funkcje
- Delta Lake
-
TRUNCATE TABLE
polecenie: Usuń wszystkie wiersze z tabeli. W przeciwieństwie do swoich odpowiedników w przypadku tabel platformy Spark tabele delty nie obsługują usuwania określonych partycji. -
ALTER TABLE REPLACE COLUMNS
polecenie: zamień kolumny w tabeli delty. Obsługuje zmianę komentarza kolumny i zmianę kolejności wielu kolumn. -
FSCK REPAIR TABLE
polecenie: usuń wpisy z dziennika transakcji tabeli Delta dotyczące plików, których nie można już znaleźć w bazowym systemie plików. Może się to zdarzyć, gdy te pliki zostały ręcznie usunięte. - Obsługa zapytań w nieaktualnych tabelach delty w celu poprawy interakcyjnego środowiska zapytań: zapytania w tabelach delty mogą być teraz uruchamiane w nieaktualnej wersji tabeli, gdy aktualne wyniki nie są konieczne. Ta funkcja zmniejsza opóźnienia zapytań, zwłaszcza gdy bazowe tabele delty są stale aktualizowane przez strumienie.
-
- Przesyłanie strumieniowe ze strukturą
- Skalowalna obsługa zapisu strumieniowego dla łącznika usługi Azure Synapse Analytics.
- Obsługa
foreachBatch()
języka Python (dostępna już w języku Scala). Aby uzyskać więcej informacji, zobacz dokumentację foreach i foreachBatch. - Obsługa wybierania minimalnego lub maksymalnego limitu w przypadku wielu strumieni wejściowych w zapytaniu. Wcześniej był zawsze używany minimalny znacznik czasu. Aby uzyskać więcej informacji, zobacz zasady dotyczące wielu znaków wodnych.
- Obsługa operatora
LIMIT
dla strumieni w trybach wyjściowychAppend
iComplete
. Aby zminimalizować błędy OOM w sterowniku,LIMIT
jest automatycznie stosowany podczas korzystania zdisplay()
na nieograniczonych strumieniach.
Ulepszenia
Delta Lake
- Prywatna wersja zapoznawcza nowej skalowalnej implementacji polecenia
MERGE INTO
, która nie ma limitu wstawiania 10 000 wierszy. Jeśli chcesz wypróbować tę usługę, skontaktuj się z pomocą techniczną. - Lepsza wydajność i skalowalność komendy
OPTIMIZE
, zwłaszcza w przypadku większych klastrów. - Polecenie OPTIMIZE teraz zatwierdza tabelę przyrostowo, co oznacza, że jeśli polecenie zakończy się niepowodzeniem, ponowna próba nie będzie musiała przetwarzać całego zestawu danych.
- Zredukowano liczbę wywołań RPC związanych z systemem plików wymaganych do odkrywania nowych danych przy użyciu Delta Lake jako źródła strumieniowego.
- Dodano obsługę
df.writeStream.table(table-name)
języka Python w celu utworzenia tabeli delty na podstawie strumienia.
- Prywatna wersja zapoznawcza nowej skalowalnej implementacji polecenia
Zwiększona wydajność zapytań z wieloma sprzężeniami, agregacjami lub oknami.
Zwiększona wydajność przycinania na poziomie partycji w zapytaniach wykorzystujących sprzężenia mieszające typu broadcast.
Ulepszenia całego generowania kodu etapowego w celu wykrywania zduplikowanych wyrażeń, zmniejszenia ilości wygenerowanego kodu i zwiększenia wydajności niektórych typów wyrażeń.
Klastry o wysokiej współbieżności obsługują teraz uruchamianie
%fs
w notatnikach.Uaktualniono Py4J używane przez PySpark do wersji 0.10.7.
- Zwiększona wydajność buforowania pamięci dyskowej na maszynach wirtualnych serii Ls platformy Azure. Pamięć podręczna jest teraz domyślnie włączona w tych instancjach, przyspieszając zadania, które wielokrotnie odczytują pliki Parquet.
Przestarzałe funkcje
- Pomijanie danych poza usługą Databricks Delta przestało być wspierane. Ulepszona wersja pomijania danych będzie nadal dostępna w ramach usługi Delta Lake. Zalecamy przejście na korzystanie z usługi Delta Lake, aby nadal korzystać z tej funkcji. Zobacz Databricks Delta Data Skipping aby uzyskać szczegóły.
Poprawki błędów
- Naprawiono nieprawidłową instrukcję wypychania
MERGE INTO
predykatu dla funkcji Delta, gdy warunek ON miał predykaty odwołujące się tylko do tabeli docelowej. - Naprawiono usterkę w
mapGroupsWithState
iflatMapGroupsWithState
, która uniemożliwiała ustawienie limitów czasu po usunięciu stanu (SPARK-22187). - Naprawiono usterkę uniemożliwiającą poprawne działanie znaku wodnego z
Trigger.Once
(SPARK-24699). - Polecenie Update weryfikuje teraz kolumny w klauzuli SET, aby upewnić się, że wszystkie kolumny rzeczywiście istnieją i żadna kolumna nie jest ustawiona więcej niż raz.
- Naprawiono potencjalny wyścig danych, który mógł powodować zakleszczenia podczas operacji zatwierdzania zmian w katalogu.
- Usunięto usterkę powodującą użycie przestarzałej wersji klienta DBFS podczas odświeżania punktów montowania.
Znane problemy
- Opcje konfiguracji Delta Lake dla tabeli obowiązują tylko w pierwszym zeszycie, który ładuje tabelę.
Apache Spark
Środowisko Databricks Runtime 4.3 obejmuje platformę Apache Spark 2.3.1. Ta wersja zawiera wszystkie poprawki i ulepszenia zawarte w środowisku Databricks Runtime 4.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
-
[SPARK-24934][SQL] Jawnie zezwalaj na obsługiwane typy w granicach górnych/dolnych dla oczyszczania partycji w pamięci
- Gdy złożone typy danych są używane w filtrach zapytań względem buforowanych danych, platforma Spark zawsze zwraca pusty zestaw wyników. Oczyszczanie oparte na statystykach w pamięci generuje nieprawidłowe wyniki, ponieważ wartość null jest ustawiona dla górnych/dolnych granic dla typów złożonych. Poprawka polega na tym, że nie należy używać przycinania opartego na statystykach w pamięci dla typów złożonych.
-
[SPARK-24957][SQL] Średnia z wartością dziesiętną, po której następuje agregacja, zwraca nieprawidłowy wynik
- Mogą zostać zwrócone nieprawidłowe wyniki funkcji AVERAGE. Funkcja CAST dodana w operatorze Average zostanie pominięta, jeśli wynik dzielenia jest tym samym typem, do którego jest rzutowany.
-
[SPARK-24867][SQL] Dodawanie elementu AnalysisBarrier do elementu DataFrameWriter
- Pamięć podręczna SQL nie jest używana podczas korzystania z DataFrameWriter do zapisywania DataFrame z funkcją UDF. Jest to regresja spowodowana zmianami wprowadzonych w narzędziu AnalysisBarrier, ponieważ nie wszystkie reguły analizatora są idempotentne.
-
[SPARK-24790][SQL] Zezwalaj na złożone wyrażenia agregujące w operacji przestawiania
- Poluźnij ograniczenie, aby zezwolić na złożone wyrażenia agregujące, takie jak ceil(sum(col1)) lub sum(col1) + 1, co w przybliżeniu oznacza dowolne wyrażenie agregujące, które może pojawić się w planie z agregacjami, z wyjątkiem UDF biblioteki pandas.
-
[SPARK-24870][SQL] Pamięć podręczna nie może działać normalnie, jeśli w języku SQL występują wielkie i małe litery
- Rozwiązuje kwestię związaną z kanonizacją planu.
- [SPARK-24852]Użycie zaktualizowanych interfejsów API instrumentacji w treningu spark.ml.
-
[SPARK-24891][SQL] Poprawka reguły HandleNullInputsForUDF
- Utwórz idempotentną regułę HandleNullInputsForUDF, aby uniknąć niezgodności planu w menedżerze pamięci podręcznej, gdy plan jest analizowany więcej niż raz.
- [SPARK-24878][SQL] Poprawiono funkcję odwrotną dla typu tablicy typu pierwotnego zawierającego wartość null.
- [SPARK-24871][SQL] Refaktoryzacja Concat i MapConcat, aby uniknąć tworzenia obiektu concatenator dla każdego wiersza.
-
[SPARK-24802][SQL] Dodawanie nowej konfiguracji na potrzeby wykluczania reguły optymalizacji
- Udostępnia konfigurację dla użytkowników, aby wykluczyć niektóre reguły optymalizatora.
-
[SPARK-24879][SQL] Napraw błąd NPE w przesunięciu filtru przycinania partycji Hive
- Gdy predykat partycji jest podobny do col IN (1, null), zostanie zgłoszony NPE. Ta poprawka to naprawia.
- [SPARK-23731][SQL] Umożliw elementowi FileSourceScanExec kanonizację po (de)serializacji
-
[SPARK-24755][CORE] Utrata funkcji wykonawczej może spowodować, że zadanie nie zostanie ponownie ponownie zwrócone
- Naprawia usterkę, przez którą Spark nie ponawia zadań, które nie powiodły się z powodu utraty egzekutora. Ta usterka została wprowadzona na platformie Spark 2.3.
-
[SPARK-24677][CORE] Unikać polecenia NoSuchElementException z MedianHeap
- Naprawia usterkę związaną z zadaniami spekulacyjnymi podczas zbierania metryk czasu trwania zadania.
- [SPARK-24868][PYTHON] dodawanie funkcji sekwencji w języku Python
- [SPARK-21811][SPARK-24012][SPARK-24737][SPARK-24165][SPARK-24734][SPARK-24840][SQL] Naprawianie przymusów typów i wartości null.
- [SPARK-24699][SS] Spraw, aby znaki wodne działały z Trigger.Once, zapisując zaktualizowany znak wodny w dzienniku zatwierdzeń
- [SPARK-24537][R] Dodawanie array_remove / array_zip / map_from_arrays / array_distinct
- [SPARK-22187][SS] Zaktualizuj format 'unsaferow' dla zapisanego stanu w flatMapGroupsWithState, aby zezwolić na przekroczenie limitu czasu ze stanem usuniętym (4.x)
-
[SPARK-24681][SQL] Weryfikowanie zagnieżdżonych nazw kolumn w magazynie metadanych Hive
- Upewnij się, że zagnieżdżone nazwy kolumn nie zawierają ',', ':' ani ';' w metastore Hive.
-
[SPARK-23486]zachowywanie w pamięci nazwy funkcji z katalogu zewnętrznego dla funkcji lookupFunctions
- Aby przyspieszyć wyszukiwanie funkcji.
- [SPARK-24781][SQL] Używanie odwołania z zestawu danych w filtrze/sortowaniu może nie działać
-
[SPARK-24208][SQL] Naprawianie deduplikacji atrybutów dla FlatMapGroupsInPandas
- Naprawa błędu samosprzężenia w zestawie danych zawierającym FlatMapGroupsInPandas z powodu zduplikowanych atrybutów
- [SPARK-24530][PYTHON] Dodawanie kontrolki w celu wymuszenia wersji języka Python w sphinx za pomocą zmiennej środowiskowej SPHINXPYTHON
-
[SPARK-24250]obsługa uzyskiwania dostępu do usługi SQLConf wewnątrz zadań
- Zapisz wszystkie ustawienia SQL we właściwościach zadania, gdy uruchomione zostanie wykonywanie SQL. Po stronie funkcji wykonawczej ponownie kompilujemy narzędzie SQLConf z właściwości zadania.
- [SPARK-23936][SQL] Zaimplementować map_concat
- [SPARK-23914][SQL] Dodawanie funkcji array_union
-
[SPARK-24732][SQL] Przymuszanie typów między typami map.
- Dodaje obsługę przymusu typu między typami MapTypes, w których oba typy kluczy i typy wartości są zgodne. Na przykład typy MapType(IntegerType, FloatType) i MapType(LongType, DoubleType) mogą być przekształcone do typu MapType(LongType, DoubleType)
- [SPARK-24662][SQL][SS] Wsparcie dla limitu w strumieniowaniu strukturalnym
- [SPARK-24730][SS] Dodaj zasady, aby wybrać wartość maksymalną jako globalny znak wodny, gdy zapytanie przesyłane strumieniowo ma wiele znaków wodnych (branch-4.x)
-
[SPARK-24596][SQL] Unieważnienie pamięci podręcznej bez kaskady
- W przypadku odłączania lub upuszczania widoku tymczasowego nie trzeba kaskadowo usuwać wszystkich planów, które zależą od widoku, ponieważ bazowe dane nie są zmieniane.
- [SPARK-23927][SQL] Dodawanie wyrażenia "sequence"
- [SPARK-24636][SQL] Przymuszanie typów tablic dla funkcji array_join
-
[SPARK-22384][SQL] Uściślij oczyszczanie partycji, gdy atrybut jest opakowany w rzutowanie
- Ulepszanie oczyszczania partycji, możliwość wypychania predykatów partycji z bezpiecznym rzutowaniem typu (odt do długiego, nie długiego do int).
-
[SPARK-24385][SQL] Rozwiązywanie niejednoznaczności warunku samosprzężenia dla elementu EqualNullSafe
- Implementuje metodę EqualNullSafe w celu rozwiązywania niejednoznaczności warunków samosprzężenia.
-
[SPARK-24696][SQL] Reguła uruchamiania kolumn nie może usunąć dodatkowego projektu
- Naprawia usterkę w regule ColumnPruning, która powodowała błąd wynikający z nieskończonej pętli w optymalizatorze.
- [SPARK-24603][SQL] Naprawić odniesienie findTightestCommonType w komentarzach
-
[SPARK-24613][SQL] Nie można dopasować pamięci podręcznej z funkcją UDF do kolejnych zależnych pamięci podręcznych
- Opakowuje plan logiczny za pomocą narzędzia AnalysisBarrier do kompilacji planu wykonywania w narzędziu CacheManager, aby uniknąć ponownego analizowania planu. Jest to również regresja platformy Spark 2.3.
- [SPARK-24017][SQL] Refaktoryzacja elementu ExternalCatalog jako interfejsu
-
[SPARK-24324][PYTHON] Pandas pogrupowana funkcja mapująca UDF powinna przypisywać kolumny wyników według nazw.
- Przypisuje kolumny wyników według nazwy schematu, jeśli użytkownik ma etykietę ciągów, w przeciwnym razie przy użyciu pozycji.
-
[SPARK-23778][CORE] Unikaj niepotrzebnego przetasowania, gdy unia otrzymuje pusty RDD
- Ignoruje przychodzące puste RDD w metodzie union, aby uniknąć niepotrzebnego przetasowania danych, gdy wszystkie pozostałe RDD mają takie samo partycjonowanie.
-
[SPARK-24552][CORE][SQL] Użyj unikatowego identyfikatora zamiast liczby prób zapisu.
- Przekazuje unikalny identyfikator próby zadania zamiast numeru próby do źródeł danych w wersji 2, ponieważ numer próby jest ponownie wykorzystywany, gdy etapy są ponawiane. Wpływa to na interfejsy API źródła danych w wersji 1 i wersji 2, ale interfejsy API formatu pliku nie będą miały wpływu, ponieważ DBR używa innego protokołu zatwierdzania.
- [SPARK-24588][SS] Dołączanie strumieniowe powinno wymagać HashClusteredPartitioning od dzieci.
-
[SPARK-24589][CORE] Poprawnie zidentyfikuj zadania w koordynatorze zatwierdzania danych wyjściowych.
- Dodaje więcej informacji do stanu etapu śledzonego przez koordynatora, dzięki czemu tylko jedno zadanie może zatwierdzić dane wyjściowe. Ta poprawka usuwa również bezużyteczne zmiany kodu wprowadzone przez platformę SPARK-18113.
- [SPARK-23933][SQL] Dodawanie funkcji map_from_arrays
-
[SPARK-24583][SQL] Nieprawidłowy typ schematu w insertIntoDataSourceCommand
- Podczas tworzenia tabeli Delta z ograniczeniami NOT NULL, możemy usunąć wymagalność niepustych wartości i wstawić wartości NULL bez weryfikowania naruszenia ograniczenia.
-
[SPARK-24542][SQL] Seria UDF UDFXPathXXXX umożliwia użytkownikom dokładne przekazanie spreparowanego kodu XML w celu uzyskania dostępu do dowolnych plików
- Jest to poprawka zabezpieczeń zgłoszona przez społeczność. Seria UDF UDFXPathXXXX umożliwia użytkownikom dokładne przekazanie spreparowanego kodu XML w celu uzyskania dostępu do dowolnych plików. Gdy użytkownicy korzystają z zewnętrznej biblioteki kontroli dostępu, użytkownicy mogą je pominąć i uzyskać dostęp do zawartości pliku.
- [SPARK-23934][SQL] Dodanie funkcji map_from_entries
- [SPARK-23912][SQL] Dodawanie array_distinct
- [SPARK-24574][SQL] funkcje array_contains, array_position, array_remove i element_at zajmują się typem kolumny
Aktualizacje konserwacyjne
Zobacz aktualizacje konserwacyjne Databricks Runtime 4.3.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certyfikat | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | kontrakty terminowe | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 10.0.1 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 01.06.2016 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 39.2.0 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.2 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | szerokość(wcwidth) | 0.1.7 | koło | 0.31.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backporty (backports) | 1.1.2 |
baza | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | uruchomienie | 1.3-20 |
warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-6 | miotła | 0.4.4 | samochód | 3.0-0 |
carData | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | klasa | 7.3-14 | cli | 1.0.0 |
klaster | 2.0.7-1 | codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 |
commonmark | 1.4 | — kompilator | 3.4.4 | kredka | 1.3.4 |
lok | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
zestawy danych | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | Opis | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | trawić / streszczenie | 0.6.15 | dimRed | 0.1.0 |
DoMC | 1.3.5 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | zagraniczny | 0.8-70 |
Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | klej | 1.2.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | woda | 3.16.0.2 |
przystań | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iteratory | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | Etykietowanie | 0.3 | krata | 0.20-35 |
lawa | 1.6.1 | opóźnienie | 0.2.1 | mniejszy | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
mapproj | 1.2.6 | Mapy | 3.3.0 | maptools | 0.9-2 |
MASA | 7.3-50 | Macierz | 1.2-14 | MatrixModels | 0.4-1 |
zapamiętywanie | 1.1.0 | metody | 3.4.4 | mgcv | 1.8-24 |
mim | 0.5 | minqa | 1.2.4 | mnormt | 1.5-5 |
Metryki modelu | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
równoległy | 3.4.4 | pbkrtest | 0.4-7 | kolumna | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
Psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
przepisy | 0.1.2 | rewanż | 1.0.1 | zmień kształt2 | 1.4.3 |
Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | waga | 0.5.0 | sfsmisc | 1.1-2 |
Sp | 1.2-7 | SparkR | 2.3.1 | SparseM | 1.77 |
przestrzenny | 7.3-11 | Splajny | 3.4.4 | sqldf | 0.4-11 |
SQUAREM | 2017.10-1 | statmod | 1.4.30 | Statystyki | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
przetrwanie | 2.42-3 | tcltk | 3.4.4 | DemonstracjeNauczania | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | czasData | 3043.102 | narzędzia | 3.4.4 |
utf8 | 1.1.3 | narzędzia | 3.4.4 | viridisLite | 0.3.0 |
wibrysy | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | cieniowane kriogenicznie | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje Jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | rdzeń | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | system-rodzimy-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | konfiguracja | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednoznaczności | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | sprężarka powietrza | 0,8 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metryki-kontrole zdrowotne | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety pomiarowe | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | mrówka | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.8.0 |
org.apache.arrow | pamięć typu arrow | 0.8.0 |
org.apache.arrow | wektor strzałki | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0 w inkubacji |
org.apache.calcite | rdzeń kalcytu | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 w fazie inkubacji |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.3 |
org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
org.apache.parquet | kolumna Parquet | 1.8.3-databricks2 |
org.apache.parquet | parquet-common | 1.8.3-databricks2 |
org.apache.parquet | kodowanie Parquet | 1.8.3-databricks2 |
org.apache.parquet | format parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.3-databricks2 |
org.apache.parquet | parquet-jackson | 1.8.3-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
org.apache.zookeeper | opiekun zwierząt | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | serwer Jetty | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | aplikacja jetty-webowa | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |