Databricks Runtime 4.0 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w marcu 2018 roku.
Ważne
Ta wersja została uznana za przestarzałą 1 listopada 2018 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykle życia pomocy technicznej usługi Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.0 obsługiwanym przez platformę Apache Spark.
Zmiany i ulepszenia
- Źródło danych JSON próbuje teraz automatycznie wykrywać kodowanie zamiast zakładać, że ma on być utF-8. W przypadkach, gdy automatyczne wykrywanie nie powiedzie się, użytkownicy mogą określić opcję zestawu znaków, aby wymusić określone kodowanie. Zobacz Automatyczne wykrywanie zestawu znaków.
- Ocenianie i przewidywanie przy użyciu potoków MLlib platformy Spark w strumieniu ze strukturą jest w pełni obsługiwane.
- Eksportowanie modeli uczenia maszynowego w usłudze Databricks jest w pełni obsługiwane. Dzięki tej funkcji możesz wytrenować model MLlib platformy Spark w usłudze Databricks, wyeksportować go za pomocą wywołania funkcji i użyć biblioteki usługi Databricks w wybranym systemie, aby zaimportować model i ocenić nowe dane.
- Nowa implementacja źródła danych Platformy Spark oferuje skalowalny dostęp do odczytu/zapisu w usłudze Azure Synapse Analytics. Zobacz Spark — Łącznik usługi Synapse Analytics.
- Schemat
from_json
funkcji jest teraz zawsze konwertowany na wartość null. Innymi słowy, wszystkie pola, w tym zagnieżdżone, są dopuszczane do wartości null. Dzięki temu dane są zgodne ze schematem, uniemożliwiając uszkodzenie po zapisaniu danych do parquet, gdy brakuje pola w danych, a schemat dostarczony przez użytkownika deklaruje pole jako niepuste. - Uaktualniono niektóre zainstalowane biblioteki języka Python:
- futures: od 3.1.1 do 3.2.0
- pandas: od 0.18.1 do 0.19.2
- pyarrow: od 0.4.1 do 0.8.0
- setuptools: od 38.2.3 do 38.5.1
- tornado: od 4.5.2 do 4.5.3
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
- Uaktualniono zestaw AWS Java SDK z wersji 1.11.126 do wersji 1.11.253.
- Uaktualniono sterownik JDBC programu SQL Server z wersji 6.1.0.jre8 do 6.2.2.jre8.
- Uaktualniono sterownik PostgreSQL JDBC z wersji 9.4-1204-jdbc41 do wersji 42.1.4.
Apache Spark
Środowisko Databricks Runtime 4.0 obejmuje platformę Apache Spark 2.3.0.
Core, PySpark i Spark SQL
Główne funkcje
-
Wektoryzowany czytnik ORC: [SPARK-16060]: Dodaje obsługę nowego czytnika ORC, który znacznie poprawia przepływność skanowania ORC poprzez wektoryzacja (2–5x). Aby włączyć czytelnika, użytkownicy mogą ustawić wartość
spark.sql.orc.impl
native
. - Serwer historii platformy Spark w wersji 2: [SPARK-18085]: nowy serwer historii platformy Spark (SHS), który zapewnia lepszą skalowalność dla aplikacji na dużą skalę z bardziej wydajnym mechanizmem przechowywania zdarzeń.
- Interfejs API źródła danych w wersji 2: [SPARK-15689][SPARK-22386]: eksperymentalny interfejs API umożliwiający podłączanie nowych źródeł danych na platformie Spark. Nowy interfejs API próbuje rozwiązać kilka ograniczeń interfejsu API w wersji 1 i ma na celu ułatwienie tworzenia wysoce wydajnych, łatwych w obsłudze i rozszerzalnych zewnętrznych źródeł danych. Ten interfejs API jest nadal w trakcie aktywnego opracowywania i należy oczekiwać zmian powodujących niezgodność.
- Ulepszenia wydajności PySpark: [SPARK-22216][SPARK-21187]: Znaczne ulepszenia wydajności i współdziałania języka Python dzięki szybkiej serializacji danych i wektoryzacji wykonywania.
Wydajność i stabilność
- [SPARK-21975]: Obsługa histogramu w optymalizatorze opartym na kosztach.
- [SPARK-20331]: Lepsza obsługa wypychania predykatu dla oczyszczania partycji Hive.
- [SPARK-19112]: Obsługa kodera kompresji ZStandard.
- [SPARK-21113]: Obsługa odczytu z wyprzedzeniem strumienia wejściowego w celu zamortyzowania kosztów we/wy dysku w czytniku rozlania.
- [SPARK-22510][SPARK-22692][SPARK-21871]: Dalsza stabilizacja struktury codegen, aby uniknąć osiągnięcia limitu kodu bajtowego JVM 64 KB dla metody Java i limitu stałej puli kompilatora Java.
- [SPARK-23207]: Naprawiono długotrwałą usterkę na platformie Spark, w której kolejne przetasowanie i ponowne partycjonowanie w ramce danych mogło prowadzić do nieprawidłowych odpowiedzi w niektórych przypadkach chirurgicznych.
- [SPARK-22062][SPARK-17788][SPARK-21907]: Naprawianie różnych przyczyn OOM.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: Ulepszenia optymalizatora opartego na regułach i planisty.
Inne istotne zmiany
- [SPARK-20236]: Obsługa semantyki partycji dynamicznej w stylu Hive.
-
[SPARK-4131]: Obsługa
INSERT OVERWRITE DIRECTORY
zapisywania danych bezpośrednio w systemie plików z zapytania. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: ulepszenia funkcji zdefiniowanej przez użytkownika.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: Ulepszona zgodność ze standardem ANSI SQL i zgodność programu Hive.
- [SPARK-20746]: Bardziej kompleksowe funkcje wbudowane SQL.
- [SPARK-21485]: Generowanie dokumentacji spark SQL dla wbudowanych funkcji.
-
[SPARK-19810]: Usuwanie obsługi języka Scala
2.10
. -
[SPARK-22324]: Uaktualnij strzałkę do
0.8.0
i Netty na4.1.17
.
Przesyłanie strumieniowe ze strukturą
Ciągłe przetwarzanie
- Nowy aparat wykonywania, który może wykonywać zapytania przesyłane strumieniowo z opóźnieniem końcowym w milisekundach, zmieniając tylko jeden wiersz kodu użytkownika. Aby dowiedzieć się więcej, zobacz przewodnik programowania.
Sprzężenia strumienia strumienia
- Możliwość łączenia dwóch strumieni danych, buforowania wierszy do momentu nadejścia pasujących krotki do drugiego strumienia. Predykaty mogą być używane w kolumnach czasu zdarzenia w celu ograniczenia ilości stanu, który należy zachować.
Interfejs API przesyłania strumieniowego w wersji 2
- Eksperymentalny interfejs API do podłączania nowych źródeł i ujść, które działają na potrzeby przetwarzania wsadowego, mikrosadowego i ciągłego wykonywania. Ten interfejs API jest nadal w trakcie aktywnego opracowywania, a zmiany powodujące niezgodność powinny być oczekiwane.
MLlib
Podkreśla
- Przewidywanie uczenia maszynowego działa teraz z przesyłaniem strumieniowym ze strukturą przy użyciu zaktualizowanych interfejsów API. Szczegółowe informacje są następujące.
Nowe i ulepszone interfejsy API
- [SPARK-21866]: Wbudowana obsługa odczytywania obrazów w ramce danych (Scala/Java/Python).
- [SPARK-19634]: Funkcje ramki danych dla opisowych statystyk podsumowania dla kolumn wektorów (Scala/Java).
-
[SPARK-14516]:
ClusteringEvaluator
dostrajania algorytmów klastrowania, obsługujące sylwetkę Cosine i kwadratowe metryki sylwetki Euklidesa (Scala/Java/Python). - [SPARK-3181]: Niezawodna regresja liniowa z utratą hubera (Scala/Java/Python).
-
[SPARK-13969]:
FeatureHasher
transformer (Scala/Java/Python). - Obsługa wielu kolumn dla kilku transformatorów funkcji:
-
[SPARK-13030]:
OneHotEncoderEstimator
(Scala/Java/Python) -
[SPARK-22397]:
QuantileDiscretizer
(Scala/Java) -
[SPARK-20542]:
Bucketizer
(Scala/Java/Python)
-
[SPARK-13030]:
- [SPARK-21633] i SPARK-21542]: Ulepszona obsługa niestandardowych składników potoku w języku Python.
Nowe funkcje
-
[SPARK-21087]:
CrossValidator
iTrainValidationSplit
może zbierać wszystkie modele podczas dopasowywania (Scala/Java). Dzięki temu można sprawdzić lub zapisać wszystkie dopasowane modele. -
[SPARK-19357]: Meta-algorithms ,
CrossValidator
TrainValidationSplit
, obsługuje param równoległości do dopasowywania wielu modeli podrzędnych w równoległych zadaniach platformyOneVsRest
Spark. - [SPARK-17139]: Podsumowanie modelu dla regresji logistycznej wielomianowej (Scala/Java/Python)
- [SPARK-18710]: Dodaj przesunięcie w GLM.
-
[SPARK-20199]: Dodano
featureSubsetStrategy
parametr doGBTClassifier
iGBTRegressor
. Użycie tej funkcji do podample może znacznie poprawić szybkość trenowania; Ta opcja była kluczową siłą .xgboost
Inne istotne zmiany
-
[SPARK-22156]: Stałe
Word2Vec
skalowanie szybkości nauki przy użyciunum
iteracji. Nowy wskaźnik uczenia jest zgodny z oryginalnymWord2Vec
kodem języka C i powinien zapewnić lepsze wyniki z trenowania. -
[SPARK-22289]: Dodano
JSON
obsługę parametrów macierzy (usunięto usterkę trwałości uczenia maszynowegoLogisticRegressionModel
z użyciem granic współczynników). -
[SPARK-22700]:
Bucketizer.transform
niepoprawnie porzuca wiersz zawierającyNaN
. Gdy parametrhandleInvalid
został ustawiony na wartość "skip"Bucketizer
, upuść wiersz z prawidłową wartościąNaN
w kolumnie wejściowej, jeśli inna kolumna (bez znaczenia) miała wartość. -
[SPARK-22446]: Optymalizator katalizatora czasami spowodował
StringIndexerModel
zgłoszenie nieprawidłowego wyjątku "Niezaświetlona etykieta", gdyhandleInvalid
ustawiono wartość "błąd". Może się to zdarzyć w przypadku przefiltrowanych danych z powodu wypychania predykatu, co powoduje błędy nawet po odfiltrowyniu nieprawidłowych wierszy z wejściowego zestawu danych. - [SPARK-21681]: Naprawiono usterkę przypadku krawędzi w regresji logistycznej wielomianowej, która spowodowała nieprawidłowe współczynniki, gdy niektóre funkcje miały zero wariancji.
- Główne optymalizacje:
-
[SPARK-22707]: Zmniejszone zużycie pamięci dla programu
CrossValidator
. -
[SPARK-22949]: Zmniejszone zużycie pamięci dla programu
TrainValidationSplit
. -
[SPARK-21690]:
Imputer
powinien trenować przy użyciu pojedynczego przekazywania danych. -
[SPARK-14371]:
OnlineLDAOptimizer
unika zbierania statystyk do sterownika dla każdej minisady.
-
[SPARK-22707]: Zmniejszone zużycie pamięci dla programu
SparkR
Głównym celem platformy SparkR w wersji 2.3.0 była poprawa stabilności funkcji zdefiniowanych przez użytkownika i dodanie kilku nowych otoek platformy SparkR wokół istniejących interfejsów API:
Główne funkcje
- Ulepszona parzystość funkcji między językiem SQL i językiem R
-
[SPARK-22933]: Interfejsy API przesyłania strumieniowego ze strukturą dla
withWatermark
sprzężeń strumieniatrigger
ipartitionBy
strumienia. - [SPARK-21266]: Obsługa schematu w formacie DDL w usłudze SparkR UDF.
- [SPARK-20726][SPARK-22924][SPARK-22843]: Kilka nowych otoek interfejsu API ramki danych.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: Kilka nowych otoek interfejsów API SparkML.
GraphX
Optymalizacje
-
[SPARK-5484]: Punkty kontrolne pregel są okresowo unikać
StackOverflowErrors
. - [SPARK-21491]: Niewielka poprawa wydajności w kilku miejscach.
Przestarzałe elementy
Python
-
[SPARK-23122]: Przestarzałe
register*
funkcje UDF w systemach UDF iSQLContext
Catalog
w PySpark
MLlib
-
[SPARK-13030]:
OneHotEncoder
został przestarzały i zostanie usunięty w wersji 3.0. Został on zastąpiony przez nowyOneHotEncoderEstimator
element .OneHotEncoderEstimator
nazwa zostanie zmieniona naOneHotEncoder
w wersji 3.0 (aleOneHotEncoderEstimator
będzie przechowywana jako alias).
Zmiany zachowania
SparkSQL
-
[SPARK-22036]: Domyślnie operacje arytmetyczne między liczbami dziesiętnym zwracają zaokrąglone wartości, jeśli dokładna reprezentacja nie jest możliwa (zamiast zwracać
NULL
w poprzednich wersjach) -
[SPARK-22937]: Gdy wszystkie dane wejściowe są binarne, program SQL
elt()
zwraca dane wyjściowe jako binarne. W przeciwnym razie zwraca wartość jako ciąg. W poprzednich wersjach zawsze zwracany był jako ciąg niezależnie od typów danych wejściowych. - [SPARK-22895]: predykaty deterministyczne sprzężenia/filtru, które są po pierwszych predykatach niedeterministycznych, są również wypychane/przez operatory podrzędne, jeśli to możliwe. W poprzednich wersjach te filtry nie kwalifikowały się do wypychania predykatu.
-
[SPARK-22771]: Gdy wszystkie dane wejściowe są binarne,
functions.concat()
zwraca dane wyjściowe jako binarne. W przeciwnym razie zwraca wartość jako ciąg. W poprzednich wersjach zawsze zwracany był jako ciąg niezależnie od typów danych wejściowych. - [SPARK-22489]: Jeśli któraś ze stron sprzężenia jest emitowana, wolimy rozgłaszać tabelę, która jest jawnie określona w wskazówce emisji.
-
[SPARK-22165]: Wnioskowanie kolumn partycji wcześniej znaleziono niepoprawny typ typ dla różnych typów wnioskowanych. Na przykład wcześniej został on wpisany
double
jako typ typ idouble
typdate
. Teraz znajduje prawidłowy typ typ dla takich konfliktów. Aby uzyskać szczegółowe informacje, zobacz przewodnik po migracji. -
[SPARK-22100]: Funkcja wcześniej zaakceptowała
percentile_approx
numeric
dane wejściowe typu i wyniki typu wyjściowegodouble
. Teraz obsługujedate
typ,timestamp
typ inumeric
typy jako typy wejściowe. Typ wyniku jest również zmieniany tak samo jak typ danych wejściowych, co jest bardziej uzasadnione dla percentyli. -
[SPARK-21610]: zapytania z nieprzetworzonych plików JSON/CSV są niedozwolone, gdy przywoływanych kolumnach zawierają tylko wewnętrzną uszkodzoną kolumnę rekordu (nazwaną
_corrupt_record
domyślnie). Zamiast tego możesz buforować lub zapisywać przeanalizowane wyniki, a następnie wysyłać to samo zapytanie. - [SPARK-23421]: Od platformy Spark 2.2.1 i 2.3.0 schemat jest zawsze wnioskowany w czasie wykonywania, gdy tabele źródła danych mają kolumny istniejące zarówno w schemacie partycji, jak i schemacie danych. Wywnioskowany schemat nie zawiera kolumn podzielonych na partycje. Podczas odczytywania tabeli platforma Spark uwzględnia wartości partycji tych nakładających się kolumn zamiast wartości przechowywanych w plikach źródła danych. W wersji 2.2.0 i 2.1.x wnioskowany schemat jest partycjonowany, ale dane tabeli są niewidoczne dla użytkowników (tj. zestaw wyników jest pusty).
PySpark
-
[SPARK-19732]:
na.fill()
lubfillna
akceptuje wartość logiczną i zastępuje wartości null wartością logiczną. W poprzednich wersjach platformy Spark narzędzie PySpark po prostu je ignoruje i zwraca oryginalny zestaw danych/ramkę danych. -
[SPARK-22395]: biblioteka pandas
0.19.2
lub górna jest wymagana do korzystania z funkcji związanych z biblioteką pandas, takich jaktoPandas
,createDataFrame
z ramki danych biblioteki pandas itp. - [SPARK-22395]: Zachowanie wartości znacznika czasu dla funkcji związanych z biblioteką pandas zostało zmienione w celu poszanowania strefy czasowej sesji, która jest ignorowana w poprzednich wersjach.
-
[SPARK-23328]:
df.replace
nie pozwala pominąćvalue
, gdyto_replace
nie jest słownikiem.value
Wcześniej można pominąć w innych przypadkach i domyślnieNone
, co jest sprzeczne z intuicyjną i podatną na błędy.
MLlib
-
Istotne zmiany interfejsu API: zmieniono hierarchię klas i cech dla podsumowań modelu regresji logistycznej, aby były czystsze i lepiej uwzględniały dodanie podsumowania wieloklasowego. Jest to zmiana powodująca niezgodność dla kodu użytkownika, który rzutuje element
LogisticRegressionTrainingSummary
naBinaryLogisticRegressionTrainingSummary
wartość . Użytkownicy powinni zamiast tego użyćmodel.binarySummary
metody . Zobacz [SPARK-17139]: aby uzyskać więcej szczegółów (zwróć uwagę, że jest@Experimental
to interfejs API). Nie ma to wpływu na metodę podsumowania języka Python, która nadal będzie działać poprawnie zarówno w przypadku przypadków wielomianowych, jak i binarnych. -
[SPARK-21806]:
BinaryClassificationMetrics.pr()
: pierwszy punkt (0.0, 1.0) jest mylący i został zastąpiony przez (0,0, p), gdzie precyzja p pasuje do najniższego punktu kompletności. - [SPARK-16957]: Drzewa decyzyjne używają teraz ważonych punktów środkowych podczas wybierania wartości podzielonych. Może to spowodować zmianę wyników trenowania modelu.
-
[SPARK-14657]:
RFormula
bez przechwycenia teraz wyprowadza kategorię referencyjną podczas kodowania terminów ciągu w celu dopasowania do natywnego zachowania języka R. Może to spowodować zmianę wyników trenowania modelu. -
[SPARK-21027]: Domyślny równoległość używana w programie
OneVsRest
jest teraz ustawiona na 1 (tj. szeregową). W wersji 2.2 i starszych poziom równoległości został ustawiony na domyślny rozmiar puli wątków w języku Scala. Może to zmienić wydajność. -
[SPARK-21523]: Uaktualniono bryzę do .
0.13.2
Obejmowało to ważną poprawkę błędu w silnym wyszukiwaniu linii Wolfe L-BFGS. - [SPARK-15526]: Zależność JPMML jest teraz cieniowana.
- Zobacz również sekcję "Poprawki błędów", aby uzyskać informacje o zmianach zachowania wynikających z naprawiania usterek.
Znane problemy
-
[SPARK-23523][SQL]: Nieprawidłowy wynik spowodowany przez regułę
OptimizeMetadataOnlyQuery
. - [SPARK-23406]: Usterki w sprzężeniach przesyłania strumieniowego strumienia.
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 4.0.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (lub 3.5.2, jeśli używasz języka Python 3)
- R: R w wersji 3.4.3 (2017-11-30)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 9.0.1 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 4.5.3 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | koło | 0.30.0 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports (backports) | 1.1.1 |
base | 3.4.3 | BH | 1.65.0-1 | bindr | 0.1 |
bindrcpp | 0,2 | bitowe | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.0 | rozruch | 1.3-20 |
warzyć | 1.0-6 | miotła | 0.4.3 | samochód | 2.1-6 |
caret | 6.0-77 | chron | 2.3-51 | class | 7.3-14 |
cluster | 2.0.6 | codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 |
commonmark | 1.4 | — kompilator | 3.4.3 | kredka | 1.3.4 |
lok | 3.0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
usługi Power BI | 3.4.3 | DBI | 0,7 | ddalpha | 1.3.1 |
DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.4 |
dichromat | 2.0-0 | trawić | 0.6.12 | dimRed | 0.1.0 |
DoMC | 1.3.4 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.2 |
foreach | 1.4.3 | zagraniczny | 0.8-69 | Gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
klej | 1.2.0 | Gower | 0.1.2 | grafika | 3.4.3 |
grDevices | 3.4.3 | siatka | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iteratory | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | Etykietowania | 0.3 | krata | 0.20-35 |
lawa | 1.5.1 | opóźnienie | 0.2.1 | littler | 0.3.2 |
lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1.5 |
mapproj | 1.2-5 | Mapy | 3.2.0 | MASA | 7.3-48 |
Macierz | 1.2-11 | MatrixModels | 0.4-1 | zapamiętywanie | 1.1.0 |
metody | 3.4.3 | mgcv | 1.8-23 | mim | 0.5 |
minqa | 1.2.4 | mnormt | 1.5-5 | Metryki modelu | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | parallel | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
plyr | 1.8.4 | pochwała | 1.0.0 | Proc | 1.10.0 |
prodlim | 1.6.1 | Proto | 1.0.0 | Psych | 1.7.8 |
purrr | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
przepisy | 0.1.1 | zmień kształt2 | 1.4.2 | rlang | 0.1.4 |
robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1.2 | Rserve | 1.7-3 |
RSQLite | 2.0 | rstudioapi | 0,7 | waga | 0.5.0 |
sfsmisc | 1.1-1 | Sp | 1.2-5 | SparkR | 2.3.0 |
Rozrzednia | 1.77 | przestrzenny | 7.3-11 | Splajnów | 3.4.3 |
sqldf | 0.4-11 | statmod | 1.4.30 | Statystyki | 3.4.3 |
stats4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
przetrwanie | 2.41-3 | tcltk | 3.4.3 | NauczanieDemos | 2.10 |
testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | timeDate | 3042.101 | tools | 3.4.3 |
narzędzia | 3.4.3 | viridisLite | 0.2.0 | wąs | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-cieniowane | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.8.0 |
org.apache.arrow | strzałka w pamięci | 0.8.0 |
org.apache.arrow | wektor strzałki | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | calcite-core | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | kodowanie parquet | 1.8.2-databricks1 |
org.apache.parquet | format parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |