Databricks Runtime 4.2 (EoS)
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w lipcu 2018 roku.
Ważne
Ta wersja została uznana za przestarzałą 5 marca 2019 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykle życia pomocy technicznej usługi Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.2 obsługiwanym przez platformę Apache Spark.
Delta Lake
Środowisko Databricks Runtime 4.2 dodaje główne ulepszenia jakości i funkcjonalność usługi Delta Lake. Usługa Databricks zdecydowanie zaleca, aby wszyscy klienci usługi Delta Lake uaktualnili środowisko uruchomieniowe do nowego środowiska uruchomieniowego. Ta wersja pozostaje w prywatnej wersji zapoznawczej, ale reprezentuje wydanie kandydata w oczekiwaniu na nadchodzące wydanie ogólnie dostępne.
Nowe funkcje
- Strumienie można teraz zapisywać bezpośrednio w tabeli delty zarejestrowanej w magazynie metadanych Hive przy użyciu polecenia
df.writeStream.table(...)
.
Ulepszenia
Wszystkie polecenia i zapytania usługi Delta Lake obsługują teraz odwoływania się do tabeli przy użyciu jej ścieżki jako identyfikatora:
delta.`<path-to-table>`
OPTIMIZE
Wcześniej iVACUUM
wymagane niestandardowe użycie literałów ciągu (czyli'<path-to-table>'
).DESCRIBE HISTORY
teraz zawiera identyfikator zatwierdzenia i jest domyślnie uporządkowane od najnowszych do najstarszych.
Poprawki błędów
- Filtrowanie na podstawie predykatów partycji działa teraz poprawnie nawet wtedy, gdy wielkość predykatów różni się od tabeli.
- Naprawiono brakujące kolumny
AnalysisException
podczas przeprowadzania sprawdzania równości w kolumnach logicznych w tabelach delty (czylibooleanValue = true
). -
CREATE TABLE
nie modyfikuje już dziennika transakcji podczas tworzenia wskaźnika do istniejącej tabeli. Zapobiega to niepotrzebnym konfliktom z równoczesnymi strumieniami i umożliwia tworzenie wskaźnika magazynu metadanych do tabel, w których użytkownik ma tylko dostęp do odczytu do danych. - Wywołanie strumienia z dużą ilością danych nie powoduje już wywołania
display()
funkcji OOM w sterowniku. -
AnalysisException
jest teraz zgłaszany, gdy podstawowa ścieżka usługi Delta Lake zostanie usunięta, zamiast zwracać puste wyniki. - Konfiguracje usługi Delta Lake, które wymagają określonej wersji protokołu (na przykład
appendOnly
), mogą być stosowane tylko do tabel w odpowiedniej wersji. - Podczas aktualizowania stanu tabeli delty długie pochodzenie jest teraz automatycznie obcięte, aby uniknąć błędu
StackOverFlowError
.
Przesyłanie strumieniowe ze strukturą
Nowe funkcje
Usługi Delta Lake i Kafka obsługują teraz w pełni wyzwalacz.Once. Wcześniej limity szybkości (na przykład
maxOffsetsPerTrigger
lubmaxFilesPerTrigger
) określone jako opcje źródła lub wartości domyślne mogą spowodować tylko częściowe wykonanie dostępnych danych. Te opcje są teraz ignorowane, gdyTrigger.Once
jest używany, co umożliwia przetwarzanie wszystkich aktualnie dostępnych danych.Dodano nowe przesyłanie strumieniowe
foreachBatch()
w języku Scala, gdzie można zdefiniować funkcję do przetwarzania danych wyjściowych każdego mikrobajta przy użyciu operacji ramki danych. Umożliwia to wykonanie następujących czynności:- Używanie istniejących źródeł danych wsadowych do zapisywania danych wyjściowych mikrobajtów w systemach, które nie mają jeszcze źródła danych przesyłanych strumieniowo (na przykład użyj modułu zapisywania wsadowego Cassandra na każdym danych wyjściowych mikrosadowych).
- Zapisywanie danych wyjściowych mikrobajtów w wielu lokalizacjach.
- Stosowanie operacji ramek danych i tabel na danych wyjściowych mikrobajtów, które nie są jeszcze obsługiwane w obiektach DataFrame przesyłania strumieniowego (na przykład dane wyjściowe mikrobajtów upsert do tabeli delty).
Dodano
from_avro/to_avro
funkcje do odczytywania i zapisywania danych Avro w ramce danych zamiast tylko plików, podobnie jakfrom_json/to_json
. Aby uzyskać więcej informacji, zobacz Odczytywanie i zapisywanie danych Avro w dowolnym miejscu .Dodano obsługę przesyłania strumieniowego
foreach()
w języku Python (jest już dostępna w języku Scala). Aby uzyskać więcej informacji, zobacz dokumentację foreach i foreachBatch.
Ulepszenia
- Szybsze generowanie wyników wyjściowych i/lub oczyszczania stanu przy użyciu operacji stanowych (
mapGroupsWithState
sprzężenia strumienia, agregacji przesyłania strumieniowego, dropDuplikatów przesyłania strumieniowego), gdy nie ma danych w strumieniu wejściowym.
Poprawki błędów
- Naprawiono usterkę poprawności SPARK-24588 w sprzężeniu strumienia, w której sprzężenie zgłosiło mniej wyników, gdy istnieje jawna ponowna partycja (na przykład
df1.repartition("a", "b").join(df, "a")
).
Inne zmiany i ulepszenia
- Dodano obsługę polecenia Odmowy SQL dla klastrów z włączoną kontrolą dostępu do tabel. Użytkownicy mogą teraz odrzucać określone uprawnienia w taki sam sposób, jak wcześniej. Odmowa uprawnienia zastąpi przyznane. Administratorzy i właściciele określonego obiektu nadal mogą wykonywać akcje.
- Nowe źródło danych usługi Azure Data Lake Storage Gen2 korzystające ze sterownika ABFS. Zobacz Nawiązywanie połączenia z usługą Azure Data Lake Storage Gen2 i usługą Blob Storage
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- : od 10.0.0b2 do 10.0.1
- setuptools: od 39.0.1 do 39.2.0
- tornado: 5.0.1 do 5.0.2
- koło: od 0.31.0 do 0.31.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
- Ulepszona obsługa parquet
- Uaktualniono usługę Apache ORC z wersji 1.4.1 do 1.4.3
Apache Spark
Środowisko Databricks Runtime 4.2 obejmuje platformę Apache Spark 2.3.1. Ta wersja zawiera wszystkie poprawki i ulepszenia zawarte w środowisku Databricks Runtime 4.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-24588][SS] Dołączanie strumieniowe powinno wymagać skrótuClusteredPartitioning od elementów podrzędnych
-
[SPARK-23931][SQL] Utwórz w
arrays_zip
pliku function.scala@scala.annotation.varargs
. - [SPARK-24633][SQL] Naprawiono generowanie kodu, gdy jest wymagany podział dla arrays_zip
- [SPARK-24578][CORE] Rozmiar podregionu limitu zwróconego buforu nio
- [SPARK-24613][SQL] Nie można dopasować pamięci podręcznej z funkcją UDF do kolejnych zależnych pamięci podręcznych
- [SPARK-24583][SQL] Nieprawidłowy typ schematu w insertIntoDataSourceCommand
- [SPARK-24565][SS] Dodawanie interfejsu API dla funkcji przesyłania strumieniowego ze strukturą w celu uwidaczniania wierszy wyjściowych każdego mikrobajta jako ramki danych
- [SPARK-24396][SS][PYSPARK] Dodawanie przesyłania strumieniowego ze strukturą ForeachWriter dla języka Python
- [SPARK-24216][SQL] TypdAggregateExpression platformy Spark używa polecenia getSimpleName, który nie jest bezpieczny w języku Scala
- [SPARK-24452][SQL][CORE] Unikaj możliwego przepełnienia w dodaniu int lub wielu
- [SPARK-24187][R][SQL] Dodawanie funkcji array_join do aparatu SparkR
- [SPARK-24525][SS] Podaj opcję ograniczenia liczby wierszy w narzędziu MemorySink
- [SPARK-24331][SPARKR][SQL] Dodawanie arrays_overlap, array_repeat map_entries do platformy SparkR
- [SPARK-23931][SQL] Dodaje funkcję arrays_zip do usługi Spark SQL
- [SPARK-24186][R][SQL] zmień funkcje odwrotne i concat na funkcje kolekcji w języku R
- [SPARK-24198][SPARKR][SQL] Dodawanie funkcji fragmentatora do aparatu SparkR
- [SPARK-23920][SQL] dodaj array_remove, aby usunąć wszystkie elementy, które są równe elementowi z tablicy
- [SPARK-24197][SPARKR][SQL] Dodawanie funkcji array_sort do aparatu SparkR
- [SPARK-24340][CORE] Czyszczenie plików menedżera bloków dysków innych niż shuffle po zakończeniu funkcji wykonawczej w klastrze autonomicznym
- [SPARK-23935][SQL] Dodawanie funkcji map_entries
- [SPARK-24500][SQL] Upewnij się, że strumienie są zmaterializowane podczas przekształcania drzewa.
- [SPARK-24495][SQL] Upewnij się, że PolecenieRequirement zwraca nieprawidłowy plan podczas zmieniania kolejności równych kluczy
- [SPARK-24506][Interfejs użytkownika] Dodawanie filtrów interfejsu użytkownika do kart dodanych po powiązaniu
- [SPARK-24468][SQL] Obsługa skali ujemnej podczas dostosowywania dokładności dla operacji dziesiętnych
- [SPARK-24313][SQL] Naprawianie oceny operacji kolekcji dla typów złożonych
- [SPARK-23922][SQL] Dodawanie funkcji arrays_overlap
- [SPARK-24369][SQL] Prawidłowa obsługa wielu odrębnych agregacji mających ten sam zestaw argumentów
- [SPARK-24455][CORE] poprawka literówki w komentarzu TaskSchedulerImpl
- [SPARK-24397][PYSPARK] Dodano właściwość TaskContext.getLocalProperty(key) w języku Python
- [SPARK-24117][SQL] Ujednolicone getSizePerRow
- [SPARK-24156][SS] Naprawianie błędu odzyskiwania po awarii w partii bez danych
- [SPARK-24414][Interfejs użytkownika] Oblicz prawidłową liczbę zadań dla etapu.
- [SPARK-23754][PYTHON] Ponowne podnoszenie klasy StopIteration w kodzie klienta
- [SPARK-23991][DSTREAMS] Naprawianie utraty danych, gdy zapis WAL kończy się niepowodzeniem w przydzieleniuBlocksToBatch
- [SPARK-24373][SQL] Dodawanie elementu AnalysisBarrier do elementów podrzędnych RelationalGroupedDataset i KeyValueGroupedDataset
- [SPARK-24392][PYTHON] Etykieta pandas_udf jako eksperymentalna
- [SPARK-24334] Naprawienie stanu wyścigu w ArrowPythonRunner powoduje nieczyste zamknięcie alokatora pamięci Strzałka
- [SPARK-19112][CORE] Dodaj brakujące shortCompressionCodecNames do konfiguracji.
- [SPARK-24244][SPARK-24368][SQL] Przekazywanie tylko wymaganych kolumn do analizatora CSV
- [SPARK-24366][SQL] Ulepszanie komunikatów o błędach dotyczących konwertowania typu
- [SPARK-24371][SQL] Dodano element isInCollection w interfejsie API ramki danych dla języka Scala an...
- [SPARK-23925][SQL] Dodawanie funkcji kolekcji array_repeat
- [DROBNE] Dodawanie konfiguracji protokołu SSL portów w elementach toString i scaladoc
- [SPARK-24378][SQL] Naprawianie niepoprawnych przykładów funkcji date_trunc
- [SPARK-24364][SS] Nie zezwalaj na niepowodzenie indeksu InMemoryFileIndex, jeśli ścieżka pliku nie istnieje
- [SPARK-24257][SQL] LongToUnsafeRowMap oblicza, że nowy rozmiar może być nieprawidłowy
- [SPARK-24348][SQL] element_at" — poprawka błędu
- [SPARK-23930][SQL] Dodawanie funkcji fragmentatora
- [SPARK-23416][SS] Dodaj określoną metodę zatrzymania dla metody ContinuousExecution.
- [SPARK-23852][SQL] Uaktualnianie do wersji Parquet 1.8.3
- [SPARK-24350][SQL] Poprawki klasyCastException w funkcji "array_position"
- [SPARK-24321][SQL] Wyodrębnianie wspólnego kodu z dzielenia/reszty do cechy podstawowej
- [SPARK-24309][CORE] Element AsyncEventQueue powinien zatrzymać się po przerwaniu.
- [SPARK-23850][SQL] Dodaj oddzielną konfigurację dla opcji SQL redaction.
- [SPARK-22371][CORE] Zwróć wartość None zamiast zgłaszać wyjątek, gdy akumulator jest zbierany jako bezużyteczny.
- [SPARK-24002][SQL] Zadanie nie można serializować spowodowane przez org.apache.parquet.io.api.Binary$ByteBufferBackedBinary.getBytes
- [SPARK-23921][SQL] Dodawanie funkcji array_sort
- [SPARK-23923][SQL] Dodawanie funkcji kardynalności
- [SPARK-24159][SS] Włączanie mikrosadowych partii bez danych na potrzeby przesyłania strumieniowego mapGroupswithState
- [SPARK-24158][SS] Włączanie partii bez danych dla sprzężeń przesyłanych strumieniowo
- [SPARK-24157][SS] Włączono partie bez danych w elemencie MicroBatchExecution na potrzeby agregacji przesyłania strumieniowego i deduplikacji
- [SPARK-23799][SQL] FilterEstimation.evaluateInSet generuje nieprawidłowe statystyki dla ciągu
- [SPARK-17916][SQL] Napraw pusty ciąg, który jest analizowany jako null, gdy ustawiono wartość nullValue.
- [SPARK-23916][SQL] Dodawanie funkcji array_join
- [SPARK-23408][SS] Synchronizowanie kolejnych akcji AddData w usłudze Streaming*JoinSuite
- [SPARK-23780][R] Nie można użyć biblioteki googleVis z nowym aparatem SparkR
- [SPARK-23821][SQL] Funkcja kolekcji: spłaszczona
- [SPARK-23627][SQL] Podaj wartość isEmpty w zestawie danych
- [SPARK-24027][SQL] Obsługa funkcji MapType z typem StringType dla kluczy jako typu głównego według from_json
- [SPARK-24035][SQL] Składnia SQL dla elementu Pivot — naprawianie ostrzeżenia antlr
- [SPARK-23736][SQL] Rozszerzanie funkcji concat w celu obsługi kolumn tablicowych
- [SPARK-24246][SQL] Popraw wyjątek AnalysisException, ustawiając przyczynę, gdy jest dostępna
- [SPARK-24263][R] Przerwy sprawdzania języka Java w środowisku SparkR za pomocą biblioteki openjdk
- [SPARK-24262][PYTHON] Naprawiono literówkę w komunikacie o błędzie dopasowania typu UDF
- [SPARK-24067][STREAMING][KAFKA] Zezwalaj na przesunięcia inne niż kolejne
- [SPARK-10878][CORE] Naprawianie stanu wyścigu, gdy wielu klientów rozwiązuje artefakty w tym samym czasie
- [SPARK-19181][CORE] Naprawianie niestabilnych metryk "SparkListenerSuite.local"
- [SPARK-24068]Propagowanie opcji elementu DataFrameReader do źródła danych tekstowych podczas wnioskowania schematu
- [SPARK-24214][SS] Poprawka toJSON dla streamingRelationV2/StreamingExecutionRelation/ContinuousExecutionRelation
- [SPARK-23919][SPARK-23924][SPARK-24054][SQL] Dodawanie funkcji array_position/element_at
- [SPARK-23926][SQL] Rozszerzanie funkcji odwrotnej w celu obsługi argumentów ArrayType
- [SPARK-23809][SQL] Aktywne sparkSession należy ustawić za pomocą polecenia getOrCreate
- [SPARK-23094][SPARK-23723][SPARK-23724][SQL] Obsługa kodowania niestandardowego dla plików JSON
- [SPARK-24035][SQL] Składnia SQL dla tabeli przestawnej
- [SPARK-24069][R] Dodawanie funkcji array_min/array_max
- [SPARK-23976][CORE] Wykrywanie przepełnienia długości w pliku UTF8String.concat()/ByteArray.concat()
- [SPARK-24188][CORE] Przywracanie punktu końcowego interfejsu API "/version".
- [SPARK-24128][SQL] Wspomnij opcję konfiguracji w przypadku niejawnego błędu CROSS JOIN
- [SPARK-23291][SQL][R] Podciąg języka R nie powinien zmniejszać pozycji początkowej o 1 podczas wywoływania interfejsu API języka Scala
- [SPARK-23697][CORE] Starsza wersjaAccumulatorWrapper powinna poprawnie zdefiniować wartość isZero
- [SPARK-24168][SQL] Element WindowExec nie powinien uzyskiwać dostępu do programu SQLConf po stronie funkcji wykonawczej
- [SPARK-24143]filtrowanie pustych bloków podczas konwertowania mapstatus na parę (blockId, size)
- [SPARK-23917][SPARK-23918][SQL] Dodawanie funkcji array_max/array_min
- [SPARK-23905][SQL] Dodawanie dnia tygodnia funkcji zdefiniowanej przez użytkownika
- [SPARK-16406][SQL] Zwiększanie wydajności pliku LogicalPlan.resolve
- [SPARK-24013][SQL] Usuwanie niepotrzebnego kompresu w przybliżonympercentile
- [SPARK-23433][CORE] Opóźnione ukończenie zadań zombie aktualizują wszystkie zestawy zadań
- [SPARK-24169][SQL] Obiekty JsonToStructs nie powinny uzyskiwać dostępu do programu SQLConf po stronie funkcji wykonawczej
- [SPARK-24133][SQL] Backport [SPARK-24133]Sprawdzanie przepełnienia liczby całkowitej podczas zmiany rozmiaru WritableColumnVectors
- [SPARK-24166][SQL] Element InMemoryTableScanExec nie powinien uzyskiwać dostępu do programu SQLConf po stronie funkcji wykonawczej
- [SPARK-24133][SQL] Sprawdzanie przepełnienia liczb całkowitych podczas zmiany rozmiaru WritableColumnVectors
- [SPARK-24085][SQL] Zapytanie zwraca wyjątek UnsupportedOperationException, gdy podzapytywanie skalarne jest obecne w wyrażeniu partycjonowania
- [SPARK-24062][THRIFT SERVER] Rozwiązywanie problemu z szyfrowaniem SASL nie można włączyć w przypadku serwera oszczędnego
- [SPARK-23004][SS] Upewnij się, że funkcja StateStore.commit jest wywoływana tylko raz w zadaniu agregacji przesyłania strumieniowego
- [SPARK-23188][SQL] Umożliwia skonfigurowanie wektoryzowanego rozmiaru partii czytnika columar
- [SPARK-23375][SPARK-23973][SQL] Eliminowanie niepotrzebnego sortowania w optymalizatorze
- [SPARK-23877][SQL] Używanie predykatów filtru do oczyszczania partycji w zapytaniach tylko metadanych
- [SPARK-24033][SQL] Naprawiono niezgodność określonej ramki oknawindowframe(RowFrame, -1, -1)
- [SPARK-23340][SQL] Uaktualnianie usługi Apache ORC do wersji 1.4.3
- Rozwiązano problem z brakiem sprawdzania wartości null, który jest bardziej prawdopodobny przez usprawnione generowanie kodu eksplorowania i uwidoczniony przez platformę SPARK-23986, ponieważ wygenerowany kod źródłowy był nieco dłuższy i wyzwolił problematyczną ścieżkę kodu (dzielenie kodu przez expression.reduceCodeSize()).
- [SPARK-23989][SQL] wymiana powinna kopiować dane przed nieserializowanym mieszania
- [SPARK-24021][CORE] naprawa usterki w aktualizacji BlacklistTrackerBlacklistForFetchFailure
- [SPARK-24014][PYSPARK] Dodawanie metody onStreamingStarted do elementu StreamingListener
- [SPARK-23963][SQL] Prawidłowa obsługa dużej liczby kolumn w zapytaniu w tabeli Hive opartej na tekście
- [SPARK-23948] Wyzwalanie odbiornika zadań mapstage w elemecie submitMissingTasks
- [SPARK-23986][SQL] freshName może generować nazwy inne niż unikatowe
- [SPARK-23835][SQL] Dodawanie sprawdzania not-null do deserializacji argumentów krotki
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 4.2.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Zainstalowane biblioteki języka Python
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Poduszka | 3.3.1 |
pip | 10.0.1 | warstwa | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | Przeszukać | 0.32 | seaborn | 0.7.1 |
setuptools | 39.2.0 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Sześć | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.0.2 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | koło | 0.31.1 |
wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports (backports) | 1.1.2 |
base | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
bindrcpp | 0.2.2 | bitowe | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.1 | rozruch | 1.3-20 |
warzyć | 1.0-6 | miotła | 0.4.4 | samochód | 3.0-0 |
carData | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
chron | 2.3-52 | class | 7.3-14 | cli | 1.0.0 |
cluster | 2.0.7-1 | codetools | 0.2-15 | przestrzeń kolorów | 1.3-2 |
commonmark | 1.4 | — kompilator | 3.4.4 | kredka | 1.3.4 |
lok | 3.2 | CVST | 0.2-1 | data.table | 1.10.4-3 |
usługi Power BI | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.5 |
dichromat | 2.0-0 | trawić | 0.6.15 | dimRed | 0.1.0 |
DoMC | 1.3.5 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.3 |
forcats | 0.3.0 | foreach | 1.4.4 | zagraniczny | 0.8-70 |
Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
glmnet | 2.0-16 | klej | 1.2.0 | Gower | 0.1.2 |
grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
gsubfn | 0,7 | gtable | 0.2.0 | h2o | 3.16.0.2 |
przystań | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iteratory | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | Etykietowania | 0.3 | krata | 0.20-35 |
lawa | 1.6.1 | opóźnienie | 0.2.1 | littler | 0.3.3 |
lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
mapproj | 1.2.6 | Mapy | 3.3.0 | maptools | 0.9-2 |
MASA | 7.3-50 | Macierz | 1.2-14 | MatrixModels | 0.4-1 |
zapamiętywanie | 1.1.0 | metody | 3.4.4 | mgcv | 1.8-24 |
mim | 0.5 | minqa | 1.2.4 | mnormt | 1.5-5 |
Metryki modelu | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsxx | 4.0.17 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | filar | 1.2.1 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
Proc | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
Psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
R6 | 2.2.2 | randomForest | 4.6-14 | RColorBrewer | 1.1-2 |
Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
przepisy | 0.1.2 | rewanż | 1.0.1 | zmień kształt2 | 1.4.3 |
Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
rstudioapi | 0,7 | waga | 0.5.0 | sfsmisc | 1.1-2 |
Sp | 1.2-7 | SparkR | 2.3.1 | Rozrzednia | 1.77 |
przestrzenny | 7.3-11 | Splajnów | 3.4.4 | sqldf | 0.4-11 |
KWADRAT | 2017.10-1 | statmod | 1.4.30 | Statystyki | 3.4.4 |
stats4 | 3.4.4 | stringi | 1.1.7 | stringr | 1.3.0 |
przetrwanie | 2.42-3 | tcltk | 3.4.4 | NauczanieDemos | 2.10 |
testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
tidyselect | 0.2.4 | timeDate | 3043.102 | tools | 3.4.4 |
utf8 | 1.1.3 | narzędzia | 3.4.4 | viridisLite | 0.3.0 |
wąs | 0.3-2 | withr | 2.1.2 | xml2 | 1.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
Identyfikator grupy | Identyfikator artefaktu | Wersja |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | strumień | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-cieniowane | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | kolega z klasy | 1.0.0 |
com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guawa | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | parsery jednowołciowości | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | kolekcjoner | 0,7 |
javax.activation | aktywacja | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolit | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.3.2 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | tat | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | format strzałki | 0.8.0 |
org.apache.arrow | strzałka w pamięci | 0.8.0 |
org.apache.arrow | wektor strzałki | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
org.apache.calcite | calcite-core | 1.2.0 inkubacja |
org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | kurator-klient | 2.7.1 |
org.apache.curator | struktura kuratora | 2.7.1 |
org.apache.curator | przepisy kuratora | 2.7.1 |
org.apache.derby | Derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | adnotacje hadoop | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 inkubacja |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | bluszcz | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.3 |
org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
org.apache.parquet | parquet-column | 1.8.3-databricks2 |
org.apache.parquet | parquet-common | 1.8.3-databricks2 |
org.apache.parquet | kodowanie parquet | 1.8.3-databricks2 |
org.apache.parquet | format parquet | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.3-databricks2 |
org.apache.parquet | parquet-jackson | 1.8.3-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Final |
org.iq80.snappy | Żwawy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interfejs testowy | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark.spark | Nieużywane | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |