Databricks Runtime 4.0 (EoS)
Примечание.
Поддержка этой версии databricks Runtime закончилась. Сведения о дате окончания поддержки см . в журнале завершения поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.
Databricks выпустила эту версию в марте 2018 года.
Внимание
Этот выпуск не рекомендуется использовать с 1 ноября 2018 г. Дополнительные сведения о политике и расписании нерекомендуемой среды выполнения Databricks см. в разделе "Жизненные циклы поддержки Databricks".
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 4.0 на платформе Apache Spark.
Изменения и улучшения
- Источник данных JSON теперь пытается автоматически определить кодировку, вместо того чтобы предполагать использование UTF-8. В случаях, когда автоматическое обнаружение завершается неудачно, пользователи могут указать параметр CharSet, чтобы применять определенную кодировку. См. раздел Автоматическое обнаружение кодировки.
- Оценка и прогнозирование с помощью конвейеров Spark MLlib в структурированной потоковой передаче полностью поддерживаются.
- Экспорт модели Машинного обучения Databricks полностью поддерживается. С помощью этой функции можно обучить модель MLlib Spark на модулях данных, экспортировать ее с помощью вызова функции и использовать библиотеку Databricks в системе по выбору для импорта модели и оценки новых данных.
- Новая реализация источника данных Spark предлагает масштабируемый доступ для чтения и записи в Azure Synapse Analytics. См. Spark — соединитель Azure Synapse Analytics.
- Схема функции
from_json
теперь всегда преобразуется в допускает значение NULL. Иными словами, все поля, включая вложенные, допускают значение NULL. Это обеспечивает совместимость данных со схемой, предотвращая повреждение после записи данных в Parquet, когда в данных отсутствует поле, а предоставленная пользователем схема объявляет поле как не допускающее значения NULL. - Обновлены некоторые установленные библиотеки Python:
- futures: с 3.1.1 до 3.2.0;
- pandas: с 0.18.1 до 0.19.2;
- pyarrow: с 0.4.1 до 0.8.0;
- setuptools: с 38.2.3 до 38.5.1;
- tornado: с 4.5.2 до 4.5.3.
- Обновлены несколько установленных библиотек R. См. Установленные библиотеки R.
- Обновлен пакет SDK AWS для Java с 1.11.126 до 1.11.253.
- обновлен драйвер JDBC SQL Server с 6.1.0.jre8 до 6.2.2.jre8.
- Обновлен драйвер JDBC PostgreSQL с 9.4-1204-jdbc41 до 42.1.4.
Apache Spark
Databricks Runtime 4.0 включает Apache Spark 2.3.0.
SQL Core, PySpark и Spark
Основные возможности
-
Векторизированный модуль чтения ORC: [SPARK-16060]: добавлена поддержка нового модуля чтения ORC, который значительно улучшает пропускную способность сканирования ORC с помощью векторизации (в 2–5 раз). Чтобы включить модуль чтения, пользователи могут задать для
spark.sql.orc.impl
значениеnative
. - Сервер журнала Spark версии 2: [SPARK-18085]: новая серверная часть сервера журнала Spark (SHS), обеспечивающая лучшую масштабируемость для крупномасштабных приложений с более эффективным механизмом хранения событий.
- API источника данных версии 2: [SPARK-15689][SPARK-22386]: экспериментальный API для подключения новых источников данных в Spark. Новый API пытается устранить некоторые ограничения API версии 1 и предназначен для упрощения разработки высокопроизводительных, простых в обслуживании и расширяемых внешних источников данных. Этот API все еще находится в состоянии активной разработки, и следует ожидать критических изменений.
- Улучшения производительности PySpark: [SPARK-22216][SPARK-21187]: значительные улучшения производительности и совместимости в Python благодаря быстрой сериализации данных и векторизированному выполнению.
Производительность и стабильность
- [SPARK-21975]: поддержка гистограммы в оптимизаторе на основе затрат.
- [SPARK-20331]: улучшенная поддержка отправки вниз предиката для удаления лишних секций Hive.
- [SPARK-19112]: поддержка кодека сжатия ZStandard.
- [SPARK-21113]: поддержка упреждающего входного потока для чтения, чтобы уменьшить затраты на операции дискового ввода-вывода в модуле чтения сброса.
- [SPARK-22510][SPARK-22692][SPARK-21871]: улучшенная стабилизация платформы CodeGen, чтобы избежать достижения предельного размера байтового кода виртуальной машины Java, составляющего 64 КБ, для метода Java и ограничения пула констант компилятора Java.
- [SPARK-23207]: Исправлена давняя ошибка в Spark, из-за которой последовательное перемешивание и изменение секций в DataFrame могли привести к неверным ответам в определенных случаях.
- [SPARK-22062][SPARK-17788][SPARK-21907]: исправлены различные причины ошибок нехватки памяти.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: улучшения оптимизатора и планировщика на основе правил.
Другие важные изменения
- [SPARK-20236]: поддержка семантики перезаписи динамических секций в стиле Hive.
-
[SPARK-4131]: поддержка в
INSERT OVERWRITE DIRECTORY
записи данных непосредственно в файловую систему из запроса. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: улучшения определяемых пользователем функций.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: улучшенное соответствие SQL ANSI и совместимость с Hive.
- [SPARK-20746]: более полные встроенные функции SQL.
- [SPARK-21485]: создание документации Spark SQL для встроенных функций.
-
[SPARK-19810]: удалена поддержка Scala
2.10
. -
[SPARK-22324]: обновление Arrow до
0.8.0
и Netty до4.1.17
.
Структурированная потоковая передача
Непрерывная обработка
- Новый механизм выполнения, который может выполнять запросы потоковой передачи со сквозной задержкой меньше миллисекунду за счет изменения только одной строки пользовательского кода. Чтобы узнать больше, ознакомьтесь с руководством по программированию.
Соединения "поток — поток"
- Возможность соединения двух потоков данных и буферизации строк до тех пор, пока соответствующие кортежи не поступят в другой поток. Предикаты можно использовать со столбцами времени события, чтобы привязать объем состояния, который необходимо хранить.
API для потоковой передачи версии 2
- Экспериментальный API для подключения новых источников и приемников, который подходит для пакетной, микропакетной и непрерывной обработки. Этот API все еще находится в состоянии активной разработки, и следует ожидать критических изменений.
MLlib
Ключевые моменты
- Прогнозирование Машинного обучения теперь работает со структурированной потоковой передачей с использованием обновленных API. Подробные сведения приведены ниже.
Новые и улучшенные API
- [SPARK-21866]: встроенная поддержка чтения изображений в DataFrame (Scala/Java/Python).
- [SPARK-19634]: функции DataFrame для описательных сводных статистических данных по векторным столбцам (Scala/Java).
-
[SPARK-14516]:
ClusteringEvaluator
для настройки алгоритмов кластеризации, поддерживающих метрики с силуэтом по косинусу и эвклидовому расстоянию (Scala/Java/Python). - [SPARK-3181]: надежная линейная регрессия с функцией потерь Хьюбера (Scala/Java/Python).
-
[SPARK-13969]: преобразователь
FeatureHasher
(Scala/Java/Python). - Поддержка нескольких столбцов для нескольких преобразователей функций:
-
[SPARK-13030]:
OneHotEncoderEstimator
(Scala/Java/Python) -
[SPARK-22397]:
QuantileDiscretizer
(Scala/Java) -
[SPARK-20542]:
Bucketizer
(Scala/Java/Python)
-
[SPARK-13030]:
- [SPARK-21633] и [SPARK-21542]: улучшенная поддержка пользовательских компонентов конвейера в Python.
Новые функции
-
[SPARK-21087]:
CrossValidator
иTrainValidationSplit
могут собирать все модели при подгонке (Scala/Java). Это позволяет проверять или сохранять все модели с подгонкой. -
[SPARK-19357]: метаалгоритмы
CrossValidator
,TrainValidationSplit
иOneVsRest
поддерживают параметр параллелизма для подгонки нескольких вложенных моделей в параллельных заданиях Spark. - [SPARK-17139]: сводка по модели для мультиноминальной логистической регрессии (Scala/Java/Python).
- [SPARK-18710]: добавлено смещение в GLM.
-
[SPARK-20199]: добавлен параметр
featureSubsetStrategy
вGBTClassifier
иGBTRegressor
. Использование его для работы со вложенными выборками функций может значительно повысить скорость обучения. Этот параметр является ключевым преимуществомxgboost
.
Другие важные изменения
-
[SPARK-22156]: исправлено масштабирование скорости обучения
Word2Vec
с итерациямиnum
. Новая скорость обучения установлена в соответствии с исходным кодомWord2Vec
на языке C и должна давать лучшие результаты обучения. -
[SPARK-22289]: добавлена поддержка
JSON
для параметров матрицы (исправлена ошибка с сохраняемостью Машинного обучения сLogisticRegressionModel
при использовании границ для коэффициентов.) -
[SPARK-22700]:
Bucketizer.transform
неправильно удаляет строку, содержащуюNaN
. Если параметруhandleInvalid
было присвоено значение "skip" (пропустить), тоBucketizer
пропускал запись с допустимым значением во входном столбце, если в другом (неактуальном) столбце было указано значениеNaN
. -
[SPARK-22446]: из-за оптимизатора Catalyst в
StringIndexerModel
иногда возникало неправильное исключение "Unseen label" (Невидимая метка), если дляhandleInvalid
было задано значение "error" (ошибка). Это могло произойти для отфильтрованных данных, из-за отправки предиката, что приводило к ошибкам даже после того, как недопустимые строки уже были отфильтрованы из входного набора данных. - [SPARK-21681]: исправлена ошибка в пограничных случаях в мультиноминальной логистической регрессии, которая приводила к неверным коэффициентам, если у некоторых функций была нулевая дисперсия.
- Основные оптимизации:
-
[SPARK-22707]: уменьшено потребления памяти для
CrossValidator
. -
[SPARK-22949]: уменьшено потребления памяти для
TrainValidationSplit
. -
[SPARK-21690]:
Imputer
должен обучать данные с помощью одного прохода. -
[SPARK-14371]:
OnlineLDAOptimizer
избегает сбора статистики для драйвера для каждого минипакета.
-
[SPARK-22707]: уменьшено потребления памяти для
SparkR
Основной целью SparkR в выпуске 2.3.0 было повышение стабильности определяемых пользователем функций и добавление нескольких новых оболочек SparkR вокруг существующих API:
Основные возможности
- Улучшенная четность функций между SQL и R
-
[SPARK-22933]: API структурированной потоковой передачи для
withWatermark
,trigger
,partitionBy
и соединения потока с потоком. - [SPARK-21266]: поддержка определяемой пользователем функции SparkR со схемой в формате DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: несколько новых оболочек API для DataFrame.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: несколько новых оболочек API для SparkML.
GraphX
Оптимизации
-
[SPARK-5484]: Pregel теперь периодически создает контрольные точки, чтобы избежать
StackOverflowErrors
. - [SPARK-21491]: небольшое повышение производительности в нескольких местах.
Устаревшие элементы
Python
-
[SPARK-23122]:
register*
теперь не рекомендуется использовать для определяемых пользователем функций вSQLContext
иCatalog
в PySpark.
MLlib
-
[SPARK-13030]:
OneHotEncoder
теперь не рекомендуется использовать. Он будет удален в версии 3.0. Он заменен наOneHotEncoderEstimator
.OneHotEncoderEstimator
будет переименованOneHotEncoder
в версии 3.0 (ноOneHotEncoderEstimator
будет оставлен в виде псевдонима).
Изменения в работе
SparkSQL
-
[SPARK-22036]: по умолчанию арифметические операции между десятичными числами возвращают округленное значение, если точное представление невозможно (вместо возврата
NULL
в предыдущих версиях). -
[SPARK-22937]: если все входные данные являются двоичными,
elt()
SQL возвращает выходные данные в виде двоичных данных. В противном случае возвращается строка. В предыдущих версиях он всегда возвращает строку, независимо от типов входных данных. - [SPARK-22895]: детерминированные предикаты объединения или фильтра, которые находятся после первых недетерминированных предикатов, также отправляются вниз или через дочерние операторы, если это возможно. В предыдущих версиях эти фильтры не подходили для отправки вниз предиката.
-
[SPARK-22771]: если все входные данные являются двоичными,
functions.concat()
возвращает выходные данные в виде двоичных данных. В противном случае возвращается строка. В предыдущих версиях он всегда возвращает строку, независимо от типов входных данных. - [SPARK-22489]: если какая-либо из сторон соединения поддерживает трансляцию, предпочтительно транслировать таблицу, явно указанную в подсказке трансляции.
-
[SPARK-22165]: вывод столбца секции ранее находил неправильный общий тип для различных выводимых типов. Например, ранее он выбирал тип
double
как общий тип для типаdouble
и типаdate
. Теперь он находит правильный общий тип для таких конфликтов. Дополнительные сведения см. в руководстве по миграции. -
[SPARK-22100]: функция
percentile_approx
ранее принимала входные данные типаnumeric
и выводила результаты типаdouble
. Теперь он поддерживает типdate
,timestamp
иnumeric
в качестве входных данных. Тип результата также меняется на тот же, что и тип входных данных, что лучше подходит для процентилей. -
[SPARK-21610]: запросы из необработанных файлов JSON/CSV запрещены, если столбцы, на которые имеются ссылки, содержат только внутренний поврежденный столбец записи (по умолчанию используется имя
_corrupt_record
). Вместо этого можно выполнить кэширование или сохранение проанализированных результатов, а затем отправить тот же запрос. - [SPARK-23421]: начиная с версий Spark 2.2.1 и 2.3.0 схема всегда выводится во время выполнения, если таблицы источников данных содержат столбцы, которые существуют как в схеме секции, так и в схеме данных. Выводимая схема не имеет секционированных столбцов. При чтении таблицы Spark учитывает значения секций этих перекрывающихся столбцов вместо значений, хранящихся в файлах источника данных. В выпуске 2.2.0 и 2.1.x выводимая схема секционирована, но данные таблицы невидимы для пользователей (т. е. результирующий набор пуст).
PySpark
-
[SPARK-19732]:
na.fill()
илиfillna
также принимает логическое значение и заменяет значения NULL на логические значения. В предыдущих версиях Spark PySpark просто пропускал его и возвращал исходный DataSet/DataFrame. -
[SPARK-22395]: pandas
0.19.2
или более новой версии требуется для использования функций, связанных с pandas, таких какtoPandas
,createDataFrame
из DataFrame pandas и т. д. - [SPARK-22395]: поведение значений меток времени для функций, связанных с pandas, было изменено, чтобы учитывать часовой пояс сеанса, который не учитывался в предыдущих версиях.
-
[SPARK-23328]:
df.replace
не позволяет опускатьvalue
, еслиto_replace
не является словарем. Ранее можно было опуститьvalue
в других случаях и использоватьNone
по умолчанию, что противоречит логики и может вызвать ошибки.
MLlib
-
Критические изменения API: иерархия классов и признаков для сводных данных модели логистической регрессии была изменена на более понятную и лучше соответствующую добавлению сводных данных нескольких классов. Это критическое изменение пользовательского кода, которое приводит
LogisticRegressionTrainingSummary
кBinaryLogisticRegressionTrainingSummary
. Вместо этого пользователи должны использовать методmodel.binarySummary
. Дополнительные сведения см. в [SPARK-17139] (обратите внимание, что это API@Experimental
). Это не влияет на метод сводки Python, который по-прежнему будет правильно работать как для мультиноминальных, так и для логических вариантов. -
[SPARK-21806]:
BinaryClassificationMetrics.pr()
: первая точка (0,0, 1,0) является ошибочной и заменена на (0,0, p), где точность p соответствует наименьшей точке полноты. - [SPARK-16957]: деревья принятия решений теперь используют взвешенные средние точки при выборе раздельных значений. Это может привести к изменению результатов обучения модели.
-
[SPARK-14657]:
RFormula
без перехвата теперь выводит ссылочную категорию при кодировании строковых компонентов, чтобы соответствовать исходному поведению R. Это может привести к изменению результатов обучения модели. -
[SPARK-21027]: параллелизм по умолчанию, используемый в
OneVsRest
, теперь имеет значение 1 (т. е. последовательный). В 2.2 и более ранних версиях для уровня параллелизма был задан размер пула потоков по умолчанию в Scala. Это может изменить производительность. -
[SPARK-21523]: Breeze обновлен до
0.13.2
. Это включает важное исправление ошибки в поиск строки Wolfe для L-BFGS. - [SPARK-15526]: зависимость JPMML теперь затенена.
- Изменения в поведении, возникающие в результате исправления ошибок см. также в разделе "Исправления ошибок".
Известные проблемы
-
[SPARK-23523][SQL]: исправлен неверный результат, который вызвало правило
OptimizeMetadataOnlyQuery
. - [SPARK-23406]: исправлены ошибки в самосоединениях между потоками.
Обновления в рамках обслуживания
См. Служебные обновления Databricks Runtime 4.0.
Системная среда
- Операционная система: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (или 3.5.2 при использовании Python 3)
- R: R версии 3.4.3 (2017-11-30)
-
Кластеры GPU: установлены следующие библиотеки GPU NVIDIA:
- Драйвер Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Установленные библиотеки Python
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
криптография | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | фьючерсы | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 9.0.1 | ply | 3,9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2,14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
requests | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0,32 | мореборн | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | six | 1.10.0 | statsmodels | 0.6.1 |
tornado | 4.5.3 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.30.0 |
wsgiref | 0.1.2 |
Установленные библиотеки R
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | внутренние порты | 1.1.1 |
base | 3.4.3 | BH | 1.65.0–1 | bindr | 0,1 |
bindrcpp | 0,2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0–6 | большой двоичный объект | 1.1.0 | загрузка | 1.3-20 |
заваривать | 1.0–6 | метла | 0.4.3 | автомобиль | 2.1-6 |
крышка | 6.0–77 | chron | 2.3–51 | class | 7.3-14 |
cluster | 2.0.6 | codetools | 0.2-15 | colorspace | 1.3-2 |
commonmark | 1.4 | компилятор | 3.4.3 | карандаш | 1.3.4 |
curl | 3.0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
наборы данных | 3.4.3 | DBI | 0,7 | ddalpha | 1.3.1 |
DEoptimR | 1,0–8 | desc | 1.1.1 | средства разработки | 1.13.4 |
дихромат | 2.0-0 | digest | 0.6.12 | dimRed | 0.1.0 |
doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
foreach | 1.4.3 | иностранный | 0.8-69 | gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
клей | 1.2.0 | Говер | 0.1.2 | графика | 3.4.3 |
grDevices | 3.4.3 | grid | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Итераторы | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | маркирование | 0,3 | решётка | 0.20-35 |
Lava | 1.5.1 | lazoval | 0.2.1 | littler | 0.3.2 |
lme4 | 1.1–14 | lubridate | 1.7.1 | magrittr | 1.5 |
mapproj | 1.2-5 | maps | 3.2.0 | МАССАЧУСЕТС | 7.3-48 |
«Матрица» | 1.2-11 | MatrixModels | 0.4-1 | memoise | 1.1.0 |
оплаты | 3.4.3 | mgcv | 1.8-23 | мим | 0,5 |
minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0–6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | parallel | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
plyr | 1.8.4 | хвалить | 1.0.0 | pROC | 1.10.0 |
prodlim | 1.6.1 | proto | 1.0.0 | Псих | 1.7.8 |
purrr | 0.2.4 | quantreg | 5,34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
Рецепты | 0.1.1 | reshape2 | 1.4.2 | rlang | 0.1.4 |
надежная база | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1.2 | Rserve | 1.7-3 |
RSQLite | 2.0 | rstudioapi | 0,7 | весы | 0.5.0 |
sfsmisc | 1.1–1 | sp | 1.2-5 | SparkR | 2.3.0 |
SparseM | 1.77 | пространственный | 7.3-11 | Сплайны | 3.4.3 |
sqldf | 0.4-11 | statmod | 1.4.30 | stats | 3.4.3 |
статистика4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
выживание | 2.41-3 | tcltk | 3.4.3 | ОбучениеDemos | 2,10 |
testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | TimeDate | 3042.101 | средства | 3.4.3 |
служебные программы | 3.4.3 | viridisLite | 0.2.0 | усы | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.11)
ИД группы | Идентификатор артефакта | Версия |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | потоковая передача | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
com.databricks | jets3t | 0.7.1–0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15–9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15–9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1,1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0,3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1,6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | коллектор | 0,7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0–2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3,4 |
org.antlr | antlr4-runtime | 4,7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.8.0 |
org.apache.arrow | arrow-memory | 0.8.0 |
org.apache.arrow | arrow-vector | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0–M20 |
org.apache.directory.api | api-util | 1.0.0–M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0–M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0–M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-encoding | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4. |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1,58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | неиспользованный | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1,16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |