Databricks Runtime 11.1 (EoS)
Примечание.
Поддержка этой версии databricks Runtime закончилась. Сведения о дате окончания поддержки см . в журнале завершения поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 11.1 на платформе Apache Spark 3.3.0. Databricks выпустила эту версию в июле 2022 года.
Новые функции и внесенные улучшения
- Photon предоставляется в общедоступной версии
- Photon: поддерживаемые типы экземпляров
- Канал изменений данных теперь может автоматически обрабатывать метки времени вне диапазона
- Описание и отображение функций SQL теперь отображают имена Catalog Unity в выходных данных (общедоступная предварительная версия)
- Schema вывод и эволюция файлов Parquet в автозагрузчике (общедоступная предварительная версия)
- Auto Loader теперь поддерживает эволюцию schema для Avro (GA)
- поддержка Delta Lake для динамических partition перезаписывает
- поддержка информации schema для объектов, созданных в Unity Catalog
- Информационные ограничения Delta Lake tables с Unity Catalog (публичная предварительная версия)
- Unity Catalog — ga
- Разностный общий доступ теперь общедоступен
Photon предоставляется в общедоступной версии
Photon теперь предоставляется в общедоступной версии начиная с Databricks Runtime 11.1. Photon — это собственный векторизованный обработчик запросов Azure Databricks, призванный обеспечить прямую совместимость с API Apache Spark для работы с существующим кодом. Он создан на языке C++, что позволяет пользоваться преимуществами современного оборудования и применять новейшие методики векторизованной обработки запросов. Это повышает производительность реальных данных и приложений благодаря повышенному уровню параллелизма на уровне данных и инструкций в ЦП — и все это за счет собственных возможностей озера данных.
Photon является частью высокопроизводительной среды выполнения, которая ускоряет работу с существующими вызовами SQL и API кадров данных и сокращает совокупную стоимость рабочей нагрузки. Photon используется по умолчанию в хранилищах SQL Databricks.
Новые функции и внесенные улучшения:
- Новый векторизованный оператор сортировки.
- Новые векторизованные функции window
- Новые типы и размеры экземпляров во всех облаках.
Ограничения:
- Определяемые пользователем функции Scala и Python не поддерживаются в Photon.
- RDD не поддерживается в Photon.
- Структурированная потоковая передача не поддерживается в Photon.
Дополнительные сведения см. в следующих объявлениях Photon.
Photon: новый векторизованный оператор сортировки
Photon теперь поддерживает векторизованную сортировку, если запрос содержит SORT_BY
, CLUSTER_BY
или функцию window с ORDER BY
.
Ограничения: Photon не поддерживает глобальное предложение ORDER BY
. Сортировки для оценки window будут обрабатываться фотонно, но глобальная сортировка будет продолжать выполняться в Spark.
Фотон: новые векторизованные функции window
Photon теперь поддерживает векторизованную window оценку функций для многих типов кадров и функций. К новым функциям window относятся: row_number
, rank
, dense_rank
lag
, lead
, percent_rank
, ntile
и nth_value
. Поддерживаемые типы кадров window: выполняющееся (UNBOUNDED PRECEDING AND CURRENT ROW
), неограниченное (UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING
), растущее (UNBOUNDED PRECEDING AND <OFFSET> FOLLOWING
) и уменьшающееся (<OFFSET> PRECEDING AND UNBOUNDED FOLLOWING
).
Ограничения:
- Photon поддерживает только версии
ROWS
всех типов кадров. - Photon пока не поддерживает тип скользящего кадра (
<OFFSET> PRECEDING AND <OFFSET> FOLLOWING
).
Photon: поддерживаемые типы экземпляров
- dds_v5
- ds_v5
- eas_v4
- eds_v4
- eds_v5
- es_v5
- las_v3
- ls_v3
Канал изменений данных теперь может автоматически обрабатывать метки времени вне диапазона
Теперь веб-канал измененных данных (CDF) включает новый режим для предоставления меток времени или версий после последней версии фиксации без возникновения ошибок. По умолчанию этот режим отключен. Его можно включить, задав для конфигурации spark.databricks.delta.changeDataFeed.timestampOutOfRange.enabled
значение true
.
Описание и отображение функций SQL теперь отображают имена Catalog Unity в выходных данных (общедоступная предварительная версия)
Команды DESC TABLE
, DESC DATABASE
, DESC SCHEMA
, DESC NAMESPACE
, DESC FUNCTION
, EXPLAIN
и SHOW CREATE TABLE
теперь всегда отображают имя catalog в выходных данных.
Schema вывод и эволюция файлов Parquet в автозагрузчике (общедоступная предварительная версия)
Автозагрузчик теперь поддерживает schema выведение и эволюцию для файлов Parquet. Как и форматы JSON, CSV и Avro, вы можете использовать восстановленные данные column для восстановления непредвиденных данных, которые могут появляться в файлах Parquet. К ним относятся данные, которые нельзя обработать в ожидаемом формате данных, columns с другим регистром или дополнительные columns, которые не являются частью ожидаемого schema. Автозагрузчик можно настроить для автоматического развития schema при добавлении новых columns во входящих данных. См. раздел Настройка вывода schema и эволюции вавтозагрузчика.
Автозагрузчик теперь поддерживает эволюцию schema для Avro (GA)
См. раздел Настройка вывода schema и эволюции вавтозагрузчика.
Поддержка динамической перезаписи в Delta Lake для partition
Delta Lake теперь позволяет перезаписать все существующие данные в динамическом режиме partition в каждом логическом partition, в котором запись зафиксирует новые данные. См . выборочную перезапись данных с помощью Delta Lake.
Поддержка schema информации для объектов, созданных в Unity Catalog
Сведения schema предоставляют API на основе SQL, самостоятельно описывая метаданные различных объектов базы данных, включая tables и views, ограничения и routines.
В информации schema вы найдете setviews, описывающие объекты, известные catalogschema, которые вам привилегировано увидеть.
Сведения schemaSYSTEM
catalog возвращают сведения об объектах во всех catalogs в хранилище метаданных.
См. сведения schema.
Информационные ограничения для Delta Lake tables с Catalog Unity (общедоступная предварительная версия)
Теперь можно определить информационный первичный ключ и ограничения внешнего ключа в Delta Lake tables с помощью Unity Catalog.
Информационные ограничения не применяются.
См. пункт,
Unity Catalog общедоступно
Unity Catalog теперь общедоступна, начиная с Databricks Runtime 11.1. См. Что такое CatalogUnity?.
Delta Sharing предоставляется в общедоступной версии
Delta Sharing теперь предоставляется в общедоступной версии, начиная с Databricks Runtime 11.1.
В Databricks Delta Sharing полностью управляется без обмена маркерами. Вы можете создавать и управлять providers, recipientsи shares в пользовательском интерфейсе или с помощью API SQL и REST.
Некоторые функции включают ограничение доступа получателей, запрашивание данных с помощью списков доступа по IP-адресам и региональных ограничений, а также делегирование управления Delta Sharing пользователям, не являющимся администраторами. Вы также можете запрашивать изменения данных и делиться добавочными версиями с помощью веб-каналов данных об изменениях. См. раздел "Что такое разностный общий доступ?".
Изменения в работе
Редактирование конфиденциальных свойств для DESCRIBE TABLE и ПОКАЗАТЬ свойства TABLE
Конфиденциальные свойства редактируются в кадрах данных и выходных данных DESCRIBE TABLE
команд.SHOW TABLE PROPERTIES
Кластеры заданий по умолчанию предназначены для режима доступа к одному пользователю с помощью Databricks Runtime 11.1 и более поздних версий.
Чтобы поддерживать совместимость с Unity Catalog, кластеры заданий на основе Databricks Runtime версии 11.1 и выше, созданные через пользовательский интерфейс заданий или API, по умолчанию будут работать в режиме единоличного доступа. Режим доступа к одному пользователю поддерживает большинство языков программирования, функций кластера и функций управления данными. Вы по-прежнему можете настроить режим общего доступа через пользовательский интерфейс или API, но языки или функции могут быть ограничены.
Обновления библиотек
- Обновленные библиотеки Python:
- filelock — с версии 3.6.0 до 3.7.1;
- plotly — с версии 5.6.0 до 5.8.2;
- protobuf — с версии 3.20.1 до 4.21.2.
- Обновленные библиотеки R:
- chron — с версии 2.3-56 до 2.3-57;
- DBI — с версии 1.1.2 до 1.1.3;
- dbplyr — с версии 2.1.1 до 2.2.0;
- e1071 — с версии 1.7-9 до 1.7-11;
- future — с версии 1.25.0 до 1.26.1;
- globals — с версии 0.14.0 до 0.15.1;
- hardhat — с версии 0.2.0 до 1.1.0;
- ipred — с версии 0.9-12 до 0.9-13;
- openssl — с версии 2.0.0 до 2.0.2;
- parallelly — с версии 1.31.1 до 1.32.0;
- processx — с версии 3.5.3 до 3.6.1;
- progressr — с версии 0.10.0 до 0.10.1;
- proxy — с версии 0.4-26 до 0.4-27;
- ps — с версии 1.7.0 до 1.7.1;
- randomForest — с версии 4.7-1 до 4.7-1.1;
- roxygen2 — с версии 7.1.2 до 7.2.0;
- Rserve — с версии 1.8-10 до 1.8-11;
- RSQLite — с версии 2.2.13 до 2.2.14;
- sparklyr — с версии 1.7.5 до 1.7.7;
- tinytex — с версии 0.38 до 0.40;
- usethis — с версии 2.1.5 до 2.1.6;
- xfun — с версии 0.30 до 0.31.
- Обновленные библиотеки Java:
- io.delta.delta-sharing-spark_2.12 — с версии 0.4.0 до 0.5.0.
Apache Spark
Databricks Runtime 11.2 включает Apache Spark 3.3.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 11.1 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- [SPARK-40054] [SQL] Restore синтаксис обработки ошибок try_cast()
- [SPARK-39489] [CORE] Повышение эффективности ведения журнала событий JsonProtocol благодаря использованию Jackson вместо Json4s
-
[SPARK-39319] [CORE][SQL] Создание контекстов запросов в составе
SparkThrowable
- [SPARK-40085] [SQL] Использование класса ошибок INTERNAL_ERROR вместо IllegalStateException для указания ошибок
- [SPARK-40001] [SQL] Сделать записанные значения NULL в JSON DEFAULT columns записывать 'null' в хранилище
- [SPARK-39635] [SQL] Поддержка метрик драйверов в пользовательском API метрик DS версии 2
- [SPARK-39184] [SQL] Обработка результирующего массива меньшего размера в последовательностях дат и меток времени
-
[SPARK-40019] [SQL] Рефакторинг комментария ArrayType containsNull и рефакторинг логики непонимания в выражении collectionOperator о
containsNull
- [SPARK-39989] [SQL] Поддержка оценки column статистики, если это свертываемое выражение
- [SPARK-39926] [SQL] Исправлена ошибка в column поддержке по умолчанию для невекторизованных сканирований Parquet
- [SPARK-40052] [SQL] Обработка прямых буферов байтов в VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Исправление типа целевого интервала в ошибках переполнения во время приведения
- [SPARK-39835] [SQL] Исправление в устранении сортировок remove глобальная сортировка перед локальной сортировкой
- [SPARK-40002] [SQL] Не нажимайте limitwindow с помощью ntile
- [SPARK-39976] [SQL] ArrayIntersect должен правильно обрабатывать значение NULL в левом выражении
- [SPARK-39985] [SQL] Включить неявный columnvalues DEFAULT при вставке из DataFrame
- [SPARK-39776] [SQL] JOIN в подробной строке должен быть добавлен тип Join
- [SPARK-38901] [SQL] DS V2 поддерживает принудительную отправку прочих функций
- [SPARK-40028] [SQL][продолжение] Улучшение примеров строковых функций
- [SPARK-39983] [CORE][SQL] Не следует кэшировать несериализированные отношения широковещательной рассылки в драйвере
-
[SPARK-39812] [SQL] Упрощение кода, которое создает
AggregateExpression
сtoAggregateExpression
- [SPARK-40028] [SQL] Добавление примеров с двоичными данными для строковых выражений
- [SPARK-39981] [SQL] Отображение исключения QueryExecutionErrors.castingCauseOverflowErrorInTableInsert в Cast
- [SPARK-40007] [PYTHON][SQL] Добавление параметра режима в функции
- [SPARK-40008] [SQL] Поддержка приведения целочисленных значений к интервалам ANSI
- [SPARK-40003] [PYTHON][SQL] Добавление параметра медианы в функции
- [SPARK-39952] [SQL] Команда SaveIntoDataSourceCommand должна повторно кэшировать отношение результата
- [SPARK-39951] [SQL] Update Проверка V2 columnar Parquet для вложенных полей
- [SPARK-39775] [CORE][AVRO] Отключить проверку values по умолчанию при анализе схем Avro
- [SPARK-33236] [shuffle] Бэкпорт для DBR 11.x: включение службы перетасовки на основе push-уведомлений для сохранения состояния в базе данных на уровне NM, чтобы иметь возможность продолжить работу при перезапуске
- [SPARK-39836] [SQL] Упрощение V2ExpressionBuilder путем извлечения общего метода.
- [SPARK-39867] [SQL] Global limit не должны наследовать OrderPreservingUnaryNode
-
[SPARK-39873] [SQL] Remove
OptimizeLimitZero
и объединить его вEliminateLimits
- [SPARK-39961] [SQL] Сдвиг DS V2 преобразует Cast, если приведение является безопасным
-
[SPARK-39872] [SQL] Изменение, связанное с использовании
BytePackerForLong#unpack8Values
с API ввода массива вVectorizedDeltaBinaryPackedReader
-
[SPARK-39858] [SQL] Remove ненужные
AliasHelper
илиPredicateHelper
для некоторых правил - [SPARK-39962] [WARMFIX][ES-393486][PYTHON][SQL] Применение проекции, если не указаны атрибуты группы
- [SPARK-39900] [SQL] Обработка частичного или отрицаемого условия в pushdown предиката двоичного формата
- [SPARK-39904] [SQL] Переименование inferDate в prefersDate, а также пояснение семантики параметра в источнике данных CSV
- [SPARK-39958] [SQL] Добавление журнала предупреждений, если не удается загрузить пользовательский объект метрики
- [SPARK-39936] [SQL] Store schema в свойствах Spark Views
- [SPARK-39932] [SQL] WindowExec должен очистить окончательный буфер partition
- [SPARK-37194] [SQL] Избегать ненужной сортировки в операции записи версии 1, если это не динамическая запись partition
- [SPARK-39902] [SQL] Добавление сведений о сканировании в узел сканирования плана Spark в SparkUI
- [SPARK-39865] [SQL] Показывать правильные сообщения об ошибках переполнения tableinsert
- [SPARK-39940] [SS] Refreshcatalogtable в потоковом запросе с приемником DSv1
-
[SPARK-39827] [SQL] Использования класса ошибок
ARITHMETIC_OVERFLOW
при переполнении int вadd_months()
- [SPARK-39914] [SQL] Добавление фильтра DS версии 2 в преобразование фильтра версии 1
- [SPARK-39857] [SQL] Ручной бэкпорт DBR 11.x; V2ExpressionBuilder использует неправильный тип данных LiteralValue для предиката In 43454
- [SPARK-39840] [SQL][PYTHON] Исключение PythonArrowInput для симметрии с PythonArrowOutput
- [SPARK-39651] [SQL] Условие фильтра очистки, если сравнение с rand является детерминированным
- [SPARK-39877] [PYTHON] Добавить unpivot в API DataFrame PySpark
- [SPARK-39847] Исправление состояния гонки в RocksDBLoader.loadLibrary() в случае прерывания вызывающего потока
- [SPARK-39909] [SQL] Упорядочение проверки сведений об отправке для JDBCV2Suite
- [SPARK-39834] [SQL][SS] Включение статистики и ограничений по источнику для LogicalRDD, если он поступает из кадра данных
- [SPARK-39849] [SQL] Dataset.as(StructType) заполняет отсутствующие новые columns значением NULL
- [SPARK-39860] [SQL] Дополнительные выражения должны расширять предикат
- [SPARK-39823] [SQL][PYTHON] Переименование Dataset.as как Dataset.to и добавление DataFrame.to в PySpark
- [SPARK-39918] [SQL][MINOR] Замена слов "несопоставимый" на "несовместимый" в сообщении об ошибке
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder использует неправильный тип данных LiteralValue для предиката In
- [SPARK-39862] [SQL] Ручной перенос для PR 43654, предназначенный для DBR 11.x: Update SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS разрешить/denyALTER TABLE ... Добавьте команды COLUMN отдельно.
- [SPARK-39844] [SQL] Ручной бэкпорт для PR 43652, указывающий на DBR 11.x
-
[SPARK-39899] [SQL] Исправление передачи сообщений parameters в
InvalidUDFClassException
- [SPARK-39890] [SQL] Обеспечение наследования в TakeOrderedAndProjectExec из AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Поддержка CharType в PySpark
- [SPARK-38864] [SQL] Добавление unpivot / расплава в набор данных
- [SPARK-39864] [SQL] Медленная регистрация ExecutionListenerBus
- [SPARK-39808] [SQL] Поддержка режима агрегатной функции
- [SPARK-39839] [SQL] Обработка особого случая null десятичной переменной нулевой длины с ненулевым смещением offsetAndSize при проверке структурной целостности UnsafeRow
-
[SPARK-39875] [SQL] Изменение метода
protected
в последнем классе наprivate
илиpackage-visible
- [SPARK-39731] [SQL] Исправлена проблема в источниках данных CSV и JSON при синтаксическом анализе дат в формате "yyyyMdd" с помощью исправленной политики синтаксического анализа времени
- [SPARK-39805] [SS] Прекращение использования Trigger.Once и Promote Trigger.AvailableNow
- [SPARK-39784] [SQL] Поместите литерал values вправо от фильтра источника данных после преобразования выражения Catalyst в фильтр источника данных
- [SPARK-39672] [SQL][3.1] Исправление удаления проекта перед фильтрацией с помощью связанного вложенного запроса
-
[SPARK-39552] [SQL] Унификация версий 1 и 2
DESCRIBE TABLE
-
[SPARK-39806] [SQL] Доступ к
_metadata
на разделённых table может привести к сбою запроса - [SPARK-39810] [SQL] Catalog.tableExists должен обрабатывать вложенное пространство имен
- [SPARK-37287] [SQL] Вытащить динамические partition и сортировку контейнеров из FileFormatWriter
- [SPARK-39469] [SQL] Определение типа даты для обработки CSV schema
- [SPARK-39148] [SQL] агрегированная отправка DS V2 может работать с OFFSET или LIMIT
- [SPARK-39818] [SQL] Исправлена ошибка в МАССИВе, структуре, типах MAP с values DEFAULT с полями NULL
- [SPARK-39792] [SQL] Добавление DecimalDivideWithOverflowCheck для десятичного среднего
-
[SPARK-39798] [SQL] Замена
toSeq.toArray
на.toArray[Any]
в конструктореGenericArrayData
- [SPARK-39759] [SQL] Реализация listIndexes в JDBC (диалект H2)
-
[SPARK-39385] [SQL] Поддерживает отправку
REGR_AVGX
иREGR_AVGY
- [SPARK-39787] [SQL] Используйте класс error при ошибке синтаксического анализа функции to_timestamp
- [SPARK-39760] [PYTHON] Поддержка Varchar в PySpark
- [SPARK-39557] [SQL] Ручной бэкпорт в DBR 11.x: поддержка типов ARRAY, STRUCT, MAP в качестве значений по умолчанию values
- [SPARK-39758] [SQL][3.3] Исправление NPE из функций regexp для недопустимых шаблонов
- [SPARK-39749] [SQL] Режим SQL ANSI: использование простого строкового представления при приведении десятичного числа к строке
- [SPARK-39704] [SQL] Реализация createIndex и dropIndex & indexExists в JDBC (диалект H2)
-
[SPARK-39803] [SQL] Использование
LevenshteinDistance
вместоStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Поддержка типа TimestampNTZ в источнике файлов JDBC
- [SPARK-39781] [SS] Добавление поддержки для предоставления max_open_files поставщику хранилища состояний rocksdb
- [SPARK-39719] [R] Реализация databaseExists/getDatabase в SparkR поддерживает пространство имен 3L
- [SPARK-39751] [SQL] Переименование метрики hash aggregate key probes
- [SPARK-39772] [SQL] пространство имен должно иметь значение NULL, если база данных имеет значение NULL в старых конструкторах
- [SPARK-39625] [SPARK-38904][SQL] Добавление Dataset.as(StructType)
- [SPARK-39384] [SQL] Компиляция встроенных агрегатных функций линейной регрессии для диалекта JDBC
- [SPARK-39720] [R] Реализация tableExists/getTable в SparkR для пространства имен 3L
-
[SPARK-39744] [SQL] Добавление функции
REGEXP_INSTR
- [SPARK-39716] [R] Обеспечение поддержки пространства имен 3L в currentDatabase/setCurrentDatabase/listCatalogs в SparkR
-
[SPARK-39788] [SQL] Переименование
catalogName
вdialectName
дляJdbcUtils
- [SPARK-39647] [CORE] Регистрация исполнителя с ESS перед регистрацией BlockManager
-
[SPARK-39754] [CORE][SQL] Remove неиспользуемые
import
или ненужные{}
-
[SPARK-39706] [SQL] Set отсутствует column со значением по умолчанию в качестве константы в
ParquetColumnVector
- [SPARK-39699] [SQL] Более эффективная обработка выражений создания коллекций в CollapseProject
-
[SPARK-39737] [SQL]
PERCENTILE_CONT
иPERCENTILE_DISC
должны поддерживать агрегатный фильтр - [SPARK-39579] [SQL][PYTHON][R] Обеспечение совместимости ListFunctions/getFunction/functionExists с пространством имен уровня 3
- [SPARK-39627] [SQL] При передаче JDBC версии 2 должен всегда использоваться API компиляции
- [SPARK-39748] [SQL][SS] Включение логического плана источника для LogicalRDD, если он поступает из кадра данных
- [SPARK-39385] [SQL] Преобразование агрегатных функций линейной регрессии для передачи
-
[SPARK-39695] [SQL] Добавление функции
REGEXP_SUBSTR
- [SPARK-39667] [SQL] Добавьте еще одно решение, если недостаточно памяти для сборки и трансляции table
-
[SPARK-39666] [ES-337834][SQL] Использование UnsafeProjection.create для учета
spark.sql.codegen.factoryMode
в ExpressionEncoder - [SPARK-39643] [SQL] Запретить вложенные запросы в values DEFAULT
- [SPARK-38647] [SQL] Добавление смеси SupportsReportOrdering в интерфейсе для сканирования (DataSourceV2)
- [SPARK-39497] [SQL] Улучшение исключения анализа отсутствующих ключей карты column
- [SPARK-39661] [SQL] Исключение создания ненужного средства ведения журнала SLF4J
- [SPARK-39713] [SQL] Режим ANSI: добавление предложения использования try_element_at для исправления ошибки INVALID_ARRAY_INDEX
- [SPARK-38899] [SQL] DS V2 поддерживает отправку функций datetime
-
[SPARK-39638] [SQL] Изменение использования
ConstantColumnVector
для хранения partitioncolumns вOrcColumnarBatchReader
-
[SPARK-39653] [SQL] Очистка
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
изColumnVectorUtils
-
[SPARK-39231] [SQL] Используйте
ConstantColumnVector
вместоOn/OffHeapColumnVector
для хранения partitioncolumns вVectorizedParquetRecordReader
- [SPARK-39547] [SQL] V2SessionCatalog не должен вызывать исключение NoSuchDatabaseException в loadNamspaceMetadata
- [SPARK-39447] [SQL] Не следует использовать AssertionError в AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Переработка MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec должен учитывать порядок дочерних выходных данных
- [SPARK-39606] [SQL] Использование дочерней статистики для оценки оператора упорядочения
- [SPARK-39611] [PYTHON][PS] Исправление неправильных псевдонимов в array_ufunc
- [SPARK-39656] [SQL][3.3] Исправление неправильного пространства имен в DescribeNamespaceExec
- [SPARK-39675] [SQL] Переключение конфигурации spark.sql.codegen.factoryMode для тестирования на конфигурацию для внутреннего использования
- [SPARK-39139] [SQL] DS V2 поддерживает отправку DS V2 UDF
- [SPARK-39434] [SQL] Предоставление контекста запроса для ошибки среды выполнения при выходе индекса за границы массива
- [SPARK-39479] [SQL] DS V2 поддерживает передачу математических функций (не ANSI)
-
[SPARK-39618] [SQL] Добавление функции
REGEXP_COUNT
- [SPARK-39553] [CORE] Отмена регистрации нескольких потоков не должна приводить к NPE при использовании Scala 2.13
- [SPARK-38755] [PYTHON][3.3] Добавление файла для решения проблемы отсутствующих общих функций pandas
- [SPARK-39444] [SQL] Добавление OptimizeSubqueries в nonExcludableRules list
- [SPARK-39316] [SQL] Объединение PromotePrecision и CheckOverflow в двоичную арифметику с десятичными числами
- [SPARK-39505] [UI] Содержимое журнала Escape, отображаемое в пользовательском интерфейсе
-
[SPARK-39448] [SQL] Добавление
ReplaceCTERefWithRepartition
вnonExcludableRules
list - [SPARK-37961] [SQL] Переопределение maxRows/maxRowsPerPartition для некоторых логических операторов
- [SPARK-35223] Отмена добавления IssueNavigationLink
- [SPARK-39633] [SQL] Поддержка метки времени в секундах для TimeTravel с помощью параметров кадра данных
- [SPARK-38796] [SQL] Update документация для строк числового формата с функциями {try_}to_number
- [SPARK-39650] [SS] Исправление неверного значения schema при устранении дублирования в потоковой передаче с обратной совместимостью.
- [SPARK-39636] [CORE][UI] Исправление нескольких ошибок в JsonProtocol, которые влияют на операции StorageLevels и task/Executor ResourceRequests, выполняемые вне кучи
- [SPARK-39432] [SQL] Возврат ELEMENT_AT_BY_INDEX_ZERO из element_at(*, 0)
- [SPARK-39349] Добавление централизованного метода CheckError для проверки ошибочного пути
- [SPARK-39453] [SQL] DS версии 2 поддерживает передачу различных неагрегатных функций (не ANSI)
- [SPARK-38978] [SQL] DS V2 поддерживает оператор push-OFFSET
- [SPARK-39567] [SQL] Поддержка интервалов ANSI в функциях с процентилями
- [SPARK-39383] [SQL] Поддержка columns ПО УМОЛЧАНИЮ в ALTER TABLE ALTER COLUMNS для источников данных версии 2
- [SPARK-39396] [SQL] Исправлена ошибка входа LDAP: «код ошибки 49 — недопустимый credentials»
- [SPARK-39548] [SQL] Команда CreateView с запросом с условием window столкнулась с ошибкой "не найдено определение" window
- [SPARK-39575] [AVRO] добавьте ByteBuffer#rewind после ByteBuffer#get в Avr...
- [SPARK-39543] Параметр DataFrameWriterV2 должен передаваться в свойства хранилища в случае отката к версии 1
- [SPARK-39564] [SS] Предоставление сведений о catalogtable логическому плану в потоковом запросе
-
[SPARK-39582] [SQL] Исправление маркера "Since" для
array_agg
-
[SPARK-39388] [SQL] Повторное использование
orcSchema
при отправке предикатов Orc - [SPARK-39511] [SQL] Улучшение локального limit 1 для правой части левой полу-join, если условие join пусто
- [SPARK-38614] [SQL] Не нажимайте limit через window, использующую percent_rank
- [SPARK-39551] [SQL] Добавление проверки недопустимого плана AQE
- [SPARK-39383] [SQL] Поддержка columns ПО умолчанию в ALTER TABLE ADD COLUMNS в источники данных версии 2
- [SPARK-39538] [SQL] Исключение создания ненужного средства ведения журнала SLF4J
- [SPARK-39383] [SQL] Ручной серверный порт в DBR 11.x: поддержка рефакторинга ПО УМОЛЧАНИю column для пропуска передачи основного анализатора вокруг
- [SPARK-39397] [SQL] Освобождение AliasAwareOutputExpression для поддержки псевдонима с выражением
-
[SPARK-39496] [SQL] Обработка конструкции null в
Inline.eval
-
[SPARK-39545] [SQL] Изменение метода
concat
дляExpressionSet
в Scala 2.13 с целью повышения производительности - [SPARK-39340] [SQL] agg pushdown в DS версии 2 должно разрешать использование точек в имени columns верхнего уровня
- [SPARK-39488] [SQL] Упрощение обработки ошибок TempResolvedColumn
- [SPARK-38846] [SQL] Добавление явного сопоставления данных между числовым типом Teradata и десятичным типом Spark
-
[SPARK-39520] [SQL] Переопределение метода
--
дляExpressionSet
в Scala 2.13 - [SPARK-39470] [SQL] Поддержка приведения интервалов ANSI к десятичным числам
- [SPARK-39477] [SQL] Remove "Количество запросов" из эталонных файлов SQLQueryTestSuite
- [SPARK-39419] [SQL] Исправление ошибке, приводящей к возникновению исключения ArraySort, когда блок сравнения возвращает значение NULL
-
[SPARK-39061] [SQL] Set корректная нулевость для выходных атрибутов
Inline
-
[SPARK-39320] [SQL] Поддержка агрегатной функции
MEDIAN
- [SPARK-39261] [CORE] Улучшение форматирования новой строки для сообщений об ошибках
- [SPARK-39355] [SQL] Одиночный column использует кавычки для создания НеразрешенногоАтрибута
- [SPARK-39351] [SQL] SHOW CREATE TABLE должны быть удалены свойства
- [SPARK-37623] [SQL] Поддержка агрегатной функции ANSI: regr_intercept
- [SPARK-39374] [SQL] Улучшение сообщения об ошибке для указанного пользователем columnlist
- [SPARK-39255] [SQL][3.3] Улучшение сообщений об ошибках
- [SPARK-39321] [SQL] Рефакторинг TryCast для использования RuntimeReplaceable
- [SPARK-39406] [PYTHON] Принятие массива NumPy в createDataFrame
- [SPARK-39267] [SQL] Очистка ненужного символа dsl
- [SPARK-39171] [SQL] Унификация выражения приведения
- [SPARK-28330] [SQL] Поддержка ANSI SQL: конструкция result offset в выражении запроса
- [SPARK-39203] [SQL] Перезаписать table расположение в абсолютный URI на основе URI базы данных
-
[SPARK-39313] [SQL]
toCatalystOrdering
должен выдавать ошибку, если невозможно преобразовать V2Expression - [SPARK-39301] [SQL][PYTHON] Использование localRelation и учет размера пакета Arrow в createDataFrame с оптимизацией Arrow
- [SPARK-39400] [SQL] Spark-sql должен remove dir ресурса hive во всех случаях
Обновления в рамках обслуживания
Ознакомьтесь с обновлениями обслуживания Databricks Runtime 11.1.
Системная среда
- Операционная система: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14.
- Python: 3.9.5
- R: 4.1.3.
- Delta Lake: 1.2.1
Установленные библиотеки Python
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1,10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
black | 22.3.0 | bleach | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | щелчок | 8.0.3 |
криптография | 3.4.8 | cycler | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | decorator | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | distro-info | 0.23ubuntu1 |
entrypoints | 0,3 | facets-overview | 1.0.0 | filelock | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
mistune | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
записная книжка | 6.4.5 | numpy | 1.20.3 | во внешнем виде | 21,0 |
pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 8.4.0 | pip | 21.2.4 |
platformdirs | 2.5.2 | график | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
мореборн | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
six | 1.16.0 | ssh-import-id | 5,10 | statsmodels | 0.12.2 |
tenacity | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.0 | typing-extensions | 3.10.0.2 |
unattended-upgrades | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | wheel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Установленные библиотеки R
Библиотеки R устанавливаются из моментального снимка Microsoft CRAN от 15.08.2022.
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | внутренние порты | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | большой двоичный объект | 1.2.3 | загрузка | 1.3-28 |
заваривать | 1.0-7 | brio | 1.1.3 | метла | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | вызывающий объект | 3.7.1 |
крышка | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.8.0 | компилятор | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | карандаш | 1.5.1 | credentials | 1.3.2 |
curl | 4.3.2 | данные.table | 1.14.2 | наборы данных | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | desc | 1.4.1 |
средства разработки | 2.4.4 | diffobj | 0.3.5 | digest | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | многоточие | 0.3.2 | evaluate | 0,16 |
вентиляторы | 1.0.3 | Farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.1 | foreach | 1.5.2 |
иностранный | 0.8-82 | forge | 0.2.0 | fs | 1.5.2 |
будущее | 1.27.0 | future.apply | 1.9.0 | gargle | 1.2.0 |
Универсальные шаблоны | 0.1.3 | gert | 1.7.0 | ggplot2 | 3.3.6 |
gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globals | 0.16.0 | клей | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Говер | 1.0.0 | графика | 4.1.3 |
grDevices | 4.1.3 | grid | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.0 | hardhat | 1.2.0 |
haven | 2.5.0 | высокий | 0,9 | hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Итераторы | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
трикотажный | 1,39 | маркирование | 0.4.2 | later | 1.3.0 |
решётка | 0.20-45 | Lava | 1.6.10 | жизненный цикл | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Markdown | 1,1 | МАССАЧУСЕТС | 7.3-56 | «Матрица» | 1.4-1 |
memoise | 2.0.1 | оплаты | 4.1.3 | mgcv | 1.8-40 |
мим | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallelly | 1.32.1 | столб | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
хвалить | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Ход выполнения | 1.2.2 | progressr | 0.10.1 | promises | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-27 | ps | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
Рецепты | 1.0.1 | реванш | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2,14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | sass | 0.4.2 |
весы | 1.2.0 | селектор | 0.4-2 | sessioninfo | 1.2.2 |
форма | 1.4.6 | блестящий | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | пространственный | 7.3-11 |
Сплайны | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
stats | 4.1.3 | статистика4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | выживание | 3.2-13 | sys | 3,4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | TimeDate | 4021.104 |
tinytex | 0,40 | средства | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
служебные программы | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | vroom | 1.5.7 | waldo | 0.4.0 |
усы | 0,4 | withr | 2.5.0 | xfun | 0,32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.12)
ИД группы | Идентификатор артефакта | Версия |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | потоковая передача | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1–0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | профилировщик | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | коллектор | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1,21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-encoding | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | неиспользованный | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |