Поделиться через


Databricks Runtime 11.1 (EoS)

Примечание.

Поддержка этой версии databricks Runtime закончилась. Сведения о дате окончания поддержки см . в журнале завершения поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.

В следующих заметках о выпуске содержатся сведения о Databricks Runtime 11.1 на платформе Apache Spark 3.3.0. Databricks выпустила эту версию в июле 2022 года.

Новые функции и внесенные улучшения

Photon предоставляется в общедоступной версии

Photon теперь предоставляется в общедоступной версии начиная с Databricks Runtime 11.1. Photon — это собственный векторизованный обработчик запросов Azure Databricks, призванный обеспечить прямую совместимость с API Apache Spark для работы с существующим кодом. Он создан на языке C++, что позволяет пользоваться преимуществами современного оборудования и применять новейшие методики векторизованной обработки запросов. Это повышает производительность реальных данных и приложений благодаря повышенному уровню параллелизма на уровне данных и инструкций в ЦП — и все это за счет собственных возможностей озера данных.

Photon является частью высокопроизводительной среды выполнения, которая ускоряет работу с существующими вызовами SQL и API кадров данных и сокращает совокупную стоимость рабочей нагрузки. Photon используется по умолчанию в хранилищах SQL Databricks.

Новые функции и внесенные улучшения:

  • Новый векторизованный оператор сортировки.
  • Новые векторизованные функции window
  • Новые типы и размеры экземпляров во всех облаках.

Ограничения:

  • Определяемые пользователем функции Scala и Python не поддерживаются в Photon.
  • RDD не поддерживается в Photon.
  • Структурированная потоковая передача не поддерживается в Photon.

Дополнительные сведения см. в следующих объявлениях Photon.

Photon: новый векторизованный оператор сортировки

Photon теперь поддерживает векторизованную сортировку, если запрос содержит SORT_BY, CLUSTER_BYили функцию window с ORDER BY.

Ограничения: Photon не поддерживает глобальное предложение ORDER BY. Сортировки для оценки window будут обрабатываться фотонно, но глобальная сортировка будет продолжать выполняться в Spark.

Фотон: новые векторизованные функции window

Photon теперь поддерживает векторизованную window оценку функций для многих типов кадров и функций. К новым функциям window относятся: row_number, rank, dense_ranklag, lead, percent_rank, ntileи nth_value. Поддерживаемые типы кадров window: выполняющееся (UNBOUNDED PRECEDING AND CURRENT ROW), неограниченное (UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING), растущее (UNBOUNDED PRECEDING AND <OFFSET> FOLLOWING) и уменьшающееся (<OFFSET> PRECEDING AND UNBOUNDED FOLLOWING).

Ограничения:

  • Photon поддерживает только версии ROWS всех типов кадров.
  • Photon пока не поддерживает тип скользящего кадра (<OFFSET> PRECEDING AND <OFFSET> FOLLOWING).

Photon: поддерживаемые типы экземпляров

  • dds_v5
  • ds_v5
  • eas_v4
  • eds_v4
  • eds_v5
  • es_v5
  • las_v3
  • ls_v3

Канал изменений данных теперь может автоматически обрабатывать метки времени вне диапазона

Теперь веб-канал измененных данных (CDF) включает новый режим для предоставления меток времени или версий после последней версии фиксации без возникновения ошибок. По умолчанию этот режим отключен. Его можно включить, задав для конфигурации spark.databricks.delta.changeDataFeed.timestampOutOfRange.enabled значение true.

Описание и отображение функций SQL теперь отображают имена Catalog Unity в выходных данных (общедоступная предварительная версия)

Команды DESC TABLE, DESC DATABASE, DESC SCHEMA, DESC NAMESPACE, DESC FUNCTION, EXPLAINи SHOW CREATE TABLE теперь всегда отображают имя catalog в выходных данных.

Schema вывод и эволюция файлов Parquet в автозагрузчике (общедоступная предварительная версия)

Автозагрузчик теперь поддерживает schema выведение и эволюцию для файлов Parquet. Как и форматы JSON, CSV и Avro, вы можете использовать восстановленные данные column для восстановления непредвиденных данных, которые могут появляться в файлах Parquet. К ним относятся данные, которые нельзя обработать в ожидаемом формате данных, columns с другим регистром или дополнительные columns, которые не являются частью ожидаемого schema. Автозагрузчик можно настроить для автоматического развития schema при добавлении новых columns во входящих данных. См. раздел Настройка вывода schema и эволюции вавтозагрузчика.

Автозагрузчик теперь поддерживает эволюцию schema для Avro (GA)

См. раздел Настройка вывода schema и эволюции вавтозагрузчика.

Поддержка динамической перезаписи в Delta Lake для partition

Delta Lake теперь позволяет перезаписать все существующие данные в динамическом режиме partition в каждом логическом partition, в котором запись зафиксирует новые данные. См . выборочную перезапись данных с помощью Delta Lake.

Поддержка schema информации для объектов, созданных в Unity Catalog

Сведения schema предоставляют API на основе SQL, самостоятельно описывая метаданные различных объектов базы данных, включая tables и views, ограничения и routines. В информации schema вы найдете setviews, описывающие объекты, известные catalogschema, которые вам привилегировано увидеть. Сведения schemaSYSTEMcatalog возвращают сведения об объектах во всех catalogs в хранилище метаданных. См. сведения schema.

Информационные ограничения для Delta Lake tables с Catalog Unity (общедоступная предварительная версия)

Теперь можно определить информационный первичный ключ и ограничения внешнего ключа в Delta Lake tables с помощью Unity Catalog. Информационные ограничения не применяются. См. пункт, .

Unity Catalog общедоступно

Unity Catalog теперь общедоступна, начиная с Databricks Runtime 11.1. См. Что такое CatalogUnity?.

Delta Sharing предоставляется в общедоступной версии

Delta Sharing теперь предоставляется в общедоступной версии, начиная с Databricks Runtime 11.1.

В Databricks Delta Sharing полностью управляется без обмена маркерами. Вы можете создавать и управлять providers, recipientsи shares в пользовательском интерфейсе или с помощью API SQL и REST.

Некоторые функции включают ограничение доступа получателей, запрашивание данных с помощью списков доступа по IP-адресам и региональных ограничений, а также делегирование управления Delta Sharing пользователям, не являющимся администраторами. Вы также можете запрашивать изменения данных и делиться добавочными версиями с помощью веб-каналов данных об изменениях. См. раздел "Что такое разностный общий доступ?".

Изменения в работе

Редактирование конфиденциальных свойств для DESCRIBE TABLE и ПОКАЗАТЬ свойства TABLE

Конфиденциальные свойства редактируются в кадрах данных и выходных данных DESCRIBE TABLE команд.SHOW TABLE PROPERTIES

Кластеры заданий по умолчанию предназначены для режима доступа к одному пользователю с помощью Databricks Runtime 11.1 и более поздних версий.

Чтобы поддерживать совместимость с Unity Catalog, кластеры заданий на основе Databricks Runtime версии 11.1 и выше, созданные через пользовательский интерфейс заданий или API, по умолчанию будут работать в режиме единоличного доступа. Режим доступа к одному пользователю поддерживает большинство языков программирования, функций кластера и функций управления данными. Вы по-прежнему можете настроить режим общего доступа через пользовательский интерфейс или API, но языки или функции могут быть ограничены.

Обновления библиотек

  • Обновленные библиотеки Python:
    • filelock — с версии 3.6.0 до 3.7.1;
    • plotly — с версии 5.6.0 до 5.8.2;
    • protobuf — с версии 3.20.1 до 4.21.2.
  • Обновленные библиотеки R:
    • chron — с версии 2.3-56 до 2.3-57;
    • DBI — с версии 1.1.2 до 1.1.3;
    • dbplyr — с версии 2.1.1 до 2.2.0;
    • e1071 — с версии 1.7-9 до 1.7-11;
    • future — с версии 1.25.0 до 1.26.1;
    • globals — с версии 0.14.0 до 0.15.1;
    • hardhat — с версии 0.2.0 до 1.1.0;
    • ipred — с версии 0.9-12 до 0.9-13;
    • openssl — с версии 2.0.0 до 2.0.2;
    • parallelly — с версии 1.31.1 до 1.32.0;
    • processx — с версии 3.5.3 до 3.6.1;
    • progressr — с версии 0.10.0 до 0.10.1;
    • proxy — с версии 0.4-26 до 0.4-27;
    • ps — с версии 1.7.0 до 1.7.1;
    • randomForest — с версии 4.7-1 до 4.7-1.1;
    • roxygen2 — с версии 7.1.2 до 7.2.0;
    • Rserve — с версии 1.8-10 до 1.8-11;
    • RSQLite — с версии 2.2.13 до 2.2.14;
    • sparklyr — с версии 1.7.5 до 1.7.7;
    • tinytex — с версии 0.38 до 0.40;
    • usethis — с версии 2.1.5 до 2.1.6;
    • xfun — с версии 0.30 до 0.31.
  • Обновленные библиотеки Java:
    • io.delta.delta-sharing-spark_2.12 — с версии 0.4.0 до 0.5.0.

Apache Spark

Databricks Runtime 11.2 включает Apache Spark 3.3.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 11.1 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:

  • [SPARK-40054] [SQL] Restore синтаксис обработки ошибок try_cast()
  • [SPARK-39489] [CORE] Повышение эффективности ведения журнала событий JsonProtocol благодаря использованию Jackson вместо Json4s
  • [SPARK-39319] [CORE][SQL] Создание контекстов запросов в составе SparkThrowable
  • [SPARK-40085] [SQL] Использование класса ошибок INTERNAL_ERROR вместо IllegalStateException для указания ошибок
  • [SPARK-40001] [SQL] Сделать записанные значения NULL в JSON DEFAULT columns записывать 'null' в хранилище
  • [SPARK-39635] [SQL] Поддержка метрик драйверов в пользовательском API метрик DS версии 2
  • [SPARK-39184] [SQL] Обработка результирующего массива меньшего размера в последовательностях дат и меток времени
  • [SPARK-40019] [SQL] Рефакторинг комментария ArrayType containsNull и рефакторинг логики непонимания в выражении collectionOperator о containsNull
  • [SPARK-39989] [SQL] Поддержка оценки column статистики, если это свертываемое выражение
  • [SPARK-39926] [SQL] Исправлена ошибка в column поддержке по умолчанию для невекторизованных сканирований Parquet
  • [SPARK-40052] [SQL] Обработка прямых буферов байтов в VectorizedDeltaBinaryPackedReader
  • [SPARK-40044] [SQL] Исправление типа целевого интервала в ошибках переполнения во время приведения
  • [SPARK-39835] [SQL] Исправление в устранении сортировок remove глобальная сортировка перед локальной сортировкой
  • [SPARK-40002] [SQL] Не нажимайте limitwindow с помощью ntile
  • [SPARK-39976] [SQL] ArrayIntersect должен правильно обрабатывать значение NULL в левом выражении
  • [SPARK-39985] [SQL] Включить неявный columnvalues DEFAULT при вставке из DataFrame
  • [SPARK-39776] [SQL] JOIN в подробной строке должен быть добавлен тип Join
  • [SPARK-38901] [SQL] DS V2 поддерживает принудительную отправку прочих функций
  • [SPARK-40028] [SQL][продолжение] Улучшение примеров строковых функций
  • [SPARK-39983] [CORE][SQL] Не следует кэшировать несериализированные отношения широковещательной рассылки в драйвере
  • [SPARK-39812] [SQL] Упрощение кода, которое создает AggregateExpression с toAggregateExpression
  • [SPARK-40028] [SQL] Добавление примеров с двоичными данными для строковых выражений
  • [SPARK-39981] [SQL] Отображение исключения QueryExecutionErrors.castingCauseOverflowErrorInTableInsert в Cast
  • [SPARK-40007] [PYTHON][SQL] Добавление параметра режима в функции
  • [SPARK-40008] [SQL] Поддержка приведения целочисленных значений к интервалам ANSI
  • [SPARK-40003] [PYTHON][SQL] Добавление параметра медианы в функции
  • [SPARK-39952] [SQL] Команда SaveIntoDataSourceCommand должна повторно кэшировать отношение результата
  • [SPARK-39951] [SQL] Update Проверка V2 columnar Parquet для вложенных полей
  • [SPARK-39775] [CORE][AVRO] Отключить проверку values по умолчанию при анализе схем Avro
  • [SPARK-33236] [shuffle] Бэкпорт для DBR 11.x: включение службы перетасовки на основе push-уведомлений для сохранения состояния в базе данных на уровне NM, чтобы иметь возможность продолжить работу при перезапуске
  • [SPARK-39836] [SQL] Упрощение V2ExpressionBuilder путем извлечения общего метода.
  • [SPARK-39867] [SQL] Global limit не должны наследовать OrderPreservingUnaryNode
  • [SPARK-39873] [SQL] RemoveOptimizeLimitZero и объединить его в EliminateLimits
  • [SPARK-39961] [SQL] Сдвиг DS V2 преобразует Cast, если приведение является безопасным
  • [SPARK-39872] [SQL] Изменение, связанное с использовании BytePackerForLong#unpack8Values с API ввода массива в VectorizedDeltaBinaryPackedReader
  • [SPARK-39858] [SQL] Remove ненужные AliasHelper или PredicateHelper для некоторых правил
  • [SPARK-39962] [WARMFIX][ES-393486][PYTHON][SQL] Применение проекции, если не указаны атрибуты группы
  • [SPARK-39900] [SQL] Обработка частичного или отрицаемого условия в pushdown предиката двоичного формата
  • [SPARK-39904] [SQL] Переименование inferDate в prefersDate, а также пояснение семантики параметра в источнике данных CSV
  • [SPARK-39958] [SQL] Добавление журнала предупреждений, если не удается загрузить пользовательский объект метрики
  • [SPARK-39936] [SQL] Store schema в свойствах Spark Views
  • [SPARK-39932] [SQL] WindowExec должен очистить окончательный буфер partition
  • [SPARK-37194] [SQL] Избегать ненужной сортировки в операции записи версии 1, если это не динамическая запись partition
  • [SPARK-39902] [SQL] Добавление сведений о сканировании в узел сканирования плана Spark в SparkUI
  • [SPARK-39865] [SQL] Показывать правильные сообщения об ошибках переполнения tableinsert
  • [SPARK-39940] [SS] Refreshcatalogtable в потоковом запросе с приемником DSv1
  • [SPARK-39827] [SQL] Использования класса ошибок ARITHMETIC_OVERFLOW при переполнении int в add_months()
  • [SPARK-39914] [SQL] Добавление фильтра DS версии 2 в преобразование фильтра версии 1
  • [SPARK-39857] [SQL] Ручной бэкпорт DBR 11.x; V2ExpressionBuilder использует неправильный тип данных LiteralValue для предиката In 43454
  • [SPARK-39840] [SQL][PYTHON] Исключение PythonArrowInput для симметрии с PythonArrowOutput
  • [SPARK-39651] [SQL] Условие фильтра очистки, если сравнение с rand является детерминированным
  • [SPARK-39877] [PYTHON] Добавить unpivot в API DataFrame PySpark
  • [SPARK-39847] Исправление состояния гонки в RocksDBLoader.loadLibrary() в случае прерывания вызывающего потока
  • [SPARK-39909] [SQL] Упорядочение проверки сведений об отправке для JDBCV2Suite
  • [SPARK-39834] [SQL][SS] Включение статистики и ограничений по источнику для LogicalRDD, если он поступает из кадра данных
  • [SPARK-39849] [SQL] Dataset.as(StructType) заполняет отсутствующие новые columns значением NULL
  • [SPARK-39860] [SQL] Дополнительные выражения должны расширять предикат
  • [SPARK-39823] [SQL][PYTHON] Переименование Dataset.as как Dataset.to и добавление DataFrame.to в PySpark
  • [SPARK-39918] [SQL][MINOR] Замена слов "несопоставимый" на "несовместимый" в сообщении об ошибке
  • [SPARK-39857] [SQL][3.3] V2ExpressionBuilder использует неправильный тип данных LiteralValue для предиката In
  • [SPARK-39862] [SQL] Ручной перенос для PR 43654, предназначенный для DBR 11.x: Update SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS разрешить/denyALTER TABLE ... Добавьте команды COLUMN отдельно.
  • [SPARK-39844] [SQL] Ручной бэкпорт для PR 43652, указывающий на DBR 11.x
  • [SPARK-39899] [SQL] Исправление передачи сообщений parameters в InvalidUDFClassException
  • [SPARK-39890] [SQL] Обеспечение наследования в TakeOrderedAndProjectExec из AliasAwareOutputOrdering
  • [SPARK-39809] [PYTHON] Поддержка CharType в PySpark
  • [SPARK-38864] [SQL] Добавление unpivot / расплава в набор данных
  • [SPARK-39864] [SQL] Медленная регистрация ExecutionListenerBus
  • [SPARK-39808] [SQL] Поддержка режима агрегатной функции
  • [SPARK-39839] [SQL] Обработка особого случая null десятичной переменной нулевой длины с ненулевым смещением offsetAndSize при проверке структурной целостности UnsafeRow
  • [SPARK-39875] [SQL] Изменение метода protected в последнем классе на private или package-visible
  • [SPARK-39731] [SQL] Исправлена проблема в источниках данных CSV и JSON при синтаксическом анализе дат в формате "yyyyMdd" с помощью исправленной политики синтаксического анализа времени
  • [SPARK-39805] [SS] Прекращение использования Trigger.Once и Promote Trigger.AvailableNow
  • [SPARK-39784] [SQL] Поместите литерал values вправо от фильтра источника данных после преобразования выражения Catalyst в фильтр источника данных
  • [SPARK-39672] [SQL][3.1] Исправление удаления проекта перед фильтрацией с помощью связанного вложенного запроса
  • [SPARK-39552] [SQL] Унификация версий 1 и 2 DESCRIBE TABLE
  • [SPARK-39806] [SQL] Доступ к _metadata на разделённых table может привести к сбою запроса
  • [SPARK-39810] [SQL] Catalog.tableExists должен обрабатывать вложенное пространство имен
  • [SPARK-37287] [SQL] Вытащить динамические partition и сортировку контейнеров из FileFormatWriter
  • [SPARK-39469] [SQL] Определение типа даты для обработки CSV schema
  • [SPARK-39148] [SQL] агрегированная отправка DS V2 может работать с OFFSET или LIMIT
  • [SPARK-39818] [SQL] Исправлена ошибка в МАССИВе, структуре, типах MAP с values DEFAULT с полями NULL
  • [SPARK-39792] [SQL] Добавление DecimalDivideWithOverflowCheck для десятичного среднего
  • [SPARK-39798] [SQL] Замена toSeq.toArray на .toArray[Any] в конструкторе GenericArrayData
  • [SPARK-39759] [SQL] Реализация listIndexes в JDBC (диалект H2)
  • [SPARK-39385] [SQL] Поддерживает отправку REGR_AVGX и REGR_AVGY
  • [SPARK-39787] [SQL] Используйте класс error при ошибке синтаксического анализа функции to_timestamp
  • [SPARK-39760] [PYTHON] Поддержка Varchar в PySpark
  • [SPARK-39557] [SQL] Ручной бэкпорт в DBR 11.x: поддержка типов ARRAY, STRUCT, MAP в качестве значений по умолчанию values
  • [SPARK-39758] [SQL][3.3] Исправление NPE из функций regexp для недопустимых шаблонов
  • [SPARK-39749] [SQL] Режим SQL ANSI: использование простого строкового представления при приведении десятичного числа к строке
  • [SPARK-39704] [SQL] Реализация createIndex и dropIndex & indexExists в JDBC (диалект H2)
  • [SPARK-39803] [SQL] Использование LevenshteinDistance вместо StringUtils.getLevenshteinDistance
  • [SPARK-39339] [SQL] Поддержка типа TimestampNTZ в источнике файлов JDBC
  • [SPARK-39781] [SS] Добавление поддержки для предоставления max_open_files поставщику хранилища состояний rocksdb
  • [SPARK-39719] [R] Реализация databaseExists/getDatabase в SparkR поддерживает пространство имен 3L
  • [SPARK-39751] [SQL] Переименование метрики hash aggregate key probes
  • [SPARK-39772] [SQL] пространство имен должно иметь значение NULL, если база данных имеет значение NULL в старых конструкторах
  • [SPARK-39625] [SPARK-38904][SQL] Добавление Dataset.as(StructType)
  • [SPARK-39384] [SQL] Компиляция встроенных агрегатных функций линейной регрессии для диалекта JDBC
  • [SPARK-39720] [R] Реализация tableExists/getTable в SparkR для пространства имен 3L
  • [SPARK-39744] [SQL] Добавление функции REGEXP_INSTR
  • [SPARK-39716] [R] Обеспечение поддержки пространства имен 3L в currentDatabase/setCurrentDatabase/listCatalogs в SparkR
  • [SPARK-39788] [SQL] Переименование catalogName в dialectName для JdbcUtils
  • [SPARK-39647] [CORE] Регистрация исполнителя с ESS перед регистрацией BlockManager
  • [SPARK-39754] [CORE][SQL] Remove неиспользуемые import или ненужные {}
  • [SPARK-39706] [SQL] Set отсутствует column со значением по умолчанию в качестве константы в ParquetColumnVector
  • [SPARK-39699] [SQL] Более эффективная обработка выражений создания коллекций в CollapseProject
  • [SPARK-39737] [SQL] PERCENTILE_CONT и PERCENTILE_DISC должны поддерживать агрегатный фильтр
  • [SPARK-39579] [SQL][PYTHON][R] Обеспечение совместимости ListFunctions/getFunction/functionExists с пространством имен уровня 3
  • [SPARK-39627] [SQL] При передаче JDBC версии 2 должен всегда использоваться API компиляции
  • [SPARK-39748] [SQL][SS] Включение логического плана источника для LogicalRDD, если он поступает из кадра данных
  • [SPARK-39385] [SQL] Преобразование агрегатных функций линейной регрессии для передачи
  • [SPARK-39695] [SQL] Добавление функции REGEXP_SUBSTR
  • [SPARK-39667] [SQL] Добавьте еще одно решение, если недостаточно памяти для сборки и трансляции table
  • [SPARK-39666] [ES-337834][SQL] Использование UnsafeProjection.create для учета spark.sql.codegen.factoryMode в ExpressionEncoder
  • [SPARK-39643] [SQL] Запретить вложенные запросы в values DEFAULT
  • [SPARK-38647] [SQL] Добавление смеси SupportsReportOrdering в интерфейсе для сканирования (DataSourceV2)
  • [SPARK-39497] [SQL] Улучшение исключения анализа отсутствующих ключей карты column
  • [SPARK-39661] [SQL] Исключение создания ненужного средства ведения журнала SLF4J
  • [SPARK-39713] [SQL] Режим ANSI: добавление предложения использования try_element_at для исправления ошибки INVALID_ARRAY_INDEX
  • [SPARK-38899] [SQL] DS V2 поддерживает отправку функций datetime
  • [SPARK-39638] [SQL] Изменение использования ConstantColumnVector для хранения partitioncolumns в OrcColumnarBatchReader
  • [SPARK-39653] [SQL] Очистка ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int) из ColumnVectorUtils
  • [SPARK-39231] [SQL] Используйте ConstantColumnVector вместо On/OffHeapColumnVector для хранения partitioncolumns в VectorizedParquetRecordReader
  • [SPARK-39547] [SQL] V2SessionCatalog не должен вызывать исключение NoSuchDatabaseException в loadNamspaceMetadata
  • [SPARK-39447] [SQL] Не следует использовать AssertionError в AdaptiveSparkPlanExec.doExecuteBroadcast
  • [SPARK-39492] [SQL] Переработка MISSING_COLUMN
  • [SPARK-39679] [SQL] TakeOrderedAndProjectExec должен учитывать порядок дочерних выходных данных
  • [SPARK-39606] [SQL] Использование дочерней статистики для оценки оператора упорядочения
  • [SPARK-39611] [PYTHON][PS] Исправление неправильных псевдонимов в array_ufunc
  • [SPARK-39656] [SQL][3.3] Исправление неправильного пространства имен в DescribeNamespaceExec
  • [SPARK-39675] [SQL] Переключение конфигурации spark.sql.codegen.factoryMode для тестирования на конфигурацию для внутреннего использования
  • [SPARK-39139] [SQL] DS V2 поддерживает отправку DS V2 UDF
  • [SPARK-39434] [SQL] Предоставление контекста запроса для ошибки среды выполнения при выходе индекса за границы массива
  • [SPARK-39479] [SQL] DS V2 поддерживает передачу математических функций (не ANSI)
  • [SPARK-39618] [SQL] Добавление функции REGEXP_COUNT
  • [SPARK-39553] [CORE] Отмена регистрации нескольких потоков не должна приводить к NPE при использовании Scala 2.13
  • [SPARK-38755] [PYTHON][3.3] Добавление файла для решения проблемы отсутствующих общих функций pandas
  • [SPARK-39444] [SQL] Добавление OptimizeSubqueries в nonExcludableRules list
  • [SPARK-39316] [SQL] Объединение PromotePrecision и CheckOverflow в двоичную арифметику с десятичными числами
  • [SPARK-39505] [UI] Содержимое журнала Escape, отображаемое в пользовательском интерфейсе
  • [SPARK-39448] [SQL] Добавление ReplaceCTERefWithRepartition в nonExcludableRuleslist
  • [SPARK-37961] [SQL] Переопределение maxRows/maxRowsPerPartition для некоторых логических операторов
  • [SPARK-35223] Отмена добавления IssueNavigationLink
  • [SPARK-39633] [SQL] Поддержка метки времени в секундах для TimeTravel с помощью параметров кадра данных
  • [SPARK-38796] [SQL] Update документация для строк числового формата с функциями {try_}to_number
  • [SPARK-39650] [SS] Исправление неверного значения schema при устранении дублирования в потоковой передаче с обратной совместимостью.
  • [SPARK-39636] [CORE][UI] Исправление нескольких ошибок в JsonProtocol, которые влияют на операции StorageLevels и task/Executor ResourceRequests, выполняемые вне кучи
  • [SPARK-39432] [SQL] Возврат ELEMENT_AT_BY_INDEX_ZERO из element_at(*, 0)
  • [SPARK-39349] Добавление централизованного метода CheckError для проверки ошибочного пути
  • [SPARK-39453] [SQL] DS версии 2 поддерживает передачу различных неагрегатных функций (не ANSI)
  • [SPARK-38978] [SQL] DS V2 поддерживает оператор push-OFFSET
  • [SPARK-39567] [SQL] Поддержка интервалов ANSI в функциях с процентилями
  • [SPARK-39383] [SQL] Поддержка columns ПО УМОЛЧАНИЮ в ALTER TABLE ALTER COLUMNS для источников данных версии 2
  • [SPARK-39396] [SQL] Исправлена ошибка входа LDAP: «код ошибки 49 — недопустимый credentials»
  • [SPARK-39548] [SQL] Команда CreateView с запросом с условием window столкнулась с ошибкой "не найдено определение" window
  • [SPARK-39575] [AVRO] добавьте ByteBuffer#rewind после ByteBuffer#get в Avr...
  • [SPARK-39543] Параметр DataFrameWriterV2 должен передаваться в свойства хранилища в случае отката к версии 1
  • [SPARK-39564] [SS] Предоставление сведений о catalogtable логическому плану в потоковом запросе
  • [SPARK-39582] [SQL] Исправление маркера "Since" для array_agg
  • [SPARK-39388] [SQL] Повторное использование orcSchema при отправке предикатов Orc
  • [SPARK-39511] [SQL] Улучшение локального limit 1 для правой части левой полу-join, если условие join пусто
  • [SPARK-38614] [SQL] Не нажимайте limit через window, использующую percent_rank
  • [SPARK-39551] [SQL] Добавление проверки недопустимого плана AQE
  • [SPARK-39383] [SQL] Поддержка columns ПО умолчанию в ALTER TABLE ADD COLUMNS в источники данных версии 2
  • [SPARK-39538] [SQL] Исключение создания ненужного средства ведения журнала SLF4J
  • [SPARK-39383] [SQL] Ручной серверный порт в DBR 11.x: поддержка рефакторинга ПО УМОЛЧАНИю column для пропуска передачи основного анализатора вокруг
  • [SPARK-39397] [SQL] Освобождение AliasAwareOutputExpression для поддержки псевдонима с выражением
  • [SPARK-39496] [SQL] Обработка конструкции null в Inline.eval
  • [SPARK-39545] [SQL] Изменение метода concat для ExpressionSet в Scala 2.13 с целью повышения производительности
  • [SPARK-39340] [SQL] agg pushdown в DS версии 2 должно разрешать использование точек в имени columns верхнего уровня
  • [SPARK-39488] [SQL] Упрощение обработки ошибок TempResolvedColumn
  • [SPARK-38846] [SQL] Добавление явного сопоставления данных между числовым типом Teradata и десятичным типом Spark
  • [SPARK-39520] [SQL] Переопределение метода -- для ExpressionSet в Scala 2.13
  • [SPARK-39470] [SQL] Поддержка приведения интервалов ANSI к десятичным числам
  • [SPARK-39477] [SQL] Remove "Количество запросов" из эталонных файлов SQLQueryTestSuite
  • [SPARK-39419] [SQL] Исправление ошибке, приводящей к возникновению исключения ArraySort, когда блок сравнения возвращает значение NULL
  • [SPARK-39061] [SQL] Set корректная нулевость для выходных атрибутов Inline
  • [SPARK-39320] [SQL] Поддержка агрегатной функции MEDIAN
  • [SPARK-39261] [CORE] Улучшение форматирования новой строки для сообщений об ошибках
  • [SPARK-39355] [SQL] Одиночный column использует кавычки для создания НеразрешенногоАтрибута
  • [SPARK-39351] [SQL] SHOW CREATE TABLE должны быть удалены свойства
  • [SPARK-37623] [SQL] Поддержка агрегатной функции ANSI: regr_intercept
  • [SPARK-39374] [SQL] Улучшение сообщения об ошибке для указанного пользователем columnlist
  • [SPARK-39255] [SQL][3.3] Улучшение сообщений об ошибках
  • [SPARK-39321] [SQL] Рефакторинг TryCast для использования RuntimeReplaceable
  • [SPARK-39406] [PYTHON] Принятие массива NumPy в createDataFrame
  • [SPARK-39267] [SQL] Очистка ненужного символа dsl
  • [SPARK-39171] [SQL] Унификация выражения приведения
  • [SPARK-28330] [SQL] Поддержка ANSI SQL: конструкция result offset в выражении запроса
  • [SPARK-39203] [SQL] Перезаписать table расположение в абсолютный URI на основе URI базы данных
  • [SPARK-39313] [SQL] toCatalystOrdering должен выдавать ошибку, если невозможно преобразовать V2Expression
  • [SPARK-39301] [SQL][PYTHON] Использование localRelation и учет размера пакета Arrow в createDataFrame с оптимизацией Arrow
  • [SPARK-39400] [SQL] Spark-sql должен remove dir ресурса hive во всех случаях

Обновления в рамках обслуживания

Ознакомьтесь с обновлениями обслуживания Databricks Runtime 11.1.

Системная среда

  • Операционная система: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14.
  • Python: 3.9.5
  • R: 4.1.3.
  • Delta Lake: 1.2.1

Установленные библиотеки Python

Библиотека Версия Библиотека Версия Библиотека Версия
Antergos Linux 2015.10 (ISO-Rolling) argon2-cffi 20.1.0 async-generator 1,10
attrs 21.2.0 backcall 0.2.0 backports.entry-points-selectable 1.1.1
black 22.3.0 bleach 4.0.0 boto3 1.21.18
botocore 1.24.18 certifi 2021.10.8 cffi 1.14.6
chardet 4.0.0 charset-normalizer 2.0.4 щелчок 8.0.3
криптография 3.4.8 cycler 0.10.0 Cython 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 decorator 5.1.0
defusedxml 0.7.1 distlib 0.3.5 distro-info 0.23ubuntu1
entrypoints 0,3 facets-overview 1.0.0 filelock 3.8.0
idna 3.2 ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.0.1
jsonschema 3.2.0 jupyter-client 6.1.12 jupyter-core 4.8.1
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-inline 0.1.2
mistune 0.8.4 mypy-extensions 0.4.3 nbclient 0.5.3
nbconvert 6.1.0 nbformat 5.1.3 nest-asyncio 1.5.1
записная книжка 6.4.5 numpy 1.20.3 во внешнем виде 21,0
pandas 1.3.4 pandocfilters 1.4.3 parso 0.8.2
pathspec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Pillow 8.4.0 pip 21.2.4
platformdirs 2.5.2 график 5.9.0 prometheus-client 0.11.0
prompt-toolkit 3.0.20 protobuf 4.21.5 psutil 5.8.0
psycopg2 2.9.3 ptyprocess 0.7.0 pyarrow 7.0.0
pycparser 2,20 Pygments 2.10.0 PyGObject 3.36.0
pyodbc 4.0.31 pyparsing 3.0.4 pyrsistent 0.18.0
python-apt 2.0.0+ubuntu0.20.4.7 python-dateutil 2.8.2 pytz 2021.3
pyzmq 22.2.1 requests 2.26.0 requests-unixsocket 0.2.0
s3transfer 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
мореборн 0.11.2 Send2Trash 1.8.0 setuptools 58.0.4
six 1.16.0 ssh-import-id 5,10 statsmodels 0.12.2
tenacity 8.0.1 terminado 0.9.4 testpath 0.5.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.0 typing-extensions 3.10.0.2
unattended-upgrades 0,1 urllib3 1.26.7 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 wheel 0.37.0
widgetsnbextension 3.6.0

Установленные библиотеки R

Библиотеки R устанавливаются из моментального снимка Microsoft CRAN от 15.08.2022.

Библиотека Версия Библиотека Версия Библиотека Версия
askpass 1,1 assertthat 0.2.1 внутренние порты 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 большой двоичный объект 1.2.3 загрузка 1.3-28
заваривать 1.0-7 brio 1.1.3 метла 1.0.0
bslib 0.4.0 cachem 1.0.6 вызывающий объект 3.7.1
крышка 6.0-93 cellranger 1.1.0 chron 2.3-57
class 7.3-20 cli 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 colorspace 2.0-3
commonmark 1.8.0 компилятор 4.1.3 config 0.3.1
cpp11 0.4.2 карандаш 1.5.1 credentials 1.3.2
curl 4.3.2 данные.table 1.14.2 наборы данных 4.1.3
DBI 1.1.3 dbplyr 2.2.1 desc 1.4.1
средства разработки 2.4.4 diffobj 0.3.5 digest 0.6.29
downlit 0.4.2 dplyr 1.0.9 dtplyr 1.2.1
e1071 1.7-11 многоточие 0.3.2 evaluate 0,16
вентиляторы 1.0.3 Farver 2.1.1 fastmap 1.1.0
fontawesome 0.3.0 forcats 0.5.1 foreach 1.5.2
иностранный 0.8-82 forge 0.2.0 fs 1.5.2
будущее 1.27.0 future.apply 1.9.0 gargle 1.2.0
Универсальные шаблоны 0.1.3 gert 1.7.0 ggplot2 3.3.6
gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
globals 0.16.0 клей 1.6.2 googledrive 2.0.0
googlesheets4 1.0.1 Говер 1.0.0 графика 4.1.3
grDevices 4.1.3 grid 4.1.3 gridExtra 2.3
gsubfn 0,7 gtable 0.3.0 hardhat 1.2.0
haven 2.5.0 высокий 0,9 hms 1.1.1
htmltools 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.3 ids 1.0.1 ini 0.3.1
ipred 0.9-13 isoband 0.2.5 Итераторы 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
трикотажный 1,39 маркирование 0.4.2 later 1.3.0
решётка 0.20-45 Lava 1.6.10 жизненный цикл 1.0.1
listenv 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Markdown 1,1 МАССАЧУСЕТС 7.3-56 «Матрица» 1.4-1
memoise 2.0.1 оплаты 4.1.3 mgcv 1.8-40
мим 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
modelr 0.1.8 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
parallel 4.1.3 parallelly 1.32.1 столб 1.8.0
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
хвалить 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 profvis 0.3.7
Ход выполнения 1.2.2 progressr 0.10.1 promises 1.2.0.1
proto 1.0.0 proxy 0.4-27 ps 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
ragg 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 readr 2.1.2 readxl 1.4.0
Рецепты 1.0.1 реванш 1.0.1 rematch2 2.1.2
remotes 2.4.2 reprex 2.0.1 reshape2 1.4.4
rlang 1.0.4 rmarkdown 2,14 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.15 rstudioapi 0,13
rversions 2.1.1 rvest 1.0.2 sass 0.4.2
весы 1.2.0 селектор 0.4-2 sessioninfo 1.2.2
форма 1.4.6 блестящий 1.7.2 sourcetools 0.1.7
sparklyr 1.7.7 SparkR 3.3.0 пространственный 7.3-11
Сплайны 4.1.3 sqldf 0.4-11 SQUAREM 2021.1
stats 4.1.3 статистика4 4.1.3 stringi 1.7.8
stringr 1.4.0 выживание 3.2-13 sys 3,4
systemfonts 1.0.4 tcltk 4.1.3 testthat 3.1.4
textshaping 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 tidyverse 1.3.2 TimeDate 4021.104
tinytex 0,40 средства 4.1.3 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
служебные программы 4.1.3 uuid 1.1-0 vctrs 0.4.1
viridisLite 0.4.0 vroom 1.5.7 waldo 0.4.0
усы 0,4 withr 2.5.0 xfun 0,32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 zip 2.2.0

Установленные библиотеки Java и Scala (версия кластера Scala 2.12)

ИД группы Идентификатор артефакта Версия
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics потоковая передача 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1–0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.3
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natives 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger профилировщик 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
hadoop3 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.5.0
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx коллектор 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
mvn hadoop3 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.snowflake spark-snowflake_2.12 2.10.0-spark_3.2
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4,8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1,21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1,9
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.2-databricks
org.apache.hadoop hadoop-client-runtime 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.5
org.apache.orc orc-mapreduce 1.7.5
org.apache.orc orc-shims 1.7.5
org.apache.parquet parquet-column 1.12.0-databricks-0004
org.apache.parquet parquet-common 1.12.0-databricks-0004
org.apache.parquet parquet-encoding 1.12.0-databricks-0004
org.apache.parquet parquet-format-structures 1.12.0-databricks-0004
org.apache.parquet parquet-hadoop 1.12.0-databricks-0004
org.apache.parquet parquet-jackson 1.12.0-databricks-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,20
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.34
org.glassfish.jersey.containers jersey-container-servlet-core 2.34
org.glassfish.jersey.core jersey-client 2.34
org.glassfish.jersey.core jersey-common 2.34
org.glassfish.jersey.core jersey-server 2.34
org.glassfish.jersey.inject jersey-hk2 2.34
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark неиспользованный 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1