Поделиться через


Databricks Runtime 12.2 LTS

В следующих заметках о выпуске содержатся сведения о Databricks Runtime 12.2 LTS, на базе Apache Spark 3.3.2.

Databricks выпустила эту версию в марте 2023 года.

Примечание.

LTS означает, что эта версия находится в долгосрочной поддержке. См. жизненный цикл версии LTS среды выполнения Databricks.

Совет

Сведения о выпуске заметок о выпуске Databricks Runtime, которые достигли окончания поддержки (EoS), см . в заметках о выпуске Databricks Runtime. Версии среды выполнения EoS Databricks устарели и могут не обновляться.

Изменение поведения

[Критическое изменение] Для новой версии Python требуется обновление клиентов Python Databricks Connect версии 1

Примечание.

Последующее обновление перемещает версию Python в Databricks Runtime 12.2 LTS на 3.9.21. Версия 3.9.21 не вводит никаких изменений в поведении.

Чтобы применить необходимые исправления безопасности, версия Python в Databricks Runtime 12.2 LTS обновляется с 3.9.5 до 3.9.19. Поскольку эти изменения могут привести к ошибкам в клиентах, использующих определенные функции PySpark, все клиенты, использующие Databricks Connect V1 для Python с Databricks Runtime 12.2 LTS, должны быть обновлены до Python 3.9.7 или более поздней версии.

Новые функции и внесенные улучшения

Python обновлен с версии 3.9.19 до 3.9.21

Версия Python в Databricks Runtime 12.2 LTS обновляется с 3.9.19 до 3.9.21.

Эволюция схемы Delta Lake поддерживает указание исходных столбцов в инструкциях слияния

Теперь можно указать столбцы, присутствующие только в исходной таблице, в действии вставки или обновления инструкций слияния при включении эволюции схемы. В Databricks Runtime 12.1 и ниже можно использовать только INSERT * действия или UPDATE SET * действия для эволюции схемы с слиянием. См. статью "Автоматическая эволюция схемы" для слияния Delta Lake.

Структурированные рабочие нагрузки потоковой передачи поддерживаются в кластерах с режимом общего доступа

Теперь вы можете использовать структурированную потоковую передачу для взаимодействия с каталогом Unity для вычислений с стандартным режимом доступа. Применяются некоторые ограничения. Узнайте , какие функции структурированной потоковой передачи поддерживают каталог Unity?.

Новые возможности прогнозного ввода-вывода

Поддержка фотона приемника Foreachbatch теперь доступна. Рабочие нагрузки, которые передаются из источника и объединяются в разностные таблицы или записываются в несколько приемников, теперь могут воспользоваться фотонализованным приемником Foreachbatch .

Поддержка неявного псевдонима бокового столбца

Azure Databricks теперь поддерживает неявный псевдоним бокового столбца по умолчанию. Теперь можно повторно использовать выражение, указанное ранее в том же SELECT списке. Например, учитываяSELECT 1 AS aa + 1 AS b, можно a разрешить вход a + 1 как ранее определенный1 AS a. Дополнительные сведения о разрешении имен см. в порядке разрешения. Чтобы отключить эту функцию, можно задать значение spark.sql.lateralColumnAlias.enableImplicitResolutionfalse.

Новая функция forEachBatch

Фотон теперь поддерживается при записи foreachBatch в приемник данных.

Стандартные параметры подключения для федерации запросов

Теперь можно использовать единый набор параметров (узел, порт, база данных, пользователь, пароль)для подключения к источникам данных, поддерживаемым в федерации запросов. Port является необязательным и использует номер порта по умолчанию для каждого источника данных, если не указано.

Расширенная библиотека функций SQL для управления массивами

Теперь можно удалить все элементы NULL из массива с помощью array_compact. Чтобы добавить элементы в массив, используйте array_append.

Новая функция маски для анонимизации строк

Вызовите функцию маски, чтобы анонимизировать конфиденциальные строковые значения.

Распространенные условия ошибки теперь возвращают SQLSTATEs

Большинство условий ошибки, которые Databricks Runtime теперь включают в себя документированные значения SQLSTATE , которые можно использовать для проверки ошибок в стандартном соответствии с SQL.

Вызов функций генератора в предложении FROM

Теперь можно вызвать функции генератора с табличным значением, такие как взрыв в регулярном FROM предложении запроса. Это выравнивает вызов функции генератора с другими встроенными и пользовательскими функциями таблицы.

Общедоступная поддержка буферов протокола

Вы можете использовать from_protobuf функции и to_protobuf функции для обмена данными между двоичными и типами структур. См . раздел "Чтение и запись буферов протокола".

Переход к определению для переменных и функций записной книжки

В записных книжках можно быстро перейти к определению переменной, функции или кода за %run инструкцией, щелкнув правой кнопкой мыши имя переменной или функции.

Быстрое исправление записной книжки для библиотек автоматического импорта

Записные книжки Databricks теперь предлагают функцию быстрого исправления для автоматически импортируемых библиотек. Если вы забыли импортировать библиотеку, например pandas, наведите указатель мыши на подчеркнутое предупреждение синтаксиса, а затем нажмите кнопку "Быстрое исправление", эта функция требует включения помощника Databricks в рабочей области.

Исправления ошибок

  • Улучшена согласованность для поведения фиксации Delta для пустых транзакций, относящихся к updateкомандам deleteи merge командам. На WriteSerializable уровне изоляции команды, которые не приводят к изменениям, теперь создают пустую фиксацию. На уровне изоляции такие пустые Serializable транзакции теперь не создают фиксацию.

Изменения в работе

Изменения поведения с помощью новой функции псевдонима бокового столбца

Новая функция псевдонима бокового столбца приводит к изменениям поведения для следующих случаев при разрешении имен:

  • Псевдоним бокового столбца теперь имеет приоритет над сопоставленными ссылками с тем же именем. Например, для этого запроса SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)c1 внутренний c1 AS c2 элемент был разрешен в сопоставленную ссылкуt.c1, но теперь изменяется на псевдоним бокового столбца1 AS c1. Теперь запрос возвращается NULL.
  • Псевдоним бокового столбца теперь имеет приоритет над параметрами функции с тем же именем. Например, CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, xx для функции в теле функции был разрешен параметр функции x, но изменяется на псевдоним x + 1 бокового столбца в теле функции. Теперь запрос SELECT * FROM func(1) возвращается 2, 2.
  • Чтобы отключить функцию псевдонима бокового столбца, установите значение spark.sql.lateralColumnAlias.enableImplicitResolutionfalse. Дополнительные сведения см. в разделе "Разрешение имен".

Обновления библиотек

  • Обновленные библиотеки Python:
    • блокировка файлов от 3.8.2 до 3.9.0
    • joblib от 1.1.0 до 1.1.1
    • platformdirs от 2.6.0 до 2.6.2
    • whatthepatch от 1.0.3 до 1.0.4
  • Обновленные библиотеки R:
    • класс от 7.3-20 до 7.3-21
    • codetools от 0.2-18 до 0.2-19
    • МАСС с 7.3-58 до 7.3-58.2
    • nlme от 3.1-160 до 3.1-162
    • Rserve от 1.8-11 до 1.8-12
    • SparkR от 3.3.1 до 3.3.2

Изменения поведения

  • Теперь пользователям необходимо иметь SELECT и MODIFY привилегии для любого файла при создании схемы с определенным расположением.

Apache Spark

Databricks Runtime 12.2 включает Apache Spark 3.3.2. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 12.1 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:

  • [SPARK-42416] [SC-123205][sc-122851][SQL] Операции набора дат не должны повторно разрешать проанализированный логический план
  • [SPARK-41848] Revert "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Исправление задачи с превышением расписания с помощью TaskResourceProfile".
  • [SPARK-42162] [SC-122711][es-556261] Ввод выражения MultiCommutativeOp в качестве оптимизации памяти для канонизации больших деревьев коммутативных выражений
  • [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Исправлен параметр рекурсивной глубины для функций Protobuf
  • [SPARK-42002] [SC-122476][connect][PYTHON] Реализация DataFrameWriterV2
  • [SPARK-41716] [SC-122545][connect] Переименуйте _catalog_to_pandas на _execute_and_fetch в каталоге
  • [SPARK-41490] [SC-121774][sql] Назначьте имя _LEGACY_ERROR_TEMP_2441
  • [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Реализация Catalog.cacheTable, isCached и uncache
  • [SPARK-42191] [SC-121990][sql] Поддержка UDF функции «luhn_check»
  • [SPARK-42253] [SC-121976][python] Добавьте тест для обнаружения повторяющегося класса ошибок
  • [SPARK-42268] [SC-122251][connect][PYTHON] Добавить UserDefinedType в протосы
  • [SPARK-42231] [SC-121841][sql] Превратить MISSING_STATIC_PARTITION_COLUMN в internalError
  • [SPARK-42136] [SC-122554] Вычисление секционирования выходных данных RefactorHashJoinExec
  • [SPARK-42158] [SC-121610][sql] Интеграция _LEGACY_ERROR_TEMP_1003 в FIELD_NOT_FOUND
  • [SPARK-42192] [12.x][sc-121820][PYTHON] Перенос TypeError из pyspark/sql/dataframe.py в PySparkTypeError
  • [SPARK-35240] Revert "[SC-118242][ss] Use CheckpointFileManager ...
  • [SPARK-41488] [SC-121858][sql] Назначьте имя _LEGACY_ERROR_TEMP_1176 (и 1177)
  • [SPARK-42232] [SC-1222267][sql] Переименовать класс ошибок: UNSUPPORTED_FEATURE.JDBC_TRANSACTION
  • [SPARK-42346] [SC-122480][sql] Переопределение отдельных агрегатов после слияния вложенного запроса
  • [SPARK-42306] [SC-122539][sql] Интеграция _LEGACY_ERROR_TEMP_1317 в UNRESOLVED_COLUMN.WITH_SUGGESTION
  • [SPARK-42234] [SC-122354][sql] Переименовать класс ошибок: UNSUPPORTED_FEATURE.REPEATED_PIVOT
  • [SPARK-42343] [SC-122437][core] Игнорировать IOException в handleBlockRemovalFailure, если SparkContext остановлен
  • [SPARK-41295] [SC-122442][spark-41296][SQL] Переименовать классы ошибок
  • [SPARK-42320] [SC-122478][sql] Присвоить имя _LEGACY_ERROR_TEMP_2188
  • [SPARK-42255] [SC-122483][sql] Назначьте имя _LEGACY_ERROR_TEMP_2430
  • [SPARK-42156] [SC-121851][connect] SparkConnectClient теперь поддерживает RetryPolicies
  • [SPARK-38728] [SC-116723][sql] Проверьте класс ошибок: FAILED_RENAME_PATH
  • [SPARK-40005] [12.X] Автономные примеры в PySpark
  • [SPARK-39347] [SC-122457][ss] Исправление ошибки для вычисления временного окна, когда время события < 0
  • [SPARK-42336] [SC-122458][core] Используйте getOrElse() вместо contains() в ResourceAllocator
  • [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF в Spark Connect
  • [SPARK-42217] [SC-1222263][sql] Поддержка неявного псевдонима бокового столбца в запросах с окном
  • [SPARK-35240] [SC-118242][ss] Используйте CheckpointFileManager для обработки файлов контрольных точек
  • [SPARK-42294] [SC-1223337][sql] Включить значения столбцов по умолчанию в выходные данные DESCRIBE для таблиц версии 2
  • [SPARK-41979] Возврат "Вернуться"[12.x][sc-121190][SQL] Добавьте отсутствующие точки для сообщений об ошибках в классах ошибок".
  • [SPARK-42286] [SC-122336][sql] Возврат к предыдущему пути генерации кода для сложных выражений с использованием CAST
  • [SPARK-42275] [SC-122249][connect][PYTHON] Избегайте использования встроенного списка, дикта в статической типизации
  • [SPARK-41985] [SC-122172][sql] Централизовать больше правил разрешения столбцов
  • [SPARK-42126] [SC-122330][python][CONNECT] Поддержать тип возврата в строках DDL для скалярных функций Python в Spark Connect
  • [SPARK-42197] [SC-1223228][sc-121514][CONNECT] Повторно использует инициализацию JVM и отдельные группы конфигурации для установки в удаленном локальном режиме
  • [SPARK-41575] [SC-120118][sql] Назначьте имя _LEGACY_ERROR_TEMP_2054
  • [SPARK-41985] Revert "[SC-122172][sql] Centralize more column resolution rules"
  • [SPARK-42123] [SC-122234][sc-121453][SQL] Добавить значения по умолчанию для столбцов в DESCRIBE и SHOW CREATE TABLE выходных данных
  • [SPARK-41985] [SC-122172][sql] Централизовать больше правил разрешения столбцов
  • [SPARK-42284] [SC-122233][connect] Убедитесь, что сборка сервера подключения создана перед выполнением клиентских тестов — SBT
  • [SPARK-42239] [SC-121790][sql] Интеграция MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42278] [SC-122170][sql] DS V2 pushdown поддерживает скомпилирование диалектов JDBC SortOrder самостоятельно
  • [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics должны учитывать Python UDAF
  • [SPARK-41979] Отменить "[12.x][sc-121190][SQL] Добавление отсутствующих точек для сообщений об ошибках в классах ошибок".
  • [SPARK-42224] [12.x][sc-121708][CONNECT] Перенос TypeError в фреймворк ошибок для функций Spark Connect
  • [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Перенос ошибок Spark Connect в платформу ошибок PySpark.
  • [SPARK-42119] [SC-121913][sc-121342][SQL] Добавление встроенных табличных функций inline и inline_outer
  • [SPARK-41489] [SC-121713][sql] Назначьте имя _LEGACY_ERROR_TEMP_2415
  • [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Введение PySparkValueError и PySparkTypeError
  • [SPARK-42081] [SC-121723][sql] Улучшение проверки изменений плана
  • [SPARK-42225] [12.x][sc-121714][CONNECT] Добавьте SparkConnectIllegalArgumentException для точной обработки ошибки Spark Connect.
  • [SPARK-42044] [12.x][sc-121280][SQL] Исправлено неверное сообщение об ошибке для MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
  • [SPARK-42194] [12.x][sc-121712][PS] Разрешить параметр столбцов при создании DataFrame с Series.
  • [SPARK-42078] [12.x][sc-120761][PYTHON] Миграция ошибок, создаваемых JVM в PySparkException.
  • [SPARK-42133] [12.x][sc-121250] Добавление базовых методов API набора данных в клиент SparkConnect Scala
  • [SPARK-41979] [12.x][sc-121190][SQL] Добавить недостающие точки в сообщения об ошибках в классах ошибок.
  • [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Scalar Inline Python UDF в Spark Connect
  • [SPARK-42051] [SC-121994][sql] Поддержка codegen для HiveGenericUDF
  • [SPARK-42257] [SC-121948][core] Удаление неиспользуемой переменной внешней сортировки
  • [SPARK-41735] [SC-121771][sql] Используйте МИНИМАЛЬНОЕ вместо STANDARD для SparkListenerSQLExecutionEnd
  • [SPARK-42236] [SC-121882][sql] Уточнить NULLABLE_ARRAY_OR_MAP_ELEMENT
  • [SPARK-42233] [SC-121775][sql] Улучшение сообщения об ошибке для PIVOT_AFTER_GROUP_BY
  • [SPARK-42229] [SC-121856][core] Перенос SparkCoreErrors в классы ошибок
  • [SPARK-42163] [SC-121839][sql] Исправление обрезки схемы для не свертываемого индекса массива или ключа карты
  • [SPARK-40711] [SC-119990][sql] Добавление метрик размера разлива для окна
  • [SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Сделать createDataFrame поддерживающим AtomicType -> StringType приведение
  • [SPARK-42202] [SC-121837][connect][Test] Улучшить логику остановки тестового сервера E2E
  • [SPARK-41167] [SC-117425][sql] Повысить производительность оператора LIKE, создав предикат сбалансированного дерева выражений
  • [SPARK-41931] [SC-121618][sql] Улучшено сообщение об ошибке для неполного определения сложного типа
  • [SPARK-36124] [SC-121339][sc-110446][SQL] Поддержка вложенных запросов с корреляцией через UNION
  • [SPARK-42090] [SC-121290][3.3] Введите число повторных попыток sasl в RetryingBlockTransferor
  • [SPARK-42157] [SC-121264][core] spark.scheduler.mode=FAIR должен предоставлять планировщик FAIR
  • [SPARK-41572] [SC-120772][sql] Присвоить имя _LEGACY_ERROR_TEMP_2149
  • [SPARK-41983] [SC-1212224][sql] Переименовать & улучшить сообщение об ошибке для NULL_COMPARISON_RESULT
  • [SPARK-41976] [SC-121024][sql] Улучшение сообщения об ошибке для INDEX_NOT_FOUND
  • [SPARK-41994] [SC-121210][sc-120573] Назначение SQLSTATE (1/2)
  • [SPARK-41415] [SC-121117][3.3] Повторные попытки запроса SASL
  • [SPARK-38591] [SC-121018][sql] Добавление flatMapSortedGroups и cogroupSorted
  • [SPARK-41975] [SC-120767][sql] Улучшение сообщения об ошибке для INDEX_ALREADY_EXISTS
  • [SPARK-42056] [SC-121158][sql][PROTOBUF] Добавление отсутствующих параметров для функций Protobuf
  • [SPARK-41984] [SC-120769][sql] Переименовать & улучшить сообщение об ошибке для RESET_PERMISSION_TO_ORIGINAL
  • [SPARK-41948] [SC-121196][sql] Исправление NPE для классов ошибок: CANNOT_PARSE_JSON_FIELD
  • [SPARK-41772] [SC-121176][connect][PYTHON] Исправление неправильного имени столбца в doctest withField
  • [SPARK-41283] [SC-121175][connect][PYTHON] Добавить array_append для подключения
  • [SPARK-41960] [SC-120773][sql] Назначьте имя _LEGACY_ERROR_TEMP_1056
  • [SPARK-42134] [SC-121116][sql] Исправление getPartitionFiltersAndDataFilters() для обработки фильтров без ссылочных атрибутов
  • [SPARK-42096] [SC-121012][connect] Некоторая очистка кода для модуля connect
  • [SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Исправление count(*) и count(col(*))
  • [SPARK-42045] [SC-120958][sc-120450][SQL] режим ANSI SQL: функции Round и Bround должны выдавать ошибку в случае целочисленного переполнения
  • [SPARK-42043] [SC-120968][connect] Результат клиента Scala с помощью тестов E2E
  • [SPARK-41884] [SC-121022][connect] Поддержка наивного кортежа в виде вложенной строки
  • [SPARK-42112] [SC-121011][sql][SS] Добавить проверку на null перед закрытием функции ContinuousWriteRDD#computedataWriter
  • [SPARK-42077] [SC-120553][connect][PYTHON] Литерал должен вызывать TypeError для неподдерживаемого типа данных
  • [SPARK-42108] [SC-120898][sql] Сделать так, чтобы анализатор преобразовывал Count(*) в Count(1)
  • [SPARK-41666] [SC-120928][sc-119009][PYTHON] Поддержка параметризованного SQL по sql()
  • [SPARK-40599] [SC-120930][sql] Ослабить тип правила multiTransform, чтобы альтернативы могли быть любыми типами Seq
  • [SPARK-41574] [SC-120771][sql] Обновление _LEGACY_ERROR_TEMP_2009 как INTERNAL_ERROR.
  • [SPARK-41579] [SC-120770][sql] Назначьте имя _LEGACY_ERROR_TEMP_1249
  • [SPARK-41974] [SC-120766][sql] Превратить INCORRECT_END_OFFSET в INTERNAL_ERROR
  • [SPARK-41530] [SC-120916][sc-118513][CORE] Переименовать MedianHeap в PercentileMap и поддерживать процентили.
  • [SPARK-41757] [SC-120608][spark-41901][CONNECT] Исправление строкового представления класса Column
  • [SPARK-42084] [SC-120775][sql] Избегайте утечки ограничения только для квалифицированного доступа
  • [SPARK-41973] [SC-120765][sql] Присвоить имя _LEGACY_ERROR_TEMP_1311
  • [SPARK-42039] [SC-120655][sql] SPJ: Remove Option in KeyGroupedPartitioning#partitionValuesOpt
  • [SPARK-42079] [SC-120712][connect][PYTHON] Переименовать прото-сообщения для toDF и withColumnsRenamed
  • [SPARK-42089] [SC-120605][connect][PYTHON] Исправьте проблемы с именем переменной в вложенных лямбда-функциях
  • [SPARK-41982] [SC-120604][sql] Секции строк типа не должны рассматриваться как числовые типы
  • [SPARK-40599] [SC-120620][sql] Добавление методов multiTransform в TreeNode для создания альтернативных вариантов
  • [SPARK-42085] [SC-120556][connect][PYTHON] Сделать from_arrow_schema поддерживающим вложенные типы
  • [SPARK-42057] [SC-120507][sql][PROTOBUF] Исправлено, как исключение обрабатывается в отчетах об ошибках.
  • [SPARK-41586] [12.x][все тесты][SC-120544][python] Введение pyspark.errors и классов ошибок для PySpark.
  • [SPARK-41903] [SC-120543][connect][PYTHON] Literal должен поддерживать 1-dim ndarray
  • [SPARK-42021] [SC-120584][connect][PYTHON] Добавить поддержку createDataFrame для array.array
  • [SPARK-41896] [SC-120506][sql] Фильтрация по индексу строк возвращает пустые результаты
  • [SPARK-41162] [SC-119742][sql] Исправление анти- и полусоединения для самостоятельного соединения с агрегациями
  • [SPARK-41961] [SC-120501][sql] Поддержка табличных функций с помощью LATERAL
  • [SPARK-41752] [SC-120550][sql][UI] Сгруппировать вложенные выполнения в корневом выполнении
  • [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Литерал должен поддерживать типы данных Numpy
  • [SPARK-42028] [SC-120344][connect][PYTHON] Усечение меток времени наносекунд.
  • [SPARK-42011] [SC-120534][connect][PYTHON] Реализовать DataFrameReader.csv
  • [SPARK-41990] [SC-120532][sql] Используйте FieldReference.column вместо apply при преобразовании фильтров из версии 1 в версию 2
  • [SPARK-39217] [SC-120446][sql] Обеспечивает поддержку DPP для стороны фильтрации, использующей оператор Union.
  • [SPARK-42076] [SC-120551][connect][Python] Преобразование данных с коэффициентом arrow -> rows в conversion.py
  • [SPARK-42074] [SC-120540][sql] Включить KryoSerializer в TPCDSQueryBenchmark для принудительной регистрации классов SQL
  • [SPARK-42012] [SC-120517][connect][PYTHON] Реализовать DataFrameReader.orc
  • [SPARK-41832] [SC-120513][connect][PYTHON] Исправить DataFrame.unionByName, добавить возможность отсутствия колонок
  • [SPARK-38651] [SC-120514] [SQL] Добавлять spark.sql.legacy.allowEmptySchemaWrite
  • [SPARK-41991] [SC-120406][sql] CheckOverflowInTableInsert должен принимать ExpressionProxy как дочерний
  • [SPARK-41232] [SC-120073][sql][PYTHON] Добавление функции array_append
  • [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader должен поддерживать список путей
  • [SPARK-42071] [SC-120533][core] Регистрация scala.math.Ordering$Reverse в KyroSerializer
  • [SPARK-41986] [SC-120429][sql] Внедрение шардинга в SinglePartition
  • [SPARK-42016] [SC-120428][connect][PYTHON] Включить тесты, связанные с вложенным столбцом
  • [SPARK-42042] [SC-120427][connect][PYTHON] DataFrameReader должен поддерживать схему StructType
  • [SPARK-42031] [SC-120389][core][SQL] Очистка remove методов, которые не нуждаются в переопределении
  • [SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Реализовать поддержку вложенных типов для createDataFrame(rows/lists/tuples/dicts)
  • [SPARK-41437] [SC-117601][sql][ВСЕ ТЕСТЫ] Не оптимизируйте входной запрос дважды для резервной записи версии 1
  • [SPARK-41840] [SC-119719][connect][PYTHON] Добавьте отсутствующий псевдоним groupby
  • [SPARK-41846] [SC-119717][connect][PYTHON] Включите doctests для оконных функций
  • [SPARK-41914] [SC-120094][sql] FileFormatWriter материализует план AQE перед доступом к outputOrdering
  • [SPARK-41805] [SC-119992][sql] Повторное использование выражений в WindowSpecDefinition
  • [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range для передачи значений float в качестве аргументов
  • [SPARK-42029] [SC-120336][connect] Добавить правила тенизации (шэйдинга) для Guava в connect-common, чтобы избежать сбоя запуска
  • [SPARK-41989] [SC-120334][python] Избегайте нарушения конфигурации логирования из pyspark.pandas
  • [SPARK-42003] [SC-120331][sql] Сокращение дубликата кода в ResolveGroupByAll
  • [SPARK-41635] [SC-120313][sql] Исправление группы всех отчетов об ошибках
  • [SPARK-41047] [SC-120291][sql] Улучшение документов для раунда
  • [SPARK-41822] [SC-120122][connect] Настройка подключения gRPC для клиента Scala/JVM
  • [SPARK-41879] [SC-120264][connect][Python] Сделать DataFrame.collect поддержку вложенных типов
  • [SPARK-41887] [SC-120268][connect][PYTHON] Сделать так, чтобы DataFrame.hint принимал параметр типа список
  • [SPARK-41964] [SC-120210][connect][PYTHON] Добавьте список неподдерживаемых функций ввода-вывода
  • [SPARK-41595] [SC-120097][sql] Поддержка функции-генератора explode/explode_outer в предложении FROM
  • [SPARK-41957] [SC-120121][connect][PYTHON] Включите doctest для DataFrame.hint
  • [SPARK-41886] [SC-120141][connect][PYTHON] DataFrame.intersect выходные данные из doctest идут в другом порядке.
  • [SPARK-41442] [SC-117795][sql][ВСЕ ТЕСТЫ] Обновлять значение SQLMetric только при объединении с корректной метрикой
  • [SPARK-41944] [SC-120046][connect] Передача конфигураций при подключении к локальному удаленному режиму
  • [SPARK-41708] [SC-119838][sql] Pull v1write information to WriteFiles
  • [SPARK-41780] [SC-120000][sql] Должно выбрасываться исключение INVALID_PARAMETER_VALUE.PATTERN, если параметры regexp недопустимы
  • [SPARK-41889] [SC-119975][sql] Присоединить первопричину к invalidPatternError, & рефакторинг классов ошибок INVALID_PARAMETER_VALUE
  • [SPARK-41860] [SC-120028][sql] Создание классов вариантов AvroScanBuilder и JsonScanBuilder
  • [SPARK-41945] [SC-120010][connect][Python] Python: клиент потерял данные столбца с помощью pyarrow.Table.to_pylist
  • [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Агностические кодировщики
  • [SPARK-41354] [SC-119995][connect][PYTHON] Реализация repartitionByExpression
  • [SPARK-41581] [SC-119997][sql] Обновление _LEGACY_ERROR_TEMP_1230 как INTERNAL_ERROR
  • [SPARK-41928] [SC-119972][connect][PYTHON] Добавьте неподдерживаемый список для functions
  • [SPARK-41933] [SC-119980][connect] Укажите локальный режим, который автоматически запускает сервер.
  • [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame' должен уважать предоставленную пользователем схему DDL
  • [SPARK-41936] [SC-119978][connect][PYTHON] Сделать withMetadata повторно использовать withColumns прототип
  • [SPARK-41898] [SC-119931][connect][PYTHON] Проверка типов для параметров Window.rowsBetween и Window.rangeBetween на соответствие с pyspark
  • [SPARK-41939] [SC-119977][connect][PYTHON] Добавьте неподдерживаемый список для функций catalog
  • [SPARK-41924] [SC-119946][connect][PYTHON] Сделать так, чтобы StructType поддерживал метаданные и внедрить DataFrame.withMetadata
  • [SPARK-41934] [SC-119967][connect][PYTHON] Добавьте неподдерживаемый список функций для session
  • [SPARK-41875] [SC-119969][connect][PYTHON] Добавление тестовых вариантов для Dataset.to()
  • [SPARK-41824] [SC-119970][connect][PYTHON] Игнорировать doctest для объяснения функции connect
  • [SPARK-41880] [SC-119959][connect][PYTHON] Сделать функцию from_json принимать не литеральную схему
  • [SPARK-41927] [SC-119952][connect][PYTHON] Добавьте список неподдерживаемых для GroupedData
  • [SPARK-41929] [SC-119949][connect][PYTHON] Добавить функцию array_compact
  • [SPARK-41827] [SC-119841][connect][PYTHON] Сделать GroupBy принять список столбцов
  • [SPARK-41925] [SC-119905][sql] Включить spark.sql.orc.enableNestedColumnVectorizedReader по умолчанию
  • [SPARK-41831] [SC-119853][connect][PYTHON] Сделать DataFrame.select принять список столбцов
  • [SPARK-41455] [SC-119858][connect][PYTHON] Сделайте DataFrame.collect отменить сведения о часовом поясе
  • [SPARK-41923] [SC-119861][connect][PYTHON] Добавить DataFrame.writeTo в неподдерживаемый список
  • [SPARK-41912] [SC-119837][sql] Subquery не должно проверять CTE
  • [SPARK-41828] [SC-119832][connect][PYTHON][12.x] Обеспечить createDataFrame поддержку пустого кадра данных
  • [SPARK-41905] [SC-119848][connect] Поддержка имени в виде строк в срезе
  • [SPARK-41869] [SC-119845][connect] Отклонить одну строку в dropDuplicates
  • [SPARK-41830] [SC-119840][connect][PYTHON] Сделать DataFrame.sample принимать те же параметры, что и PySpark
  • [SPARK-41849] [SC-119835][connect] Реализовать DataFrameReader.text
  • [SPARK-41861] [SC-119834][sql] Сделать так, чтобы build() в ScanBuilders v2 возвращал типизированный скан
  • [SPARK-41825] [SC-119710][connect][PYTHON] Включить тесты документации, связанные с DataFrame.show
  • [SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Обеспечить правильную обработку None/NaN в createDataFrame
  • [SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][python] Сделать DataFrame.collect обрабатывать none/NaN/Array/Binary porperly
  • [SPARK-39318] [SC-119713][sql] Удалить золотые файлы tpch-plan-stability WithStats
  • [SPARK-41791] [SC-119745] Добавление новых типов столбцов метаданных источника файла
  • [SPARK-41790] [SC-119729][sql] Правильно задать формат для чтения и записи «ПРЕОБРАЗОВАНИЯ»
  • [SPARK-41829] [SC-119725][connect][PYTHON] Добавьте отсутствующий параметр упорядочивания в Sort и sortWithinPartitions
  • [SPARK-41576] [SC-119718][sql] Присвойте имя _LEGACY_ERROR_TEMP_2051
  • [SPARK-41821] [SC-119716][connect][PYTHON] Исправление теста документации для DataFrame.describe
  • [SPARK-41871] [SC-119714][connect] Параметр подсказки dataFrame может быть str, float или int
  • [SPARK-41720] [SC-119076][sql] Переименование UnresolvedFunc в UnresolvedFunctionName
  • [SPARK-41573] [SC-119567][sql] Присвоить имя _LEGACY_ERROR_TEMP_2136
  • [SPARK-41862] [SC-119492][sql] Исправлена ошибка правильности, связанная со значениями DEFAULT в средстве чтения Orc
  • [SPARK-41582] [SC-119482][sc-118701][CORE][sql] Повторно использовать INVALID_TYPED_LITERAL вместо _LEGACY_ERROR_TEMP_0022

Обновления в рамках обслуживания

Ознакомьтесь с обновлениями обслуживания Databricks Runtime 12.2.

Системная среда

  • Операционная система: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.68.0.21-CA-linux64
  • Scala: 2.12.15
  • Python: 3.9.21
  • R: 4.2.2
  • Delta Lake: 2.2.0

Установленные библиотеки Python

Библиотека Версия Библиотека Версия Библиотека Версия
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 black 22.3.0 bleach 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
щелчок 8.0.4 криптография 3.4.8 cycler 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
decorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 entrypoints 0,4 executing 0.8.3
facets-overview 1.0.0 fastjsonschema 2.16.2 filelock 3.9.0
шрифтовые инструменты 4.25.0 idna 3,3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.1 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Маккейб 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
записная книжка 6.4.8 numpy 1.21.5 во внешнем виде 21,3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Pillow 9.0.1 pip 21.2.4
platformdirs 2.6.2 график 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
requests 2.27.1 requests-unixsocket 0.2.0 верёвка 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
мореборн 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
six 1.16.0 soupsieve 2.3.1 ssh-import-id 5,10
stack-data 0.2.0 statsmodels 0.13.2 tenacity 8.0.1
terminado 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
unattended-upgrades 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.4
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Установленные библиотеки R

Библиотеки R устанавливаются из моментального снимка Microsoft CRAN 2022-11-11. Моментальный снимок больше недоступен.

Библиотека Версия Библиотека Версия Библиотека Версия
Стрелка 10.0.0 askpass 1,1 assertthat 0.2.1
внутренние порты 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 большой двоичный объект 1.2.3
загрузка 1.3-28 заваривать 1,0–8 brio 1.1.3
метла 1.0.1 bslib 0.4.1 cachem 1.0.6
вызывающий объект 3.7.3 крышка 6.0-93 cellranger 1.1.0
chron 2.3-58 class 7.3-21 cli 3.4.1
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-19 colorspace 2.0-3 commonmark 1.8.1
компилятор 4.2.2 config 0.3.1 cpp11 0.4.3
карандаш 1.5.2 учетные данные 1.3.2 curl 4.3.3
data.table 1.14.4 наборы данных 4.2.2 DBI 1.1.3
dbplyr 2.2.1 desc 1.4.2 средства разработки 2.4.5
diffobj 0.3.5 digest 0.6.30 downlit 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
многоточие 0.3.2 evaluate 0,18 вентиляторы 1.0.3
Farver 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 иностранный 0.8-82
forge 0.2.0 fs 1.5.2 будущее 1.29.0
future.apply 1.10.0 gargle 1.2.1 Универсальные шаблоны 0.1.3
gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globals 0.16.1
клей 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Говер 1.0.0 графика 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 haven 2.5.1
высокий 0,9 hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Итераторы 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 трикотажный 1,40
маркирование 0.4.2 later 1.3.0 решётка 0.20-45
Lava 1.7.0 жизненный цикл 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1,3
МАССАЧУСЕТС 7.3-58.2 «Матрица» 1.5-1 memoise 2.0.1
оплаты 4.2.2 mgcv 1.8-41 мим 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
parallelly 1.32.1 столб 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 хвалить 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Ход выполнения 1.2.2
progressr 0.11.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-27 ps 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 Рецепты 1.0.3
реванш 1.0.1 rematch2 2.1.2 remotes 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.18 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 sass 0.4.2 весы 1.2.1
селектор 0.4-2 sessioninfo 1.2.2 форма 1.4.6
блестящий 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.2 пространственный 7.3-11 Сплайны 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.2.2
статистика4 4.2.2 stringi 1.7.8 stringr 1.4.1
выживание 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.1.1 TimeDate 4021.106
tinytex 0,42 средства 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
служебные программы 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 vroom 1.6.0 waldo 0.4.0
усы 0,4 withr 2.5.0 xfun 0,34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Установленные библиотеки Java и Scala (версия кластера Scala 2.12)

ИД группы Идентификатор артефакта Версия
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics потоковая передача 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1–0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natives 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger профилировщик 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.3
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx коллектор 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4,8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1,21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet parquet-encoding 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,20
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.1.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.28.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark неиспользованный 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1