Поделиться через


Databricks Runtime 12.1 (EoS)

Примечание.

Поддержка этой версии databricks Runtime закончилась. См. Историю завершения поддержки для получения информации о дате окончания поддержки. Для всех поддерживаемых версий Databricks Runtime см. заметки о версиях выпуска и совместимости Databricks Runtime .

Следующие замечания о выпуске содержат сведения о Databricks Runtime 12.1 на платформе Apache Spark 3.3.1.

Databricks выпустила эту версию в январе 2023 года.

Новые функции и внесенные улучшения

Функции таблицы Delta Lake, поддерживаемые для управления протоколами

Azure Databricks представила поддержку функций таблицы Delta Lake, которые содержат подробные флаги, указывающие, какие функции поддерживаются данной таблицей. См. статью Как Azure Databricks управляет совместимостью функций Delta Lake?.

Прогнозные операции ввода-вывода для обновлений доступны в общедоступной предварительной версии

Прогнозный ввод-вывод теперь ускоряет DELETE, MERGE, и UPDATE операции для таблиц Delta с векторами удаления, включенными для вычислений с поддержкой Photon. См. что такое прогнозный ввод-вывод?

Обозреватель каталогов теперь доступен всем пользователям

Обозреватель каталогов теперь доступен всем пользователям Azure Databricks при использовании Databricks Runtime 7.3 LTS и выше.

Поддержка нескольких операторов с отслеживанием состояния в одном потоковом запросе

Теперь пользователи могут связывать операторы с сохранением состояния в режиме добавления в потоковом запросе. Не все операторы полностью поддерживаются. Соединение интервала времени потоковой передачи и flatMapGroupsWithState не позволяет другим операторам с отслеживанием состояния выполнять цепочку.

Поддержка буферов протокола доступна в общедоступной предварительной версии

Вы можете использовать функции from_protobuf и to_protobuf для обмена данными между двоичными типами и типами структур. См. «Чтение и запись буферов протокола».

Поддержка аутентификации реестра схем Confluent

Интеграция Azure Databricks с Реестром схем Confluent теперь поддерживает адреса внешнего реестра схем с проверкой подлинности. Эта возможность доступна для функций from_avro, to_avro, from_protobuf и to_protobuf. См. статью Protobuf или Avro.

Поддержка совместного использования истории таблиц с помощью Delta Sharing

Теперь вы можете предоставить общий доступ к таблице с полным журналом с помощью Delta Sharing, что позволяет получателям выполнять временные запросы и обращаться к таблице, используя Spark Structured Streaming. WITH HISTORY рекомендуется вместо CHANGE DATA FEEDэтого, хотя последний продолжает поддерживаться. См. ALTER SHARE и Добавление таблиц в общий ресурс.

Поддержка потоковой передачи с использованием Delta Sharing для совместного использования данных

Структурированная потоковая передача Spark теперь работает с форматом deltasharing в таблице Delta Sharing, которая была передана с использованием WITH HISTORY.

Версия таблицы с использованием метки времени теперь поддерживается для таблиц Delta Sharing в каталогах

Теперь можно использовать синтаксис TIMESTAMP AS OF SQL в SELECT операторах, чтобы указать версию таблицы Delta Sharing, смонтированной в каталоге. Таблицы должны быть разделены с помощью WITH HISTORY.

Поддержка для случая, когда отсутствует совпадение по источнику для MERGE INTO

Теперь можно добавить WHEN NOT MATCHED BY SOURCE положения для MERGE INTO, чтобы обновить или удалить строки в выбранной таблице, которые не имеют совпадений в исходной таблице на основе условия слияния. Новое предложение доступно в SQL, Python, Scala и Java. См. MERGE INTO.

Оптимизированная коллекция статистики для CONVERT TO DELTA

Сбор статистики для CONVERT TO DELTA операции теперь гораздо быстрее. Это сокращает количество рабочих нагрузок, которые могли бы использовать NO STATISTICS, увеличивая тем самым эффективность.

Поддержка каталога Unity для восстановления таблиц

Эта функция изначально была выпущена в общедоступной предварительной версии. Это GA по состоянию на 25 октября 2023 года.

Теперь вы можете отменить удаление управляемой или внешней таблицы в существующей схеме в течение семи дней после удаления. См. UNDROP и SHOW TABLES DROPPED.

Обновления библиотек

  • Обновленные библиотеки Python:
    • блокировка файлов от 3.8.0 до 3.8.2
    • platformdirs от 2.5.4 до 2.6.0
    • setuptools от 58.0.4 до 61.2.0
  • Обновленные библиотеки R:
  • Обновленные библиотеки Java:
    • io.delta.delta-sharing-spark_2.12 от 0.5.2 до 0.6.2
    • org.apache.hive.hive-storage-api от 2.7.2 до 2.8.1
    • org.apache.parquet.parquet-column с 1.12.3-databricks-0001 до 1.12.3-databricks-0002
    • org.apache.parquet.common с 1.12.3-databricks-0001 до 1.12.3-databricks-0002
    • org.apache.parquet.parquet-кодировка с 1.12.3-databricks-0001 до 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures с 1.12.3-databricks-0001 до 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop обновляется с версии 1.12.3-databricks-0001 до 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson с 1.12.3-databricks-0001 до 1.12.3-databricks-0002
    • org.tukaani.xz от 1.8 до 1.9

Apache Spark

Databricks Runtime 12.1 включает Apache Spark 3.3.1. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 12.0 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Отменить "[SC-119411][sql] Централизовать логику разрешения столбцов" и "[SC-117170][spark-41338][SQL] Обрабатывать внешние ссылки и обычные столбцы в одном пакете анализатора".
  • [SPARK-41405] [SC-119411][sql] Централизация логики разрешения столбцов
  • [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand должен правильно задать флаг перезаписи
  • [SPARK-41659] [SC-119526][connect][12.X] Включите doctests в pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][sql] Исправление падения производительности средства чтения ORC из-за функции установки значения по умолчанию
  • [SPARK-41807] [SC-119399][core] Удалить несуществующий класс ошибок: UNSUPPORTED_FEATURE.DISTRIBUTE_BY
  • [SPARK-41578] [12.x][sc-119273][SQL] Присвоить имя _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][sql] Присвойте имя _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][connect] Определение имен из списка словарей в SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Перемещение документации и скрипта Spark Connect в dev/ и документацию по Python
  • [SPARK-41534] [SC-119456][connect][SQL][12.x] Настройка начального клиентского модуля для Spark Connect
  • [SPARK-41365] [SC-118498][ui][3.3] Страница пользовательского интерфейса этапов не загружается для прокси-сервера в определенной среде Yarn
  • [SPARK-41481] [SC-118150][core][SQL] Повторно использовать INVALID_TYPED_LITERAL вместо _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][sql] Пересмотр обработки выражений с отслеживанием состояния
  • [SPARK-41726] [SC-119248][sql] Удалить OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][sc-118348][SQL] Поддержка параметризованных запросов SQL по sql()
  • [SPARK-41066] [SC-119344][connect][PYTHON] Реализация DataFrame.sampleBy и DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][sc-119012][SQL][все тесты] Выделить операцию записи версии 1 в WriteFiles
  • [SPARK-41565] [SC-118868][sql] Добавьте класс ошибок UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][sql] ФУНКЦИЯ DECODE возвращает неправильные результаты при передаче NULL
  • [SPARK-41554] [SC-119274] исправление изменения десятичного масштаба при уменьшении масштаба на m...
  • [SPARK-41065] [SC-119324][connect][PYTHON] Реализация DataFrame.freqItems и DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] Возобновление тестов документации, а также добавление отсутствующего псевдонима столбца к count()
  • [SPARK-41069] [SC-119310][connect][PYTHON] Реализация DataFrame.approxQuantile и DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][connect][Питон] Сделать функцию from_json поддерживающей DataType Schema
  • [SPARK-41804] [SC-119382][sql] Выберите правильный размер элемента в InterpretedUnsafeProjection для массива определяемых пользователем объектов
  • [SPARK-41786] [SC-119308][connect][Python] Удаление дублирующих вспомогательных функций
  • [SPARK-41745] [SC-119378][spark-41789][12.X] Добавьте createDataFrame поддержку списка строк
  • [SPARK-41344] [SC-119217][sql] Сделайте ошибку более ясной, если таблица не найдена в каталоге SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][connect][PYTHON] Добавить отсутствующую функцию log(arg1, arg2)
  • [SPARK-41808] [SC-119356][connect][PYTHON] Создание параметров поддержки функций JSON
  • [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] Добавить __getitem__ поддержку фильтрации и выбора
  • [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] Реализовать поддержку None в операциях с колонками
  • [SPARK-41440] [SC-119279][connect][PYTHON] Избегайте оператора кэша для общего примера.
  • [SPARK-41785] [SC-119290][connect][PYTHON] Реализация GroupedData.mean
  • [SPARK-41629] [SC-119276][connect] Поддержка расширений протокола в реляциях и выражениях
  • [SPARK-41417] [SC-118000][core][SQL] Переименовать _LEGACY_ERROR_TEMP_0019 на INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][connect][12.X] Правильная обработка ошибок для сервера Spark Connect или клиента
  • [SPARK-41292] [SC-119357][connect][12.X] Поддержка окна в модуле pyspark.sql.window
  • [SPARK-41493] [SC-119339][connect][PYTHON] Создание параметров поддержки функций CSV
  • [SPARK-39591] [SC-118675][ss] Асинхронное отслеживание хода выполнения
  • [SPARK-41767] [SC-119337][connect][PYTHON][12.x] Реализация Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][connect][PYTHON] Реализовать DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][connect][12.X] Включить doctests в pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][connect] Смешение ClientId в кэше SparkSession
  • [SPARK-41354] [SC-119194][connect] Добавление RepartitionByExpression в прототип
  • [SPARK-41784] [SC-119289][connect][PYTHON] Добавление отсутствующих __rmod__ в столбце
  • [SPARK-41778] [SC-119262][sql] Добавьте псевдоним "reduce" в ArrayAggregate
  • [SPARK-41067] [SC-119171][connect][PYTHON] Реализовать DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][connect][PYTHON] Сделать внутреннее имя строки согласованным с FunctionRegistry
  • [SPARK-41734] [SC-119160][connect] Добавление родительского сообщения для каталога
  • [SPARK-41742] [SC-119263] Поддержка df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][connect][Python] Исправлены арифметические операции: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][sql] Переименуйте UNSUPPORTED_CORRELATED_REFERENCE на CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][connect][PYTHON] Исправление Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][connect][PYTHON][12.x] Реализация функции unwrap_udt
  • [SPARK-41333] [SC-119195][spark-41737] Реализация GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][connect][PYTHON] Исправление Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][sql] Поддержка неявного разрешения псевдонима латерального столбца в агрегации
  • [SPARK-41529] [SC-119207][connect][12.X] Реализовать SparkSession.stop
  • [SPARK-41729] [SC-119205][core][SQL][12.x] Переименование _LEGACY_ERROR_TEMP_0011 в UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][connect][12.X] Дедупликация печати и repr_html в LogicalPlan
  • [SPARK-41740] [SC-119169][connect][PYTHON] Реализовать Column.name
  • [SPARK-41733] [SC-119163][sql][SS] Применить обрезку на основе шаблона дерева для правила ResolveWindowTime
  • [SPARK-41732] [SC-119157][sql][SS] Применение сокращения на основе шаблона дерева для правила окон сеанса
  • [SPARK-41498] [SC-119018] Распространение метаданных через Union
  • [SPARK-41731] [SC-119166][connect][PYTHON][12.x] Реализация метода доступа к столбцам
  • [SPARK-41736] [SC-119161][connect][PYTHON] pyspark_types_to_proto_types должен поддерживать ArrayType
  • [SPARK-41473] [SC-119092][connect][PYTHON] Реализация функции format_number
  • [SPARK-41707] [SC-119141][connect][12.X] Реализация API каталога в Spark Connect
  • [SPARK-41710] [SC-119062][connect][PYTHON] Реализовать Column.between
  • [SPARK-41235] [SC-119088][sql][Python]Функция высокого порядка: реализация array_compact
  • [SPARK-41518] [SC-118453][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][connect][PYTHON] Реализация функции sequence
  • [SPARK-41703] [SC-119060][connect][PYTHON] Объединение NullType и typed_null в Literal
  • [SPARK-41722] [SC-119090][connect][PYTHON] Реализовать 3 отсутствующие функции окна времени
  • [SPARK-41503] [SC-119043][connect][PYTHON] Реализация функций преобразования разделов
  • [SPARK-41413] [SC-118968][sql] Избегайте перераспределения Storage-Partitioned при несоответствии ключей разделов, но совместимость выражений соединения обеспечена
  • [SPARK-41700] [SC-119046][connect][PYTHON] Удалить FunctionBuilder
  • [SPARK-41706] [SC-119094][connect][PYTHON] pyspark_types_to_proto_types должен поддерживать MapType
  • [SPARK-41702] [SC-119049][connect][PYTHON] Добавление недопустимых операций со столбцами
  • [SPARK-41660] [SC-118866][sql] Передавать только столбцы метаданных, если они используются
  • [SPARK-41637] [SC-119003][sql] ORDER BY ALL
  • [SPARK-41513] [SC-118945][sql] Реализуйте аккуматор для сбора метрик счетчика строк для сопоставления
  • [SPARK-41647] [SC-119064][connect][12.X] Дедупликация докстрок в pyspark.sql.connect.functions.
  • [SPARK-41701] [SC-119048][connect][PYTHON] Создание поддержки операций с колонками decimal
  • [SPARK-41383] [SC-119015][spark-41692][SPARK-41693] Реализация rollup, cube и pivot
  • [SPARK-41635] [SC-118944][sql] GROUP BY ALL
  • [SPARK-41645] [SC-119057][connect][12.X] Удаление дубликатов строк документации в pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][connect][PYTHON] Перемещение выражений в expressions.py
  • [SPARK-41687] [SC-118949][connect] Дедупликация докстрок в pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][connect] Удаление дубликатов docstring в pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][connect] Выделение GroupedData в group.py
  • [SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x] Реализация функций Window
  • [SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] Поддержка op column datetime
  • [SPARK-41672] [SC-118929][connect][PYTHON] Включить устаревшие функции
  • [SPARK-41673] [SC-118932][connect][PYTHON] Реализация Column.astype
  • [SPARK-41364] [SC-118865][connect][PYTHON] Реализация функции broadcast
  • [SPARK-41648] [SC-118914][connect][12.X] Дедупликация докстрингов в pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][connect][12.X] Удаление дубликатов докстрингов в pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][connect][12.X] Дедупликация докстрингов в pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][connect][PYTHON][12.x] Реализуйте остальные функции Lambda
  • [SPARK-41441] [SC-118557][sql] Поддержка генерации без обязательных дочерних выходных данных для сопровождения внешних ссылок
  • [SPARK-41669] [SC-118923][sql] Ранняя обрезка в canCollapseExpressions
  • [SPARK-41639] [SC-118927][sql][PROTOBUF]: Удалить ScalaReflectionLock из SchemaConverters
  • [SPARK-41464] [SC-118861][connect][PYTHON] Реализовать DataFrame.to
  • [SPARK-41434] [SC-118857][connect][PYTHON] Начальная реализация LambdaFunction
  • [SPARK-41539] [SC-118802][sql] Переназначить статистику и ограничения против результата в логическом плане для LogicalRDD
  • [SPARK-41396] [SC-118786][sql][PROTOBUF] Поддержка полей OneOf и проверки рекурсии
  • [SPARK-41528] [SC-118769][connect][12.X] Объединить пространства имен для Spark Connect и PySpark API
  • [SPARK-41568] [SC-118715][sql] Назначить имя для _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][connect][PYTHON] Реализовать DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] Добавление Spark Connect и protobuf в setup.py с указанием зависимостей
  • [SPARK-27561] [SC-101081][12.x][SQL] Поддержка неявного разрешения псевдонима бокового столбца в Project
  • [SPARK-41535] [SC-118645][sql] Правильно задать значение NULL для полей интервала календаря в InterpretedUnsafeProjection и InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][sql] Поддержка маскирования данных встроенной функции "маска"
  • [SPARK-41520] [SC-118440][sql] Разделение шаблона дерева AND_OR на отдельные шаблоны дерева AND и OR
  • [SPARK-41349] [SC-118668][connect][PYTHON] Реализация DataFrame.hint
  • [SPARK-41546] [SC-118541][connect][PYTHON] pyspark_types_to_proto_types должен поддерживать StructType.
  • [SPARK-41334] [SC-118549][connect][PYTHON] Переместить SortOrder proto из отношений в выражения
  • [SPARK-41387] [SC-118450][ss] Проверка текущего конечного смещения из источника данных Kafka для Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][core][SQL] Переименовать _LEGACY_ERROR_TEMP_1180 в UNEXPECTED_INPUT_TYPE и удалить _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][connect][PYTHON] Реализуйте Column.{when, otherwise} и функцию when с помощью UnresolvedFunction
  • [SPARK-41541] [SC-118460][sql] Исправление вызова неправильного дочернего метода в SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][connect][PYTHON] Реализовать DataFrame.subtract
  • [SPARK-41248] [SC-118436][sc-118303][SQL] Добавить "spark.sql.json.enablePartialResults", чтобы включить или отключить частичные результаты JSON
  • [SPARK-41437] Revert "[SC-117601][sql] Не оптимизируйте входной запрос дважды для резервной записи версии 1".
  • [SPARK-41472] [SC-118352][connect][PYTHON] Реализация остальных строковых и двоичных функций
  • [SPARK-41526] [SC-118355][connect][PYTHON] Реализовать Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Улучшение прогнозирования посредством метрик задач этапа.
  • [SPARK-41524] [SC-118399][ss] Дифференцировать SQLConf и extraOptions в StateStoreConf для использования в RocksDBConf
  • [SPARK-41465] [SC-118381][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][sql] Поддержка LongToUnsafeRowMap игнорирует DuplicatedKey
  • [SPARK-41409] [SC-118302][core][SQL] Переименовать _LEGACY_ERROR_TEMP_1043 на WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][connect][PYTHON] Реализовать DataFrame.colRegex
  • [SPARK-41437] [SC-117601][sql] Не оптимизируйте входной запрос дважды для резервной записи версии 1
  • [SPARK-41314] [SC-11717172][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][connect][PYTHON] Переработка LiteralExpression для поддержки типа данных
  • [SPARK-41448] [SC-118046] Создание согласованных идентификаторов заданий MR в FileBatchWriter и FileFormatWriter
  • [SPARK-41456] [SC-117970][sql] Повышение производительности try_cast
  • [SPARK-41495] [SC-118125][connect][PYTHON] Реализовать функции collection: P~Z
  • [SPARK-41478] [SC-118167][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][sql] Переделать сообщение об ошибке для NUM_COLUMNS_MISMATCH, чтобы сделать его более универсальным
  • [SPARK-41404] [SC-118016][sql] Рефакторинг ColumnVectorUtils#toBatch, чтобы сделать ColumnarBatchSuite#testRandomRows тест более примитивным типом данных
  • [SPARK-41468] [SC-118044][sql] Исправление обработки PlanExpression в EquivalentExpressions
  • [SPARK-40775] [SC-118045][sql] Исправлены дублирующие записи описаний для сканирования файлов V2
  • [SPARK-41492] [SC-118042][connect][PYTHON] Реализация функций MISC
  • [SPARK-41459] [SC-118005][sql] исправить пустые выходные данные журнала операций сервера thrift
  • [SPARK-41395] [SC-117899][sql] InterpretedMutableProjection следует использовать setDecimal для задания значений NULL для десятичных разрядов в небезопасной строке
  • [SPARK-41376] [SC-117840][core][3.3] Исправьте логику проверки Netty preferDirectBufs при запуске исполнителя.
  • [SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x] Реализация функций collection: E~M
  • [SPARK-41389] [SC-117426][core][SQL] Повторно использовать WRONG_NUM_ARGS вместо _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][sql] Тип даты и метки времени может повысить до TimestampNTZ
  • [SPARK-41435] [SC-117810][sql] Измените вызов invalidFunctionArgumentsError для curdate(), если expressions не пуст
  • [SPARK-41187] [SC-118030][core] утечка памяти LiveExecutor в AppStatusListener в случае потери исполнителя
  • [SPARK-41360] [SC-118083][core] Избегайте повторной регистрации BlockManager, если исполнитель был потерян
  • [SPARK-41378] [SC-117686][sql] Поддержка статистики по столбцам в DS v2
  • [SPARK-41402] [SC-117910][sql][CONNECT][12.x] Переопределение prettyName StringDecode
  • [SPARK-41414] [SC-118041][connect][PYTHON][12.x] Реализация функций метки даты и времени
  • [SPARK-41329] [SC-117975][connect] Устранить проблему с циклическими импортами в Spark Connect
  • [SPARK-41477] [SC-118025][connect][PYTHON] Правильно определить тип данных литеральных целых чисел
  • [SPARK-41446] [SC-118024][connect][PYTHON][12.x] Обеспечить поддержку схем и большего количества типов входных наборов данных в createDataFrame
  • [SPARK-41475] [SC-117997][connect] Исправлена ошибка команды lint-scala и опечатка
  • [SPARK-38277] [SC-117799][ss] Очистить записывающий пакет после фиксации хранилища состояний RocksDB
  • [SPARK-41375] [SC-117801][ss] Избегайте пустых последних версий KafkaSourceOffset
  • [SPARK-41412] [SC-118015][connect] Реализация Column.cast
  • [SPARK-41439] [SC-117893][connect][PYTHON] Реализация DataFrame.melt и DataFrame.unpivot
  • [SPARK-41399] [SC-118007][sc-117474][CONNECT] Рефакторинг тестов, связанных с колонками, для test_connect_column
  • [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] Столбец должен поддерживать оператор !=
  • [SPARK-40697] [SC-117806][sc-112787][SQL] Добавление заполнения символов на стороне чтения для учета внешних файлов данных
  • [SPARK-41349] [SC-117594][connect][12.X] Реализовать DataFrame.hint
  • [SPARK-41338] [SC-11717170][sql] Разрешать внешние ссылки и обычные столбцы в одном пакете анализатора
  • [SPARK-41436] [SC-117805][connect][PYTHON] Имплементация функций collection: A~C
  • [SPARK-41445] [SC-117802][connect] Реализовать DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][sql] to_char должен возвращать значение NULL, если формат имеет значение NULL
  • [SPARK-41444] [SC-117796][connect] Поддержка read.json()
  • [SPARK-41398] [SC-117508][sql] Ослабление ограничений на Storage-Partitioned JOIN, если ключи секций после фильтрации во время выполнения не соответствуют
  • [SPARK-41228] [SC-117169][sql] Переименовать & Улучшить сообщение об ошибке для COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][connect][PYTHON] Реализация функций count_distinct и sum_distinct
  • [SPARK-41433] [SC-117596][connect] Сделать максимальный размер Arrow-пакета настраиваемым
  • [SPARK-41397] [SC-117590][connect][PYTHON] Реализация части строковых и двоичных функций
  • [SPARK-41382] [SC-117588][connect][PYTHON] Реализация функции product
  • [SPARK-41403] [SC-117595][connect][PYTHON] Реализовать DataFrame.describe
  • [SPARK-41366] [SC-117580][connect] DF.groupby.agg() должен быть совместим
  • [SPARK-41369] [SC-117584][connect] Добавление connect common в пересобранный JAR серверов.
  • [SPARK-41411] [SC-117562][ss] Исправлена ошибка поддержки водяного знака для многостадийного оператора состояния
  • [SPARK-41176] [SC-116630][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][connect][PYTHON][12.x] Реализация агрегатных функций
  • [SPARK-41363] [SC-117470][connect][PYTHON][12.x] Реализуйте обычные функции
  • [SPARK-41305] [SC-117411][connect] Улучшение документации для команды proto
  • [SPARK-41372] [SC-117427][connect][PYTHON] Реализовать DataFrame TempView
  • [SPARK-41379] [SC-117420][ss][PYTHON] Предоставление клонированного сеанса Spark в DataFrame в пользовательской функции для приемника foreachBatch в PySpark
  • [SPARK-41373] [SC-117405][sql][ERROR] Переименуйте CAST_WITH_FUN_SUGGESTION на CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][sql] Метод рефакторинга ColumnVectorUtils#populate для использования PhysicalDataType вместо DataType
  • [SPARK-41355] [SC-117423][sql] Решение проблемы проверки имени таблицы hive
  • [SPARK-41390] [SC-117429][sql] Обновите скрипт, используемый для создания функции register в UDFRegistration
  • [SPARK-41206] [SC-1172333][sc-116381][SQL] Переименуйте класс ошибок _LEGACY_ERROR_TEMP_1233 на COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][connect][PYTHON][12.x] Реализация математических функций
  • [SPARK-40970] [SC-117308][connect][Питон] Поддержка List[Column] для аргумента Join's on
  • [SPARK-41345] [SC-117178][connect] Добавить подсказку в Connect Proto
  • [SPARK-41226] [SC-117194][sql][12.x] Рефакторинг типов Spark с внедрением физических типов
  • [SPARK-41317] [SC-116902][connect][PYTHON][12.x] Добавление базовой поддержки DataFrameWriter
  • [SPARK-41347] [SC-117173][connect] Add Cast to Expression proto
  • [SPARK-41323] [SC-117128][sql] Поддержка current_schema
  • [SPARK-41339] [SC-117171][sql] Закрыть и заново создать пакет записи RocksDB вместо простой очистки
  • [SPARK-41227] [SC-117165][connect][PYTHON] Реализация перекрёстного соединения DataFrame
  • [SPARK-41346] [SC-117176][connect][PYTHON] Реализация функций asc и desc
  • [SPARK-41343] [SC-117166][connect] Перенос синтаксического анализа FunctionName на стороне сервера
  • [SPARK-41321] [SC-117163][connect] Поддержка целевого поля для UnresolvedStar
  • [SPARK-41237] [SC-117167][sql] Повторно использовать класс ошибок UNSUPPORTED_DATATYPE для _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][sql] Повторно использовать INVALID_SCHEMA.NON_STRING_LITERAL вместо _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] Оптимизация использования конструктора StructType
  • [SPARK-41335] [SC-117135][connect][PYTHON] Поддержка IsNull и IsNotNull для столбца
  • [SPARK-41332] [SC-117131][connect][Python] Исправление nullOrdering в SortOrder
  • [SPARK-41325] [SC-117132][connect][12.X] Исправление отсутствия функции avg() для GroupBy в DF
  • [SPARK-41327] [SC-117137][core] Исправление SparkStatusTracker.getExecutorInfos за счет переключения информации о памяти хранения на памяти/вне памяти
  • [SPARK-41315] [SC-117129][connect][PYTHON] Реализовать DataFrame.replace и DataFrame.na.replace
  • [SPARK-41328] [SC-117125][connect][PYTHON] Добавление логического и строкового API в столбец
  • [SPARK-41331] [SC-117127][connect][PYTHON] Добавление orderBy и drop_duplicates
  • [SPARK-40987] [SC-117124][core] BlockManager#removeBlockInternal должен гарантировать, что блокировка разблокирована корректно
  • [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] Изменение структуры "Столбец" для совместимости с API
  • [SPARK-41312] [SC-116881][connect][PYTHON][12.x] Реализация DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][sql] Добавьте класс ошибок INVALID_FORMAT
  • [SPARK-41272] [SC-116742][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][sql] Повторно использовать INVALID_SCHEMA вместо _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][python][SS][12.x] Приведение экземпляров NumPy к примитивным типам Python в обновлении GroupState
  • [SPARK-41174] [SC-116609][core][SQL] Передача пользователям класса ошибок для недопустимого formatto_binary()
  • [SPARK-41264] [SC-116971][connect][PYTHON] Расширить поддержку литералов для большего числа типов данных
  • [SPARK-41326] [SC-116972] [CONNECT] Исправление отсутствия входных данных в процессе дедупликации
  • [SPARK-41316] [SC-116900][sql] Включить хвостовую рекурсию по возможности
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Поддержка строковых выражений в фильтре.
  • [SPARK-41256] [SC-116932][sc-116883][CONNECT] Реализовать DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][sql] Перенести ошибки опций карты в классы ошибок
  • [SPARK-40940] [SC-115993][12.x] Удалите средства проверки операторов с несколькими состояниями для потоковых запросов.
  • [SPARK-41310] [SC-116885][connect][PYTHON] Реализовать DataFrame.toDF
  • [SPARK-41179] [SC-116631][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][sql] BHJ LeftAnti не обновляет numOutputRows при отключении кодогенерации
  • [SPARK-41148] [SC-116878][connect][PYTHON] Реализация DataFrame.dropna и DataFrame.na.drop
  • [SPARK-41217] [SC-116380][sql] Добавьте класс ошибок FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][connect][PYTHON] Улучшить DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Унификация поведения для SparkSession.range()
  • [SPARK-41306] [SC-116860][connect] Улучшена документация по выражению подключения
  • [SPARK-41280] [SC-116733][connect] Реализовать функцию tail для DataFrame
  • [SPARK-41300] [SC-116751] [CONNECT] Незаданная схема интерпретируется как схема
  • [SPARK-41255] [SC-116730][sc-116695] [CONNECT] Переименовать RemoteSparkSession
  • [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame. toPandas не должен возвращать необязательный кадр данных pandas
  • [SPARK-41291] [SC-116738][connect][PYTHON] DataFrame.explain должен выводить на экран и возвращать None
  • [SPARK-41278] [SC-116732][connect] Очистка неиспользуемого квалифицированного атрибута в Expression.proto
  • [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Удалите базу преобразования избыточной коллекции в коде Scala 2.13
  • [SPARK-41261] [SC-116718][python][SS] Исправление проблемы для applyInPandasWithState, если столбцы группирования ключей не помещаются в порядок с самого раннего времени.
  • [SPARK-40872] [SC-116717][3.3] Возврат к исходному блоку перетасовки, когда объединенный блок перетасовки push равен нулю по размеру
  • [SPARK-41114] [SC-116628][connect] Поддержка локальных данных для LocalRelation
  • [SPARK-41216] [SC-116678][connect][PYTHON] Реализовать DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][connect][PYTHON] Поддержка более встроенных типов данных
  • [SPARK-41230] [SC-116674][connect][PYTHON] Удалить str из типа выражения агрегации
  • [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] Оптимизированная реализация сбора на основе Arrow для потоковой передачи с сервера на клиент
  • [SPARK-41222] [SC-116625][connect][PYTHON] Unify the typeing definitions
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Отключите неподдерживаемые функции.
  • [SPARK-41201] [SC-116526][connect][PYTHON] Реализация DataFrame.SelectExpr в клиенте Python
  • [SPARK-41203] [SC-116258] [CONNECT] Поддержка Dataframe.tansform в клиенте Python.
  • [SPARK-41213] [SC-116375][connect][PYTHON] Реализация DataFrame.__repr__ и DataFrame.dtypes
  • [SPARK-41169] [SC-116378][connect][PYTHON] Реализация DataFrame.drop
  • [SPARK-41172] [SC-116245][sql] Перенос неоднозначной ошибки ссылок в класс ошибок
  • [SPARK-41122] [SC-116141][connect] API Explain может поддерживать различные режимы
  • [SPARK-41209] [SC-116584][sc-116376][PYTHON] Улучшение вывода типов PySpark в методе _merge_type
  • [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Унифицировать версию protobuf на сервере Spark Connect для использования той же основной версии.
  • [SPARK-35531] [SC-116409][sql] Обновление статистики таблицы hive без необходимости преобразования
  • [SPARK-41154] [SC-116289][sql] Неправильное кэширование связей для запросов с спецификацией перемещения по времени
  • [SPARK-41212] [SC-116554][sc-116389][CONNECT][python] Реализация DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][sql] Переименуйте UNSUPPORTED_EMPTY_LOCATION на INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][sql] Расширить API для нормализации планов кэширования
  • [SPARK-41054] [SC-116447][ui][CORE] Поддержка RocksDB в качестве KVStore в динамическом пользовательском интерфейсе
  • [SPARK-38550] [SC-115223]Revert "[SQL][core] Использование дискового хранилища для сохранения дополнительных данных отладки для динамического пользовательского интерфейса".
  • [SPARK-41173] [SC-116185][sql] Переместить require() из конструкторов строковых выражений
  • [SPARK-41188] [SC-116242][core][ML] Установите executorEnv OMP_NUM_THREADS равным spark.task.cpus по умолчанию для процессов JVM выполняющего spark.
  • [SPARK-41130] [SC-116155][sql] Переименуйте OUT_OF_DECIMAL_TYPE_RANGE на NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][sql] Уменьшение преобразования коллекций при создании AttributeMap
  • [SPARK-41139] [SC-115983][sql] Улучшение класса ошибок: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][protobuf] Требовать шадинг для jar-файлов Java-классов, улучшить обработку ошибок
  • [SPARK-409999] [SC-116168] Распространение подсказок в вложенные запросы
  • [SPARK-41017] [SC-116054][sql] Поддержка очистки столбцов с несколькими недетерминированными фильтрами
  • [SPARK-40834] [SC-114773][sql] Использование SparkListenerSQLExecutionEnd для отслеживания окончательного состояния SQL в пользовательском интерфейсе
  • [SPARK-41118] [SC-116027][sql] to_number/try_to_number должен возвращать null, если формат null
  • [SPARK-39799] [SC-115984][sql] DataSourceV2: просмотр интерфейса каталога
  • [SPARK-40665] [SC-116210][sc-112300][CONNECT] Избегайте внедрения Spark Connect в двоичном выпуске Apache Spark
  • [SPARK-41048] [SC-116043][sql] Улучшение секционирования выходных данных и упорядочивания с помощью кэша AQE
  • [SPARK-41198] [SC-116256][ss] Исправление метрик в потоковом запросе с источником потоковой передачи CTE и DSv1
  • [SPARK-41199] [SC-116244][ss] Исправлена проблема с метриками при совместном использовании источника потоковой передачи DSv1 и источника потоковой передачи DSv2
  • [SPARK-40957] [SC-116261][sc-114706] Добавление кэша в оперативной памяти в HDFSMetadataLog
  • [SPARK-40940] Отменить «[SC-115993] Удаление средств проверки операторов с несколькими состояниями для потоковых запросов».
  • [SPARK-41090] [SC-116040][sql] Выбросить исключение для db_name.view_name при создании временного представления с использованием API набора данных
  • [SPARK-41133] [SC-116085][sql] Интеграция UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION в NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][sc-111442][CONNECT] Дамп кода: 9 фиксаций
  • [SPARK-40448] [SC-114447][sc-111314][CONNECT] Компиляция Spark Connect как драйверного плагина с теневыми зависимостями
  • [SPARK-41096] [SC-115812][sql] Поддержка чтения типа parquet FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][sql] Переименуйте класс ошибок _LEGACY_ERROR_TEMP_2440 на INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][sql] Несоответствие между FileSourceScanExec и Orc и ParquetFileFormat при создании столбчатого вывода
  • [SPARK-41155] [SC-115991][sql] Добавление сообщения об ошибке в SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Удалите средства проверки операторов с несколькими состояниями для потоковых запросов.
  • [SPARK-41098] [SC-115790][sql] Переименуйте GROUP_BY_POS_REFERS_AGG_EXPR на GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][sql] Миграция ошибок проверки типа при форматировании чисел в классы ошибок
  • [SPARK-41059] [SC-115658][sql] Переименуйте _LEGACY_ERROR_TEMP_2420 на NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][sql] Преобразовать DATATYPE_MISMATCH.UNSPECIFIED_FRAME в INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][sql] Переименуйте _LEGACY_ERROR_TEMP_0055 на UNCLOSED_BRACKETED_COMMENT

Обновления в рамках обслуживания

Ознакомьтесь с обновлениями обслуживания Databricks Runtime 12.1.

Системная среда

  • Операционная система: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14.
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Установленные библиотеки Python

Библиотека Версия Библиотека Версия Библиотека Версия
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
атрибуты 21.4.0 обратный вызов 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 чёрный 22.3.0 отбеливатель 4.1.0
boto3 1.21.32 botocore 1.24.32 сертификат 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
щелчок 8.0.4 криптография 3.4.8 cycler 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
декоратор 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 точки входа 0,4 выполнение 0.8.3
facets-overview 1.0.0 fastjsonschema 2.16.2 блокировка файла 3.8.2
шрифтовые инструменты 4.25.0 idna 3,3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
джедай 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 Джупитер-клиент 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 Маккейб 0.7.0 разладка 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
записная книжка 6.4.8 numpy 1.21.5 упаковка 21,3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
спецификация пути 0.9.0 козел отпущения 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Подушка 9.0.1 pip 21.2.4
platformdirs 2.6.0 график 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
запросы 2.27.1 requests-unixsocket 0.2.0 верёвка 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
мореборн 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
шесть 1.16.0 soupsieve 2.3.1 ssh-import-id 5,10
stack-data 0.2.0 statsmodels 0.13.2 упорство 8.0.1
завершено 0.13.1 тестовый путь 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
Неавтоматизированные обновления 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 вебкодировки 0.5.1 whatthepatch 1.0.3
колесо 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Установленные библиотеки R

Библиотеки R устанавливаются из среза Microsoft CRAN от 11-11-2022.

Библиотека Версия Библиотека Версия Библиотека Версия
Стрелка 10.0.0 askpass 1,1 assertthat 0.2.1
внутренние порты 1.4.1 основа 4.2.2 base64enc 0.1-3
бит 4.0.4 bit64 4.0.5 BLOB 1.2.3
ботинок 1.3-28 варить 1,0–8 brio 1.1.3
метла 1.0.1 bslib 0.4.1 кашемир 1.0.6
вызывающий объект 3.7.3 карет 6.0-93 cellranger 1.1.0
Хрон 2.3-58 класс 7.3-20 cli 3.4.1
clipr 0.8.0 часы 0.6.1 кластер 2.1.4
codetools 0.2-18 цветовое пространство 2.0-3 commonmark 1.8.1
компилятор 4.2.2 конфигурация 0.3.1 cpp11 0.4.3
карандаш 1.5.2 учетные данные 1.3.2 завиток 4.3.3
data.table 1.14.4 наборы данных 4.2.2 DBI 1.1.3
dbplyr 2.2.1 описание 1.4.2 средства разработки 2.4.5
diffobj 0.3.5 дайджест 0.6.30 освещённый сверху 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
многоточие 0.3.2 оценить 0,18 фанаты 1.0.3
Farver 2.1.1 Быстрая карта 1.1.0 fontawesome 0.4.0
форкаты 0.5.2 foreach 1.5.2 иностранный 0.8-82
кузница 0.2.0 fs 1.5.2 будущее 1.29.0
future.apply 1.10.0 полоскание 1.2.1 Обобщения 0.1.3
gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 глобальные переменные 0.16.1
клей 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Говер 1.0.0 графика 4.2.2 grDevices 4.2.2
сетка 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 каска 1.2.0 убежище 2.5.1
выше 0,9 hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
идентификаторы 1.0.1 ini 0.3.1 ипред 0.9-13
isoband 0.2.6 Итераторы 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
маркирование 0.4.2 позже 1.3.0 решётка 0.20-45
лава 1.7.0 жизненный цикл 1.0.3 Прослушивание 0.8.0
lubridate 1.9.0 magrittr 2.0.3 Markdown 1,3
МАССА 7.3-58 «Матрица» 1.5-1 memoise 2.0.1
методы 4.2.2 mgcv 1.8-41 мим 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 модельер 0.1.9
munsell 0.5.0 nlme 3.1-160 ннейронная сеть 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 параллельный 4.2.2
параллельно 1.32.1 столб 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 хвалить 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Ход выполнения 1.2.2
progressr 0.11.0 обещания 1.2.0.1 прототип 1.0.0
прокси 0.4-27 п.с. 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 Рецепты 1.0.3
реванш 1.0.1 rematch2 2.1.2 пульты 2.4.2
воспроизводимый пример 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 дерзость 0.4.2 весы 1.2.1
селектор 0.4-2 информация о сессии 1.2.2 форма 1.4.6
блестящий 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 пространственный 7.3-11 Сплайны 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 статистика 4.2.2
статистика4 4.2.2 стринги 1.7.8 stringr 1.4.1
выживание 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 формирование текста 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 изменение времени 0.1.1 ВремяДата 4021.106
tinytex 0,42 инструменты 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 используйэто 2.1.6 utf8 1.2.2
утилиты 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 врум 1.6.0 waldo 0.4.0
усы 0,4 withr 2.5.0 xfun 0,34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Установленные библиотеки Java и Scala (версия кластера Scala 2.12)

Идентификатор группы Идентификатор артефакта Версия
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-библиотеки 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics поток 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1–0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml одноклассник 1.3.4
com.fasterxml.jackson.core аннотации Джексона 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1,1
com.github.fommil.netlib основа 1.1.2
com.github.fommil.netlib нативная_ссылка-java 1,1
com.github.fommil.netlib native_ref-java-natives 1,1
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java-natives 1,1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1,1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1,1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava гуава 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger профайлер 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.ВЫПУСК
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1,1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe конфигурация 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
общие коллекции commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
загрузка файлов общими ресурсами commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib блас 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift воздушный компрессор 0.21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics основные метрики 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics метрики-проверки здоровья 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics метрики JVM 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty Netty-резолвер 4.1.74.Final
io.netty Нетти-tcnative-классы 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx коллекционер 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation активация 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
джлайн jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine маринованный огурец 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (SDK для обработки данных Snowflake) 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j арпак_совмещенный_все 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4,8
org.antlr шаблон строки 3.2.1
org.apache.ant муравей 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow стрелочный формат 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow векторная стрелка 7.0.0
org.apache.avro авро 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons коммонс-компресс 1,21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator куратор-клиент 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator рецепты куратора 2.13.0
org.apache.derby дерби 10.14.2.0
org.apache.hadoop hadoop-client-api (клиентский API hadoop) 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime (клиентская среда исполнения hadoop) 3.3.4
org.apache.hive hive-beeline (инструмент для взаимодействия с Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy плющ 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc орк-шимс 1.7.6
org.apache.parquet колонка в формате parquet 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet кодирование паркетных данных 1.12.3-databricks-0002
org.apache.parquet структуры формата Parquet 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,20
org.apache.yetus аннотации для аудитории 0.13.0
org.apache.zookeeper смотритель зоопарка 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation (продолжение Jetty) 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-прокси 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket вебсокет-сервер 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core джерси-коммон 2.36
org.glassfish.jersey.core Jersey-сервер 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator (валидатор для Hibernate) 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains аннотации 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap прокладки 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt тестовый интерфейс 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark неиспользованный 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
Программное обеспечение Amazon Ion ion-java 1.0.2
stax stax-api 1.0.1