Поделиться через


Databricks Runtime 14.3 LTS

В следующих заметках о выпуске содержатся сведения о Databricks Runtime 14.3 LTS, на базе Apache Spark 3.5.0.

Databricks выпустила эту версию в феврале 2024 года.

Примечание.

LTS означает, что эта версия находится в долгосрочной поддержке. См. жизненный цикл версии Databricks Runtime LTS.

Совет

Чтобы просмотреть примечания к выпуску версий Databricks Runtime, поддержка которых завершена (EoS), см. Заметки о выпуске Databricks Runtime с завершенной поддержкой. Версии среды выполнения EoS Databricks устарели и могут не обновляться.

Новые функции и внесенные улучшения

Поддержка файловой системы рабочей области в PySpark User-Defined Functions (UDFs) в кластерах стандартного режима доступа (ранее режим общего доступа)

Пользовательские функции PySpark в стандартных кластерах теперь могут импортировать модули Python из папок Git, файлов рабочих областейили томов UC.

Дополнительные сведения о работе с модулями в папках Git или файлах рабочей области см. в статье "Работа с модулями Python и R".

Поддержка оптимизации удаления векторов MERGE без Фотона

Фотон больше не требуется для MERGE операций для использования оптимизаций векторов удаления. См. раздел " Что такое векторы удаления?".

Api каталога Spark теперь полностью поддерживаются в стандартном режиме доступа

Теперь можно использовать все функции в API spark.catalog в Python и Scala для вычислений, настроенных в стандартном режиме доступа.

Delta UniForm теперь общедоступен

UniForm теперь общедоступен и использует функцию таблицы IcebergCompatV2. Теперь вы можете включить или обновить UniForm в существующих таблицах. См. как считывать таблицы Delta с помощью клиентов Iceberg.

Новая функция SQL EXECUTE IMMEDIATE

Теперь можно использовать синтаксис EXECUTE IMMEDIATE для поддержки параметризованных запросов в SQL. См. EXECUTE IMMEDIATE.

Пересчитать статистику пропуска данных для таблиц Delta

Теперь можно пересчитать статистику, сохраняемую в журнале Delta, после того как изменены столбцы, используемые для пропуска данных. См. Укажите столбцы статистики Delta.

Запрос сведений о состоянии для запросов потоковой передачи с отслеживанием состояния

Теперь можно запрашивать структурированные данные о состоянии потоковой передачи и метаданные. См. Сведения о состоянии структурированной потоковой передачи.

Использование идентификатора Microsoft Entra для проверки подлинности Kafka в стандартных кластерах

Теперь вы можете пройти проверку подлинности служб Event Hubs через OAuth с использованием Microsoft Entra ID на вычислительных системах, настроенных в стандартном режиме доступа. См. аутентификацию принципала службы с помощью идентификатора Microsoft Entra и Azure Event Hubs.

Поддержка, добавленная для очистки файлов и секций для повышения производительности запросов

Чтобы ускорить некоторые запросы, основанные на допустимом значении null в JOIN условиях, теперь мы поддерживаем DynamicFilePruning и DynamicPartitionPruning для оператора EqualNullSafe в JOIN.

Объявление временных переменных в сеансе SQL

В этом выпуске представлена возможность объявлять временные переменные в сеансе, который можно задать, а затем ссылаться на них в запросах. Смотрите переменные.

Обновления Thriftserver для удаления неиспользуемых функций

Код Thriftserver был обновлен, чтобы удалить код для устаревших функций. Из-за этих изменений следующие конфигурации больше не поддерживаются:

  • Вспомогательные JAR Hive, настроенные с помощью свойства hive.aux.jars.path, больше не поддерживаются для подключений hive-thriftserver.
  • Глобальный файл инициализации Hive (.hiverc), расположение которого настроено с помощью свойства hive.server2.global.init.file.location или переменной среды HIVE_CONF_DIR, больше не поддерживается для hive-thriftserver подключений.

Использование файлов truststore и файлов хранилища ключей в томах Unity Catalog

Теперь вы можете использовать файлы truststore и keystore в томах каталога Unity для аутентификации в реестре схем Confluent для данных Avro или Protocol Buffer. См. документацию по avro или протокольным буферам.

Поддержка встроенного формата XML-файла (общедоступная предварительная версия)

Поддержка формата собственного XML-файла теперь доступна в общедоступной предварительной версии. Поддержка формата XML-файла позволяет получать, запрашивать и анализировать XML-данные для пакетной обработки или потоковой передачи. Он может автоматически выводить и развивать схемы и типы данных, поддерживать выражения SQL, такие как from_xml, и создавать XML-документы. Он не требует внешних JAR-файлов и работает беспроблемно с автозагрузчиком, read_files, COPY INTOи DLT. См. статью "Чтение и запись XML-файлов".

Поддержка хранилища Cloudflare R2 (общедоступная предварительная версия)

Теперь вы можете использовать Cloudflare R2 в качестве облачного хранилища для данных, зарегистрированных в каталоге Unity. Cloudflare R2 в первую очередь предназначен для сценариев использования Delta Sharing, когда необходимо избежать сборов за исходящий трафик данных, которые облачные провайдеры взимают при перемещении данных между регионами. Хранилище R2 поддерживает все данные Databricks и ресурсы ИИ, поддерживаемые в AWS S3, Azure Data Lake Storage 2-го поколения и Google Cloud Storage. См. статью "Использование реплик Cloudflare R2" или миграции хранилища в R2 и создание учетных данных хранения для подключения к Cloudflare R2.

Доступ к файлам рабочей области с помощью Spark и dbutils поддерживается в кластерах Unity Catalog с уровня доступа "Стандартный"

Доступ на чтение и запись Spark и dbutils к файлам рабочей области теперь поддерживается в кластерах Unity Catalog в стандартном режиме доступа . См. статью " Работа с файлами рабочей области".

Поддержка сценариев и библиотек инициализации в кластерах Unity Catalog со стандартным доступом

Установка скриптов и python и JAR- библиотек в кластерах каталога Unity в стандартномрежиме доступа, включая установку с помощью политик кластеров , теперь общедоступна. Databricks рекомендует устанавливать скрипты и библиотеки инициализации из томов каталога Unity .

Обновления библиотек

  • Обновленные библиотеки Python:
    • fastjsonschema от 2.19.0 до 2.19.1
    • блокировка файлов от 3.12.4 до 3.13.1
    • googleapis-common-protos с 1.61.0 до 1.62.0
    • упаковка размером от 22,0 до 23,2
  • Обновленные библиотеки R:
    • внешний от 0,8-82 до 0,8-85
    • nlme от 3.1-162 до 3.1-163
    • rpart от 4.1.19 до 4.1.21
  • Обновленные библиотеки Java:
    • com.databricks.databricks-sdk-java от 0.7.0 до 0.13.0
    • org.apache.orc.orc-core от 1.9.1-shaded-protobuf до 1.9.2-shaded-protobuf
    • org.apache.orc.orc-mapreduce от 1.9.1-shaded-protobuf до 1.9.2-shaded-protobuf
    • org.apache.orc.orc-shims от 1.9.1 до 1.9.2
    • org.scala-lang.modules.scala-collection-compat_2.12 от 2.9.0 до 2.11.0

Apache Spark

Databricks Runtime 14.3 включает Apache Spark 3.5.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 14.2 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:

  • [SPARK-46541] [SC-153546][sql][CONNECT] Исправлена неоднозначная ссылка на столбец при самостоятельном соединении
  • [SPARK-45433] Revert "[SC-145163][sql] Определение схемы CSV/JSON...
  • [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Сделать addArtifact повторяемым
  • [SPARK-46660] [SC-153391][connect] ReattachExecute запрашивает обновление живучести SessionHolder
  • [SPARK-46670] [SC-153273][python][SQL] Сделать DataSourceManager способным к самоклонированию через разделение статических и выполняемых во время работы источников данных Python
  • [SPARK-46720] [SC-153410][sql][Python] Рефакторинг источника данных Python для соответствия другим встроенным источникам данных DSv2
  • [SPARK-46684] [SC-153275][python][CONNECT] Исправление CoGroup.applyInPandas/Arrow для правильного передачи аргументов
  • [SPARK-46667] [SC-153271][sc-153263][SQL] XML: выдавать ошибку при использовании нескольких источников данных XML
  • [SPARK-46382] [SC-151881][sql]XML: по умолчанию игнорироватьSurroundingSpaces значение true
  • [SPARK-46382] [SC-153178][sql]: обновить документацию по ignoreSurroundingSpaces
  • [SPARK-45292] Отменить "[SC-151609][sql][HIVE] Удалить Guava из общих классов из IsolatedClientLoader"
  • [SPARK-45292] [SC-151609][sql][HIVE] Удалить Guava из общих классов из IsolatedClientLoader
  • [SPARK-46311] [SC-150137][core] Зафиксировать конечное состояние драйверов во время Master.removeDriver
  • [SPARK-46413] [SC-151052][python] Проверка возвращаемого типа Python UDF с использованием Apache Arrow
  • [SPARK-46633] [WARMFIX][sc-153092][SQL] Исправление средства чтения Avro для обработки блоков нулевой длины
  • [SPARK-46537] [SC-151286][sql] Преобразование NPE и утверждений из команд во внутренние ошибки
  • [SPARK-46179] [SC-151678][sql] Добавить CrossDbmsQueryTestSuites, который запускает другие СУБД против эталонных файлов с другими СУБД, начиная с Postgres.
  • [SPARK-44001] [SC-151413][protobuf] Добавить опцию для разрешения распаковки известных типов-оберток protobuf.
  • [SPARK-40876] [SC-151786][sql] Расширение типов для десятичных чисел с большим масштабом в средствах чтения Parquet
  • [SPARK-46605] [SC-151769][connect] Сделать так, чтобы функция lit/typedLit в модуле подключения поддерживала s.c.immutable.ArraySeq
  • [SPARK-46634] [SC-153005][sql] проверка литералов не должна углубляться в поля NULL
  • [SPARK-37039] [SC-153094][ps] Исправление Series.astype для правильной работы с отсутствующим значением
  • [SPARK-46312] [SC-150163][core] Использовать lower_camel_case в store_types.proto
  • [SPARK-46630] [SC-153084][sql]: проверка имени XML-элемента при записи
  • [SPARK-46627] [SC-152981][пользовательский интерфейс] Исправление содержимого подсказки временной шкалы в пользовательском интерфейсе потоковой передачи
  • [SPARK-46248] [SC-151774][sql]: поддержка параметров ignoreCorruptFiles и ignoreMissingFiles
  • [SPARK-46386] [SC-150766][python] Улучшение утверждений наблюдения (pyspark.sql.observation)
  • [SPARK-46581] [SC-151789][core] Обновить комментарий по isZero в AccumulatorV2
  • [SPARK-46601] [SC-151785] [CORE] Исправлена ошибка журнала в handleStatusMessage
  • [SPARK-46568] [SC-151685][python] Сделать параметры источника данных Python словарем, нечувствительным к регистру
  • [SPARK-46611] [SC-151783][core] Удалить ThreadLocal, заменив SimpleDateFormat на DateTimeFormatter
  • [SPARK-46604] [SC-151768][sql] Сделать Literal.apply поддерживающим s.c.immuable.ArraySeq
  • [SPARK-46324] [SC-150223][sql][PYTHON] Исправьте выходное имя pyspark.sql.functions.user и session_user
  • [SPARK-46621] [SC-151794][python] Адрес NULL из exception.getMessage в py4J записанное исключение
  • [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader должен учитывать режим памяти при создании векторов столбцов для отсутствующих столбцов
  • [SPARK-46613] [SC-151778][sql][Python] Полное исключение журнала при сбое поиска источников данных Python
  • [SPARK-46559] [SC-151364][mllib] Обернуть export в имя пакета в обратные апострофы
  • [SPARK-46522] [SC-151784][python] Блокировать регистрацию источников данных в Python с конфликтами имен
  • [SPARK-45580] [SC-149956][sql] Обработка случая, когда вложенный запрос становится соединением по существованию
  • [SPARK-46609] [SC-151714][sql] Избегайте экспоненциального взрыва в PartitioningPreservingUnaryExecNode
  • [SPARK-46535] [SC-151288][sql] Исправление ошибки Null Pointer Exception (NPE) при описании расширенного столбца без статистики столбца
  • [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Use TypeCoercion.findTightestCommonType для проверки совместимости
  • [SPARK-40876] [SC-151129][sql] Расширение преобразований типов в читателях Parquet
  • [SPARK-46179] [SC-151069][sql] Извлечение кода в повторно используемые функции в SQLQueryTestSuite
  • [SPARK-46586] [SC-151679][sql] Поддержка s.c.immutable.ArraySeq как customCollectionCls в MapObjects
  • [SPARK-46585] [SC-151622][core] Был напрямую создан metricPeaks как immutable.ArraySeq вместо того, чтобы использовать mutable.ArraySeq.toSeq в Executor
  • [SPARK-46488] [SC-151173][sql] Пропуск вызова trimAll во время разбора метки времени
  • [SPARK-46231] [SC-149724][python] Миграция всех оставшихся NotImplementedError & TypeError в фреймворк обработки ошибок PySpark
  • [SPARK-46348] [SC-150281][core] Поддержка spark.deploy.recoveryTimeout
  • [SPARK-46313] [SC-150164][core] Запись длительности восстановления Spark HA
  • [SPARK-46358] [SC-150307][connect] Упростить проверку условия в ResponseValidator#verifyResponse
  • [SPARK-46380] [SC-151078][sql]Заменить текущее время/дату перед оценкой встроенных табличных выражений.
  • [SPARK-46563] [SC-151441][sql] View simpleString не соответствует spark.sql.debug.maxToStringFields
  • [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] Уменьшить глубину стека путем замены (string|array).size на (string|array).length
  • [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT (исключение всех полей структуры) приводит к ошибке утверждения
  • [SPARK-46565] [SC-151414][python] Уточнение классов ошибок и сообщений об ошибках для источников данных Python
  • [SPARK-46576] [SC-151614][sql] Улучшение сообщений об ошибках для неподдерживаемого режима сохранения источника данных
  • [SPARK-46540] [SC-151355][python] Учитываются имена столбцов, когда функция чтения источника данных Python возвращает объекты Row с заданными именами.
  • [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite допускает утечку SessionState в Hive
  • [SPARK-44556] [SC-151562][sql] Повторно использовать OrcTail при включении vectorizedReader
  • [SPARK-46587] [SC-151618][sql] XML: исправление преобразования больших целых чисел XSD
  • [SPARK-46382] [SC-151297][sql] XML: извлечение значений, встречающихся между элементами
  • [SPARK-46567] [SC-151447][core] Удалить ThreadLocal для ReadAheadInputStream
  • [SPARK-45917] [SC-151269][python][SQL] Автоматическая регистрация источника данных Python при запуске
  • [SPARK-28386] [SC-151014][sql] Не удается разрешить столбцы с ORDER BY, когда присутствуют GROUP BY и HAVING
  • [SPARK-46524] [SC-151446][sql] Улучшение сообщений об ошибках для недопустимого режима сохранения
  • [SPARK-46294] [SC-150672][sql] Уточнение семантики инициализации и использования нулевого значения
  • [SPARK-46301] [SC-150100][core] Поддержка spark.worker.(initial|max)RegistrationRetries
  • [SPARK-46542] [SC-151324][sql] Удалите проверку c>=0 из ExternalCatalogUtils#needsEscaping, так как всегда верно
  • [SPARK-46553] [SC-151360][ps] FutureWarning для interpolate с типом объекта
  • [SPARK-45914] [SC-151312][python] Поддержка API для фиксации и отмены при записи источника данных на Python
  • [SPARK-46543] [SC-151350][python][CONNECT] Сделать json_tuple выброс PySparkValueError для пустых полей
  • [SPARK-46520] [SC-151227][python] Поддержка режима перезаписи для источника данных Python
  • [SPARK-46502] [SC-151235][sql] Поддержка типов меток времени в UnwrapCastInBinaryComparison
  • [SPARK-46532] [SC-151279][connect] Передача параметров сообщения в метаданных ErrorInfo
  • [SPARK-46397] Отменить "[SC-151311][python][CONNECT] Функция sha2 должна выбрасывать PySparkValueError для недопустимого numBits"
  • [SPARK-46170] [SC-149472][sql] Поддержка внедрения правил стратегии пост-планировщика адаптивного запроса в SparkSessionExtensions
  • [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable не следует загружать таблицу
  • [SPARK-46397] [SC-151311][python][CONNECT] Функция sha2 должна вызывать PySparkValueError для недопустимого numBits
  • [SPARK-46145] [SC-149471][sql] spark.catalog.listTables не создает исключение, если таблица или представление не найдено
  • [SPARK-46272] [SC-151012][sql] Поддержка CTAS с использованием источников DSv2
  • [SPARK-46480] [SC-151127][core][SQL] Исправление NPE при попытке задачи кэша таблиц
  • [SPARK-46100] [SC-149051][core][PYTHON] Уменьшить глубину стека путем замены (string|array).size на (string|array).length
  • [SPARK-45795] [SC-150764][sql] DS V2 поддерживает режим отправки
  • [SPARK-46485] [SC-151133][sql] V1Write не должно добавлять сортировку, когда это не нужно
  • [SPARK-46468] [SC-151121] [SQL] Обработка ошибки COUNT для вложенных запросов EXISTS с помощью агрегата без группирования ключей
  • [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE поддержка SQL
  • [SPARK-46498] [SC-151199][core] Удалить shuffleServiceEnabled из o.a.spark.util.Utils#getConfiguredLocalDirs
  • [SPARK-46440] [SC-150807][sql] Задайте конфигурации перебазы в режим CORRECTED по умолчанию
  • [SPARK-45525] [SC-151120][sql][PYTHON] Поддержка записи источника данных Python с помощью DSv2
  • [SPARK-46505] [SC-151187][connect] Сделать порог байтов настраиваемым в ProtoUtils.abbreviate
  • [SPARK-46447] [SC-151025][sql] Удаление конфигураций SQL устаревшего пересчёта даты и времени
  • [SPARK-46443] [SC-151123][sql] Десятичная точность и масштабирование должны быть определены диалектом H2.
  • [SPARK-46384] [SC-150694][spark-46404][SS][ui] Исправлена диаграмма стека длительности операций на странице структурированной потоковой передачи
  • [SPARK-46207] [SC-151068][sql] Поддержка MergeInto в DataFrameWriterV2
  • [SPARK-46452] [SC-151018][sql] Добавление нового API в DataWriter для записи записей с помощью итератора
  • [SPARK-46273] [SC-150313][sql] Поддержка INSERT INTO/OVERWRITE с помощью источников DSv2
  • [SPARK-46344] [SC-150267][core] Предупреждать правильно, если драйвер существует успешно, но главный отключен
  • [SPARK-46284] [SC-149944][python][CONNECT] Добавление функции session_user в Python
  • [SPARK-46043] [SC-149786][sql] Поддержка создания таблицы с помощью источников DSv2
  • [SPARK-46323] [SC-150191][python] Исправьте выходное имя pyspark.sql.functions.now.
  • [SPARK-46465] [SC-151059][python][CONNECT] Добавление Column.isNaN в PySpark
  • [SPARK-46456] [SC-151050][core] Добавить spark.ui.jettyStopTimeout для установки времени ожидания остановки сервера Jetty, чтобы разблокировать завершение работы SparkContext.
  • [SPARK-43427] [SC-150356][protobuf] spark protobuf: разрешить передачу без знака целых чисел
  • [SPARK-46399] [SC-151013][14.x][Ядро] Добавление состояния выхода в событие конца приложения для использования прослушивателя Spark
  • [SPARK-46423] [SC-150752][python][SQL] Сделать экземпляр источника данных Python в DataSource.lookupDataSourceV2
  • [SPARK-46424] [SC-150765][python][SQL] Поддержка метрик Python в источнике данных Python
  • [SPARK-46330] [SC-151015] Загрузка блоков пользовательского интерфейса Spark в течение длительного времени при включении гибридного хранилища
  • [SPARK-46378] [SC-150397][sql] Удаление сортировки по-прежнему происходит после преобразования агрегата в проект
  • [SPARK-45506] [SC-146959][connect] Добавление поддержки URI ivy в addArtifact SparkConnect
  • [SPARK-45814] [SC-147871][connect][SQL]Сделать так, чтобы ArrowConverters.createEmptyArrowBatch вызывал close() для предотвращения утечки памяти.
  • [SPARK-46427] [SC-150759][python][SQL] Измените описание источника данных Python, чтобы оно было более наглядным в объяснении.
  • [SPARK-45597] [SC-150730][python][SQL] Поддержка создания таблицы с использованием источника данных Python в SQL (DSv2 exec)
  • [SPARK-46402] [SC-150700][python] Добавление поддержки getMessageParameters и getQueryContext
  • [SPARK-46453] [SC-150897][connect] Создание исключения из internalError() в SessionHolder
  • [SPARK-45758] [SC-147454][sql] Введение средства сопоставления для кодеков сжатия hadoop
  • [SPARK-46213] [PYTHON] Введение PySparkImportError в структуру ошибок
  • [SPARK-46230] [SC-149960][python] Миграция RetriesExceeded в ошибку PySpark
  • [SPARK-45035] [SC-1458887][sql] Исправление ignoreCorruptFiles/ignoreMissingFiles с помощью multiline CSV/JSON сообщит об ошибке
  • [SPARK-46289] [SC-150846][sql] Поддержка сортировки пользовательских типов данных в интерпретируемом режиме
  • [SPARK-46229] [SC-150798][python][CONNECT] Добавление ApplyInArrow к groupBy и cogroup в Spark Connect
  • [SPARK-46420] [SC-150847][sql] Удаление неиспользуемого транспорта в SparkSQLCLIDriver
  • [SPARK-46226] [PYTHON] Перенос всех оставшихся RuntimeError в платформу ошибок PySpark
  • [SPARK-45796] [SC-150613][sql] ПОДДЕРЖКА MODE() В КОНТЕКСТЕ ГРУППЫ (ORDER BY col)
  • [SPARK-40559] [SC-149686][python][14.X] Add ApplyInArrow to groupBy and cogroup
  • [SPARK-46069] [SC-149672][sql] Поддержка преобразования типа метки времени в тип даты
  • [SPARK-46406] [SC-150770][sql] Назначьте имя классу ошибок _LEGACY_ERROR_TEMP_1023
  • [SPARK-46431] [SC-150782][ss] Преобразование IllegalStateException в internalError в итераторах сеансов
  • [SPARK-45807] [SC-150751][sql] Улучшение API ViewCatalog
  • [SPARK-46009] [SC-149771][sql][CONNECT] Слияние правила синтаксического анализа PercentileCont и PercentileDisc в functionCall
  • [SPARK-46403] [SC-150756][sql] Декодирование двоичного файла parquet с помощью метода getBytesUnsafe
  • [SPARK-46389] [SC-150779][core] Вручную закройте экземпляр RocksDB/LevelDB при вызове исключения checkVersion
  • [SPARK-46360] [SC-150376][python] Улучшение отладки сообщений об ошибке с помощью нового API getMessage
  • [SPARK-46233] [SC-149766][python] Перенос всех оставшихся AttributeError в систему обработки ошибок PySpark
  • [SPARK-46394] [SC-150599][sql] Исправлены проблемы spark.catalog.listDatabases() при использовании схем со специальными символами, когда spark.sql.legacy.keepCommandOutputSchema задано значение true
  • [SPARK-45964] [SC-148484][sql] Удаление приватного SQL аксессора в пакете XML и JSON в пакете Catalyst
  • [SPARK-45856] [SC-148691] Перемещение ArtifactManager из Spark Connect в SparkSession (sql/core)
  • [SPARK-46409] [SC-150714][connect] Исправление скрипта запуска для spark-connect-scala-client
  • [SPARK-46416] [SC-150699][core] Добавление @tailrec в HadoopFSUtils#shouldFilterOutPath
  • [SPARK-46115] [SC-149154][sql] Ограничить наборы символов в encode()
  • [SPARK-46253] [SC-150416][python] Планирование чтения из источника данных Python с помощью MapInArrow
  • [SPARK-46339] [SC-150266][ss] Каталог с именем пакетного номера не следует рассматривать как журнал метаданных
  • [SPARK-46353] [SC-150396][core] Проведён рефакторинг для улучшения охвата модульных тестов RegisterWorker
  • [SPARK-45826] [SC-149061][sql] Добавление конфигурации SQL для трассировки стека в контексте запроса DataFrame
  • [SPARK-45649] [SC-150300][sql] Объединить подготовительную структуру для OffsetWindowFunctionFrame
  • [SPARK-46346] [SC-150282][core] Исправление, чтобы мастер-сервер обновлял рабочий узел с UNKNOWN до ALIVE на сообщение RegisterWorker
  • [SPARK-46388] [SC-150496][sql] HiveAnalysis пропускает защиту шаблонов query.resolved
  • [SPARK-46401] [SC-150609][core] Использовать !isEmpty() на RoaringBitmap вместо getCardinality() > 0 в RemoteBlockPushResolver
  • [SPARK-46393] [SC-150603][sql] Классификация исключений в каталоге таблиц JDBC
  • [SPARK-45798] [SC-150513][connect] Следующее: добавление serverSessionId в SessionHolderInfo
  • [SPARK-46153] [SC-146564][sc-150508][SQL] XML: добавление поддержки TimestampNTZType
  • [SPARK-46075] [SC-150393][connect] Улучшения менеджера сеансов SparkConnectSessionManager
  • [SPARK-46357] [SC-150596] Замените неправильное использование документации setConf с conf.set.
  • [SPARK-46202] [SC-150420][connect] Предоставление новых API ArtifactManager для поддержки пользовательских целевых каталогов
  • [SPARK-45824] [SC-147648][sql] Принудительно применять класс ошибок в ParseException
  • [SPARK-45845] [SC-148163][ss][UI] Добавьте количество вытесненных строк состояния в пользовательский интерфейс потоковой передачи
  • [SPARK-46316] [SC-150181][core] Включить buf-lint-action в модуле core
  • [SPARK-45816] [SC-147656][sql] Возвращает NULL при переполнении во время приведения метки времени в целые числа
  • [SPARK-46333] [SC-150263][sql] Замените IllegalStateException на SparkException.internalError в катализаторе
  • [SPARK-45762] [SC-148486][core] Поддержка диспетчеров перетасовки, определенных в пользовательских jar-файлах путем изменения порядка запуска
  • [SPARK-46239] [SC-149752][core] Скрыть Jetty сведения
  • [SPARK-45886] [SC-148089][sql] Вывод полной трассировки стека в callSite контекста DataFrame
  • [SPARK-46290] [SC-150059][python] Изменить saveMode на логический флаг для DataSourceWriter
  • [SPARK-45899] [SC-148097][connect] Set errorClass in errorInfoToThrowable
  • [SPARK-45841] [SC-147657][sql] Раскрытие трассировки стека по DataFrameQueryContext
  • [SPARK-45843] [SC-147721][core] Поддержка killall в API отправки REST
  • [SPARK-46234] [SC-149711][python] Внедрение PySparkKeyError для структуры ошибок PySpark
  • [SPARK-45606] [SC-147655][sql] Снятие ограничений на фильтр среды выполнения с несколькими слоями
  • [SPARK-45725] [SC-147006][sql] Удалите не по умолчанию фильтр выполнения подзапроса
  • [SPARK-45694] [SC-147314][spark-45695][SQL] Очистить использование устаревших API View.force и ScalaNumberProxy.signum
  • [SPARK-45805] [SC-147488][sql] Сделать withOrigin более универсальным
  • [SPARK-46292] [SC-150086][core][UI] Показать сводку рабочих ролей в MasterPage
  • [SPARK-45685] [SC-146881][core][SQL] Использовать LazyList вместо Stream
  • [SPARK-45888] [SC-149945][ss] Применение фреймворка классов ошибок к источнику данных метаданных (состояния)
  • [SPARK-46261] [SC-150111][connect] DataFrame.withColumnsRenamed должен сохранять порядок в словарях и отображениях
  • [SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Очистка преобразований SeqOps.view и ArrayOps.view
  • [SPARK-46029] [SC-149255][sql] Экранирование одинарной кавычки, _ и % для pushdown DS V2
  • [SPARK-46275] [SC-150189] Protobuf: возвращает значение NULL в разрешительном режиме при сбое десериализации.
  • [SPARK-46320] [SC-150187][core] Поддержка spark.master.rest.host
  • [SPARK-46092] [SC-149658][sql] Не применяйте фильтры групп строк Parquet, вызывающие переполнение
  • [SPARK-46300] [SC-150097][python][CONNECT] Соответствие незначительному поведению в столбце с полным тестовым покрытием
  • [SPARK-46298] [SC-150092][python][CONNECT] Предупреждение об отмене соответствия, случай теста и ошибка Catalog.createExternalTable
  • [SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Очистка нерекомендуемого использования API, связанного с StringContext/StringOps/RightProjection/LeftProjection/Either и типом использования BufferedIterator/CanBuildFrom/Traversable
  • [SPARK-33393] [SC-148407][sql] Поддержка SHOW TABLE EXTENDED в версии 2
  • [SPARK-45737] [SC-147011][sql] Удалите ненужные .toArray[InternalRow] в SparkPlan#executeTake
  • [SPARK-46249] [SC-149797][ss] Требовать блокировку экземпляра для получения метрик RocksDB для предотвращения гонки с фоновыми операциями
  • [SPARK-46260] [SC-149940][python][SQL] DataFrame.withColumnsRenamed должны соблюдать порядок диктовки
  • [SPARK-46274] [SC-150043] [SQL] Исправление оператора range computeStats() для проверки длительной допустимости перед преобразованием
  • [SPARK-46040] [SC-149767][sql][Python] Обновление API UDTF для секционирования и упорядочивания столбцов для поддержки общих выражений
  • [SPARK-46287] [SC-149949][python][CONNECT] DataFrame.isEmpty должны работать со всеми типами данных
  • [SPARK-45678] [SC-146825][core] Cover BufferReleasingInputStream.available/reset в разделе tryOrFetchFailedException
  • [SPARK-45667] [SC-146716][core][SQL][connect] Очистка устаревшего использования API, связанного с IterableOnceExtensionMethods.
  • [SPARK-43980] [SC-148992][sql], введя синтаксис select * except
  • [SPARK-46269] [SC-149816][ps] Включение дополнительных тестов функции совместимости NumPy
  • [SPARK-45807] [SC-149851][sql] Добавить createOrReplaceView(..) / replaceView(..) в ViewCatalog
  • [SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Введите неявную функцию для Scala Array для упаковки в immutable.ArraySeq.
  • [SPARK-46205] [SC-149655][core] Повышение производительности PersistenceEngine с помощью KryoSerializer
  • [SPARK-45746] [SC-149359][python] Возвращает определенные сообщения об ошибках, если метод UDTF "анализ" или "eval" принимает или возвращает неправильные значения
  • [SPARK-46186] [SC-149707][connect] Исправлено некорректное изменение состояния при прерывании ExecuteThreadRunner перед его запуском
  • [SPARK-46262] [SC-149803][ps] Включить тестирование для np.left_shift объекта Pandas-on-Spark.
  • [SPARK-45093] [SC-149679][connect][PYTHON] Правильная поддержка обработки ошибок и преобразования для AddArtifactHandler.
  • [SPARK-46188] [SC-149571][doc][3.5] Исправление CSS созданных таблиц документации Spark
  • [SPARK-45940] [SC-149549][python] Добавление InputPartition в интерфейс DataSourceReader
  • [SPARK-43393] [SC-148301][sql] Ошибка переполнения выражения последовательности адресов.
  • [SPARK-46144] [SC-149466][sql] Fail INSERT INTO ... Инструкция REPLACE, если условие содержит вложенный запрос
  • [SPARK-46118] [SC-149096][sql][SS][connect] Используйте SparkSession.sessionState.conf вместо SQLContext.conf и пометьте SQLContext.conf как нерекомендуемые
  • [SPARK-45760] [SC-147550][sql] Добавить WITH-выражение, чтобы избежать дублирования выражений
  • [SPARK-43228] [SC-149670][sql] Ключи присоединения также соответствуют PartitioningCollection в CoalesceBucketsInJoin
  • [SPARK-46223] [SC-149691][ps] Тест SparkPandasNotImplementedError с очисткой неиспользуемого кода
  • [SPARK-46119] [SC-149205][sql] Переопределение метода toString для UnresolvedAlias
  • [SPARK-46206] [SC-149674][ps] Использовать более узкий диапазон исключений для процессора SQL
  • [SPARK-46191] [SC-149565][core] Улучшение FileSystemPersistenceEngine.persist ошибки msg в случае существующего файла
  • [SPARK-46036] [SC-149356][sql] Удаление класса ошибок из функции raise_error
  • [SPARK-46055] [SC-149254][sql] Переопределение API базы данных каталога
  • [SPARK-46152] [SC-149454][sql] добавление поддержки DecimalType в определение схемы XML
  • [SPARK-45943] [SC-149452][sql] Перенести DetermineTableStats в правила разрешения
  • [SPARK-45887] [SC-148994][sql] Унифицировать реализацию с генерацией кода и без нее Encode
  • [SPARK-45022] [SC-147158][sql] Укажите контекст для ошибок API набора данных
  • [SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Замените toIteratoriterator для IterableOnce
  • [SPARK-46141] [SC-149357][sql] Измените значение по умолчанию для spark.sql.legacy.ctePrecedencePolicy на CORRECTED
  • [SPARK-45663] [SC-146617][core][MLLIB] Замените IterableOnceOps#aggregateIterableOnceOps#foldLeft
  • [SPARK-45660] [SC-146493][sql] Повторно использовать объекты Literal в правиле ComputeCurrentTime
  • [SPARK-45803] [SC-147489][core] Удалите больше не используемые RpcAbortException
  • [SPARK-46148] [SC-149350][ps] Исправление pyspark.pandas.mlflow.load_model теста (Python 3.12)
  • [SPARK-46110] [SC-149090][python] Использование классов ошибок в каталогах, conf, connect, observation, pandas модулях
  • [SPARK-45827] [SC-149203][sql] Исправления вариантов с отключенной генерацией кода и векторизованным средством чтения
  • [SPARK-46080] Отменить "[SC-149012][python] Обновление Cloudpickle до 3.0.0"
  • [SPARK-45460] [SC-144852][sql] Замените scala.collection.convert.ImplicitConversions на scala.jdk.CollectionConverters
  • [SPARK-46073] [SC-149019][sql] Удалите специальное разрешение неразрешенного пространства имен для определенных команд
  • [SPARK-45600] [SC-148976][python] Регистрация источника данных Python на уровне сеанса
  • [SPARK-46074] [SC-149063][connect][SCALA] Недостаточно сведений об ошибке при сбое UDF
  • [SPARK-46114] [SC-149076][python] Добавление PySparkIndexError для фреймворка обработки ошибок
  • [SPARK-46120] [SC-149083][connect][PYTHON] Удалить вспомогательные функции DataFrame.withPlan
  • [SPARK-45927] [SC-148660][python] Обновление обработки путей для источника данных на Python
  • [SPARK-46062] [14.x][sc-148991][SQL] Синхронизация флага isStreaming между определением CTE и ссылкой
  • [SPARK-45698] [SC-146736][core][SQL][ss] Очистка устаревшего использования API, связанного с Buffer
  • [SPARK-46064] [SC-148984][sql][SS] Переместить EliminateEventTimeWatermark в анализатор и изменить, чтобы применяться только на разрешенном дочернем элементе.
  • [SPARK-45922] [SC-149038][connect][CLIENT] Дополнительный рефакторинг повторных попыток (выполнение нескольких политик)
  • [SPARK-45851] [SC-148419][connect][SCALA] Поддерживает несколько политик в клиенте scala
  • [SPARK-45974] [SC-149062][sql] Добавление проверки на пустоту в scan.filterAttributes для RowLevelOperationRuntimeGroupFiltering.
  • [SPARK-46085] [SC-149049][connect] Dataset.groupingSets в клиенте Scala Spark Connect
  • [SPARK-45136] [SC-146607][connect] Улучшить ClosureCleaner с поддержкой Ammonite
  • [SPARK-46084] [SC-149020][ps] Рефакторинг операции приведения типов данных для категориального типа.
  • [SPARK-46083] [SC-149018][python] Make SparkNoSuchElementException в качестве канонического API ошибок
  • [SPARK-46048] [SC-148982][python][CONNECT] Поддержка DataFrame.groupingSets в Python Spark Connect
  • [SPARK-46080] [SC-149012][python] Обновление Cloudpickle до 3.0.0
  • [SPARK-46082] [SC-149015][python][CONNECT] Исправлено представление строки protobuf для API функций Pandas с помощью Spark Connect
  • [SPARK-46065] [SC-148985][ps] Переделать (DataFrame|Series).factorize() с использованием create_map.
  • [SPARK-46070] [SC-148993][sql] Компиляция шаблона regex в SparkDateTimeUtils.getZoneId за пределами горячего цикла
  • [SPARK-46063] [SC-148981][python][CONNECT] Улучшение сообщений об ошибках, связанных с типами аргументов в cute, rollup, groupby и pivot
  • [SPARK-44442] [SC-144120][mesos] Удаление поддержки Mesos
  • [SPARK-45555] [SC-147620][python] Включает отлаживаемый объект для утверждения с ошибкой
  • [SPARK-46048] [SC-148871][python][SQL] Поддержка DataFrame.groupingSets в PySpark
  • [SPARK-45768] [SC-147304][sql][PYTHON] Сделать faulthandler конфигурацией времени выполнения для выполнения Python-кода в SQL
  • [SPARK-45996] [SC-148586][python][CONNECT] Показать правильные сообщения о требованиях зависимостей для Spark Connect
  • [SPARK-45681] [SC-146893][ui] Клонировать js-версию UIUtils.errorMessageCell для согласованной отрисовки ошибок в пользовательском интерфейсе
  • [SPARK-45767] [SC-147225][core] Удалить TimeStampedHashMap и ее UT
  • [SPARK-45696] [SC-148864][core] Метод tryCompleteWith из трэйта Promise устарел
  • [SPARK-45503] [SC-1463338][ss] Добавление conf для установки сжатия RocksDB
  • [SPARK-45338] [SC-143934][core][SQL] Замените scala.collection.JavaConverters на scala.jdk.CollectionConverters
  • [SPARK-44973] [SC-148804][sql] Исправление ArrayIndexOutOfBoundsException в conv()
  • [SPARK-45912] [SC-144982][sc-148467][SQL] Усовершенствование API XSDToSchema: переход на API HDFS для доступа к облачному хранилищу
  • [SPARK-45819] [SC-147570][core] Поддержка clear в API отправки REST
  • [SPARK-45552] [14.x][sc-146874][PS] Ввод гибких параметров для assertDataFrameEqual
  • [SPARK-45815] [SC-1478777][sql][Потоковая передача][14.x][CHERRY-PICK] Укажите интерфейс для других источников потоковой передачи для добавления столбцов _metadata
  • [SPARK-45929] [SC-148692][sql] Поддержка операций groupingSets в API DataFrame
  • [SPARK-46012] [SC-148693][core] EventLogFileReader не следует читать роллируемые журналы, если отсутствует файл состояния приложения
  • [SPARK-45965] [SC-148575][sql] Перенос выражений секционирования DSv2 в функции partitioning
  • [SPARK-45971] [SC-148541][core][SQL] Исправьте имя пакета SparkCollectionUtils на org.apache.spark.util
  • [SPARK-45688] [SC-147356][spark-45693][CORE] Очистка устаревшего использования API, связанного с MapOps & Исправление method += in trait Growable is deprecated
  • [SPARK-45962] [SC-144645][sc-148497][SQL] Удалить treatEmptyValuesAsNulls и использовать вместо этого параметр nullValue в XML
  • [SPARK-45988] [SC-148580][spark-45989][PYTHON] Исправлены аннотации типов для обработки list GenericAlias в Python 3.11+
  • [SPARK-45999] [SC-148595][ps] Использовать выделенные PandasProduct в cumprod
  • [SPARK-45986] [SC-148583][ml][PYTHON] Исправление pyspark.ml.torch.tests.test_distributor в Python 3.11
  • [SPARK-45994] [SC-148581][python] Измените description-file на description_file
  • [SPARK-45575] [SC-146713][sql] Поддержка вариантов перемещения по времени для API чтения df
  • [SPARK-45747] [SC-148404][ss] Использование сведений о префиксном ключе в метаданных состояния для управления состоянием чтения при агрегировании окна сеанса
  • [SPARK-45898] [SC-148213][sql] Переопределение API таблиц каталога для использования неразрешенного логического плана
  • [SPARK-45828] [SC-147663][sql] Удалить устаревший метод в dsl
  • [SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Обновление protobuf до 4.25.1 для поддержки Python 3.11
  • [SPARK-45911] [SC-148226][core] Сделать TLS1.3 по умолчанию для ПРОТОКОЛА SSL RPC
  • [SPARK-45955] [SC-148429][ui] Поддержка сворачивания для флеймграфа и деталей дампа потоков
  • [SPARK-45936] [SC-148392][ps] Оптимизация Index.symmetric_difference
  • [SPARK-45389] [SC-144834][sql][3.5] Корректное правило сопоставления MetaException для получения метаданных раздела
  • [SPARK-45655] [SC-148085][sql][SS] Разрешить недетерминированные выражения внутри AggregateFunctions в CollectMetrics
  • [SPARK-45946] [SC-148448][ss] Исправлено использование устаревшего метода записи FileUtils для указания стандартной кодировки в RocksDBSuite
  • [SPARK-45511] [SC-148285][ss] Источник данных состояния — ридер
  • [SPARK-45918] [SC-148293][ps] Оптимизация MultiIndex.symmetric_difference
  • [SPARK-45813] [SC-148288][connect][PYTHON] Возвращает наблюдаемые метрики из команд
  • [SPARK-45867] [SC-147916][core] Поддержка spark.worker.idPattern
  • [SPARK-45945] [SC-148418][connect] Добавление вспомогательной функции для parser
  • [SPARK-45930] [SC-148399][sql] Поддержка недетерминированных пользовательских определяемых функций в MapInPandas/MapInArrow
  • [SPARK-45810] [SC-148356][python] Создание API UDTF Python для остановки использования строк из входной таблицы
  • [SPARK-45731] [SC-147929][sql] Также обновите статистику секций с помощью команды ANALYZE TABLE
  • [SPARK-45868] [SC-148355][connect] Убедитесь, что spark.table использует тот же синтаксический анализатор, что и стандартный Spark
  • [SPARK-45882] [SC-148161][sql] BroadcastHashJoinExec при распространении секционирования должен учитывать CoalescedHashPartitioning
  • [SPARK-45710] [SC-147428][sql] Назначьте имена ошибкам _LEGACY_ERROR_TEMP_21[59, 60, 61, 62]
  • [SPARK-45915] [SC-148306][sql] Обрабатывать тип decimal(x, 0) так же как IntegralType в PromoteStrings
  • [SPARK-45786] [SC-147552][sql] Исправление неточных результатов десятичного умножения и деления
  • [SPARK-45871] [SC-148084][connect] Преобразование коллекции оптимизаций, связанных с .toBuffer в модулях connect
  • [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager может найти остановленный sparkcontext
  • [SPARK-45913] [SC-148289][python] Сделать внутренние атрибуты закрытыми для ошибок PySpark.
  • [SPARK-45827] [SC-148201][sql] Добавление типа данных Variant в Spark.
  • [SPARK-44886] [SC-147876][sql] Введите предложение CLUSTER BY для CREATE/REPLACE TABLE
  • [SPARK-45756] [SC-147959][core] Поддержка spark.master.useAppNameAsAppId.enabled
  • [SPARK-45798] [SC-147956][connect] Проверка идентификатора сессии на стороне сервера
  • [SPARK-45896] [SC-148091][sql] Построить ValidateExternalType с правильным ожидаемым типом
  • [SPARK-45902] [SC-148123][sql] Удаление неиспользуемой функции resolvePartitionColumns из DataSource
  • [SPARK-45909] [SC-148137][sql] Удалите NumericType приведение, если оно может безопасно преобразовать в IsNotNull
  • [SPARK-42821] [SC-147715][sql] Удаление неиспользуемых параметров в методах splitFiles
  • [SPARK-45875] [SC-148088][core] Удаление MissingStageTableRowData из модуля core
  • [SPARK-45783] [SC-148120][python][CONNECT] Улучшение сообщений об ошибках при включении режима Spark Connect, но удаленный URL-адрес не задан.
  • [SPARK-45804] [SC-147529][ui] Добавить конфигурацию spark.ui.threadDump.flamegraphEnabled для переключения графа пламени вкл/выкл.
  • [SPARK-45664] [SC-146878][sql] Введение сопоставителя для кодеков сжатия ORC
  • [SPARK-45481] [SC-146715][sql] Введение средства сопоставления для кодеков сжатия parquet
  • [SPARK-45752] [SC-148005][sql] Упростите код для проверки отношений CTE без ссылки
  • [SPARK-44752] [SC-146262][sql] XML: обновление документации Spark
  • [SPARK-45752] [SC-147869][sql] Непривязанные ОВЗ должны быть проверены CheckAnalysis0
  • [SPARK-45842] [SC-147853][sql] Рефакторинг API каталоговых функций для использования анализатора
  • [SPARK-45639] [SC-1476766][sql][PYTHON] Поддержка загрузки источников данных Python в DataFrameReader
  • [SPARK-45592] [SC-146977][sql] Ошибка правильности в AQE с InMemoryTableScanExec
  • [SPARK-45794] [SC-147646][ss] Введите источник метаданных состояния для запроса сведений о метаданных состояния потоковой передачи
  • [SPARK-45739] [SC-147059][python] Обработка IOException вместо только EOFException для обработчика ошибок
  • [SPARK-45677] [SC-146700] Лучшее ведение журнала ошибок для API наблюдения
  • [SPARK-45544] [SC-146873][core] Интеграция поддержки SSL в TransportContext
  • [SPARK-45654] [SC-147152][python] Добавление API записи источника данных Python
  • [SPARK-45771] [SC-147270][core] Включить spark.eventLog.rolling.enabled по умолчанию
  • [SPARK-45713] [SC-146986][python] Поддержка регистрации источников данных Python
  • [SPARK-45656] [SC-146488][sql] Исправьте наблюдение при именованных наблюдениях с одинаковым именем в разных наборах данных
  • [SPARK-45808] [SC-147571][connect][PYTHON] Улучшена обработка ошибок для исключений SQL
  • [SPARK-45774] [SC-147353][core][UI] Поддержка spark.master.ui.historyServerUrl в ApplicationPage
  • [SPARK-45776] [SC-147327][core] Удалите оборонительный флажок null для MapOutputTrackerMaster#unregisterShuffle добавлен в SPARK-39553
  • [SPARK-45780] [SC-147410][connect] Распространение всех клиентских потоков Spark Connect в InheritableThread
  • [SPARK-45785] [SC-147419][core] Поддержка spark.deploy.appNumberModulo для смены номера приложения
  • [SPARK-45793] [SC-147456][core] Улучшение встроенных кодеков сжатия
  • [SPARK-45757] [SC-147282][ml] Избегайте повторного вычисления NNZ в Binarizer
  • [SPARK-45209] [SC-146490][core][UI] Поддержка графа пламени для страницы дампа потока исполнителя
  • [SPARK-45777] [SC-147319][core] Поддержка spark.test.appId в LocalSchedulerBackend
  • [SPARK-45523] [SC-146331][python] Рефакторинг проверки на null для более простого использования shortcuts
  • [SPARK-45711] [SC-146854][sql] Введите средство сопоставления для кодеков сжатия avro
  • [SPARK-45523] [SC-146077][python] Возвращает полезное сообщение об ошибке, если UDTF возвращает значение None для любого столбца, не допускающего значения NULL
  • [SPARK-45614] [SC-146729][sql] Назначьте имена ошибкам _LEGACY_ERROR_TEMP_215[6,7,8]
  • [SPARK-45755] [SC-147164][sql] Улучшение Dataset.isEmpty() путем применения глобального ограничения 1
  • [SPARK-45569] [SC-145915][sql] Назначьте имя ошибке _LEGACY_ERROR_TEMP_2153
  • [SPARK-45749] [SC-147153][core][WEBUI] Исправление Spark History Server для правильной сортировки столбца Duration
  • [SPARK-45754] [SC-147169][core] Поддержка spark.deploy.appIdPattern
  • [SPARK-45707] [SC-146880][sql] Упростить DataFrameStatFunctions.countMinSketch с помощью CountMinSketchAgg
  • [SPARK-45753] [SC-147167][core] Поддержка spark.deploy.driverIdPattern
  • [SPARK-45763] [SC-147177][core][UI] Улучшить MasterPage для отображения столбца Resource только в том случае, если он существует
  • [SPARK-45112] [SC-143259][sql] Использование разрешения на основе UnresolvedFunction в функциях SQL наборов данных

Поддержка драйвера ODBC/JDBC Databricks

Databricks поддерживает драйверы ODBC/JDBC, выпущенные за последние 2 года. Скачайте недавно выпущенные драйверы и обновление (скачайте ODBC, скачайте JDBC).

Обновления в рамках обслуживания

Ознакомьтесь с обновлениями обслуживания Databricks Runtime 14.3.

Системная среда

  • Операционная система: Ubuntu 22.04.3 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.3.1
  • Delta Lake: 3.1.0

Установленные библиотеки Python

Библиотека Версия Библиотека Версия Библиотека Версия
anyio 3.5.0 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttokens 2.0.5 атрибуты 22.1.0 бэккол 0.2.0
beautifulsoup4 4.11.1 черный 22.6.0 отбеливатель 4.1.0
поворотник 1.4 boto3 1.24.28 botocore 1.27.96
сертификат 2022.12.7 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 щелчок 8.0.4 связь 0.1.2
контурная диаграмма 1.0.5 криптография 39.0.1 циклер 0.11.0
Cython 0.29.32 databricks-sdk 0.1.6 dbus-python 1.2.18
debugpy 1.6.7 декоратор 5.1.1 defusedxml 0.7.1
distlib 0.3.7 преобразование docstring в markdown 0,11 точки входа 0,4
выполнение 0.8.3 Обзор граней 1.1.1 fastjsonschema 2.19.1
блокировка файла 3.13.1 шрифтовые инструменты 4.25.0 googleapis-common-protos 1.62.0
grpcio 1.48.2 grpcio-status 1.48.1 httplib2 0.20.2
idna 3,4 importlib-metadata 4.6.4 ipykernel 6.25.0
ipython 8.14.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 джипни (филиппинское маршрутное такси) 0.7.1 Jinja2 3.1.2
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.17.3
jupyter-client 7.3.4 jupyter-server 1.23.4 jupyter_core 5.2.0
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 нажатие клавиш 23.5.0
kiwisolver 1.4.4 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 lxml 4.9.1 MarkupSafe 2.1.1
matplotlib 3.7.0 matplotlib-inline 0.1.6 Маккейб 0.7.0
mistune 0.8.4 more-itertools 8.10.0 mypy-extensions 0.4.3
nbclassic 0.5.2 nbclient 0.5.13 nbconvert 6.5.4
nbformat 5.7.0 nest-asyncio 1.5.6 nodeenv 1.8.0
записная книжка 6.5.2 notebook_shim 0.2.2 numpy 1.23.5
oauthlib 3.2.0 упаковка 23,2 pandas 1.5.3
pandocfilters 1.5.0 parso 0.8.3 pathspec 0.10.3
козёл отпущения 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
подушка 9.4.0 pip 22.3.1 platformdirs 2.5.2
plotly 5.9.0 плагги 1.0.0 prometheus-client 0.14.1
prompt-toolkit 3.0.36 protobuf 4.24.0 psutil (библиотека Python для мониторинга системных ресурсов) 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 8.0.0 pyarrow-hotfix 0,5 pycparser 2.21
pydantic 1.10.6 pyflakes 3.1.0 Pygments 2.11.2
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.32
pyparsing 3.0.9 pyright 1.1.294 pyrsistent 0.18.0
python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1 python-lsp-server 1.8.0
pytoolconfig 1.2.5 pytz 2022.7 pyzmq 23.2.0
запросы 2.28.1 верёвка 1.7.0 s3transfer 0.6.2
scikit-learn 1.1.1 scipy 1.10.0 мореборн 0.12.2
SecretStorage 3.3.1 Send2Trash 1.8.0 setuptools 65.6.3
шесть 1.16.0 sniffio 1.2.0 soupsieve 2.3.2.post1
ssh-import-id 5,11 stack-data 0.2.0 statsmodels 0.13.5
упорство 8.1.0 завершено 0.17.1 threadpoolctl 2.2.0
tinycss2 1.2.1 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.7.1 typing_extensions 4.4.0
ujson 5.4.0 автоматическое обновление 0,1 urllib3 1.26.14
virtualenv 20.16.7 wadllib 1.3.6 wcwidth 0.2.5
веб-кодировки 0.5.1 вебсокет-клиент 0.58.0 whatthepatch 1.0.2
колесо 0.38.4 widgetsnbextension 3.6.1 yapf (форматировщик Python кода) 0.33.0
zipp 1.0.0

Установленные библиотеки R

Библиотеки R устанавливаются из снимка CRAN, сделанного диспетчером пакетов Posit на 2023-07-13: https://packagemanager.posit.co/cran/2023-07-13/.

Библиотека Версия Библиотека Версия Библиотека Версия
Стрелка 12.0.1 askpass 1,1 assertthat 0.2.1
внутренние порты 1.4.1 база 4.3.1 base64enc 0.1-3
бит 4.0.5 64-бит 4.0.5 BLOB 1.2.4
загрузка 1.3-28 варить 1,0–8 жизнерадостность 1.1.3
метла 1.0.5 bslib 0.5.0 cachem 1.0.8
вызывающий объект 3.7.3 каретка 6.0-94 cellranger 1.1.0
хрон 2.3-61 класс 7.3-22 CLI 3.6.1
clipr 0.8.0 часы 0.7.0 кластер 2.1.4
codetools 0.2-19 цветовое пространство 2.1-0 commonmark 1.9.0
компилятор 4.3.1 конфиг 0.3.1 испытывающий внутренний конфликт 1.2.0
cpp11 0.4.4 карандаш 1.5.2 верительные грамоты 1.3.2
curl 5.0.1 таблица данных 1.14.8 наборы данных 4.3.1
DBI 1.1.3 dbplyr 2.3.3 описание 1.4.2
средства разработки 2.4.5 Схема 1.6.5 diffobj 0.3.5
дайджест 0.6.33 подсвеченный снизу 0.4.3 dplyr 1.1.2
dtplyr 1.3.1 e1071 1.7-13 многоточие 0.3.2
оценивать 0.21 фанаты 1.0.4 Farver 2.1.1
быстрая карта 1.1.1 fontawesome 0.5.1 forcats 1.0.0
foreach 1.5.2 иностранный 0.8-85 кузница 0.2.0
fs 1.6.2 будущее 1.33.0 future.apply 1.11.0
полоскать горло 1.5.1 Универсальные шаблоны 0.1.3 gert 1.9.2
ggplot2 3.4.2 gh 1.4.0 gitcreds 0.1.2
glmnet 4.1-7 глобальные переменные 0.16.2 клей 1.6.2
googledrive 2.1.1 googlesheets4 1.1.1 Говер 1.0.1
графика 4.3.1 grDevices 4.3.1 сеть 4.3.1
gridExtra 2.3 gsubfn 0,7 gtable 0.3.3
каска 1.3.0 убежище 2.5.3 выше 0.10
hms 1.1.3 htmltools 0.5.5 виджеты HTML 1.6.2
httpuv 1.6.11 httr 1.4.6 httr2 0.2.3
идентификаторы 1.0.1 ini 0.3.1 ipred 0.9-14
isoband 0.2.7 Итераторы 1.0.14 jquerylib 0.1.4
jsonlite 1.8.7 KernSmooth 2.23-21 knitr 1,43
маркирование 0.4.2 позже 1.3.1 решётка 0.21-8
Лава 1.7.2.1 жизненный цикл 1.0.3 listenv 0.9.0
lubridate 1.9.2 magrittr 2.0.3 Markdown 1,7
МАССА 7.3-60 «Матрица» 1.5-4.1 memoise 2.0.1
методы 4.3.1 mgcv 1.8-42 мим 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 нейросеть 7.3-19
numDeriv 2016.8-1.1 openssl 2.0.6 параллельный 4.3.1
параллельно 1.36.0 столб 1.9.0 pkgbuild 1.4.2
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2.1
плогр 0.2.0 plyr 1.8.8 хвалить 1.0.0
prettyunits 1.1.1 pROC 1.18.4 processx 3.8.2
prodlim 2023.03.31 profvis 0.3.8 Ход выполнения 1.2.2
progressr 0.13.0 обещания 1.2.0.1 прото 1.0.0
прокси 0.4-27 П.С. 1.7.5 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
Случайный лес (randomForest) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.11 RcppEigen 0.3.3.9.3
readr 2.1.4 readxl 1.4.3 Рецепты 1.0.6
реванш 1.0.1 второй матч-реванш 2.1.2 пульты 2.4.2
воспроизводимый пример 2.0.2 reshape2 1.4.4 rlang 1.1.1
rmarkdown 2,23 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.21 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.3.1 rstudioapi 0.15.0 rversions 2.1.2
rvest 1.0.3 дерзость 0.4.6 весы 1.2.1
селектор 0.4-2 информация о сеансе 1.2.2 форма 1.4.6
блестящий 1.7.4.1 sourcetools 0.1.7-1 sparklyr 1.8.1
пространственный 7.3-15 Сплайны 4.3.1 sqldf 0.4-11
SQUAREM 2021.1 статистика 4.3.1 статистика4 4.3.1
стринги 1.7.12 stringr 1.5.0 выживание 3.5-5
sys 3.4.2 systemfonts 1.0.4 tcltk 4.3.1
testthat 3.1.10 форматирование текста 0.3.6 tibble 3.2.1
tidyr 1.3.0 tidyselect 1.2.0 tidyverse 2.0.0
перевод времени 0.2.0 ВремяДата 4022.108 tinytex 0,45 %
инструменты 4.3.1 tzdb 0.4.0 urlchecker 1.0.1
используйэто 2.2.2 utf8 1.2.3 служебные программы 4.3.1
uuid 1.1-0 vctrs 0.6.3 viridisLite 0.4.2
брррм 1.6.3 waldo 0.5.1 усы 0.4.1
withr 2.5.0 xfun 0,39 xml2 1.3.5
xopen 1.0.0 xtable 1.8-4 yaml 2.3.7
zip 2.3.0

Установленные библиотеки Java и Scala (версия кластера Scala 2.12)

ИД группы Идентификатор артефакта Версия
antlr antlr 2.7.7
com.amazonaws амазон-кинесис-клиент 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics поток 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.13.0
com.databricks jets3t 0.7.1–0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware крио-затемнённый 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml одноклассник 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat Джексон-формат-данных-CBOR 2.15.2
com.fasterxml.jackson.dataformat джексон-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.15.1
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeine 2.9.3
com.github.fommil jniloader 1,1
com.github.fommil.netlib native_ref-java 1,1
com.github.fommil.netlib native_ref-java 1.1-уроженцы
com.github.fommil.netlib native_system-java 1,1
com.github.fommil.netlib native_system-java 1.1-аборигены
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-аборигены
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-коренные жители
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone отмечания_подверженные_ошибкам 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava гуава 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger профилировщик 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe конфигурация 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
«commons-collections» commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib БЛАС 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift воздушный компрессор 0.25
io.delta delta-sharing-client_2.12 1.0.3
io.dropwizard.metrics метрики-аннотация 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics метрики-проверка состояния 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics метрики JVM 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Финальная
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty нетти-хэндлер 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx коллектор 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation активация 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1,1
javax.transaction transaction-api 1,1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine солёный огурец 1,3
net.sf.jpam jpam 1,1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (набор инструментов для загрузки данных Snowflake) 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr шаблон строки 3.2.1
org.apache.ant муравей 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow arrow-format 12.0.1
org.apache.arrow ядро-памяти-стрелки 12.0.1
org.apache.arrow arrow-memory-netty 12.0.1
org.apache.arrow стрелка-вектор 12.0.1
org.apache.avro Avro 1.11.2
org.apache.avro avro-ipc 1.11.2
org.apache.avro avro-mapred 1.11.2
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator куратор-клиент 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator рецепты от куратора 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby дерби 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy плющ 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.20.0
org.apache.logging.log4j log4j-api 2.20.0
org.apache.logging.log4j log4j-core 2.20.0
org.apache.logging.log4j log4j-slf4j2-impl 2.20.0
org.apache.orc orc-core 1.9.2-шейдед-protobuf
org.apache.orc orc-mapreduce 1.9.2-шейд-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4,23
org.apache.yetus аннотации для аудитории 0.13.0
org.apache.zookeeper смотритель зоопарка 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino джанино 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty Джетти-континуация 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-вебприложение 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket вебсокет-сервер 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains аннотации 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.0
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap прокладки 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt тестовый интерфейс 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest совместимый с Scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1