Databricks Runtime 13.1 (EoS)
Примечание.
Поддержка этой версии databricks Runtime закончилась. Информацию о дате окончания поддержки см. в Истории окончания поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 13.1, на базе Apache Spark 3.4.0.
Databricks выпустила эту версию в мае 2023 года.
Новые функции и внесенные улучшения
- Поддержка кластера для JDK 17 (общедоступная предварительная версия)
- Добавление, изменение или удаление данных в таблицах потоковой передачи
- Чтение Kafka с помощью SQL
- Новые встроенные функции SQL
- Поддержка каталога Unity для библиотек Python с областью действия кластера
- Включение по умолчанию расширено для оптимизированных записей в каталоге Unity
- Расширенная поддержка операторов с сохранением состояния в структурированных потоковых рабочих нагрузках
- Delta-клон для каталога Unity находится в публичном предварительном просмотре
- Поддержка pub/sub для структурированной потоковой передачи
- Удаление дубликатов в подложках в структурированной потоковой передаче
- Расширенная поддержка преобразований Delta из таблиц Iceberg с усеченными столбцами разделов
- Потоковое изменение схемы с сопоставлением столбцов в Delta Lake
- Удаление НАЧАЛЬНОЙ ВЕРСИИ
- Новые выражения H3, доступные с помощью Python
Поддержка кластера для JDK 17 (общедоступная предварительная версия)
Databricks теперь поддерживает кластер для пакета средств разработки Java (JDK) 17. См. SDK Databricks для Java.
Добавление, изменение или удаление данных в таблицах потоковой передачи
Теперь можно использовать инструкции DML для изменения потоковых таблиц, опубликованных в Unity Catalog конвейерами DLT. См. сведения о добавлении, изменении или удалении данных в потоковой таблице и добавлении, изменении или удалении данных в целевой потоковой таблице. Инструкции DML также можно использовать для изменения таблиц потоковой передачи, созданных в Databricks SQL.
Чтение Kafka с помощью SQL
Теперь можно использовать функцию read_kafka
SQL для чтения данных Kafka. Потоковая передача с помощью SQL поддерживается только в DLT или с таблицами потоковой передачи в Databricks SQL. См. табличную функцию read_kafka
.
Новые встроенные функции SQL
Добавлены следующие функции:
-
array_prepend(массив, elem) Возвращает
array
, к которому добавлен в началоelem
. -
try_aes_decrypt(expr, key [, mode [, padding])) расшифровывает двоичный файл, созданный с помощью шифрования AES, и возвращается, если возникает
NULL
ошибка. - sql_keywords() Возвращает таблицу ключевых слов SQL Azure Databricks.
Поддержка Unity Catalog для библиотек Python, относящихся к кластеру
Каталог Unity имеет некоторые ограничения на использование библиотеки. В Databricks Runtime 13.1 и более поздних версиях поддерживаются кластеризованные библиотеки Python, включая файлы колес Python, отправленные в виде файлов рабочей области. Библиотеки, на которые ссылаются с помощью файловых путей DBFS, не поддерживаются, будь то в корневом каталоге DBFS или внешнем расположении, подключенном к DBFS. Библиотеки, отличные от библиотек Python, не поддерживаются. Дополнительные сведения см. в статье Библиотеки кластера.
В Databricks Runtime 13.0 и ниже библиотеки с областью действия кластера не поддерживаются в кластерах, использующих стандартный режим доступа (ранее общий режим доступа) в рабочей области с поддержкой каталога Unity.
Расширенные настройки по умолчанию для оптимизированных операций записи в Unity Catalog.
Поддержка оптимизированной записи по умолчанию для таблиц Delta, зарегистрированных в каталоге Unity, расширена для включения CTAS
инструкций и INSERT
операций для секционированных таблиц. Это поведение соответствует значениям по умолчанию в хранилищах SQL. См. Об оптимизированных записях для Delta Lake в Azure Databricks.
Расширенная поддержка сохранения состояния для операторов в рабочей нагрузке структурированной потоковой передачи
Теперь вы можете связывать несколько операторов с отслеживанием состояния вместе, что означает, что вы можете передать результаты операции, такой как агрегирование по окну, в другую операцию с отслеживанием состояния, такую как соединение. См. статью "Что такое потоковая передача с отслеживанием состояния?".
Delta-клон для Unity Catalog находится в общедоступной обзорной версии
Теперь можно использовать неглубокий клон для создания управляемых таблиц каталога Unity из существующих управляемых таблиц каталога Unity. См. раздел "Мелкий клон" для таблиц каталога Unity.
Поддержка pub/sub для структурированной потоковой передачи
Теперь можно использовать встроенный соединитель для подписки на Google Pub или Sub с структурированной потоковой передачей. См . статью "Подписка на Google Pub/Sub".
Удаление дубликатов в подложках в структурированной потоковой передаче
Теперь можно использовать dropDuplicatesWithinWatermark
в сочетании с заданным пороговым значением водяного знака для дедупликации записей в структурированной потоковой передаче. См. раздел «Удалить дубликаты в водяном знаке».
Расширенная поддержка конверсий Delta из таблиц Iceberg с усеченными разделенными столбцами.
Теперь можно использовать CLONE
и CONVERT TO DELTA
с таблицами Айсберга, которые имеют разделы, определенные для усеченных столбцов типов int
, long
, и string
. Усеченные столбцы типа decimal
не поддерживаются.
Изменения схемы потоковой передачи с сопоставлением столбцов в Delta Lake
Теперь можно предоставить местонахождение для отслеживания схемы, чтобы активировать потоковую передачу из таблиц Delta с включенным сопоставлением столбцов. См. раздел Потоковая передача с сопоставлением столбцов и изменениями схемы.
Удаление НАЧАЛЬНОЙ ВЕРСИИ
START VERSION
теперь не рекомендуется использовать для ALTER SHARE
.
Новые выражения H3, доступные с помощью Python
Выражения h3_coverash3
и h3_coverash3string
доступны в Python.
Исправления ошибок
Parquet failOnUnknownFields больше не удаляет данные о несоответствии типов без уведомления.
Если файл Parquet был считан только с параметром failOnUnknownFields
или с автоматическим загрузчиком в режиме failOnNewColumns
эволюции схемы, использование столбцов с различными типами данных теперь приводит к ошибке, и рекомендуется использовать rescuedDataColumn
. Автозагрузчик теперь правильно считывает и больше не обрабатывает целочисленные, байтовые или короткие типы, если задан один из этих типов данных. Файл Parquet указывает на один из других двух типов.
Кардинальные изменения
Обновление sqlite-jdbc до версии 3.42.0.0, чтобы устранить CVE-2023-32697.
Обновление версии sqlite-jdbc с версии 3.8.11.2 до 3.42.0.0. API версии 3.42.0.0.0 не полностью совместимы с 3.8.11.2. Если в коде используется sqlite-jdbc, ознакомьтесь с отчетом о совместимости sqlite-jdbc. При миграции на 13.1 и использовании sqlite подтвердите методы и тип возврата в версии 3.42.0.0.
Обновления библиотек
- Обновленные библиотеки Python:
- facets-overview от 1.0.2 до 1.0.3
- блокировка файлов от 3.10.7 до 3.12.0
- pyarrow от 7.0.0 до 8.0.0
- устойчивость от 8.0.1 до 8.1.0
- Обновленные библиотеки R:
- Обновленные библиотеки Java:
- com.github.ben-manes.caffeine.caffeine от 2.3.4 до 2.9.3
- io.delta.delta-sharing-spark_2.12 от 0.6.8 до 0.6.4
- net.snowflake.snowflake-jdbc от 3.13.29 до 3.13.22
- org.checkerframework.checker-qual от 3.5.0 до 3.19.0
- org.scalactic.scalactic_2.12 от 3.0.8 до 3.2.15
- org.scalatest.scalatest_2.12 от 3.0.8 до 3.2.15
- org.xerial.sqlite-jdbc от 3.8.11.2 до 3.42.0.0
Apache Spark
Databricks Runtime 13.1 включает Apache Spark 3.4.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 13.0 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- [SPARK-42719] [DBRRM-199][sc-131578] Revert "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Revert [SC-127830]/
- [SPARK-433331] [SC-130064][connect] Add Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][connect][PYTHON] Сделать возможным расширение ChannelBuilder для SparkConnectClient
- [SPARK-43323] [SC-129966][sql][PYTHON] Исправление DataFrame.toPandas с поддержкой Arrow для правильной обработки исключений
- [SPARK-42940] [SC-129896][ss][CONNECT] Улучшение управления сеансами для потоковых запросов
- [SPARK-43032] [SC-125756] [CONNECT][ss] добавить диспетчер потоковых запросов
- [SPARK-16484] [SC-129975][sql] Добавить поддержку Datasketches HllSketch
- [SPARK-43260] [SC-129281][python] Перенос ошибок типа Arrow в Spark SQL pandas в класс ошибок.
- [SPARK-41766] [SC-129964][core] Обработка запроса на деактивацию, отправленного перед регистрацией исполнителя
- [SPARK-43307] [SC-129971][python] Перенос ошибок значений PandasUDF в класс ошибок
- [SPARK-43206] [SC-129903] [SS] [CONNECT] Исключение StreamingQuery() включает трассировку стека
- [SPARK-43311] [SC-129905][ss] Добавление усовершенствований управления памятью поставщика хранилища состояний RocksDB
- [SPARK-43237] [SC-129898][core] Обработка сообщения об исключении NULL в журнале событий
- [SPARK-43320] [SC-129899][sql][HIVE] Прямой вызов API Hive 2.3.9
-
[SPARK-43270] [SC-129897][python] Реализация
__dir__()
вpyspark.sql.dataframe.DataFrame
для включения столбцов - [SPARK-43183] Отменить «[SC-128938][ss] Введите новый обратный вызов "…
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][sql] Замените класс ошибок _LEGACY_ERROR_TEMP_2022 внутренней ошибкой
- [SPARK-43198] [SC-129470][connect] Исправление "Не удалось инициализировать аммонит класса..." ошибка при использовании фильтра
- [SPARK-43165] [SC-129777][sql] Перемещение canWrite в DataTypeUtils
- [SPARK-43298] [SC-129729][python][ML] predict_batch_udf с скалярными входными данными сбоем при размере пакета один.
- [SPARK-43298] [SC-129700]Revert "[PYTHON][ml] predict_batch_udf с скалярными входными данными завершается ошибкой при размере пакета один"
- [SPARK-43052] [SC-129663][core] Обработка трассировки стека с нулевым именем файла в журнале событий
- [SPARK-43183] [SC-128938][ss] Ввести новый обратный вызов “onQueryIdle” в StreamingQueryListener
- [SPARK-43209] [SC-129190][connect][PYTHON] Перенос ошибок выражений в класс ошибок
- [SPARK-42151] [SC-128754][sql] Выравнивание назначений UPDATE с атрибутами таблицы
- [SPARK-43134] [SC-129468] [CONNECT] [SS] API исключение() потоковой передачи клиента JVM
- [SPARK-43298] [SC-129699][python][ML] predict_batch_udf с скалярными входными данными вызывает сбой с размером пакета в один.
- [SPARK-43248] [SC-129660][sql] Ненужная сериализация/десериализация пути при параллельном сборе статистики секций
-
[SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] Введение
PySparkNotImplementedError
- [SPARK-43146] [SC-128804][connect][PYTHON] Реализуйте страстную оценку и repr_html
- [SPARK-42953] [SC-129469][connect][Продолжение] Исправление maven-сборки для тестов UDF клиента Scala
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][connect] Добавление функций groupByKey + mapGroup + coGroup
-
[SPARK-43156] [SC-129672][sc-128532][SQL] Исправление ошибки
COUNT(*) is null
в коррелированных скалярных вложенных запросах - [SPARK-43046] [SC-129110] [SS] [Connect] Реализована API Python dropDuplicatesWithinWatermark для Spark Connect
- [SPARK-43199] [SC-129467][sql] Сделать InlineCTE идемпотентным
-
[SPARK-43293] [SC-129657][sql]
__qualified_access_only
следует игнорировать в обычных столбцах - [SPARK-43276] [SC-129461][connect][PYTHON] Перенос ошибок окна Spark Connect в класс ошибок
- [SPARK-43174] [SC-129109][sql] Исправление автозаполнения SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] Добавление поддержки applyInPandasWithState для spark connect
- [SPARK-43119] [SC-129040][sql] Поддержка динамического получения ключевых слов SQL через API JDBC и TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] Python UDF, оптимизированных с использованием Arrow, в Spark Connect
- [SPARK-43085] [SC-128432][sql] Поддержка назначения столбца DEFAULT для многосоставных имен таблиц
- [SPARK-43226] [LC-671] Определите средства извлечения для метаданных файловой константы
-
[SPARK-43210] [SC-129189][connect][PYTHON] Введение
PySparkAssertionError
- [SPARK-43214] [SC-129199][sql] Публикация метрик на стороне драйвера для LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Исправление последовательного сбоя ReplE2ESuite с помощью JDK 17
- [SPARK-43268] [SC-129249][sql] Используйте правильные классы ошибок при создании исключений с сообщением
- [SPARK-43142] [SC-129299] Исправление выражений DSL для атрибутов со специальными символами
- [SPARK-43129] [SC-128896] Api Scala core для потоковой передачи Spark Connect
- [SPARK-43233] [SC-129250] [SS] Добавить логирование для пакетного чтения Kafka, для раздела, для диапазона смещения и для идентификатора задачи.
- [SPARK-43249] [SC-129195][connect] Исправление отсутствующих статистик для команды SQL
- [SPARK-42945] [SC-129188][connect] Поддержка PYSPARK_JVM_STACKTRACE_ENABLED в Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Перенос ошибок UDF в платформу ошибок PySpark
- [SPARK-43123] [SC-128494][sql] Внутренние метаданные поля не должны просачиваться в каталоги
- [SPARK-43217] [SC-129205] Правильное рекурсирование в вложенных картах или массивах в findNestedField
- [SPARK-43243] [SC-129294][python][CONNECT] Добавить параметр уровня в функцию printSchema для Python
-
[SPARK-43230] [SC-129191][connect] Упростить
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403][sql] Соблюдение RequiresDistributionAndOrdering в CTAS/RTAS
-
[SPARK-43234] [SC-129192][connect][PYTHON] Миграция
ValueError
из Conect DataFrame в класс ошибок - [SPARK-43212] [SC-129187][ss][PYTHON] Перенос ошибок структурированной потоковой передачи в класс ошибок
-
[SPARK-43239] [SC-129186][ps] Удалить
null_counts
из info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput должен соответствовать дочерним выходным данным
- [SPARK-43191] [SC-128924][core] Замените рефлексию с прямым вызовом для Hadoop CallerContext
- [SPARK-43193] [SC-129042][ss] Удалить обходное решение для HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Поддержка поиска и передачи клиентских файлов классов REPL на сервер в виде артефактов
- [SPARK-43098] [SC-77059][sql] Исправление ошибки COUNT правильности, если скалярный вложенный запрос содержит предложение GROUP BY
-
[SPARK-43213] [SC-129062][python] Добавление
DataFrame.offset
в ваниль PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Исправить createDataFrame для соблюдения заданной схемы DDL
- [SPARK-43124] [SC-129011][sql] Dataset.show отображает CommandResults локально
- [SPARK-42998] [SC-127422][connect][PYTHON] Исправление DataFrame.collect с нулевой структурой
- [SPARK-41498] [SC-125343]Отмена "Распространение метаданных через объединение"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Добавление API await_termination() и exception() для потокового запроса в Python
- [SPARK-42552] [SC-128824][sql] Корректировка двухэтапной стратегии синтаксического анализа antlr
- [SPARK-43207] [SC-128937][connect] Добавление вспомогательных функций для извлечения значения из литерального выражения
- [SPARK-43186] [SC-128841][sql][HIVE] Удалить обходной путь для FileSinkDesc
- [SPARK-43107] [SC-128533][sql] Объединение контейнеров в соединении, применено к стороне потока соединения с вещанием
- [SPARK-43195] [SC-128922][core] Удалите ненужную сериализуемую обертку в HadoopFSUtils
- [SPARK-43137] [SC-128828][sql] Улучшить ArrayInsert, если позиция свертываема и положительна.
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join должно возвращать значение NULL для несовпадной строки
- [SPARK-43042] [SC-128602] [SS] [Подключение] Добавление поддержки API table() для DataStreamReader
- [SPARK-43153] [SC-128753][connect] Пропустить выполнение Spark, если кадр данных является локальным
- [SPARK-43064] [SC-128496][sql] Вкладка SQL CLI Spark SQL должна показывать каждое выражение только один раз.
- [SPARK-43126] [SC-128447][sql] Помечены два выражения UDF Hive как сохраняющие состояние
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] Объединение вложенных
if
инструкций в однуif
инструкцию. - [SPARK-43113] [SC-128749][sql] Оценка переменных на стороне потока при создании кода для привязанного условия
- [SPARK-42895] [SC-127258][connect] Улучшение сообщений об ошибках для остановленных сеансов Spark
- [SPARK-42884] [SC-126662][connect] Интеграция с Ammonite REPL
- [SPARK-43168] [SC-128674][sql] Удалить метод get PhysicalDataType из класса Datatype
-
[SPARK-43121] [SC-128455][sql] Используйте
BytesWritable.copyBytes
вместо ручного копирования в HiveInspectors - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog сохраняет метаданные Char/Varchar на стороне чтения
- [SPARK-43050] [SC-128550][sql] Исправить построение агрегатных выражений путем замены функций группирования
-
[SPARK-43095] [SC-128549][sql] Избегайте идемпотенции стратегии после того, как стратегия нарушена для пакета:
Infer Filters
- [SPARK-43130] [SC-128597][sql] Перемещение InternalType в PhysicalDataType
- [SPARK-43105] [SC-128456][connect] Сократите байты и строки в протокольном сообщении
-
[SPARK-43099] [SC-128596][sql] Используйте
getName
вместоgetCanonicalName
для получения имени класса построителя при регистрации udf в FunctionRegistry - [SPARK-42994] [SC-128586][ml][CONNECT] Распространитель PyTorch поддерживает локальный режим
- [SPARK-42859] Revert "[SC-127935][connect][PS] Базовая поддержка API pandas в Spark Connect"
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoin
не работают при использовании AQE - [SPARK-43125] [SC-128477][connect] Исправить: сервер Connect не может обрабатывать исключение с пустым сообщением
- [SPARK-43147] [SC-128594] исправление flake8 lint для локальной проверки
- [SPARK-43031] [SC-128360] [SS] [Подключение] Включение модульного теста и doctest для потоковой передачи
- [SPARK-43039] [LC-67] Поддержка настраиваемых полей в столбце источника файла _metadata.
- [SPARK-43120] [SC-128407][ss] Добавить поддержку отслеживания использования памяти закрепленных блоков для хранилища состояний RocksDB
- [SPARK-43110] [SC-128381][sql] Перемещение asIntegral в PhysicalDataType
- [SPARK-43118] [SC-128398][ss] Удаление ненужных ассертов для UninterruptibleThread в KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Поддержка повторяющихся вложенных имен полей
- [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable позволит указать уровень хранения
- [SPARK-42985] [SC-1283332][connect][PYTHON] Исправление createDataFrame для соблюдения конфигураций SQL
- [SPARK-39696] [SC-127830][core] Исправление гонки данных в доступе к TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Перемещение интегрального в PhysicalDataType
- [SPARK-42741] [SC-125547][sql] Не раскрывать приведение в двоичном сравнении, если литерал имеет значение NULL
- [SPARK-43057] [SC-127948][connect][PYTHON] Перенос ошибок столбца Spark Connect в класс ошибок
- [SPARK-42859] [SC-127935][connect][PS] Базовая поддержка API pandas в Spark Connect
-
[SPARK-43013] [SC-127773][python] Миграция
ValueError
из DataFrame вPySparkValueError
. - [SPARK-43089] [SC-128051][connect] Строка отладки Redact в пользовательском интерфейсе
- [SPARK-43028] [SC-128070][sql] Добавление класса ошибок SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Добавление теста для dropDuplicates в JavaDatasetSuite
-
[SPARK-43075] [SC-127939][connect] Измените
gRPC
наgrpcio
, если она не установлена. - [SPARK-42953] [SC-127809][connect] Типизированный фильтр, карта, плоская карта, mapPartitions
- [SPARK-42597] [SC-125506][sql] Поддержка преобразования типа даты в тип метки времени
- [SPARK-42931] [SC-127933][ss] Введение dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943][connect] Добавить константы типов данных proto
- [SPARK-43077] [SC-128050][sql] Улучшение сообщения об ошибке UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] API DataStreamReader
- [SPARK-43049] [SC-127846][sql] Использование CLOB вместо VARCHAR(255) для StringType для Oracle JDBC
- [SPARK-43018] [SC-127762][sql] Исправлена ошибка для команд INSERT с литералами меток времени
- [SPARK-42855] [SC-127722][sql] Использование проверки значений null во время выполнения в TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Дедупликация отношений с столбцами метаданных
- [SPARK-42993] [SC-127829][ml][CONNECT] Сделать распространитель PyTorch совместимым с Spark Connect
- [SPARK-43058] [SC-128072][sql] Перемещение категорий Numeric и Fractional в PhysicalDataType
- [SPARK-43056] [SC-127946][ss] Хранилище состояний RocksDB должно продолжать фоновую работу, только если она приостановлена
- [SPARK-43059] [SC-127947][connect][PYTHON] Переместить TypeError из DataFrame(Reader|Writer) в класс ошибок
- [SPARK-43071] [SC-128018][sql] Поддержка SELECT DEFAULT с ORDER BY, LIMIT, OFFSET для отношения источника INSERT
- [SPARK-43061] [SC-127956][core][SQL] Внедрение PartitionEvaluator для исполнения оператора SQL
- [SPARK-43067] [SC-127938][ss] Исправьте расположение файла ресурсов класса ошибок в соединителе Kafka
- [SPARK-43019] [SC-127844][sql] Перенос упорядочивания в PhysicalDataType
- [SPARK-43010] [SC-127759][python] Перенос ошибок столбца в класс ошибок
-
[SPARK-42840] [SC-127782][sql] Измените ошибку
_LEGACY_ERROR_TEMP_2004
на внутреннюю ошибку - [SPARK-43041] [SC-127765][sql] Восстановление конструкторов исключений для совместимости в API коннектора
- [SPARK-42939] [SC-127761][ss][CONNECT] Основной API потоковой передачи Python для Spark Connect
-
[SPARK-42844] [SC-127766][sql] Обновите класс ошибок
_LEGACY_ERROR_TEMP_2008
доINVALID_URL
- [SPARK-42316] [SC-127720][sql] Назначьте имя _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][connect][PYTHON] Перенос ошибок Spark Connect DataFrame в класс ошибок
- [SPARK-42983] [SC-127717][connect][PYTHON] Исправление createDataFrame для правильной обработки массива числовых чисел 0-dim
- [SPARK-42955] [SC-127476][sql] Пропустить classifyException и перехватить AnalysisException для SparkThrowable
- [SPARK-42949] [SC-127255][sql] Упрощение кода для NAAJ
-
[SPARK-43011] [SC-127577][sql]
array_insert
должен завершиться ошибкой с индексом 0 -
[SPARK-42974] [SC-127487][core] Восстановить
Utils.createTempDir
для использованияShutdownHookManager
и упростить методJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' также означает, что таблица уже существует
- [SPARK-42978] [SC-127351][sql] Derby&PG: RENAME не может квалифицировать новое имя таблицы с именем схемы
- [SPARK-37980] [SC-127668][sql] Доступ к row_index через _metadata, если это возможно, в тестах
- [SPARK-42655] [SC-127591][sql] Ошибка неверной ссылки на неоднозначный столбец
-
[SPARK-43009] [SC-127596][sql] Параметризованные
sql()
с использованием константAny
- [SPARK-43026] [SC-127590][sql] Применить AQE с кэшем таблиц без обмена
- [SPARK-42963] [SC-127576][sql] Расширение SparkSessionExtensions для внедрения правил в оптимизатор этапов запросов AQE
- [SPARK-42918] [SC-127357] Обобщение обработки атрибутов метаданных в FileSourceStrategy
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT] Добавление поддержки
Catalog
- [SPARK-42997] [SC-127535][sql] TableOutputResolver должен использовать правильные пути столбцов в сообщениях об ошибках для массивов и карт
- [SPARK-43006] [SC-127486][pyspark] Исправление опечатки в StorageLevel eq()
- [SPARK-43005] [SC-127485][pyspark] Исправить опечатку в pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Исправление опечатки в ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Реализация функций Avro
- [SPARK-42979] [SC-127272][sql] Определение литеральных конструкторов как ключевые слова
- [SPARK-42946] [SC-127252][sql] Редактировать конфиденциальные данные, вложенные подстановкой переменных
- [SPARK-42952] [SC-127260][sql] Упростить параметр правила PreprocessTableCreation и DataSourceAnalysis
- [SPARK-42683] [LC-75] Автоматическое переименование конфликтующих столбцов метаданных
- [SPARK-42853] [SC-126101][отслеживание] Исправление конфликтов
- [SPARK-42929] [SC-126748][connect] обеспечить поддержку "is_barrier" для mapInPandas / mapInArrow
- [SPARK-42968] [SC-127271][ss] Добавление параметра пропуска координатора фиксации в рамках API StreamingWrite для источников и приемников DSv2
-
[SPARK-42954] [SC-127261][python][CONNECT] Добавление
YearMonthIntervalType
в PySpark и Клиент Python Spark Connect -
[SPARK-41359] [SC-127256][sql] Использовать
PhysicalDataType
вместо DataType в UnsafeRow - [SPARK-42873] [SC-127262][sql] Определение типов SQL Spark в качестве ключевых слов
-
[SPARK-42808] [SC-126302][core] Избегайте повторного запроса доступных процессоров каждый раз в
MapOutputTrackerMaster#getStatistics
-
[SPARK-42937] [SC-126880][sql]
PlanSubqueries
должен задать значение trueInSubqueryExec#shouldBroadcast
-
[SPARK-42896] [SC-126729][sql][PYTHON] Обеспечить поддержку барьерного режима выполнения для
mapInPandas
/mapInArrow
- [SPARK-42874] [SC-126442][sql] Включение новой системы тестирования золотых файлов для анализа всех входных файлов
- [SPARK-42922] [SC-126850][sql] Переход от "Random" к SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange ссылается на несуществующие узлы
- [SPARK-40822] [SC-126274][sql] Стабильные производные псевдонимы столбцов
- [SPARK-42908] [SC-126856][python] Выдаёт RuntimeError, если SparkContext требуется, но не был запущен
- [SPARK-42779] [SC-126042][sql] Разрешить записям V2 указывать рекомендованный размер раздела перетасовки
-
[SPARK-42914] [SC-126727][python] Повторно использовать
transformUnregisteredFunction
дляDistributedSequenceID
. - [SPARK-42878] [SC-126882][connect] API таблицы в DataFrameReader также может принимать параметры
-
[SPARK-42927] [SC-126883][core] Измените область доступа
o.a.spark.util.Iterators#size
наprivate[util]
- [SPARK-42943] [SC-126879][sql] Используйте LONGTEXT вместо TEXT для StringType, чтобы увеличить длину.
- [SPARK-37677] [SC-126855][core] Unzip может сохранить разрешения на файлы
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Реализация API coGrouped Map
- [SPARK-41876] [SC-126849][connect][PYTHON] Реализация DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][core][SQL] Измените область доступа
ProtobufSerDe
связанных реализаций наprivate[protobuf]
- [SPARK-42819] [SC-125879][ss] Добавьте поддержку настройки max_write_buffer_number и write_buffer_size для RocksDB, используемых в потоковой передаче
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Уточнение комментария параметризованных SQL-аргументов
- [SPARK-42748] [SC-126455][connect] Управление артефактами на стороне сервера
- [SPARK-42816] [SC-126365][connect] Поддержка максимального размера сообщения до 128 МБ
- [SPARK-42850] [SC-126109][sql] Удаление повторяющихся правил CombineFilters в оптимизаторе
- [SPARK-42662] [SC-126355][connect][PS] Добавление прото-сообщения для API pandas в индексе по умолчанию Spark
- [SPARK-42720] [SC-126136][ps][SQL] Использует выражение для индекса по умолчанию распределенной последовательности вместо плана
- [SPARK-42790] [SC-126174][sql] Абстрагировать исключенный метод для более эффективного тестирования docker JDBC.
- [SPARK-42900] [SC-126473][connect][PYTHON] Исправление createDataFrame для соблюдения инференции и имен столбцов
- [SPARK-42917] [SC-126657][sql] Исправление getUpdateColumnNullabilityQuery для DerbyDialect
- [SPARK-42684] [SC-125157][sql] каталог версии 2 не должен разрешать значение столбца по умолчанию
- [SPARK-42861] [SC-126635][sql] Использовать private[sql] вместо protected[sql], чтобы избежать создания документации API
- [SPARK-42920] [SC-126728][connect][PYTHON] Включить тесты для UDF совместно с UDT
- [SPARK-42791] [SC-126617][sql] Создать новый фреймворк для тестирования эталонных файлов для анализа
- [SPARK-42911] [SC-126652][python] Введите более основные исключения
- [SPARK-42904] [SC-126634][sql] Поддержка Char/Varchar для каталога JDBC
-
[SPARK-42901] [SC-126459][connect][PYTHON] Переместить
StorageLevel
в отдельный файл, чтобы избежать потенциальныхfile recursively imports
-
[SPARK-42894] [SC-126451][connect] Поддержка
cache
/persist
/unpersist
/storageLevel
для jvm-клиента Spark connect - [SPARK-42792] [SC-125852][ss] Добавление поддержки WRITE_FLUSH_BYTES для RocksDB, используемых в операторах потоковой передачи с отслеживанием состояния
- [SPARK-41233] [SC-126441][connect][PYTHON] Добавить array_prepend в клиент Python для Spark Connect
- [SPARK-42681] [SC-125149][sql] Ослабление ограничения порядка для ALTER TABLE ADD|REPLACE дескриптор столбца
- [SPARK-42889] [SC-126367][connect][PYTHON] Реализуйте кэширование, персистирование, удаление сохранения и storageLevel
- [SPARK-42824] [SC-125985][connect][PYTHON] Укажите четкое сообщение об ошибке для неподдерживаемых атрибутов JVM
- [SPARK-42340] [SC-126131][connect][PYTHON] Реализация API сгруппированной карты
- [SPARK-42892] [SC-126454][sql] Move sameType и соответствующие методы из DataType
-
[SPARK-42827] [SC-126126][connect] Поддержка
functions#array_prepend
для клиента Scala connect -
[SPARK-42823] [SC-125987][sql]
spark-sql
shell поддерживает многопартийные пространства имен для инициализации - [SPARK-42817] [SC-125960][core] Ведение журнала имени службы перетасовки один раз в ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Typed Select
-
[SPARK-42800] [SC-125868][connect][PYTHON][ml] Реализация функции ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439][sql] Поддержка Codegen для HiveSimpleUDF
-
[SPARK-41233] [SC-126110][sql][PYTHON] Добавить функцию
array_prepend
-
[SPARK-42864] [SC-126268][ml][3.4] Сделать
IsotonicRegression.PointsAccumulator
приватным - [SPARK-42876] [SC-126281][sql] physicalDataType класса DataType должен быть приватным[sql]
- [SPARK-42101] [SC-125437][sql] Сделать AQE поддерживающим InMemoryTableScanExec
- [SPARK-41290] [SC-124030][sql] Поддержка выражений CREATEED ALWAYS AS для столбцов в инструкциях создания и замены таблиц
-
[SPARK-42870] [SC-126220][connect] Переместить
toCatalystValue
наconnect-common
- [SPARK-42247] [SC-126107][connect][PYTHON] Исправление UserDefinedFunction для установления returnType
- [SPARK-42875] [SC-126258][connect][PYTHON] Исправление toPandas для правильной обработки часовых поясов и типов карт
- [SPARK-42757] [SC-125626][connect] Реализация textFile для DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Используйте функцию getParameterCount вместо getParameterTypes.length.
-
[SPARK-42833] [SC-126043][sql] Рефакторинг
applyExtensions
вSparkSession
- [SPARK-41765] Revert "[SC-123550][sql] Извлечь метрики записи версии 1...
- [SPARK-42848] [SC-126105][connect][PYTHON] Реализовать DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] Поддержка UserDefinedType в Spark Connect
- [SPARK-42818] [SC-125861][connect][PYTHON] Реализация DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][connect] Добавить client_type в сообщение AddArtifactsRequest в формате protobuf
- [SPARK-42772] [SC-125860][sql] Изменено значение по умолчанию опций JDBC о push down на true
- [SPARK-42771] [SC-125855][sql] Рефакторинг HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: написание сложных союзов
-
[SPARK-42765] [SC-125850][connect][PYTHON] Включение импорта
pandas_udf
изpyspark.sql.connect.functions
-
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocation
должны соблюдатьspark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173][sql] Улучшение производительности удаления разделов
- [SPARK-42689] [SC-125195][core][SHUFFLE] Разрешить ShuffleDriverComponent объявить, надежно ли хранятся данные перетасовки
-
[SPARK-42726] [SC-125279][connect][PYTHON] Реализация
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550][sql] Извлечение метрик записи версии 1 в WriteFiles
- [SPARK-41171] [SC-124191][sql] Определение и снижение ограничения окна через окно, если partitionSpec пуста
- [SPARK-42686] [SC-125292][core] Отложить форматирование сообщений отладки в TaskMemoryManager
- [SPARK-42756] [SC-125443][connect][Python] Вспомогательные функции для преобразования прото-литерала в значение в клиенте Python
-
[SPARK-42793] [SC-125627][connect]
connect
модуль требуетbuild_profile_flags
-
[SPARK-42701] [SC-125192][sql] Добавьте функцию
try_aes_decrypt()
- [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame не работает с ненулевой схемой
- [SPARK-42733] [SC-125542][connect][Дополнение] Запись без пути или таблицы
- [SPARK-42777] [SC-125525][sql] Включение возможности преобразования статистики каталога TimestampNTZ в статистику плана
-
[SPARK-42770] [SC-125558][connect] Добавить
truncatedTo(ChronoUnit.MICROS)
, чтобыSQLImplicitsTestSuite
прошёл в Java 17 ежедневной тестовой задаче GA - [SPARK-42752] [SC-125550][pyspark][SQL] Создание исключений PySpark для печати во время инициализации
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Поддержка метода spark connect session getActiveSession
-
[SPARK-42755] [SC-125442][connect] Вынести преобразование литеральных значений в
connect-common
- [SPARK-42747] [SC-125399][ml] Исправление некорректного внутреннего состояния LoR и AFT
- [SPARK-42740] [SC-125439][sql] Исправлена ошибка, из-за которой смещение pushdown или разбиение по страницам не работает для некоторых встроенных диалектов.
- [SPARK-42745] [SC-125332][sql] Улучшенная версия AliasAwareOutputExpression работает с DSv2
- [SPARK-42743] [SC-125330][sql] Поддержка анализа столбцов TimestampNTZ
- [SPARK-42721] [SC-125371][connect] перехватчик журналов RPC
- [SPARK-42691] [SC-125397][connect][PYTHON] Реализация набора данных.semanticHash
- [SPARK-42688] [SC-124922][connect] Переименовать client_id запроса proto connect на session_id
- [SPARK-42310] [SC-122792][sql] Назначьте имя _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][core] Оптимизация подпрограмм Utils.bytesToString
- [SPARK-42725] [SC-125296][connect][PYTHON] Make LiteralExpression support array params
- [SPARK-42702] [SC-125293][spark-42623][SQL] Поддержка параметризованного запроса в вложенных запросах и CTE
- [SPARK-42697] [SC-125189][webui] Исправление /api/v1/applications для возврата общего времени простоя вместо 0 для поля длительности
- [SPARK-42733] [SC-125278][connect][PYTHON] Исправить DataFrameWriter.save для работы без параметра пути
- [SPARK-42376] [SC-124928][ss] Введение распространения подложки между операторами
- [SPARK-42710] [SC-125205][connect][PYTHON] Переименовать proto FrameMap в MapPartitions
- [SPARK-37099] [SC-123542][sql] Введите ограничение группы фильтра на основе ранга для оптимизации вычислений top-k
- [SPARK-42630] [SC-125207][connect][PYTHON] Введение UnparsedDataType и задержка синтаксического анализа строки DDL до тех пор, пока SparkConnectClient не будет доступен
- [SPARK-42690] [SC-125193][connect] Реализация функций анализа CSV/JSON для клиента Scala
-
[SPARK-42709] [SC-125172][python] Удалите предположение о доступности
__file__
- [SPARK-42318] [SC-122648][spark-42319][SQL] Присвоить имя LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Поддержка разбора типа данных json "timestamp_ltz" как TimestampType
- [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() не должен кэшировать схему
- [SPARK-42643] [SC-125152][connect][PYTHON] Регистрация пользовательских функций Java (агрегатная)
- [SPARK-42656] [SC-125177][connect][Отслеживание] Исправить скрипт spark-connect
- [SPARK-41516] [SC-123899] [SQL] Разрешить jdbc диалектам переопределить запрос, используемый для создания таблицы
- [SPARK-41725] [SC-124396][connect] Неотложное выполнение DF.sql()
-
[SPARK-42687] [SC-124896][ss] Улучшено сообщение об ошибке для операции неподдерживаемого
pivot
в потоковой передаче - [SPARK-42676] [SC-124809][ss] Запись временных контрольных точек для потоковых запросов в локальную файловую систему, даже если по умолчанию FS задано по-разному.
- [SPARK-42303] [SC-122644][sql] Присвойте имя _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][sql] Обеспечьте, что по крайней мере одна единица времени следует за «интервал»
- [SPARK-42649] [SC-124576][core] Удалите стандартный заголовок Apache License из верхней части сторонних исходных файлов
- [SPARK-42611] [SC-124395][sql] Вставка проверок длины char/varchar для внутренних полей во время разрешения
- [SPARK-42419] [SC-124019][connect][PYTHON] Переход на структуру ошибок для столбцового API Spark Connect.
- [SPARK-42637] [SC-124522][connect] Добавить SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Изменить псевдонимы для устаревших и удаленных типов в библиотеке numpy
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver должен закрыть только запущенное состояние сессии Hive
- [SPARK-42593] [SC-124405][ps] Нерекомендуйте & удалите API, которые будут удалены в pandas 2.0.
- [SPARK-41870] [SC-124402][connect][PYTHON] Исправление createDataFrame для обработки повторяющихся имен столбцов
- [SPARK-42569] [SC-124379][connect] Вызов исключений для неподдерживаемого API сеанса
- [SPARK-42631] [SC-124526][connect] Поддержка пользовательских расширений в клиенте Scala
- [SPARK-41868] [SC-124387][connect][PYTHON] Исправление createDataFrame для поддержки длительности
- [SPARK-42572] [SC-124171][sql][SS] Исправление поведения для StateStoreProvider.validateStateRowFormat
Обновления в рамках обслуживания
Ознакомьтесь с обновлениями для обслуживания Databricks Runtime 13.1.
Системная среда
- Операционная система: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Установленные библиотеки Python
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | атрибуты | 21.4.0 | обратный вызов | 0.2.0 |
beautifulsoup4 | 4.11.1 | чёрный | 22.6.0 | отбеливатель | 4.1.0 |
поворотник | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | щелчок | 8.0.4 | криптография | 37.0.1 |
циклер | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | декоратор | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0,12 | входные точки | 0,4 |
выполнять | 1.2.0 | обзор фасетов | 1.0.3 | fastjsonschema | 2.16.3 |
блокировка файла | 3.12.0 | шрифтовые инструменты | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3,3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
джедай | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | нажатие клавиш | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | матплотлиб-инлайн | 0.1.6 |
Маккейб | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
записная книжка | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
упаковка | 21,3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | спецификация пути | 0.9.0 | простофиля | 0.5.2 |
pexpect | 4.8.0 | пиклшер | 0.7.5 | Подушка | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | график | 5.9.0 |
Плагги | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | запросы | 2.28.1 | верёвка | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
мореборн | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | шесть | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5,11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
упорство | 8.1.0 | завершено | 0.13.1 | тестовый путь | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.1 | typing_extensions (расширения для набора) | 4.3.0 |
ujson | 5.4.0 | автоматические обновления | 0,1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
вебкодировки | 0.5.1 | whatthepatch | 1.0.2 | колесо | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Установленные библиотеки R
Библиотеки R устанавливаются из моментального снимка от Microsoft CRAN от 10.02.2023.
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
Стрелка | 10.0.1 | askpass | 1,1 | assertthat | 0.2.1 |
обратные порты | 1.4.1 | база | 4.2.2 | base64enc | 0.1-3 |
бит | 4.0.5 | bit64 | 4.0.5 | BLOB (большой двоичный объект) | 1.2.3 |
загрузка | 1.3-28 | заваривать | 1,0–8 | brio | 1.1.3 |
метла | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
вызывающий объект | 3.7.3 | каретка | 6.0-93 | cellranger | 1.1.0 |
хроника | 2.3-59 | класс | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | часы | 0.6.1 | кластер | 2.1.4 |
codetools | 0.2-19 | цветовое пространство | 2.1-0 | commonmark | 1.8.1 |
компилятор | 4.2.2 | конфигурация | 0.3.1 | cpp11 | 0.4.3 |
карандаш | 1.5.2 | учетные данные | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | наборы данных | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | описание | 1.4.2 | средства разработки | 2.4.5 |
diffobj | 0.3.5 | дайджест | 0.6.31 | нижнее освещение | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
многоточие | 0.3.2 | оценивать | 0,20 | фанаты | 1.0.4 |
Farver | 2.1.1 | быстрая карта | 1.1.0 | fontawesome | 0.5.0 |
форкаты | 1.0.0 | foreach | 1.5.2 | иностранный | 0.8-82 |
Depending on the intended meaning, the translation could be "ковать" or "подделывать". | 0.2.0 | fs | 1.6.1 | будущее | 1.31.0 |
future.apply | 1.10.0 | полоскание | 1.3.0 | Дженерики | 0.1.3 |
Герт | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | глобальные переменные | 0.16.2 |
клей | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Говер | 1.0.1 | графика | 4.2.2 | grDevices | 4.2.2 |
сетка | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | каска | 1.2.0 | убежище | 2.5.1 |
выше | 0.10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
идентификаторы | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Итераторы | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
маркирование | 0.4.2 | позже | 1.3.0 | решётка | 0.20-45 |
лава | 1.7.1 | жизненный цикл | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1.5 |
МАССА | 7.3-58.2 | «Матрица» | 1.5-1 | memoise | 2.0.1 |
методы | 4.2.2 | mgcv | 1.8-41 | мим | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | параллель | 4.2.2 |
параллельно | 1.34.0 | столб | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | хвалить | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Ход выполнения | 1.2.2 |
progressr | 0.13.0 | обещания | 1.2.0.1 | прото | 1.0.0 |
прокси | 0.4-27 | п.с. | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | Рецепты | 1.0.4 |
реванш | 1.0.1 | реванш2 | 2.1.2 | пульты | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | дерзость | 0.4.5 | весы | 1.2.1 |
селектор | 0.4-2 | информация о сессии | 1.2.2 | форма | 1.4.6 |
блестящий | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | пространственный | 7.3-15 | Сплайны | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | статистика | 4.2.2 |
статистика4 | 4.2.2 | стринги | 1.7.12 | stringr | 1.5.0 |
выживание | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | формирование текста | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | изменение времени | 0.2.0 | ВремяДата | 4022.108 |
tinytex | 0,44 | инструменты | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | используйэто | 2.1.6 | utf8 | 1.2.3 |
утилиты | 4.2.2 | универсально уникальный идентификатор (UUID) | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | врум | 1.6.1 | waldo | 0.4.0 |
усы | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.12)
ИД группы | Идентификатор артефакта | Версия |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | амазон-кинесис-клиент | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm (AWS SDK для Java — SSM модуль) | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | поток | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1–0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | крио-затемненный | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | одноклассник | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-аборигены |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | родная_система-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-местные жители |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | ошибкоопасные_аннотации | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | гуава | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | профилер | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | исходный_код_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | конфигурация | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
загрузка файлов в общие ресурсы | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
логгирование общих компонентов | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | BLAS | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | воздушный компрессор | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | основные метрики | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | метрики-проверки здоровья | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | коллекционер | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | активация | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | интерфейс транзакций | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | солёный огурец | 1,3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk (пакет разработки для загрузки данных Snowflake) | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | строковый шаблон | 3.2.1 |
org.apache.ant | муравей | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | формат стрелки | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | векторная стрелка | 11.0.0 |
org.apache.avro | Avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1,21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | куратор-клиент | 2.13.0 |
org.apache.curator | curator-фреймворк | 2.13.0 |
org.apache.curator | куратор-рецепты | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | дерби | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | плющ | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-шейд-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-шейд-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | аннотации для аудитории | 0.13.0 |
org.apache.zookeeper | смотритель зоопарка | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | сервер Jetty | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | вебсокет-клиент | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | вебсокет-сервер | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-локатор | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | локатор ресурсов OSGi | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator (проверка ограничений в Hibernate) | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | аннотации | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | прокладки | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | тестовый интерфейс | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | совместимый с ScalaTest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | хз | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |