Databricks Runtime 12.2 LTS
Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 12.2 LTS, con tecnología de Apache Spark 3.3.2.
Databricks publicó esta versión en marzo de 2023.
Nota:
LTS significa que esta versión tiene soporte técnico a largo plazo. Consulte Ciclo de vida de la versión de Databricks Runtime LTS.
Sugerencia
Para ver las notas de la versión de las versiones de Databricks Runtime que han llegado a la finalización del soporte (EoS), vea las Notas de la versión de finalización del soporte de Databricks Runtime. Las versiones de Databricks Runtime EoS se han retirado y es posible que no se actualicen.
Cambios en el comportamiento
[Cambio importante] La nueva versión de Python requiere actualizar los clientes de Python de Databricks Connect V1
Nota:
Una actualización posterior mueve la versión de Python en Databricks Runtime 12.2 LTS a 3.9.21. La versión 3.9.21 no presenta ningún cambio de comportamiento.
Para aplicar los parches de seguridad necesarios, la versión de Python de Databricks Runtime 12.2 LTS se actualiza de 3.9.5 a 3.9.19. Dado que estos cambios pueden provocar errores en los clientes que usan funciones específicas de PySpark, los clientes que usan Databricks Connect V1 para Python con Databricks Runtime 12.2 LTS deben actualizar a Python 3.9.7 o posterior.
Nuevas características y mejoras
- Python actualizado de 3.9.19 a 3.9.21
- La evolución del esquema de Delta Lake admite la especificación de columnas de origen en instrucciones de combinación
- Las cargas de trabajo de Structured Streaming se admiten en clústeres con modo de acceso compartido
- Nuevas características para E/S predictivas
- Compatibilidad con alias de columna lateral implícita
- Nueva característica forEachBatch
- Opciones de conexión estandarizadas para la federación de consultas
- Biblioteca de funciones SQL extendidas para la administración de matrices
- Nueva función de máscara para anonimizar cadenas
- Las condiciones de error comunes ahora devuelven valores de SQLSTATE
- Invocación de funciones generadoras en la cláusula FROM
- La compatibilidad con búferes de protocolo está disponible con carácter general
- Ir a la definición para las variables y funciones del cuaderno
- Corrección rápida de Notebook para la importación automática de bibliotecas
- Correcciones de errores
Python actualizado de 3.9.19 a 3.9.21
La versión de Python de Databricks Runtime 12.2 LTS se actualiza de 3.9.19 a 3.9.21.
La evolución del esquema de Delta Lake admite la especificación de columnas de origen en instrucciones de combinación
Ahora puede especificar columnas presentes solo en la tabla de origen en acciones de inserción o actualización para instrucciones de combinación cuando la evolución del esquema está habilitada. En Databricks Runtime 12.1 y en las versiones posteriores, solo se pueden usar las acciones INSERT *
o UPDATE SET *
para la evolución del esquema con combinación. Consulte Evolución automática del esquema para la combinación de Delta Lake.
Las cargas de trabajo de Structured Streaming se admiten en clústeres con modo de acceso compartido
Ahora puede usar Structured Streaming para interactuar con Catalogo de Unity en computación con el modo de acceso estándar. Se aplican algunas limitaciones. Consulte ¿Qué funcionalidad de Structured Streaming admite Unity Catalog?.
Nuevas características para E/S predictivas
La compatibilidad de Photon con el receptor Foreachbatch
ya está disponible. Las cargas de trabajo que se transmiten desde un origen y se combinan en tablas delta o que escriben en varios receptores ahora pueden beneficiarse del receptor Photonized Foreachbatch
.
Compatibilidad con alias de columna lateral implícita
Azure Databricks ahora admite el alias de columna lateral implícito de forma predeterminada. Ahora puede reutilizar una expresión especificada anteriormente en la misma lista SELECT
. Por ejemplo, dado SELECT 1 AS a
, a + 1 AS b
, la a
en a + 1
se puede resolver como el elemento 1 AS a
anteriormente definido. Consulte Resolución de nombres para obtener más detalles sobre el orden de resolución.
Para desactivar esta característica, puede establecer spark.sql.lateralColumnAlias.enableImplicitResolution
en false
.
Nueva característica forEachBatch
Photon ahora se admite al usar foreachBatch
para escribir en un receptor de datos.
Opciones de conexión estandarizadas para la federación de consultas
Ahora puede usar un conjunto unificado de opciones (host, puerto, base de datos, usuario, contraseña) para conectarse a orígenes de datos admitidos en federación de consultas.
Port
es opcional y usa el número de puerto predeterminado para cada origen de datos si no se proporciona.
Biblioteca de funciones SQL extendidas para la administración de matrices
Ahora puede quitar todos los elementos NULL de una matriz mediante array_compact. Para anexar elementos a una matriz, use array_append.
Nueva función de máscara para anonimizar cadenas
Invoque la función de máscara para anonimizar valores de cadena confidenciales.
Las condiciones de error comunes ahora devuelven valores de SQLSTATE
La mayoría de las condiciones de error de Databricks Runtime ahora incluyen valores de SQLSTATE documentados, que se pueden usar para pruebas de errores de forma de cumpla con el estándar de SQL.
Invocación de funciones generadoras en la cláusula FROM
Ahora puede invocar funciones de generador con valores de tabla, como explode en la cláusula regular FROM
de una consulta. Esto alinea la invocación de función del generador con otras funciones de tabla integradas y definidas por el usuario.
La compatibilidad con búferes de protocolo está disponible con carácter general
Puede usar las funciones from_protobuf
y to_protobuf
para intercambiar datos entre tipos binarios y struct. Consulte Búferes de protocolo de lectura y escritura.
Ir a la definición para las variables y funciones del cuaderno
En los cuadernos, puede ir rápidamente a la definición de una variable, función o el código detrás de una instrucción %run
haciendo clic con el botón derecho en el nombre de la variable o función.
Corrección rápida de Notebook para la importación automática de bibliotecas
Los Notebooks de Databricks ahora ofrecen una característica de corrección rápida para las bibliotecas de importación automática. Si olvida importar una biblioteca como Pandas, mantenga el puntero sobre la advertencia de sintaxis subrayada y, a continuación, haga clic en Corrección rápida, esta característica requiere que Databricks Assistant esté habilitado en el área de trabajo.
Corrección de errores
- Coherencia mejorada para el comportamiento de confirmación Delta para transacciones vacías relacionadas con los comandos
update
,delete
ymerge
. En el nivel de aislamientoWriteSerializable
, los comandos que no dan lugar a cambios ahora crean una confirmación vacía. En un nivel de aislamientoSerializable
, estas transacciones vacías ahora no crean una confirmación.
Cambios de comportamiento
Cambios de comportamiento con la nueva característica de alias de columna lateral
La nueva característica de alias de columna lateral presenta cambios de comportamiento para los siguientes casos durante la resolución de nombres:
- Ahora, el alias de columna lateral tiene prioridad sobre las referencias correlacionadas con el mismo nombre. Por ejemplo, para esta consulta
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
, el elementoc1
en elc1 AS c2
interno, se resolvió en la referencia correlacionadat.c1
, pero ahora cambia al alias1 AS c1
de la columna lateral. La consulta ahora devuelveNULL
. - Ahora, el alias de columna lateral tiene prioridad sobre los parámetros de función con el mismo nombre. Por ejemplo, para la función,
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
, el elementox
del cuerpo de la función se resolvió en el parámetro de función x, pero cambia al aliasx + 1
de columna lateral en el cuerpo de la función. La consulta,SELECT * FROM func(1)
ahora devuelve2, 2
. - Para desactivar la característica de alias de columna lateral, establezca
spark.sql.lateralColumnAlias.enableImplicitResolution
enfalse
. Para obtener más información, consulte Resolución de nombres.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- filelock de 3.8.2 a 3.9.0
- joblib de 1.1.0 a 1.1.1
- platformdirs de 2.6.0 a 2.6.2
- whatthepatch de 1.0.3 a 1.0.4
- Bibliotecas de R actualizadas:
- clase de 7.3-20 a 7.3-21
- codetools de 0.2-18 a 0.2-19
- MASS de 7.3-58 a 7.3-58.2
- nlme de 3.1-160 a 3.1-162
- Rserve de 1.8-11 a 1.8-12
- SparkR de 3.3.1 a 3.3.2
Cambios de comportamiento
- Ahora, los usuarios deben tener los privilegios
SELECT
yMODIFY
en cualquier archivo al crear un esquema con una ubicación definida.
Apache Spark
Databricks Runtime 12.2 incluye Apache Spark 3.3.2. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 12.1 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Las operaciones dateset no deben resolver de nuevo el plan lógico analizado.
- [SPARK-41848] Revertir "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Corrección de tareas programadas con TaskResourceProfile"
- [SPARK-42162] [SC-122711][es-556261] Introduce la expresión MultiCommutativeOp como una optimización de memoria para canónicor árboles grandes de expresiones conmutantes
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Corregir la configuración de profundidad recursiva para las funciones protobuf
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementar DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Cambiar el nombre de _catalog_to_pandas a _execute_and_fetch en el catálogo
- [SPARK-41490] [SC-121774][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Implementar Catalog.cacheTable, isCached y uncache
- [SPARK-42191] [SC-121990][sql] Compatibilidad con udf "luhn_check"
- [SPARK-42253] [SC-121976][python] Agregar prueba para detectar la clase de error duplicada
- [SPARK-42268] [SC-122251][connect][PYTHON] Agregar UserDefinedType en los protos
-
[SPARK-42231] [SC-121841][sql] Convertir
MISSING_STATIC_PARTITION_COLUMN
eninternalError
- [SPARK-42136] [SC-122554] Refactorizar el cálculo de particiones de salida de BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrar
_LEGACY_ERROR_TEMP_1003
enFIELD_NOT_FOUND
- [SPARK-42192] [12.x][sc-121820][PYTHON] Migrar TypeError de pyspark/sql/dataframe.py a PySparkTypeError
- [SPARK-35240] Revertir "[SC-118242][ss] Usar CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1176 (y 1177)
-
[SPARK-42232] [SC-122267][sql] Cambiar el nombre de la clase de error:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][sql] Reescribir agregados distintos después de la fusión de subconsultas
-
[SPARK-42306] [SC-122539][sql] Integrar
_LEGACY_ERROR_TEMP_1317
enUNRESOLVED_COLUMN.WITH_SUGGESTION
-
[SPARK-42234] [SC-122354][sql] Cambiar el nombre de la clase de error:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
-
[SPARK-42343] [SC-122437][core] Omitir
IOException
enhandleBlockRemovalFailure
si SparkContext está detenido - [SPARK-41295] [SC-122442][spark-41296][SQL] Cambiar el nombre de las clases de error
- [SPARK-42320] [SC-122478][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][connect] SparkConnectClient admite ahora RetryPolicies
- [SPARK-38728] [SC-116723][sql] Pruebe la clase de error: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Ejemplos independientes en PySpark
- [SPARK-39347] [SC-122457][ss] Solución de errores para el cálculo de la ventana de tiempo cuando la hora del evento < 0
-
[SPARK-42336] [SC-122458][core] Use
getOrElse()
en lugar decontains()
en ResourceAllocator - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF en Spark Connect
- [SPARK-42217] [SC-122263][sql] Admite alias de columna lateral implícito en consultas con ventanas
- [SPARK-35240] [SC-118242][ss] Usar CheckpointFileManager para la manipulación de ficheros de punto de control
- [SPARK-42294] [SC-122337][sql] Incluir los valores predeterminados de la columna en la salida de DESCRIBIR para tablas V2
- [SPARK-41979] Revertir “Revertir “[12.x][sc-121190][SQL] Añadir puntos faltantes para mensajes de error en clases de error.””
- [SPARK-42286] [SC-122336][sql] Retrocede a la ruta de ejecución anterior de codegen para una expresión compleja con CAST
- [SPARK-42275] [SC-122249][connect][PYTHON] Evite usar la lista integrada, dict en escritura estática
- [SPARK-41985] [SC-122172][sql] Centralizar más reglas de resolución de columnas
- [SPARK-42126] [SC-122330][python][CONNECT] Aceptar el tipo de valor devuelto en cadenas DDL para UDF escalares de Python en Spark Connect
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Reutiliza la inicialización de JVM y grupos de configuración independientes para establecer en modo local remoto
- [SPARK-41575] [SC-120118][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Revertir “[SC-122172][sql] Centralizar un mayor número de reglas de resolución de columnas”
- [SPARK-42123] [SC-122234][sc-121453][SQL] Incluir los valores por defecto de las columnas en DESCRIBE y la salida de SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][sql] Centralizar más reglas de resolución de columnas
- [SPARK-42284] [SC-122233][connect] Asegúrese de que el ensamblado del servidor de conexión se compila antes de ejecutar pruebas de cliente: SBT
-
[SPARK-42239] [SC-121790][sql] Integrar
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
-
[SPARK-42278] [SC-122170][sql] DS V2 pushdown soporta dialectos JDBC que se compilan
SortOrder
por sí mismos - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics debe ocuparse de UDAF de Python
- [SPARK-41979] Reversión de “[12.x][sc-121190][SQL] Agregar puntos faltantes en los mensajes de error de las clases de error.”
- [SPARK-42224] [12.x][sc-121708][CONNECT] Migrar TypeError al marco de error para las funciones de Spark Connect
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migre los errores de Spark Connect al marco de errores de PySpark.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Agregar funciones de tabla integradas inline y inline_outer
- [SPARK-41489] [SC-121713][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Introducir PySparkValueError y PySparkTypeError
- [SPARK-42081] [SC-121723][sql] Mejorar la validación del cambio de plan
- [SPARK-42225] [12.x][sc-121714][CONNECT] Agregue SparkConnectIllegalArgumentException para controlar precisamente el error de Spark Connect.
-
[SPARK-42044] [12.x][sc-121280][SQL] Corregir un mensaje de error incorrecto para
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][sc-121712][PS] Permitir el parámetro columns al crear DataFrame con series.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrar errores lanzados por JVM a PySparkException.
- [SPARK-42133] [12.x][sc-121250] Agregar métodos básicos de la API de Dataset al cliente Scala de SparkConnect
- [SPARK-41979] [12.x][sc-121190][SQL] Agregar puntos faltantes para los mensajes de error en las clases de error.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Función escalar definida por el usuario (UDF) en línea en Python en Spark Connect
- [SPARK-42051] [SC-121994][sql] Compatibilidad de Codegen con HiveGenericUDF
- [SPARK-42257] [SC-121948][core] Quitar el clasificador externo de variables sin usar
- [SPARK-41735] [SC-121771][sql] Use MINIMAL en lugar de STANDARD para SparkListenerSQLExecutionEnd
-
[SPARK-42236] [SC-121882][sql] Refinar
NULLABLE_ARRAY_OR_MAP_ELEMENT
-
[SPARK-42233] [SC-121775][sql] Mejorar el mensaje de error para
PIVOT_AFTER_GROUP_BY
-
[SPARK-42229] [SC-121856][core] Migración de
SparkCoreErrors
a clases de error - [SPARK-42163] [SC-121839][sql] Corrección de la poda del esquema para índice de matriz no reducible o clave de mapa
- [SPARK-40711] [SC-119990][sql] Agregar métricas de tamaño de desbordamiento para la ventana
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Hacer que
createDataFrame
soporteAtomicType -> StringType
coercion - [SPARK-42202] [SC-121837][connect][Test] Mejorar la lógica de detención del servidor de pruebas E2E
- [SPARK-41167] [SC-117425][sql] Mejorar el rendimiento de múltiples operaciones LIKE mediante la creación de un predicado de árbol de expresiones equilibrado
- [SPARK-41931] [SC-121618][sql] Mensaje de error mejor para la definición de tipo complejo incompleta
- [SPARK-36124] [SC-121339][sc-110446][SQL] Compatibilidad con subconsultas con correlación a través de UNION
- [SPARK-42090] [SC-121290][3.3] Introducir el recuento de reintentos sasl en RetryingBlockTransferor
-
[SPARK-42157] [SC-121264][core]
spark.scheduler.mode=FAIR
debería proporcionar un programador FAIR - [SPARK-41572] [SC-120772][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][sql] Cambiar el nombre de & mejorar el mensaje de error para
NULL_COMPARISON_RESULT
-
[SPARK-41976] [SC-121024][sql] Mejorar el mensaje de error para
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][sc-120573] Asignar de SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Reintentos de solicitud SASL
- [SPARK-38591] [SC-121018][sql] Agregar las funciones flatMapSortedGroups y cogroupSorted
-
[SPARK-41975] [SC-120767][sql] Mejorar el mensaje de error para
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][sql][PROTOBUF] Agregar opciones que faltan para las funciones de Protobuf
-
[SPARK-41984] [SC-120769][sql] Cambiar el nombre de & y mejorar el mensaje de error para
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][sql] Corregir NPE para clases de error: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Corregir el nombre de columna incorrecto en el doctest de
withField
-
[SPARK-41283] [SC-121175][connect][PYTHON] Agregar
array_append
a Connect - [SPARK-41960] [SC-120773][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][sql] Corregir getPartitionFiltersAndDataFilters() para controlar filtros sin atributos a los que se hace referencia
-
[SPARK-42096] [SC-121012][connect] Limpiar algo de código del módulo
connect
-
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Corrección de
count(*)
ycount(col(*))
- [SPARK-42045] [SC-120958][sc-120450][SQL] Modo ANSI SQL: Round/Bround debe devolver un error en un desbordamiento entero
- [SPARK-42043] [SC-120968][connect] Resultado del cliente de Scala con pruebas E2E
- [SPARK-41884] [SC-121022][connect] Admite la tupla ingenua como una fila anidada
-
[SPARK-42112] [SC-121011][sql][SS] Agregar comprobación nula antes de
ContinuousWriteRDD#compute
función closedataWriter
- [SPARK-42077] [SC-120553][connect][PYTHON] Literal debería lanzar TypeError para tipo de dato no admitido
-
[SPARK-42108] [SC-120898][sql] Hacer que el analizador transforme
Count(*)
enCount(1)
-
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Compatibilidad con SQL con parámetros mediante
sql()
- [SPARK-40599] [SC-120930][sql] Relajar el tipo de regla multiTransform para permitir alternativas de cualquier tipo de Seq
-
[SPARK-41574] [SC-120771][sql] Actualice
_LEGACY_ERROR_TEMP_2009
comoINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][sql] Convertir
INCORRECT_END_OFFSET
enINTERNAL_ERROR
- [SPARK-41530] [SC-120916][sc-118513][CORE] Cambie el nombre de MedianHeap a PercentileMap y admita percentil
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Corregir la representación de cadena para la clase Column
- [SPARK-42084] [SC-120775][sql] Evitar la fuga de la restricción de sólo acceso calificado
- [SPARK-41973] [SC-120765][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][sql] SPJ: Eliminar opción en KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][connect][PYTHON] Cambiar el nombre de los mensajes proto para
toDF
ywithColumnsRenamed
- [SPARK-42089] [SC-120605][connect][PYTHON] Solucionar problemas de nombre de variable en funciones lambda anidadas
- [SPARK-41982] [SC-120604][sql] Las particiones de tipo cadena no deben tratarse como tipos numéricos
- [SPARK-40599] [SC-120620][sql] Agregar métodos multiTransform a TreeNode para generar alternativas
-
[SPARK-42085] [SC-120556][connect][PYTHON] Hacer que
from_arrow_schema
admita tipos anidados - [SPARK-42057] [SC-120507][sql][PROTOBUF] Corregir cómo se controla la excepción en los informes de errores.
-
[SPARK-41586] [12.x][todas las pruebas][SC-120544][python] Introduce
pyspark.errors
y clases de error para PySpark. -
[SPARK-41903] [SC-120543][connect][PYTHON]
Literal
debe admitir matrices unidimensionales (ndarray) -
[SPARK-42021] [SC-120584][connect][PYTHON] Hacer que
createDataFrame
admitaarray.array
- [SPARK-41896] [SC-120506][sql] El filtrado por índice de fila devuelve resultados vacíos
- [SPARK-41162] [SC-119742][sql] Corregir anti- y semicombinación para la autocombinación con agregaciones
- [SPARK-41961] [SC-120501][sql] Compatibilidad con funciones con valores de tabla con LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Agrupar ejecuciones anidadas en la ejecución raíz
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literal debe admitir tipos de datos Numpy
- [SPARK-42028] [SC-120344][connect][PYTHON] Truncar marcas de tiempo nanosegundosl
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementar DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Use
FieldReference.column
en lugar deapply
en la conversión de filtro V1 a V2 - [SPARK-39217] [SC-120446][sql] Hace que DPP admita que el lado de poda tenga Union
-
[SPARK-42076] [SC-120551][connect][PYTHON] Factor data conversion
arrow -> rows
aconversion.py
-
[SPARK-42074] [SC-120540][sql] Habilitar
KryoSerializer
enTPCDSQueryBenchmark
para aplicar el registro de clases SQL - [SPARK-42012] [SC-120517][connect][PYTHON] Implementar DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Corrección de
DataFrame.unionByName
, añadir allow_missing_columns -
[SPARK-38651] [SC-120514][SQL] Agregar
spark.sql.legacy.allowEmptySchemaWrite
-
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsert
debe aceptar ExpressionProxy como hijo - [SPARK-41232] [SC-120073][sql][PYTHON] Agregar array_append función
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader debe admitir la lista de rutas de acceso.
-
[SPARK-42071] [SC-120533][core] Registrar
scala.math.Ordering$Reverse
en KyroSerializer - [SPARK-41986] [SC-120429][sql] Introducir reordenamiento en SinglePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Habilitación de pruebas relacionadas con la columna anidada
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReader
debe admitir el esquema StructType -
[SPARK-42031] [SC-120389][core][SQL] Limpiar métodos
remove
que no necesitan sobrescribir -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Hacer que
createDataFrame(rows/lists/tuples/dicts)
soporte tipos anidados - [SPARK-41437] [SC-117601][sql][ALL TESTS] No optimice la consulta de entrada dos veces al recurrir a la escritura v1.
-
[SPARK-41840] [SC-119719][connect][PYTHON] Agregue el alias que falta
groupby
- [SPARK-41846] [SC-119717][connect][PYTHON] Habilitación de doctests para funciones de ventana
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materializa el plan AQE antes de acceder a la ordenación de salida
- [SPARK-41805] [SC-119992][sql] Reutilización de expresiones en WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range para aceptar valores de tipo float como argumentos
-
[SPARK-42029] [SC-120336][connect] Agregar reglas de sombreado de guava a
connect-common
para evitar errores de inicio - [SPARK-41989] [SC-120334][python] Evitar interrumpir la configuración de registro de pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Reducir el código duplicado en ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Corregir el grupo por todos los informes de errores
- [SPARK-41047] [SC-120291][sql] Mejorar los documentos para la ronda
- [SPARK-41822] [SC-120122][connect] Configuración de la conexión gRPC para el cliente Scala/JVM
-
[SPARK-41879] [SC-120264][connect][PYTHON] Permitir que
DataFrame.collect
admita tipos anidados -
[SPARK-41887] [SC-120268][connect][PYTHON] Make
DataFrame.hint
aceptar un parámetro de tipo lista - [SPARK-41964] [SC-120210][connect][PYTHON] Agregar la lista de funciones de E/S no admitidas
- [SPARK-41595] [SC-120097][sql] Soporte para la función generadora explode/explode_outer en la cláusula FROM
-
[SPARK-41957] [SC-120121][connect][PYTHON] Habilitar el Doctest para
DataFrame.hint
-
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersect
salida de doctest tiene un orden diferente - [SPARK-41442] [SC-117795][sql][ALL TESTS] Solo actualice el valor de SQLMetric si se combina con métrica válida.
- [SPARK-41944] [SC-120046][connect] Pasar configuraciones cuando el modo remoto local está activado
-
[SPARK-41708] [SC-119838][sql] Extraer información de v1write para
WriteFiles
-
[SPARK-41780] [SC-120000][sql] Debe lanzar INVALID_PARAMETER_VALUE.PATTERN cuando el parámetro
regexp
es inválido - [SPARK-41889] [SC-119975][sql] Asociar causa raíz a invalidPatternError & refactorizar clases de error INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][sql] Hacer clases de casos AvroScanBuilder y JsonScanBuilder
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: conexión de datos de columna perdidos de cliente con pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Codificadores agnósticos
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementar RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Actualizar
_LEGACY_ERROR_TEMP_1230
comoINTERNAL_ERROR
-
[SPARK-41928] [SC-119972][connect][PYTHON] Agregar la lista no admitida para
functions
- [SPARK-41933] [SC-119980][connect] Proporcione el modo local que inicie automáticamente el servidor.
- [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame' deben respetar el esquema DDL proporcionado por el usuario.
-
[SPARK-41936] [SC-119978][connect][PYTHON] Hacer que
withMetadata
vuelva a usar el proto dewithColumns
- [SPARK-41898] [SC-119931][connect][PYTHON] Paridad de comprobación de tipos de parámetros de Window.rowsBetween, Window.rangeBetween con pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Agregar la lista de funciones no admitidas para
catalog
-
[SPARK-41924] [SC-119946][connect][PYTHON] Hacer que StructType admita metadatos e Implement
DataFrame.withMetadata
-
[SPARK-41934] [SC-119967][connect][PYTHON] Agregar la lista de funciones no admitidas para
session
-
[SPARK-41875] [SC-119969][connect][PYTHON] Agregar casos de prueba para
Dataset.to()
- [SPARK-41824] [SC-119970][connect][PYTHON] Ignorar el doctest para explicar la conexión
-
[SPARK-41880] [SC-119959][connect][PYTHON] Hacer que la función
from_json
acepte un esquema no literal -
[SPARK-41927] [SC-119952][connect][PYTHON] Añadir la lista no soportada para
GroupedData
-
[SPARK-41929] [SC-119949][connect][PYTHON] Agregar función
array_compact
-
[SPARK-41827] [SC-119841][connect][PYTHON] Hacer que
GroupBy
acepte lista de columnas -
[SPARK-41925] [SC-119905][sql] Habilitar
spark.sql.orc.enableNestedColumnVectorizedReader
de forma predeterminada -
[SPARK-41831] [SC-119853][connect][PYTHON] Hacer que
DataFrame.select
acepte lista de columnas -
[SPARK-41455] [SC-119858][connect][PYTHON] Hacer
DataFrame.collect
descartar la información de zona horaria -
[SPARK-41923] [SC-119861][connect][PYTHON] Agregar
DataFrame.writeTo
a la lista no admitida - [SPARK-41912] [SC-119837][sql] Subconsulta no debe validar CTE
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Implementar que
createDataFrame
admita dataframe vacío - [SPARK-41905] [SC-119848][connect] Compatibilidad con el nombre como cadenas en el slice
- [SPARK-41869] [SC-119845][connect] Rechazar una cadena única en dropDuplicates
-
[SPARK-41830] [SC-119840][connect][PYTHON] Hacer que
DataFrame.sample
acepte los mismos parámetros que PySpark - [SPARK-41849] [SC-119835][connect] Implementar DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Hacer que las v2 ScanBuilders construyan y devuelvan un escaneo tipificado
-
[SPARK-41825] [SC-119710][connect][PYTHON] Habilitar doctests relacionados con
DataFrame.show
-
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Hacer que
createDataFrame
control Ninguno/NaN correctamente -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Hacer que
DataFrame.collect
maneje None/NaN/Array/Binary correctamente. - [SPARK-39318] [SC-119713][sql] Quitar archivos golden tpch-plan-stability WithStats
- [SPARK-41791] [SC-119745] Agregar nuevos tipos de columna de metadatos de origen de archivo
- [SPARK-41790] [SC-119729][sql] Establecer el formato del lector y del escritor de TRANSFORM correctamente
-
[SPARK-41829] [SC-119725][connect][PYTHON] Agregue el parámetro de ordenación que falta en
Sort
ysortWithinPartitions
- [SPARK-41576] [SC-119718][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][connect][PYTHON] Corrección de pruebas de documentos para DataFrame.describe
- [SPARK-41871] [SC-119714][connect] El parámetro de sugerencia DataFrame puede ser str, float o int
- [SPARK-41720] [SC-119076][sql] Cambiar el nombre de UnresolvedFunc a UnresolvedFunctionName
- [SPARK-41573] [SC-119567][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][sql] Corrección de un error de exactitud relacionado con los valores predeterminados en el lector Orc
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Reutilizar
INVALID_TYPED_LITERAL
en lugar de_LEGACY_ERROR_TEMP_0022
Actualizaciones de mantenimiento
Consulte las actualizaciones de mantenimiento de Databricks Runtime 12.2.
Entorno del sistema
- Sistema operativo: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- python: 3.9.21
- R: 4.2.2
- Delta Lake: 2.2.0
Bibliotecas de Python instaladas
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | criptografía | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | executing | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | empaquetado | 21,3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
Solicitudes | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six (seis) | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 11-11-2022. La instantánea ya no está disponible.
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
arrow | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0 - 8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | clase | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | conjuntos de datos | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | elementos gráficos | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | ciclo de vida | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58.2 | Matriz | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progreso | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
Identificador de grupo | Identificador de artefacto | Versión |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flujo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recopilador | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |