Databricks Runtime 12.2 LTS
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 12.2 LTS, propulsé par Apache Spark 3.3.2.
Databricks a publié cette version en mars 2023.
Remarque
LTS (Long Term Support) signifie que cette version bénéficie d’un support à long terme. Consultez Cycle de vie de la version de Databricks Runtime LTS.
Conseil
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin du support (EoS), consultez Fin de support des notes de publication des versions de Databricks Runtime. Les versions EoS de Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.
Modifications de comportement
[Changement cassant] La nouvelle version de Python nécessite la mise à jour des clients Python Databricks Connect V1
Pour appliquer les correctifs de sécurité requis, la version Python dans Databricks Runtime 12.2 LTS est mise à niveau de 3.9.5 à 3.9.19. Étant donné que ces modifications peuvent entraîner des erreurs dans les clients qui utilisent des fonctions PySpark spécifiques, tous les clients qui utilisent Databricks Connect V1 pour Python avec Databricks Runtime 12.2 LTS doivent être mis à jour vers Python 3.9.7 ou version ultérieure.
Améliorations et nouvelles fonctionnalités
- L’évolution du schema Delta Lake prend en charge la spécification des columns sources dans les instructions de fusion
- Les charges de travail Structured Streaming sont prises en charge sur les clusters avec mode d’accès partagé
- Nouvelles fonctionnalités pour les E/S prédictives
- Prise en charge de l’aliasing de column latérale implicite
- Nouvelle fonctionnalité forEachBatch
- Options de connexion standardisées pour la fédération des requêtes
- Bibliothèque de fonctions SQL étendue pour la gestion des tableaux
- Nouvelle fonction de masque pour anonymiser les chaînes
- Les conditions d’erreur courantes retournent maintenant des SQLSTATE
- Appeler les fonctions de génération dans la clause FROM
- La prise en charge des mémoires tampons de protocole est généralement disponible
- Atteindre la définition pour les variables et fonctions de notebook
- Correctif rapide du Notebook pour l’importation automatique de bibliothèques
- Correctifs de bogues
L’évolution de Delta Lake schema permet de spécifier la source columns dans les instructions de fusion
Vous pouvez désormais spécifier des columns présentes uniquement dans la table source dans les actions insert ou update pour les instructions de fusion lorsque l’évolution du schema est activée. Dans Databricks Runtime 12.1 et ci-dessous, seules les actions INSERT *
ou UPDATE SET *
peuvent être utilisées pour schema évolution avec fusion. Consultez Évolution automatique du schema schéma pour la fusion Delta Lake.
Les charges de travail Structured Streaming sont prises en charge sur les clusters avec mode d’accès partagé
Vous pouvez désormais utiliser Structured Streaming pour interagir avec Unity Catalog sur des clusters partagés. Certaines limitations s’appliquent. Consultez Quelle est la fonctionnalité Structured Streaming prise en charge par Unity Catalog ?.
Nouvelles fonctionnalités pour les E/S prédictives
La prise en charge de Photon pour le récepteur Foreachbatch
est désormais disponible. Les charges de travail qui diffusent en continu à partir d’une source et fusionnent dans des Tables Delta ou écrivent dans plusieurs récepteurs peuvent désormais tirer parti du récepteur Foreachbatch
traité par Photon.
Prise en charge implicite de l’aliasing de column latérale
Azure Databricks prend désormais en charge l’alias de column latéral implicite par défaut. Vous pouvez maintenant réutiliser une expression spécifiée précédemment dans la même SELECT
list. Par exemple, étant donné SELECT 1 AS a
, a + 1 AS b
, le a
dans a + 1
peut être résolu comme le 1 AS a
défini précédemment. Pour plus d’informations sur l’ordre de résolution, consultez Résolution de noms.
Pour désactiver cette fonctionnalité, vous pouvez setspark.sql.lateralColumnAlias.enableImplicitResolution
sur false
.
Nouvelle fonctionnalité forEachBatch
Photon est désormais pris en charge lors de l’utilisation de foreachBatch
pour écrire dans un récepteur de données.
Options de connexion standardisées pour la fédération des requêtes
Vous pouvez maintenant utiliser un set unifié d’options (hôte, port, base de données, utilisateur, mot de passe) pour vous connecter aux sources de données prises en charge dans la fédération de requêtes. Port
est facultatif et utilise le numéro de port par défaut pour chaque source de données, sauf s’il est spécifié.
Bibliothèque de fonctions SQL étendue pour la gestion des tableaux
Vous pouvez maintenant remove tous les éléments NULL d’un tableau à l’aide de array_compact. Pour ajouter des éléments à un tableau, utilisez array_append.
Nouvelle fonction de masque pour anonymiser les chaînes
Appelez la fonction de masque pour anonymiser la chaîne sensible values.
Les conditions d’erreur courantes retournent maintenant des SQLSTATE
La plupart des conditions d'erreur de Databricks Runtime inclut désormais un document SQLSTATE values, qui peut être utilisé pour tester les erreurs de manière conforme à la norme SQL.
Appeler les fonctions de génération dans la clause FROM
Vous pouvez maintenant appeler des fonctions de génération table telles que explode dans la clause FROM
régulière d’une requête. Cela aligne l'appel d'une fonction génératrice avec les autres fonctions intégrées et définies par l'utilisateur table.
La prise en charge des mémoires tampons de protocole est généralement disponible
Vous pouvez utiliser les fonctions from_protobuf
et to_protobuf
pour échanger des données entre des types binaires et struct. Consultez Tampons de protocole de lecture et d’écriture.
Atteindre la définition pour les variables et fonctions de notebook
Dans les notebooks, vous pouvez rapidement accéder à la définition d’une variable, d’une fonction ou du code derrière une instruction %run
en cliquant avec le bouton droit sur le nom de la variable ou de la fonction.
Correctif rapide du Notebook pour l’importation automatique de bibliothèques
Les Databricks Notebooks offrent désormais une fonction de correction rapide pour l'importation automatique de bibliothèques. Si vous oubliez d’importer une bibliothèque comme pandas, pointez sur l’avertissement de syntaxe souligné, puis cliquez sur correctif rapide, cette fonctionnalité nécessite que l’Assistant Databricks soit activé dans votre espace de travail.
Résolution des bogues
- Amélioration de la cohérence pour le comportement de validation Delta pour les transactions vides relatives aux commandes
update
,delete
etmerge
. Au niveau d’isolationWriteSerializable
, les commandes qui n’entraînent aucune modification créent désormais une validation vide. Au niveau d’isolationSerializable
, de telles transactions vides ne créent plus de validation.
Changements de comportement
Changements de comportement avec la nouvelle fonctionnalité d’alias de column latérale
La nouvelle fonctionnalité d’alias latérale column introduit des modifications de comportement pour les cas suivants lors de la résolution de noms :
- L’alias de column latérale est désormais prioritaire sur les références corrélées portant le même nom. Par exemple, pour cette requête
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
, lec1
duc1 AS c2
interne a été résolu en référence corréléet.c1
, mais devient maintenant l’alias de column latérale1 AS c1
. La requête retourne maintenantNULL
. - L'alias latéral column est désormais prioritaire sur la fonction parameters portant le même nom. Par exemple, pour la fonction,
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
, lex
dans le corps de la fonction a été résolu au paramètre de la fonction x, mais devient l’alias de column latéralex + 1
dans le corps de la fonction. La requêteSELECT * FROM func(1)
retourne maintenant2, 2
. - Pour désactiver la fonctionnalité d’alias de column latérale, set
spark.sql.lateralColumnAlias.enableImplicitResolution
surfalse
. Pour plus d'informations, consultez Résolution de noms.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- filelock de 3.8.2 à 3.9.0
- joblib de 1.1.0 à 1.1.1
- platformdirs de 2.6.0 à 2.6.2
- whatthepatch de 1.0.3 à 1.0.4
- Bibliothèques R mises à niveau :
- class de 7.3-20 à 7.3-21
- codetools de 0.2-18 à 0.2-19
- MASS de 7.3-58 à 7.3-58.2
- nlme de 3.1-160 à 3.1-162
- Rserve de 1.8-11 à 1.8-12
- SparkR de 3.3.1 à 3.3.2
Changements de comportement
- Les utilisateurs doivent désormais disposer de privilèges
SELECT
etMODIFY
sur n’importe quel fichier lors de la création d’un schema avec un emplacement défini.
Apache Spark
Databricks Runtime 12.2 inclut Apache Spark 3.3.2. Cette version comprend l’ensemble des correctifs et améliorations Spark figurant dans Databricks Runtime 12.1 (EoS), ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-42416] [SC-123205][SC-122851][SQL] Les opérations d’ensemble de dates ne doivent pas résoudre à nouveau le plan logique analysé
- [SPARK-41848] Rétablir “[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Correction de la tâche sur-planifiée avec TaskResourceProfile”
- [SPARK-42162] [SC-122711][ES-556261] Introduire l’expression MultiCommutativeOp comme optimisation de la mémoire pour canoniser de grandes arborescences d’expressions commutatives
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Correction du paramètre de profondeur récursive des fonctions Protobuf
- [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implémenter DataFrameWriterV2
- [SPARK-41716] [SC-122545][CONNECT] Renommer _catalog_to_pandas en _execute_and_fetch dans le Catalog
- [SPARK-41490] [SC-121774][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implémenter Catalog.cacheTable, isCached et uncache
- [SPARK-42191] [SC-121990][SQL] Prise en charge de l’UDF 'luhn_check'
- [SPARK-42253] [SC-121976][PYTHON] Ajouter un test de détection d’une classe d’erreur en double
- [SPARK-42268] [SC-122251][CONNECT][PYTHON] Ajouter UserDefinedType dans protos
- [SPARK-42231] [SC-121841][SQL] Transformer
MISSING_STATIC_PARTITION_COLUMN
eninternalError
- [SPARK-42136] [SC-122554] Refactoriser le calcul de partitionnement de la sortie BroadcastHashJoinExec
- [SPARK-42158] [SC-121610][SQL] Intégrer
_LEGACY_ERROR_TEMP_1003
dansFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Migrer le TypeError de pyspark/sql/dataframe.py vers PySparkTypeError
- [SPARK-35240] Rétablir “[SC-118242][SS] Utiliser CheckpointFileManager ....
- [SPARK-41488] [SC-121858][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1176 (et 1177)
- [SPARK-42232] [SC-122267][SQL] Renommer la classe d’erreur :
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Réécrire des agrégats distincts après la fusion de sous-requête
- [SPARK-42306] [SC-122539][SQL] Intégrer
_LEGACY_ERROR_TEMP_1317
dansUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354][SQL] Renommer la classe d’erreur :
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437][CORE] Ignorer
IOException
danshandleBlockRemovalFailure
si SparkContext est arrêté - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Renommer les classes d’erreur
- [SPARK-42320] [SC-122478][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][CONNECT] SparkConnectClient prend désormais en charge RetryPolicies
- [SPARK-38728] [SC-116723][SQL] Tester la classe d’erreur : FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Exemples autonomes dans PySpark
- [SPARK-39347] [SC-122457][SS] Correctif de bogues pour le calcul de la window de temps lorsque l’heure de l’événement < 0
- [SPARK-42336] [SC-122458][CORE] Utiliser
getOrElse()
au lieu decontains()
dans ResourceAllocator - [SPARK-42125] [SC-121827][CONNECT][PYTHON] UDF Pandas dans Spark Connect
- [SPARK-42217] [SC-122263][SQL] Prise en charge implicite de l’aliasing de column latérale dans les requêtes avec Window
- [SPARK-35240] [SC-118242][SS] Utiliser CheckpointFileManager pour la manipulation du fichier de point de contrôle
- [SPARK-42294] [SC-122337][SQL] Inclure columnvalues par défaut dans la sortie DESCRIBE pour V2 tables
- [SPARK-41979] Rétablir “Revert “[12.x][SC-121190][SQL] Ajouter les points manquants pour les messages d’erreur des classes d’erreur.””
- [SPARK-42286] [SC-122336][SQL] Secours vers le chemin de code codegen précédent pour une expression complexe avec CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Éviter d’utiliser une list intégrée, dicter en typage statique
- [SPARK-41985] [SC-122172][SQL] Centraliser davantage de règles de résolution column
- [SPARK-42126] [SC-122330][PYTHON][CONNECT] Accepter le type de retour dans les chaînes DDL pour les UDF scalaires Python dans Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][CONNECT] Réutilise l’initialisation JVM et sépare les groupes de configuration pour set en mode local distant
- [SPARK-41575] [SC-120118][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Rétablir « [SC-122172][SQL] Centraliser d’autres règles de résolution de column »
- [SPARK-42123] [SC-122234][SC-121453][SQL] Inclure les valeurs par défaut de columnvalues par défaut dans la sortie de DESCRIBE et SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][SQL] Centraliser davantage de règles de résolution column
- [SPARK-42284] [SC-122233][CONNECT] Vérifier que l’assembly de serveur de connexion est généré avant d’exécuter des tests clients - SBT
- [SPARK-42239] [SC-121790][SQL] Intégrer
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [SC-122170][SQL] DS V2 pushdown prend en charge la compilation
SortOrder
des dialectes JDBC par eux-mêmes - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics doit faire attention à Python UDAF
- [SPARK-41979] Rétablir “[12.x][SC-121190][SQL] Ajouter les points manquants des messages d’erreur des classes d’erreur.”
- [SPARK-42224] [12.x][SC-121708][CONNECT] Migrer TypeError dans l’infrastructure d’erreur des fonctions Spark Connect
- [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Migrer les erreurs Spark Connect dans l’infrastructure d’erreurs PySpark.
- [SPARK-42119] [SC-121913][SC-121342][SQL] Ajouter des fonctions de table intégrées inline et inline_outer
- [SPARK-41489] [SC-121713][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Présenter PySparkValueError et PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Améliorer la validation des modifications de plan
- [SPARK-42225] [12.x][SC-121714][CONNECT] Ajouter SparkConnectIllegalArgumentException pour gérer l’erreur Spark Connect avec précision.
- [SPARK-42044] [12.x][SC-121280][SQL] Corriger un message d’erreur incorrect de
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Autoriser le paramètre de columns lors de la création d’un DataFrame avec Series.
- [SPARK-42078] [12.x][SC-120761][PYTHON] Migrer les erreurs levées par JVM dans PySparkException.
- [SPARK-42133] [12.x][SC-121250] Ajouter des méthodes d’API de jeu de données de base à SparkConnect Scala Client
- [SPARK-41979] [12.x][SC-121190][SQL] Ajouter les points manquants pour les messages d’erreur des classes d’erreur.
- [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] UDF Python scalaire inline Scalar dans Spark Connect
- [SPARK-42051] [SC-121994][SQL] Prise en charge de HiveGenericUDF par Codegen
- [SPARK-42257] [SC-121948][CORE] Remove un trieur externe de variable inutilisé
- [SPARK-41735] [SC-121771][SQL] Utiliser MINIMAL au lieu de STANDARD pour SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882][SQL] Affiner
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775][SQL] Améliorer le message d’erreur de
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856][CORE] Migrer
SparkCoreErrors
vers les classes d’erreur - [SPARK-42163] [SC-121839][SQL] Correction du nettoyage du schema pour l’index de tableau non pliable ou la clé de carte
- [SPARK-40711] [SC-119990][SQL] Ajouter des métriques de taille de déversement pour window
- [SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Faire prendre en charge le forçage de type
createDataFrame
parAtomicType -> StringType
- [SPARK-42202] [SC-121837][Connect][Test] Améliorer la logique d’arrêt du serveur de test E2E
- SPARK-41167 [SC-117425][SQL] Améliorer les performances de type multi en créant un prédicat d’arborescence de l’expression équilibré
- [SPARK-41931] [SC-121618][SQL] Améliorer le message d’erreur pour une définition de type complexe incomplète
- [SPARK-36124] [SC-121339][SC-110446][SQL] Prendre en charge les sous-requêtes avec corrélation via UNION
- [SPARK-42090] [SC-121290][3.3] Introduire le nombre de nouvelles tentatives sasl dans RetryingBlockTransferor
- [SPARK-42157] [SC-121264][CORE]
spark.scheduler.mode=FAIR
doit fournir le planificateur FAIR - [SPARK-41572] [SC-120772][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224][SQL] Renommer et améliorer le message d’erreur de
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024][SQL] Améliorer le message d’erreur de
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Affecter SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Nouvelles tentatives de requête SASL
- SPARK-38591[SC-121018][SQL] Ajouter flatMapSortedGroups et cogroupSorted
- [SPARK-41975] [SC-120767][SQL] Améliorer le message d’erreur de
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Ajouter des options manquantes aux fonctions Protobuf
- [SPARK-41984] [SC-120769][SQL] Renommer et améliorer le message d’erreur de
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Corriger NPE pour les classes d’erreur : CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176][CONNECT][PYTHON] Corriger le nom incorrect de column dans le doctest de
withField
- [SPARK-41283] [SC-121175][CONNECT][PYTHON] Ajouter
array_append
à Connect - [SPARK-41960] [SC-120773][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Corriger getPartitionFiltersAndDataFilters() pour gérer les filtres sans attributs référencés
- [SPARK-42096] [SC-121012][CONNECT] Nettoyer le code du module
connect
- [SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Corriger
count(*)
etcount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] Mode SQL ANSI : Round/Bround doit retourner une erreur sur le dépassement d’entier
- [SPARK-42043] [SC-120968][CONNECT] Résultat du client Scala aux tests E2E
- [SPARK-41884] [SC-121022][CONNECT] Prendre en charge le tuple naïf en tant que ligne imbriquée
- [SPARK-42112] [SC-121011][SQL][SS] Ajouter une vérification null avant le
ContinuousWriteRDD#compute
de fermeture de la fonctiondataWriter
- [SPARK-42077] [SC-120553][CONNECT][PYTHON] Le littéral doit lever TypeError pour un DataType non pris en charge
- [SPARK-42108] [SC-120898][SQL] Faire transformer
Count(*)
enCount(1)
par l’analyseur - [SPARK-41666] [SC-120928][SC-119009][PYTHON] Prendre en charge SQL paramétré par
sql()
- [SPARK-40599] [SC-120930][SQL] Assouplir le type de règle multiTransform pour permettre aux alternatives d’être n’importe quel type de Seq
- [SPARK-41574] [SC-120771][SQL] Update
_LEGACY_ERROR_TEMP_2009
en tant queINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766][SQL] Transformer
INCORRECT_END_OFFSET
enINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][CORE] Renommer MedianHeap en PercentileMap et prendre en charge le centile
- [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Correction de la représentation sous forme de chaîne pour Column classe
- [SPARK-42084] [SC-120775][SQL] Éviter la fuite de la restriction d’accès qualifié uniquement
- [SPARK-41973] [SC-120765][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ : Remove une option dans KeyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712][CONNECT][PYTHON] Renommer les messages proto pour
toDF
etwithColumnsRenamed
- [SPARK-42089] [SC-120605][CONNECT][PYTHON] Corriger les problèmes de nom de variable dans les fonctions lambda imbriquées
- [SPARK-41982] [SC-120604][SQL] Les partitions de type chaîne ne doivent pas être traitées comme des types numériques
- [SPARK-40599] [SC-120620][SQL] Ajouter des méthodes multiTransform à TreeNode pour generate des alternatives
- [SPARK-42085] [SC-120556][CONNECT][PYTHON] Faire prendre en charge les types imbriqués par
from_arrow_schema
- [SPARK-42057] [SC-120507][SQL][PROTOBUF] Corriger la façon dont l’exception est gérée dans les rapports d’erreur.
- [SPARK-41586] [12.x][ALL TESTS][SC-120544][PYTHON] Introduire
pyspark.errors
et les classes d’erreur pour PySpark. - [SPARK-41903] [SC-120543][CONNECT][PYTHON]
Literal
doit prendre en charge 1-dim ndarray - [SPARK-42021] [SC-120584][CONNECT][PYTHON] Faire prendre en charge
createDataFrame
pararray.array
- [SPARK-41896] [SC-120506][SQL] Le filtrage par index de ligne retourne des résultats vides
- [SPARK-41162] [SC-119742][SQL] Corriger les anti- et semi-join pour l’auto-join avec des agrégations
- [SPARK-41961] [SC-120501][SQL] Prise en charge des fonctions table-valued avec LATERAL
- [SPARK-41752] [SC-120550][SQL][UI] Regrouper les exécutions imbriquées sous l’exécution racine
- [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Le littéral doit prendre en charge les types de données Numpy
- [SPARK-42028] [SC-120344][CONNECT][PYTHON] Tronquer les timestamps en nanosecondes
- [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implémenter DataFrameReader.csv
- [SPARK-41990] [SC-120532][SQL] Utiliser
FieldReference.column
au lieu deapply
dans la conversion de filtre V1 en V2 - [SPARK-39217] [SC-120446][SQL] Faire prendre en charge le côté élagage d’Union par DPP
- [SPARK-42076] [SC-120551][CONNECT][PYTHON] Factoriser la conversion de données
arrow -> rows
enconversion.py
- [SPARK-42074] [SC-120540][SQL] Activer
KryoSerializer
dansTPCDSQueryBenchmark
pour appliquer l’inscription de classe SQL - [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implémenter DataFrameReader.orc
- [SPARK-41832] [SC-120513][CONNECT][PYTHON] Corriger
DataFrame.unionByName
, ajouter allow_missing_columns - [SPARK-38651] [SC-120514][SQL] Ajouter
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
doit accepter ExpressionProxy comme enfant - [SPARK-41232] [SC-120073][SQL][PYTHON] Ajouter la fonction array_append
- [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] DataFrameReader doit prendre en charge une list de chemins d’accès
- [SPARK-42071] [SC-120533][CORE] Inscrire
scala.math.Ordering$Reverse
auprès de KryoSerializer - [SPARK-41986] [SC-120429][SQL] Introduction de la lecture aléatoire sur SinglePartition
- [SPARK-42016] [SC-120428][CONNECT][PYTHON] Activer les tests liés aux column imbriqués
- [SPARK-42042] [SC-120427][CONNECT][PYTHON]
DataFrameReader
doit prendre en charge la schema StructType - [SPARK-42031] [SC-120389][CORE][SQL] Nettoyer les méthodes
remove
qui n’ont pas besoin de remplacement - [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Faire prendre en charge les types imbriqués par
createDataFrame(rows/lists/tuples/dicts)
- [SPARK-41437] [SC-117601][SQL][ALL TESTS] N’optimize pas la requête de saisie deux fois pour le retour d’écriture v1
- [SPARK-41840] [SC-119719][CONNECT][PYTHON] Ajout de l’alias manquant
groupby
- [SPARK-41846] [SC-119717][CONNECT][PYTHON] Activer les doctests pour les fonctions window
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter matérialise le plan AQE avant d’accéder à outputOrdering
- [SPARK-41805] [SC-119992][SQL] Réutiliser des expressions dans WindowSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range doit prendre float comme arguments
- [SPARK-42029] [SC-120336][CONNECT] Ajouter des règles de shading Guava à
connect-common
pour éviter un échec de démarrage - [SPARK-41989] [SC-120334][PYTHON] Éviter d’interrompre la configuration de la journalisation de pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Réduire le code en double dans ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Correction des rapports d’erreur de la clause group by all
- [SPARK-41047] [SC-120291][SQL] Améliorer la documentation relative à round
- [SPARK-41822] [SC-120122][CONNECT] Configurer la connexion gRPC pour le client Scala/JVM
- [SPARK-41879] [SC-120264][CONNECT][PYTHON] Faire prendre en charge les types imbriqués par
DataFrame.collect
- [SPARK-41887] [SC-120268][CONNECT][PYTHON] Rendre
DataFrame.hint
accepter list paramètre typé - [SPARK-41964] [SC-120210][CONNECT][PYTHON] Ajouter la list des fonctions d’E/S non prises en charge
- [SPARK-41595] [SC-120097][SQL] Prendre en charge la fonction de génération explode/explode_outer dans la clause FROM
- [SPARK-41957] [SC-120121][CONNECT][PYTHON] Activer le doctest pour
DataFrame.hint
- [SPARK-41886] [SC-120141][CONNECT][PYTHON] La sortie du doctest
DataFrame.intersect
a un ordre différent - [SPARK-41442] [SC-117795][SQL][ALL TESTS] Uniquement update valeur SQLMetric si fusion avec une métrique valide
- [SPARK-41944] [SC-120046][CONNECT] Passer des configurations lorsque le mode distant local est activé
- [SPARK-41708] [SC-119838][SQL] Extraire les informations v1write vers
WriteFiles
- [SPARK-41780] [SC-120000][SQL] Doit lever INVALID_PARAMETER_VALUE.PATTERN lorsque le parameters
regexp
n’est pas valide - [SPARK-41889] [SC-119975][SQL] Attacher la cause racine à invalidPatternError et refactoriser les classes d’erreur INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Créer des classes de cas AvroScanBuilder et JsonScanBuilder
- [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python : connecter le client a perdu column données avec pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Encodeurs agnostiques
- [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implémenter RepartitionByExpression
- [SPARK-41581] [SC-1119997][SQL] Update
_LEGACY_ERROR_TEMP_1230
en tant queINTERNAL_ERROR
- [SPARK-41928] [SC-119972][CONNECT][PYTHON] Ajouter le list non pris en charge pour
functions
- [SPARK-41933] [SC-119980][CONNECT] Fournir un mode local qui démarre automatiquement le serveur
- fr-FR: [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame doit respecter la DDL fournie par l'utilisateur schema
- [SPARK-41936] [SC-119978][CONNECT][PYTHON] Faire réutiliser le proto
withMetadata
parwithColumns
- [SPARK-41898] [SC-119931][CONNECT][PYTHON] Window.rowsBetween, Window.rangeBetween parameters vérification de la parité des types avec pyspark
- [SPARK-41939] [SC-119977][CONNECT][PYTHON] Ajouter le list non pris en charge pour les fonctions
catalog
- [SPARK-41924] [SC-119946][CONNECT][PYTHON] Faire prendre en charge les métadonnées par StructType et implémenter
DataFrame.withMetadata
- [SPARK-41934] [SC-119967][CONNECT][PYTHON] Ajouter la fonction non prise en charge list pour
session
- [SPARK-41875] [SC-119969][CONNECT][PYTHON] Ajouter des cas de test pour
Dataset.to()
- [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ignore the doctest for explain of connect
- [SPARK-41880] [SC-119959][CONNECT][PYTHON] Faire en sorte que la fonction
from_json
accepte de schema non littérales - [SPARK-41927] [SC-119952][CONNECT][PYTHON] Ajouter la list non prise en charge pour
GroupedData
- [SPARK-41929] [SC-119949][CONNECT][PYTHON] Ajouter la fonction
array_compact
- [SPARK-41827] [SC-119841][CONNECT][PYTHON] Permettre à
GroupBy
d'accepter columnlist - [SPARK-41925] [SC-119905][SQL] Activer
spark.sql.orc.enableNestedColumnVectorizedReader
par défaut - [SPARK-41831] [SC-119853][CONNECT][PYTHON] Rendre
DataFrame.select
accepter columnlist - [SPARK-41455] [SC-119858][CONNECT][PYTHON] Faire en sorte que
DataFrame.collect
élimine les informations de timezone - [SPARK-41923] [SC-119861][CONNECT][PYTHON] Ajouter
DataFrame.writeTo
au list non pris en charge - [SPARK-41912] [SC-119837][SQL] La sous-requête ne doit pas valider la CTE
- [SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Faire prendre en charge les dataframes vides par
createDataFrame
- [SPARK-41905] [SC-119848][CONNECT] Prendre charge les noms en tant que chaînes dans le slice
- [SPARK-41869] [SC-119845][CONNECT] Rejeter une chaîne unique dans dropDuplicates
- [SPARK-41830] [SC-119840][CONNECT][PYTHON] Rendre
DataFrame.sample
accepter les mêmes parameters que PySpark - [SPARK-41849] [SC-119835][CONNECT] Implémenter DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Faire que la build() de v2 ScanBuilders retourne une analyse typée
- [SPARK-41825] [SC-119710][CONNECT][PYTHON] Activer les doctests liés à
DataFrame.show
- [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Faire que
createDataFrame
gère None/NaN correctement - [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Faire que
DataFrame.collect
gère None/NaN/Array/Binary correctement - [SPARK-39318] [SC-119713][SQL] Remove tpch-plan-stability WithStats golden files
- [SPARK-41791] [SC-119745] Ajouter de nouvelles métadonnées de source de fichier column types
- [SPARK-41790] [SC-119729][SQL] Set correctement le format du lecteur et de l’enregistreur TRANSFORM
- [SPARK-41829] [SC-119725][CONNECT][PYTHON] Ajouter le paramètre de classement manquant dans
Sort
etsortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][CONNECT][PYTHON] Corriger le test de documentation pour DataFrame.describe
- [SPARK-41871] [SC-119714][CONNECT] Le paramètre d’indicateur DataFrame peut être str, float ou int
- [SPARK-41720] [SC-119076][SQL] Renommer UnresolvedFunc en UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Corriger le bogue d’exactitude lié aux values DEFAULT dans le lecteur Orc
- [SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Réutiliser
INVALID_TYPED_LITERAL
au lieu de_LEGACY_ERROR_TEMP_0022
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 12.2.
Environnement du système
- Système d’exploitation : Ubuntu 20.04.5 LTS
- Java Zulu 8.68.0.21-CA-linux64
- Scala : 2.12.15
- Python : 3.9.19
- R: 4.2.2
- Delta Lake: 2.2.0
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | chiffrement | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0.11 | entrypoints | 0,4 | en cours d’exécution | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | empaquetage | 21,3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
requêtes | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané Microsoft CRAN du 11/11/2022.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
flèche | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | objet BLOB | 1.2.3 |
boot | 1.3-28 | brew | 1,0-8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | horloge | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
données.table | 1.14.4 | jeux de données | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4-1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | graphics | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | cycle de vie | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58.2 | Matrice | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progress | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flux | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collecteur | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet -column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |