Partager via


Confiance et sécurité de DatabricksIQ

Databricks comprend l’importance de vos données et la confiance que vous placez dans nous lorsque vous utilisez notre plateforme et les fonctionnalités basées sur DatabricksIQ. Databricks s’engage à respecter les normes de protection des données les plus élevées et a implémenté des mesures rigoureuses pour garantir que les informations que vous soumettez aux fonctionnalités optimisées par DatabricksIQ sont protégées.

  • Vos données restent confidentielles.
    • Databricks n’entraîne pas les modèles de base de génération avec les données que vous soumettez à ces fonctionnalités, et Databricks n’utilise pas ces données pour générer des suggestions affichées pour d’autres clients.
    • Nos partenaires de modèle ne conservent pas les données que vous envoyez via ces fonctionnalités, même pour la surveillance des abus. Nos fonctionnalités d’assistance IA optimisées par les partenaires utilisent des points de terminaison avec zéro conservation des données issus de nos partenaires modèles.
  • Protection contre les sorties dangereuses. Databricks utilise également le filtrage de contenu Azure OpenAI pour protéger les utilisateurs contre le contenu dangereux. En outre, Databricks a réalisé une évaluation approfondie avec des milliers d’interactions utilisateur simulées pour s’assurer que les protections mises en place contre les contenus nuisibles, les jailbreaks, la génération de codes non sécurisés et l’utilisation de contenus protégés par des droits d’auteur de tiers sont efficaces.
  • Databricks utilise uniquement les données nécessaires pour fournir le service. Les données sont envoyées uniquement lorsque vous interagissez avec les fonctionnalités optimisées par DatabricksIQ. Databricks envoie votre requête, les métadonnées et valeurs de table pertinentes, les erreurs, ainsi que le code d’entrée ou les requêtes pour vous aider à retourner des résultats plus pertinents. Databricks n’envoie pas d’autres données au niveau des lignes aux modèles tiers.
  • Les données sont protégées en transit. Tout le trafic entre Databricks et les partenaires de modèle est chiffré en transit avec le chiffrement TLS standard du secteur.
  • Databricks offre des contrôles de résidence des données. Les fonctionnalités optimisées par DatabricksIQ sont des services désignés et respectent les limites de résidence des données. Pour plus d’informations, consultez Zones géographiques Databricks : Résidence des données et Services désignés Databricks.

Pour plus d’informations sur la confidentialité de l’Assistant Databricks, consultez confidentialité et sécurité.

Fonctionnalités régies par le paramètre de fonctionnalités d’assistance IA optimisées par le partenaire

L’IA basée sur les partenaires fait référence au service Azure OpenAI. Voici une répartition des fonctionnalités régies par le paramètre de fonctionnalités d’assistance ia optimisées par le partenaire :

Fonctionnalité Où le modèle est-il hébergé ? Contrôlé par le paramètre IA optimisé par le partenaire ?
Conversation de l’Assistant Databricks Service Azure OpenAI Oui
Correctif rapide Service Azure OpenAI Oui
Commentaires de l’UC générés par l’IA Espaces de travail de profil de sécurité de conformité (CSP) : service Azure OpenAI Oui, pour tous les espaces de travail CSP.
Tableaux de bord IA/BI avec visualisations assistées par IA et espaces Genie associés Service Azure OpenAI Oui
Genie Service Azure OpenAI Oui
Saisie semi-automatique de l’Assistant Databricks Modèle hébergé par Databricks Non
Recherche intelligente Service Azure OpenAI Oui

Utiliser un modèle hébergé par Databricks pour l’Assistant Databricks

Important

Cette fonctionnalité est disponible en préversion publique.

Découvrez comment utiliser un modèle hébergé par Databricks pour optimiser l’Assistant Databricks. Cette section explique comment cela fonctionne et comment l’utiliser.

Fonctionnement

Le diagramme suivant fournit une vue d’ensemble de la façon dont un modèle hébergé par Databricks optimise l’Assistant Databricks.

Diagramme du flux de travail de l’Assistant Databricks optimisé par un modèle hébergé par Databricks.

  1. Un utilisateur interroge l’Assistant Databricks en tapant du code ou une question, en sélectionnant Diagnostiquer l’erreur, ou en mettant en surbrillance une cellule.
  2. Databricks attache des métadonnées à une requête et l’envoie à un grand modèle de langage (LLM) hébergé par Databricks. Toutes les données sont chiffrées au repos. Les clients peuvent utiliser une clé gérée par le client (CMK).
  3. La requête de l’utilisateur est envoyée au modèle hébergé par Databricks.

Les modèles hébergés par Databricks utilisent Meta Llama 3.x

L’Assistant Databricks avec des modèles hébergés par Databricks est actuellement généré avec Meta Llama 3. Meta Llama 3 est sous licence de la communauté Llama 3, Copyright © Meta Platforms, Inc. Tous droits réservés.

FAQ sur les modèles hébergés par Databricks pour l’Assistant

Puis-je avoir ma propre instance de service de modèle privé ?

Pas pour l’instant. Cette préversion utilise des points de terminaison de service de modèles managés et sécurisés par Databricks. Les points de terminaison de service de modèles sont sans état, protégés par plusieurs couches d’isolation et mettent en œuvre les contrôles de sécurité suivants pour protéger vos données :

  • Chaque requête client au service de modèles est logiquement isolée, authentifiée et autorisée.
  • Le service de modèles Mosaic AI chiffre toutes les données au repos (AES-256) et en transit (TLS 1.2+).

Les métadonnées envoyées aux modèles respectent-elles les autorisations Unity Catalog de l’utilisateur ?

Oui, toutes les données envoyées au modèle respectent les autorisations Unity Catalog de l’utilisateur. Par exemple, les métadonnées relatives aux tables que l’utilisateur n’a pas l’autorisation de voir ne sont pas envoyées.

Où sont stockées les données ?

L’historique des conversations de l’Assistant Databricks est stocké dans la base de données du plan de contrôle, ainsi que le notebook. La base de données du plan de contrôle est chiffrée en AES-256 bits et les clients qui nécessitent un contrôle sur la clé de chiffrement peuvent utiliser notre fonctionnalité de clé gérée par le client.

Remarque

  • Comme d’autres objets d’espace de travail, la période de rétention de l’historique des conversations de l’Assistant Databricks est limitée au cycle de vie de l’objet lui-même. Si un utilisateur supprime le notebook, celui-ci et tout historique de conversation associé sont supprimés dans les 30 jours.
  • Si le notebook est partagé avec un autre utilisateur, l’historique des conversations est également visible pour cet utilisateur, sauf s’il est effacé en premier.
  • Si le notebook est exporté, l’historique des conversations n’est pas exporté avec celui-ci.
  • Si un administrateur a accès au notebook, il peut l’ouvrir et afficher l’historique des conversations.

Puis-je apporter ma propre clé API pour mon modèle ou héberger mes propres modèles ?

Pas pour l’instant. L’Assistant Databricks est entièrement géré et hébergé par Databricks. La fonctionnalité de l'Assistant dépend fortement des fonctions de gestion de modèle (par exemple, appel de fonction), des performances et de la qualité. Databricks évalue en permanence les nouveaux modèles pour obtenir les meilleures performances et peut mettre à jour le modèle dans les futures versions de cette fonctionnalité.

Qui est propriétaire des données de sortie ? Si l’Assistant génère du code, qui possède cette PI ?

Le client possède son propre résultat.

Refuser l’utilisation de modèles hébergés par Databricks

Pour refuser l’utilisation de modèles hébergés par Databricks :

  1. Cliquez sur votre nom d’utilisateur dans la barre supérieure de l’espace de travail Databricks.
  2. Dans le menu, sélectionnez Préversions.
  3. Désactivez Utiliser l’Assistant avec des modèles hébergés par Databricks.

Pour en savoir plus sur la gestion des préversions, consultez Gérer les préversions d’Azure Databricks.