IA responsable dans les charges de travail Azure
L’objectif de l’IA responsable dans la conception des charges de travail est de garantir que l’utilisation des algorithmes d’IA est équitable, transparente et inclusive. Les principes de sécurité du Microsoft Azure Well-Architected Framework sont interdépendants et se concentrent sur la confidentialité et l'intégrité. Les mesures de sécurité doivent être en place pour maintenir la confidentialité des utilisateurs, protéger les données et protéger l’intégrité de la conception. La conception ne doit pas être utilisée à des fins inattendues.
Dans les charges de travail IA, les modèles utilisent souvent une logique opaque pour prendre des décisions. Les utilisateurs doivent faire confiance aux fonctionnalités du système et se sentir confiants que les modèles prennent ces décisions de manière responsable. Des comportements inacceptables, tels que la manipulation, la toxicité du contenu, l’atteinte aux adresses IP et les réponses fabriquées, doivent être empêchés.
Considérez un cas d’usage dans lequel une société de divertissement multimédia souhaite fournir des recommandations à l’aide de modèles IA. Si l’entreprise n’implémente pas l’IA responsable et les protocoles de sécurité appropriés, un acteur incorrect peut prendre le contrôle des modèles. Le modèle peut recommander du contenu qui provoque des dommages. Pour l’organisation, ce comportement peut entraîner des dommages de marque, des environnements dangereux et des problèmes juridiques. Par conséquent, le maintien d’une vigilance appropriée tout au long du cycle de vie du système est essentiel et non modifiable.
Vous devez hiérarchiser la gestion de la sécurité et de la charge de travail et garder à l’esprit les résultats humains lorsque vous prenez des décisions de conception. Familiarisez-vous avec le framework Microsoft pour une IA responsable et veillez à mesurer et à mettre en œuvre les principes du framework dans votre conception. L’image suivante montre les concepts fondamentaux de l’infrastructure.
Important
La précision des prédictions et des métriques pour l’IA responsable est généralement interconnectée. En améliorant la précision d’un modèle, vous pouvez améliorer son équité et son alignement avec la réalité. L’IA responsable s’aligne fréquemment sur la précision, mais la précision seule n’inclut pas toutes les considérations de sécurité. Il est essentiel de valider ces principes de manière responsable.
Cet article fournit des recommandations sur la prise de décision responsable, la validation des entrées utilisateur et l’aide à garantir une expérience utilisateur sécurisée. Il fournit également des conseils sur la sécurité des données pour protéger les données utilisateur.
Recommandations
Le tableau suivant récapitule les recommandations de cet article.
Recommandation | Description |
---|---|
élaborer des politiques qui appliquent des pratiques morales à chaque étape du cycle de vie. | Incluez des éléments de liste de contrôle qui indiquent explicitement les exigences de sécurité et sont adaptés au contexte de charge de travail. Les exemples incluent la transparence des données utilisateur, la configuration du consentement et les procédures permettant de gérer le droit d’être oublié (RTBF). ▪ Développez vos politiques pour une IA responsable ▪ Appliquer la gouvernance aux politiques pour l'IA responsable |
Protéger les données utilisateur avec l’objectif d’optimiser la confidentialité. | Collectez uniquement ce qui est nécessaire et avec le consentement de l’utilisateur approprié. Appliquez des contrôles techniques pour protéger les profils des utilisateurs, leurs données et l’accès à ces données. ▪ Gérer les données utilisateur de manière appropriée ▪ Inspecter les données entrantes et sortantes |
prendre des décisions d’IA claires et compréhensibles. | Expliquer clairement le fonctionnement des algorithmes de recommandation. Fournissez aux utilisateurs des informations sur l’utilisation des données et la prise de décision algorithmique pour les aider à comprendre et à approuver le processus. ▪ Sécuriser l’expérience utilisateur |
Développer des stratégies pour l’IA responsable
Documentez votre approche de l’utilisation responsable de l’IA. Déclarez explicitement les politiques que vous appliquez à chaque stade du cycle de vie afin que l’équipe de travail comprenne sa responsabilité. Les normes Microsoft pour l’IA responsable fournissent des instructions, mais vous devez définir ce que ces instructions signifient spécifiquement pour votre contexte.
Par exemple, les stratégies doivent inclure des éléments de liste de contrôle pour les mécanismes qui prennent en charge la transparence des données utilisateur et la configuration du consentement. Dans l’idéal, ces mécanismes doivent permettre aux utilisateurs de refuser l’inclusion des données. Les pipelines de données, l’analyse, l’entraînement du modèle et d’autres étapes doivent tous respecter ce choix. Un autre exemple est la gestion de la RTBF. Consultez le service d’éthique de votre organisation et l’équipe juridique pour prendre des décisions éclairées.
Créez des stratégies transparentes pour l’utilisation des données et la prise de décision algorithmique pour aider les utilisateurs à comprendre et à approuver le processus. Documentez ces décisions pour conserver un historique clair pour les litiges futurs potentiels.
L’implémentation de l’IA responsable comprend trois rôles clés : l’équipe de recherche, l’équipe de stratégie et l’équipe d’ingénierie. La collaboration entre ces équipes doit être opérationnelle. Si votre organisation dispose d’une équipe existante, utilisez leur travail. Sinon, établissez ces pratiques vous-même.
Chaque équipe doit avoir ses propres responsabilités. Par exemple:
L’équipe de recherche mène la découverte des risques en consultant les directives organisationnelles, les normes industrielles, les lois, les réglementations et les tactiques connues de l’équipe rouge.
L’équipe de stratégie développe des stratégies spécifiques à la charge de travail. Ils incorporent des lignes directrices de l’organisation parente et des réglementations gouvernementales.
l’équipe d’ingénierie implémente les stratégies dans leurs processus et livrables. L’équipe valide et teste l’adhésion.
Chaque équipe formalise ses directives, mais l’équipe de charge de travail doit être responsable de ses propres pratiques documentées. L’équipe doit clairement documenter les étapes supplémentaires ou les écarts intentionnels pour s’assurer qu’il n’y a aucune ambiguïté quant à ce qui est autorisé. L’équipe doit également être transparente sur les lacunes potentielles ou les résultats inattendus de la solution.
Appliquer la gouvernance aux stratégies pour l’IA responsable
Concevez votre charge de travail pour vous conformer à la gouvernance organisationnelle et réglementaire. Par exemple, si la transparence est une exigence organisationnelle, déterminez comment elle s’applique à votre charge de travail. Identifiez les zones de votre conception, du cycle de vie, du code ou d’autres composants dans lesquels vous devez introduire des fonctionnalités de transparence pour répondre à cette norme.
Comprendre les mandats de gouvernance, de responsabilité, de révision et de création de rapports requis. Assurez-vous que votre conseil de gouvernance approuve et valide les conceptions de charge de travail pour éviter les révisions et atténuer les problèmes de sécurité ou de confidentialité. Vous devrez peut-être parcourir plusieurs couches d’approbation. Le diagramme suivant décrit une structure de gouvernance classique dans une organisation.
Pour plus d’informations sur les stratégies d’organisation et les approbateurs, consultez Définir une stratégie d’IA responsable.
Sécuriser l’expérience utilisateur
Les expériences utilisateur doivent être basées sur les instructions du secteur. Utilisez la bibliothèque de conception Microsoft Human-AI Experiences, qui inclut des principes et fournit des instructions d’implémentation. Il fournit également des exemples de produits Microsoft et d’autres sources du secteur.
Il existe des responsabilités de charge de travail tout au long du cycle de vie de l’interaction utilisateur. Ils commencent par l’intention d’un utilisateur d’utiliser le système, et continuent tout au long d’une session et pendant les interruptions que provoquent les erreurs système. Tenez compte des pratiques suivantes :
Générez la transparence. Faites en sorte que les utilisateurs sachent comment le système génère des réponses à leur requête.
Incluez des liens vers des sources de données que le modèle consulte pour les prédictions. Cette pratique augmente la confiance des utilisateurs en leur montrant les origines des informations. La conception des données doit inclure ces sources dans les métadonnées. Par exemple, lorsque l’orchestrateur d’une application augmentée de récupération effectue une recherche, il récupère 20 blocs de document et envoie les 10 premiers blocs au modèle en tant que contexte. Les 10 premiers blocs appartiennent à trois documents différents. L’interface utilisateur peut ensuite référencer ces trois documents sources lorsqu’elle affiche la réponse du modèle. Cette transparence augmente la confiance des utilisateurs.
La transparence devient plus importante lorsque vous utilisez des agents, qui agissent en tant qu’intermédiaires entre les interfaces frontales et les systèmes back-end. Par exemple, dans un système de tickets, le code d’orchestration interprète l’intention de l’utilisateur et effectue des appels d’interface de programmation d’application (API) aux agents pour récupérer les informations nécessaires. L’exposition de ces interactions permet de rendre l’utilisateur conscient des actions du système.
Pour les flux de travail automatisés qui incluent plusieurs agents, créez des fichiers journaux qui enregistrent chaque étape. Les fichiers journaux peuvent vous aider à identifier et corriger les erreurs. Ils donnent également aux utilisateurs une explication des décisions, qui opérationnalise la transparence.
Attention
Lorsque vous implémentez des recommandations de transparence, évitez de surcharger l’utilisateur avec trop d’informations. Adopter une approche progressive à l’aide de méthodes d’interface utilisateur peu perturbatrices.
Par exemple, affichez une info-bulle qui indique un score de confiance du modèle. Vous pouvez incorporer des liens, tels que des liens vers des documents sources, que les utilisateurs peuvent sélectionner pour plus de détails. Cette méthode initiée par l’utilisateur conserve l’interface utilisateur nondisruptive et permet aux utilisateurs de rechercher plus d’informations uniquement s’ils choisissent de le faire.
Collectez les commentaires. Implémenter des mécanismes de retour d’expérience.
Évitez d’accabler les utilisateurs avec des questionnaires complets après chaque réponse. Utilisez plutôt des mécanismes de commentaires rapides et simples, comme les pouces vers le haut ou les pouces vers le bas, ou un système d’évaluation pour des aspects spécifiques de la réponse sur une échelle de 1 à 5. Ces méthodes permettent d’améliorer le système au fil du temps et de permettre des commentaires précis sans être intrusifs. N’oubliez pas les éventuels problèmes d’équité dans les commentaires, car il peut y avoir des raisons secondaires derrière les réponses des utilisateurs.
L’implémentation d’un mécanisme de commentaires affecte l’architecture en raison de la nécessité de stockage des données. Traitez les commentaires comme les données utilisateur et appliquez les niveaux de contrôle de confidentialité en fonction des besoins.
En plus des commentaires de réponse, collectez des commentaires sur l’efficacité de l’expérience utilisateur. Collectez les métriques d’engagement via votre infrastructure de surveillance du système.
Opérationnaliser les mesures de sécurité du contenu
Intégrez la sécurité du contenu à chaque étape du cycle de vie de l’IA à l’aide du code de solution personnalisé, des outils appropriés et des pratiques de sécurité efficaces. Tenez compte des stratégies suivantes :
Anonymiser les données. À mesure que les données passent de l’ingestion à l’entraînement ou à l’évaluation, implémentez des vérifications pour réduire le risque de fuite d’informations personnelles et éviter l’exposition des données utilisateur brutes.
Contenu modéré. Utilisez l’API de sécurité du contenu qui évalue les demandes et les réponses en temps réel. Assurez-vous que ces API sont accessibles.
Identifier et atténuer les menaces. Appliquez des pratiques de sécurité connues à vos scénarios IA. Par exemple, effectuez une modélisation des menaces, puis documentez les menaces et comment vous les avez atténuées. Les pratiques de sécurité courantes telles que les exercices d’équipe rouge s’appliquent aux charges de travail IA. Les équipes rouges peuvent tester si les modèles peuvent être manipulés pour générer du contenu dangereux. Ces activités doivent être intégrées aux opérations IA.
Pour plus d'informations, consultez Planifier le red teaming pour les grands modèles de langage et leurs applications.
Utilisez les mesures appropriées. Utilisez des métriques qui mesurent efficacement le comportement du modèle. Les métriques varient en fonction du type de modèle IA. Dans certains cas, la mesure des modèles génératifs peut ne pas s’appliquer aux modèles de régression. Par exemple, un modèle prédit l’espérance de vie et les résultats affectent les taux d’assurance. Les problèmes d’équité dans ce modèle peuvent entraîner des dommages liés à l’équité. Ce problème provient des écarts dans les tests de métriques de base, car les métriques d’équité et de précision sont généralement interconnectées. Améliorez la précision pour réduire les préjudices liés à l’équité.
Ajoutez l’instrumentation appropriée. Les résultats du modèle IA doivent être expliqués. Vous devez justifier et suivre la façon dont les inférences sont effectuées, y compris les données d’entraînement, les caractéristiques calculées et les données de base. Dans l’IA discriminatoire, vous pouvez justifier les décisions pas à pas. Toutefois, pour les modèles génératifs, l’explication des résultats peut être complexe. Documentez le processus décisionnel pour répondre aux implications juridiques potentielles et assurer la transparence.
Vous devez implémenter cet aspect d’explication tout au long du cycle de vie de l’IA. Le nettoyage, la traçabilité, les critères de sélection et le traitement des données sont des étapes critiques où les décisions doivent être suivies.
Outils
Intégrez des outils pour la sécurité du contenu et la traçabilité des données, comme Microsoft Purview. Les API Azure AI Content Safety peuvent être appelées à partir de vos tests pour faciliter les tests de sécurité du contenu.
Azure AI Foundry fournit des mesures qui évaluent le comportement du modèle. Pour plus d’informations, consultez Évaluation et surveillance des métriques pour l’IA générative.
Pour les modèles d’apprentissage, consultez les métriques qu’Azure Machine Learning fournit.
Inspecter les données entrantes et sortantes
Les attaques par injection rapide, telles que le jailbreakage, sont un problème courant pour les charges de travail IA. Dans ce cas, certains utilisateurs peuvent tenter d’utiliser le modèle à des fins inattendues. Pour garantir la sécurité, inspecte les données pour empêcher les attaques et filtre le contenu inapproprié. Appliquez cette analyse à la fois à l’entrée de l’utilisateur et aux réponses du système pour garantir une modération de contenu complète dans les flux entrants et les flux sortants.
Dans certains cas, vous devez effectuer plusieurs appels de modèle, tels que par le biais d’Azure OpenAI Service, pour traiter une seule demande de client. Dans ces scénarios, l’application de contrôles de sécurité du contenu à chaque appel peut être coûteuse et inutile. Envisagez de centraliser ce travail dans l’architecture tout en conservant la sécurité en tant que responsabilité côté serveur. Supposons qu’une architecture dispose d’une passerelle devant le point de terminaison d’inférence du modèle pour décharger des fonctionnalités principales spécifiques. Vous pouvez concevoir cette passerelle pour gérer les vérifications de sécurité du contenu pour les demandes et les réponses que le back-end peut ne pas prendre en charge en mode natif. Bien qu’une passerelle soit une solution courante, une couche d’orchestration peut gérer ces tâches efficacement dans des architectures plus simples. Dans les deux cas, vous pouvez appliquer ces vérifications de manière sélective si nécessaire, ce qui optimise les performances et les coûts.
Les inspections doivent être multimodales et couvrir différents formats. Lorsque vous utilisez des entrées modales, telles que des images, il est important de les analyser pour les messages masqués susceptibles d’être dangereux ou violents. Ces messages peuvent ne pas être immédiatement visibles, de sorte qu’ils nécessitent une inspection minutieuse. Utilisez des outils tels que les API Content Safety à cet effet.
Pour vous aider à appliquer les politiques de confidentialité et de sécurité des données, inspectez les données utilisateur et les données de référence pour vérifier leur conformité aux réglementations en matière de confidentialité. Assurez-vous que les données sont nettoyées ou filtrées au fur et à mesure qu’elles transitent par le système. Par exemple, les données des conversations précédentes du support client peuvent servir de données de base. Ces données doivent être nettoyées avant de les réutiliser.
Gérer les données utilisateur de manière appropriée
Les pratiques responsables impliquent une gestion minutieuse de la gestion des données utilisateur. Cette gestion comprend la connaissance du moment où utiliser des données et quand éviter de s’appuyer sur des données utilisateur.
Pratiquez l’inférence sans partager les données utilisateur. Pour partager en toute sécurité des données utilisateur avec d’autres organisations pour obtenir des insights, utilisez un modèle de centre d’échange. Dans ce scénario, les organisations fournissent des données à un partenaire approuvé qui entraîne le modèle à l’aide des données agrégées. Ensuite, toutes les institutions peuvent utiliser ce modèle et partager des insights sans exposer des jeux de données individuels. L’objectif est d’utiliser les fonctionnalités d’inférence du modèle sans partager de données d’apprentissage détaillées.
Promouvoir la diversité et l’inclusivité. Lorsque des données utilisateur sont nécessaires, utilisez une variété de données, y compris des genres et des créateurs sous-représentés, pour atténuer les préjudices liés à l’équité. Implémentez des fonctionnalités qui encouragent les utilisateurs à explorer du contenu nouveau et varié. Surveillez l'utilisation de manière continue et ajustez les recommandations pour éviter de surreprésenter un type de contenu unique.
Respectez la RTBF. Évitez d’utiliser des données utilisateur lorsque cela est possible. Assurez-vous que la conformité à la RTBF est assurée en mettant en place les mesures nécessaires pour vous assurer que les données utilisateur sont supprimées avec diligence.
Pour garantir la conformité, il peut y avoir des demandes de suppression des données utilisateur du système. Pour les modèles plus petits, vous pouvez supprimer des données utilisateur en réentraînant le modèle à l’aide de données qui excluent les informations personnelles. Pour les modèles plus volumineux, qui peuvent se composer de plusieurs modèles formés de manière indépendante, le processus est plus complexe et le coût et l’effort sont importants. Recherchez des conseils juridiques et éthiques sur la gestion de ces situations et veillez à inclure les conseils dans vos stratégies de pour l’IA responsable.
Conservez les données de manière responsable. Lorsque la suppression des données n’est pas possible, obtenez le consentement explicite de l’utilisateur pour la collecte de données et fournissez des stratégies de confidentialité claires. Collectez et conservez des données uniquement si nécessaire. Disposer d’opérations en place pour supprimer les données de manière agressive lorsqu’elles ne sont plus nécessaires. Par exemple, effacez l’historique des conversations dès que possible et anonymisez les données sensibles avant la rétention. Utilisez des méthodes de chiffrement avancées pour ces données au repos.
Soutenir l'explicabilité. Tracez les décisions dans le système pour prendre en charge les exigences d’explication. Développez des explications claires sur le fonctionnement des algorithmes de recommandation. Fournissez aux utilisateurs des informations sur la raison pour laquelle un contenu spécifique est recommandé. L’objectif est de s’assurer que les charges de travail d'IA et leurs résultats sont transparents et justifiables, en détaillant comment les décisions sont prises, les données qu’ils utilisent et comment les modèles ont été entraînés.
Chiffrer les données utilisateur. Les données d’entrée doivent être chiffrées à chaque étape du pipeline de traitement des données à partir du moment où l’utilisateur entre des données. Ces étapes incluent des données qui passent d’un point à un autre, des données stockées et des données inférences, si nécessaire. Trouvez un équilibre entre sécurité et fonctionnalité et veillez à ce que les données restent confidentielles tout au long de leur cycle de vie.
Fournir des contrôles d’accès robustes. Plusieurs types d’identités peuvent potentiellement accéder aux données utilisateur. Implémentez le contrôle d’accès en fonction du rôle pour le plan de contrôle et le plan de données afin qu’il couvre la communication entre les utilisateurs et le système.
Conservez la segmentation appropriée des utilisateurs pour protéger la confidentialité. Par exemple, Microsoft 365 Copilot peut rechercher et fournir des réponses basées sur les documents et e-mails spécifiques d’un utilisateur, tout en garantissant que seul le contenu pertinent pour cet utilisateur est accessible.
Réduisez la surface d’exposition. Une stratégie fondamentale du pilier de sécurité Well-Architected Framework consiste à réduire la surface d’attaque et à renforcer les ressources. Vous devez appliquer cette stratégie aux pratiques de sécurité de point de terminaison standard en contrôlant étroitement les points de terminaison d’API, en exposant uniquement les données essentielles et en évitant les informations superflues dans les réponses. Équilibrez le choix de conception entre flexibilité et contrôle.
Assurez-vous qu’il n’existe aucun point de terminaison anonyme. En général, évitez de donner aux utilisateurs plus de contrôle que nécessaire. Dans la plupart des scénarios, les utilisateurs n’ont pas besoin d’ajuster les hyperparamètres, sauf dans les environnements expérimentaux. Pour les cas d’usage classiques, tels que l’interaction avec un agent virtuel, les utilisateurs doivent uniquement contrôler les aspects essentiels pour garantir la sécurité en limitant le contrôle inutile.
Pour plus d'informations, consultez Conception d'applications pour les charges de travail d'IA sur Azure.