Partager via


Vue d'ensemble : Gestion de l’état de la sécurité de l’IA

Le plan CSPM (Gestion de la posture de sécurité cloud) de Microsoft Defender for Cloud sécurise les applications d’IA générative de l’entreprise, multi ou hybride (actuellement Azure et AWS), tout au long de leur cycle de vie. Defender for Cloud réduit les risques liés aux charges de travail IA dans le cloud en effectuant les opérations suivantes :

  • Découvrez la nomenclature d’IA générative (Bill of Materials, BOM), qui inclut des composants d’application, des données et des artefacts IA de code vers le cloud.
  • Renforcement de la posture de sécurité des applications IA générative avec des recommandations intégrées et en explorant et en corrigeant les risques de sécurité.
  • Utilisation de l’analyse du chemin d’attaque pour identifier et corriger les risques.

Diagramme du cycle de vie de développement couvert par la gestion de la posture de sécurité IA de Defender pour le cloud.

Important

Pour activer les fonctionnalités de gestion de la posture de sécurité IA sur un compte AWS :

  • Déjà connecté à votre compte Azure.
  • Pour lequel Defender CSPM est activé.
  • Qui dispose d’un type d’autorisations défini sur Accès au privilège minimum.

Pour activer les autorisations appropriées, vous devez reconfigurer les autorisations sur ce connecteur en suivant les étapes suivantes :

  1. Dans le Portail Azure, accédez à la page Paramètres d’environnement et sélectionnez le connecteur AWS approprié.
  2. Sélectionnez Configurer l’accès.
  3. Vérifiez que le type d’autorisations est défini sur Accès au privilège minimum.
  4. Suivez les étapes 5 à 8 pour terminer la configuration.

Découvrir les applications IA génératives

Defender pour le cloud découvre les charges de travail IA et identifie les détails de BOM IA de votre organisation. Cette visibilité vous permet d’identifier et de résoudre les vulnérabilités et de protéger les applications IA générative contre les menaces potentielles.

Defender for Cloud découvre automatiquement et en permanence les charges de travail IA déployées dans les services suivants :

  • Azure OpenAI Service
  • Azure Machine Learning
  • Amazon Bedrock

Defender for Cloud peut également découvrir des vulnérabilités dans les dépendances de bibliothèque d’IA générative telles que TensorFlow, PyTorch et Langchain, en analysant le code source à la recherche des défauts de configuration de l’infrastructure en tant que code (IaC) et les images conteneur à la recherche de vulnérabilités. La mise à jour ou la mise à jour corrective régulière des bibliothèques peut empêcher les attaques, protéger les applications IA générative et maintenir leur intégrité.

Avec ces fonctionnalités, Defender pour le cloud offre une visibilité complète des charges de travail IA du code au cloud.

Réduire les risques pour les applications IA génératives

Defender CSPM fournit des insights contextuels sur la posture de sécurité de l’IA de votre organisation. Vous pouvez réduire les risques au sein de vos charges de travail IA à l’aide des recommandations de sécurité et de l’analyse du chemin d’accès aux attaques.

Explorer les risques à l’aide de recommandations

Defender for Cloud évalue les charges de travail IA. Il émet des suggestions sur l’identité, à la sécurité des données et à l’exposition à Internet pour identifier et hiérarchiser les problèmes de sécurité critiques.

Détecter les erreurs de configuration de l’IaC

La sécurité DevOps détecte les configurations incorrectes IaC, qui peuvent exposer des applications IA générative à des vulnérabilités de sécurité, telles que des contrôles d’accès sur-exposés ou des services exposés publiquement par inadvertance. Ces erreurs de configuration peuvent entraîner des violations de données, des accès non autorisés et des problèmes de conformité, en particulier lors de la gestion de réglementations strictes en matière de confidentialité des données.

Defender pour le cloud évalue votre configuration d’applications IA générative et fournit des recommandations de sécurité pour améliorer la posture de sécurité de l’IA.

Pour éviter des problèmes plus tard, corrigez les défauts de configuration détectés dès le début du cycle de développement.

Les vérifications de sécurité IaC actuelles sont les suivantes :

  • Utiliser des points de terminaison privés Azure AI Service
  • Restreindre les points de terminaison de service Azure AI
  • Utiliser l’identité managée pour les comptes de service Azure AI
  • Utiliser l’authentification basée sur l’identité pour les comptes de service Azure AI

Explorer les risques avec l’analyse des chemins d’attaque

L’analyse du chemin d’attaque détecte et atténue les risques liés aux charges de travail IA. Ancrage de modèles IA à des données spécifique et réglage précis d’un modèle pré-entraîné sur un jeu de données spécifique pour améliorer ses performances sont des étapes où les données peuvent être exposées.

En analysant en permanence les charges de travail IA, l’analyse du chemin d’attaque peut identifier les faiblesses et les vulnérabilités potentielles et suivre les recommandations. En outre, il s’étend aux cas où les données et les ressources de calcul sont distribuées dans Azure, AWS et GCP.