Overzicht - BEHEER van AI-beveiligingspostuur
Het Abonnement Defender Cloud Security Posture Management (CSPM) in Microsoft Defender voor Cloud beveiligt bedrijfseigen, multi- of hybride cloudtoepassingen (momenteel Azure en AWS) die gedurende hun volledige levenscyclus gebruikmaken van generatieve AI-toepassingen. Defender voor Cloud vermindert de risico's voor AI-workloads in meerdere clouds door:
- Ontdek de generatieve AI Bill of Materials (AI BOM), waaronder toepassingsonderdelen, gegevens en AI-artefacten van code naar cloud.
- Versterking van de generatieve beveiligingsstatus van AI-toepassingen met ingebouwde aanbevelingen en door beveiligingsrisico's te verkennen en op te lossen.
- Gebruik de analyse van het aanvalspad om risico's te identificeren en op te lossen.
Belangrijk
De beheermogelijkheden voor AI-beveiligingspostuur inschakelen voor een AWS-account dat al bestaat:
- Is verbonden met uw Azure-account.
- Defender CSPM is ingeschakeld.
- Heeft het machtigingstype ingesteld als Toegang tot minimale bevoegdheden.
U moet de machtigingen voor die connector opnieuw configureren om de relevante machtigingen in te schakelen met behulp van deze stappen:
- Navigeer in Azure Portal naar de pagina Omgevingsinstellingen en selecteer de juiste AWS-connector.
- Selecteer Toegang configureren.
- Zorg ervoor dat het machtigingstype is ingesteld op Toegang tot minimale bevoegdheden.
- Volg stap 5 tot en met 8 om de configuratie te voltooien.
Generatieve AI-apps ontdekken
Defender voor Cloud AI-workloads detecteert en details van de AI-BOM van uw organisatie identificeert. Met deze zichtbaarheid kunt u beveiligingsproblemen identificeren en aanpakken en generatieve AI-toepassingen beschermen tegen mogelijke bedreigingen.
Defender voor Cloud automatisch en continu geïmplementeerde AI-workloads detecteert in de volgende services:
- Azure OpenAI Service
- Azure Machine Learning
- Amazon Bedrock
Defender voor Cloud kan ook beveiligingsproblemen detecteren binnen generatieve AI-bibliotheekafhankelijkheden zoals TensorFlow, PyTorch en Langchain door broncode te scannen op onjuiste configuraties van Infrastructure as Code (IaC) en containerinstallatiekopieën op beveiligingsproblemen. Het regelmatig bijwerken of patchen van de bibliotheken kan aanvallen voorkomen, generatieve AI-toepassingen beveiligen en hun integriteit behouden.
Met deze functies biedt Defender voor Cloud volledige zichtbaarheid van AI-workloads van code naar cloud.
Risico's verminderen voor generatieve AI-apps
Defender CSPM biedt contextuele inzichten in het AI-beveiligingspostuur van uw organisatie. U kunt risico's binnen uw AI-workloads verminderen met behulp van aanbevelingen voor beveiliging en analyse van aanvalspaden.
Risico's verkennen met behulp van aanbevelingen
Defender voor Cloud AI-workloads evalueert. Het geeft aanbevelingen voor identiteit, gegevensbeveiliging en internetblootstelling uit om kritieke beveiligingsproblemen te identificeren en te prioriteren.
Onjuiste configuraties van IaC detecteren
Met DevOps-beveiliging worden onjuiste configuraties van IaC gedetecteerd, waardoor generatieve AI-toepassingen kunnen worden blootgesteld aan beveiligingsproblemen, zoals overbelichte toegangsbeheer of onbedoeld openbaar blootgestelde services. Deze onjuiste configuraties kunnen leiden tot schendingen van gegevens, onbevoegde toegang en nalevingsproblemen, met name bij het afhandelen van strikte regelgeving voor gegevensprivacy.
Defender voor Cloud evalueert de configuratie van uw generatieve AI-apps en biedt beveiligingsaanaanveling om het AI-beveiligingspostuur te verbeteren.
Om later complexe problemen te voorkomen, herstelt u gedetecteerde onjuiste configuraties vroeg in de ontwikkelingscyclus.
Huidige IaC AI-beveiligingscontroles zijn onder andere:
- Privé-eindpunten van Azure AI-service gebruiken
- Azure AI-service-eindpunten beperken
- Beheerde identiteit gebruiken voor Azure AI-serviceaccounts
- Verificatie op basis van identiteit gebruiken voor Azure AI-serviceaccounts
Risico's verkennen met analyse van aanvalspaden
Analyse van aanvalspaden detecteert en beperkt risico's voor AI-workloads. Ai-modellen grounding to specific data and fine-tuning a pretrained model on a specific dataset to improve its performance on a related task are stages where data might be exposed.
Door AI-workloads continu te bewaken, kan analyse van aanvalspaden zwakke punten en potentiële beveiligingsproblemen identificeren en aanbevelingen opvolgen. Daarnaast wordt het uitgebreid tot gevallen waarin de gegevens en rekenresources worden gedistribueerd over Azure, AWS en GCP.