Dela via


Ansvarsfull AI i Azure-arbetsbelastningar

Målet med ansvarsfull AI i arbetsbelastningsdesign är att säkerställa att användningen av AI-algoritmer är rättvis, transparentoch inkluderande. Säkerhetsprinciperna för Microsoft Azure Well-Architected Framework är kopplade till varandra och fokuserar på sekretess och integritet. Säkerhetsåtgärder måste finnas för att upprätthålla användarsekretessen, skydda data och skydda designens integritet. Designen ska inte missbrukas i oavsiktliga syften.

I AI-arbetsbelastningar använder modeller ofta ogenomskinlig logik för att fatta beslut. Användarna bör lita på systemets funktioner och känna sig säkra på att modeller fattar dessa beslut på ett ansvarsfullt sätt. Oacceptabla beteenden, till exempel manipulering, innehålls toxicitet, IP-intrång och fabricerade svar, måste förhindras.

Överväg ett användningsfall där ett medieunderhållningsföretag vill ge rekommendationer med hjälp av AI-modeller. Om företaget inte implementerar ansvarsfull AI och korrekta säkerhetsprotokoll kan en dålig aktör ta kontroll över modellerna. Modellen kan rekommendera innehåll som orsakar skada. För organisationen kan det här beteendet leda till varumärkesskador, osäkra miljöer och juridiska problem. Därför är det viktigt och icke förhandlingsbart att upprätthålla lämplig vaksamhet under hela systemets livscykel.

Du bör prioritera säkerhets- och arbetsbelastningshantering och ha mänskliga resultat i åtanke när du fattar designbeslut. Bekanta dig med Microsoft-ramverket för ansvarsfull AI- och se till att du mäter och implementerar ramverkets principer i din design. Följande bild visar ramverkets grundläggande begrepp.

Ett diagram som visar Microsoft-ramverket för ansvarsfull AI.

Viktigt!

Precisionen för förutsägelser och måtten för ansvarsfull AI är vanligtvis sammankopplade. Genom att förbättra en modells noggrannhet kan du förbättra dess rättvisa och anpassning till verkligheten. Ansvarsfull AI överensstämmer ofta med noggrannhet, men enbart noggrannhet inkluderar inte alla säkerhetsöverväganden. Det är viktigt att verifiera dessa principer på ett ansvarsfullt sätt.

Den här artikeln innehåller rekommendationer om ansvarsfullt beslutsfattande, validering av användarindata och hjälp med att säkerställa en säker användarupplevelse. Det ger också vägledning om datasäkerhet för att skydda användardata.

Rekommendationer

I följande tabell sammanfattas rekommendationerna i den här artikeln.

Rekommendation beskrivning
Utveckla principer som tillämpar moraliska metoder i varje fas av livscykeln. Inkludera checklistobjekt som uttryckligen anger säkerhetskrav och som är skräddarsydda för arbetsbelastningskontexten. Exempel är transparens för användardata, medgivandekonfiguration och procedurer för hur du hanterar rätten att bli bortglömd (RTBF).

Utveckla dina principer för ansvarsfull AI-
Framtvinga styrning av principer för ansvarsfull AI-
Skydda användardata med målet att maximera sekretessen. Samla bara in det som är nödvändigt och med rätt användarmedgivande. Använd tekniska kontroller för att skydda profiler för användare, deras data och åtkomst till dessa data.

Hantera användardata på rätt sätt
Inspektera inkommande och utgående data
Håll AI-beslut tydliga och begripliga. Förklara tydligt hur rekommendationsalgoritmer fungerar. Ge användarna insikter om dataanvändning och algoritmiskt beslutsfattande för att hjälpa dem att förstå och lita på processen.

Gör användarupplevelsen säker

Utveckla principer för ansvarsfull AI

Dokumentera din metod för ansvarsfull AI-användning. Ange uttryckligen principer som du tillämpar i varje steg i livscykeln så att arbetsbelastningsteamet förstår sitt ansvar. Microsofts standarder för ansvarsfull AI ger riktlinjer, men du måste definiera vad dessa riktlinjer betyder specifikt för din kontext.

Principerna bör till exempel innehålla checklistobjekt för mekanismer som stöder transparens för användardata och konfiguration av medgivande. Helst bör dessa mekanismer göra det möjligt för användare att välja bort datainkludering. Datapipelines, analys, modellträning och andra steg måste alla respektera det valet. Ett annat exempel är procedurer för hantering av RTBF. Kontakta organisationens etikavdelning och juridiska team för att fatta välgrundade beslut.

Skapa transparenta principer för dataanvändning och algoritmiskt beslutsfattande som hjälper användarna att förstå och lita på processen. Dokumentera dessa beslut för att upprätthålla en tydlig historik för potentiella framtida rättstvister.

Ansvarsfull AI-implementering innehåller tre viktiga roller: forskargruppen, policyteamet och teknikteamet. Samarbete mellan dessa team bör operationaliseras. Om din organisation har ett befintligt team använder du deras arbete. Annars etablerar du dessa metoder själv.

Varje team bör ha sitt eget ansvar. Till exempel:

  • Forskargruppen genomför riskidentifiering genom att konsultera organisationens riktlinjer, branschstandarder, lagar, förordningar och kända taktiker för röda team.

  • Principteamet utvecklar principer som är specifika för arbetsbelastningen. De innehåller riktlinjer från den överordnade organisationen och myndighetsregler.

  • Teknikteamet implementerar principerna i sina processer och slutprodukt. Teamet validerar och testar för efterlevnad.

Varje team formaliserar sina riktlinjer, men arbetsbelastningsteamet måste vara ansvarigt för sina egna dokumenterade metoder. Teamet bör tydligt dokumentera eventuella extra steg eller avsiktliga avvikelser för att se till att det inte finns någon tvetydighet om vad som är tillåtet. Teamet bör också vara transparent om eventuella brister eller oväntade resultat i lösningen.

Framtvinga styrning av principer för ansvarsfull AI

Utforma din arbetsbelastning så att den följer organisations- och regelstyrningen. Om transparens till exempel är ett organisationskrav kan du bestämma hur det ska tillämpas på din arbetsbelastning. Identifiera områden i din design, livscykel, kod eller andra komponenter där du bör införa transparensfunktioner för att uppfylla den standarden.

Förstå de styrnings-, ansvars-, gransknings- och rapporteringsmandat som krävs. Se till att ditt styrningsråd godkänner och signerar arbetsbelastningsdesign för att undvika omarbetningar och minska säkerhets- eller integritetsproblem. Du kan behöva gå igenom flera lager av godkännande. I följande diagram beskrivs en typisk styrningsstruktur i en organisation.

Ett diagram som visar en typisk styrningsstruktur i en organisation.

Mer information om organisationsprinciper och godkännare finns i Definiera en ansvarsfull AI-strategi.

Gör användarupplevelsen säker

Användarupplevelser bör baseras på branschriktlinjer. Använd Microsoft Human-AI Experiences Design Library, som innehåller principer och tillhandahåller implementeringsriktlinjer. Den innehåller också exempel från Microsoft-produkter och andra branschkällor.

Det finns arbetsbelastningsansvar under hela livscykeln för användarinteraktion. De börjar med en användares avsikt att använda systemet, och de fortsätter under en session och under eventuella störningar som systemfel orsakar. Överväg följande metoder:

  • Skapa transparens. Gör användarna medvetna om hur systemet genererar svar på deras fråga.

    Inkludera länkar till datakällor som modellen konsulterar för förutsägelser. Den här metoden ökar användarnas förtroende genom att visa dem informationens ursprung. Datadesignen bör innehålla dessa källor i metadata. När orkestreraren i ett program med förhöjd hämtning utför en sökning hämtar den till exempel 20 dokumentsegment och skickar de 10 översta segmenten till modellen som kontext. De 10 översta segmenten tillhör tre olika dokument. Användargränssnittet kan sedan referera till dessa tre källdokument när modellens svar visas. Den här transparensen ökar användarnas förtroende.

    Transparens blir viktigare när du använder agenter, som fungerar som mellanhänder mellan klientdelsgränssnitt och serverdelssystem. I ett biljettsystem tolkar orkestreringskoden till exempel användarsyfte och gör API-anrop (Application Programming Interface) till agenter för att hämta nödvändig information. Genom att exponera dessa interaktioner kan du göra användaren medveten om systemets åtgärder.

    För automatiserade arbetsflöden som innehåller flera agenter skapar du loggfiler som registrerar varje steg. Loggfiler kan hjälpa dig att identifiera och korrigera fel. De ger också användarna en förklaring till beslut som operationaliserar transparensen.

    Varning

    När du implementerar transparensrekommendationer bör du undvika att överbelasta användaren med för mycket information. Ta en gradvis metod genom att använda minimalt störande UI-metoder.

    Visa till exempel ett verktygstips som visar en konfidenspoäng från modellen. Du kan lägga till länkar, till exempel länkar till källdokument, som användarna kan välja för mer information. Den här användarinitierade metoden håller användargränssnittet icke-avbrottskänsligt och låter användarna söka mer information endast om de väljer att göra det.

  • Samla in synpunkter. Implementera feedbackmekanismer.

    Undvik att överväldiga användare med omfattande enkäter efter varje svar. Använd snabba och enkla feedbackmekanismer i stället, till exempel tummen upp eller tummen ner, eller ett klassificeringssystem för specifika aspekter av svaret på en skala från 1 till 5. Dessa metoder hjälper till att förbättra systemet över tid och möjliggör detaljerad feedback utan att vara påträngande. Tänk på potentiella rättviseproblem i feedback eftersom det kan finnas sekundära orsaker bakom användarsvar.

    Implementeringen av en feedbackmekanism påverkar arkitekturen på grund av behovet av datalagring. Behandla feedback som användardata och tillämpa nivåer av sekretesskontroll efter behov.

    Förutom feedback om svar samlar du in feedback om användarupplevelsens effekt. Samla in engagemangsmått via din övervakningsstack i systemet.

Operationalisera säkerhetsåtgärder för innehåll

Integrera innehållssäkerhet i varje steg i AI-livscykeln med hjälp av anpassad lösningskod, lämpliga verktyg och effektiva säkerhetsrutiner. Tänk på följande strategier:

  • Anonymisera data. När data flyttas från inmatning till utbildning eller utvärdering implementerar du kontroller längs vägen för att minimera risken för läckage av personlig information och undvika exponering av rådata.

  • Måttligt innehåll. Använd innehållssäkerhets-API:et som utvärderar begäranden och svar i realtid. Kontrollera att dessa API:er kan nås.

  • Identifiera och minimera hot. Tillämpa välkända säkerhetsrutiner på dina AI-scenarier. Du kan till exempel utföra hotmodellering och sedan dokumentera hoten och hur du minimerade dem. Vanliga säkerhetsrutiner som röda teamövningar gäller för AI-arbetsbelastningar. Röda team kan testa om modeller kan manipuleras för att generera skadligt innehåll. Dessa aktiviteter bör integreras i AI-åtgärder.

    Mer information finns i Planera röd teamindelning för stora språkmodeller och deras program.

  • Använd rätt mått. Använd mått som effektivt mäter modellens beteende. Måtten varierar beroende på typen av AI-modell. I vissa fall kanske mätning av generativa modeller inte gäller för regressionsmodeller. En modell förutsäger till exempel förväntad livslängd och resultatet påverkar försäkringssatserna. Rättvisefrågor i den här modellen kan leda till rättviserelaterade skador. Det här problemet beror på avvikelser i grundläggande måtttestning eftersom rättvise- och noggrannhetsmått vanligtvis är sammankopplade. Förbättra noggrannheten för att minska rättviserelaterade skador.

  • Lägg till lämplig instrumentation. AI-modellresultat måste vara förklarande. Du måste motivera och spåra hur slutsatsdragningar görs, inklusive träningsdata, beräknade funktioner och grunddata. I diskriminerande AI kan du motivera beslut steg för steg. För generativa modeller kan det dock vara komplicerat att förklara resultat. Dokumentera beslutsprocessen för att hantera potentiella rättsliga konsekvenser och ge insyn.

    Du bör implementera den här förklaringsaspekten under hela AI-livscykeln. Datarensning, ursprung, urvalskriterier och bearbetning är viktiga steg där beslut bör spåras.

Verktyg

Integrera verktyg för innehållssäkerhet och dataspårning, till exempel Microsoft Purview. Azure AI Content Safety-API :er kan anropas från testningen för att underlätta innehållssäkerhetstestning.

Azure AI Foundry tillhandahåller mått som utvärderar modellens beteende. Mer information finns i Utvärderings- och övervakningsmått för generativ AI.

Information om träningsmodeller finns i mått som Azure Machine Learning tillhandahåller.

Inspektera inkommande och utgående data

Snabbinmatningsattacker, till exempel jailbreaking, är ett vanligt problem för AI-arbetsbelastningar. I det här fallet kan vissa användare försöka missbruka modellen för oavsiktliga ändamål. För att säkerställa säkerheten inspekterar data för att förhindra attacker och filtrerar bort olämpligt innehåll. Använd den här analysen på både användarens indata och systemets svar för att säkerställa noggrann innehållsmoderering i inkommande flöden och utgående flöden.

I vissa fall måste du göra flera modellanrop, till exempel via Azure OpenAI Service, för att hantera en enda klientbegäran. I dessa scenarier kan det vara kostsamt och onödigt att tillämpa innehållssäkerhetskontroller på varje anrop. Överväg att centralisera det arbetet i arkitekturen samtidigt som du behåller säkerheten som ett ansvar på serversidan. Anta att en arkitektur har en gateway framför modellslutpunkten för slutsatsdragning för att avlasta specifika backend-funktioner. Du kan utforma den gatewayen för att hantera innehållssäkerhetskontroller för begäranden och svar som serverdelen kanske inte stöder internt. Även om en gateway är en vanlig lösning kan ett orkestreringslager hantera dessa uppgifter effektivt i enklare arkitekturer. I båda fallen kan du selektivt tillämpa dessa kontroller när det behövs, vilket optimerar prestanda och kostnader.

Inspektionerna bör vara multimodala och omfatta olika format. När du använder multimodala indata, till exempel bilder, är det viktigt att analysera dem för dolda meddelanden som kan vara skadliga eller våldsamma. Dessa meddelanden kanske inte visas omedelbart, så de kräver noggrann kontroll. Använd verktyg som API:er för innehållssäkerhet för det här ändamålet.

För att upprätthålla sekretess- och datasäkerhetsprinciper kontrollerar du användardata och grunddata för efterlevnad av sekretessregler. Kontrollera att data är sanerade eller filtrerade när de flödar genom systemet. Data från tidigare kundsupportkonversationer kan till exempel fungera som grunddata. Dessa data bör saneras innan de återanvänds.

Hantera användardata på rätt sätt

Ansvarsfulla metoder omfattar noggrann hantering av användardatahantering. Den här hanteringen omfattar att veta när du ska använda data och när du ska undvika att förlita dig på användardata.

  • Öva slutsatsdragning utan att dela användardata. Om du vill dela användardata på ett säkert sätt med andra organisationer för insikter använder du en clearinghouse-modell. I det här scenariot tillhandahåller organisationer data till en betrodd partner som tränar modellen med hjälp av aggregerade data. Sedan kan alla institutioner använda den här modellen och dela insikter utan att exponera enskilda datauppsättningar. Målet är att använda modellens slutsatsdragningsfunktioner utan att dela detaljerade träningsdata.

  • Främja mångfald och inkludering. När användardata är nödvändiga använder du en mängd olika data, inklusive underrepresenterade genrer och skapare, för att minimera rättviserelaterade skador. Implementera funktioner som uppmuntrar användare att utforska nytt och varierat innehåll. Övervaka användningen kontinuerligt och justera rekommendationerna för att undvika att någon enskild innehållstyp blir överrepresenterad.

  • Respektera RTBF. Undvik att använda användardata när det är möjligt. Se till att RTBF efterlevs genom att ha nödvändiga åtgärder på plats för att se till att användardata tas bort noggrant.

    För att säkerställa efterlevnad kan det finnas begäranden om att ta bort användardata från systemet. För mindre modeller kan du ta bort användardata genom att träna om modellen med hjälp av data som exkluderar personlig information. För större modeller, som kan bestå av flera mindre, oberoende tränade modeller, är processen mer komplex och kostnaden och ansträngningen är betydande. Sök juridisk och etisk vägledning om hur du hanterar dessa situationer och se till att inkludera vägledningen i dina principer för ansvarsfull AI-.

  • Behåll data på ett ansvarsfullt sätt. När det inte går att ta bort data får du uttryckligt användarmedgivande för datainsamling och tillhandahåller tydliga sekretesspolicyer. Samla endast in och behålla data när det är absolut nödvändigt. Ha åtgärder på plats för att ta bort data aggressivt när de inte längre behövs. Rensa till exempel chatthistorik så snart det är praktiskt och anonymisera känsliga data före kvarhållning. Använd avancerade krypteringsmetoder för dessa vilande data.

  • Stöd förklarbarhet. Spåra beslut i systemet för att stödja förklaringskrav. Utveckla tydliga förklaringar av hur rekommendationsalgoritmer fungerar. Ge användarna insikter om varför specifikt innehåll rekommenderas för dem. Målet är att se till att AI-arbetsbelastningar och deras resultat är transparenta och motiverade genom att beskriva hur de fattar beslut, vilka data de använder och hur modeller har tränats.

  • Kryptera användardata. Indata måste krypteras i varje steg i databehandlingspipelinen från det ögonblick då användaren anger data. Dessa steg omfattar data när de flyttas från en punkt till en annan, data som lagras och data som härleds, om det behövs. Balansera säkerhet och funktioner och sträva efter att hålla data privata under hela livscykeln.

  • Tillhandahålla robusta åtkomstkontroller. Flera typer av identiteter kan potentiellt komma åt användardata. Implementera rollbaserad åtkomstkontroll för både kontrollplanet och dataplanet så att det omfattar kommunikation mellan användare och system.

    Upprätthålla rätt användarsegmentering för att skydda sekretessen. Till exempel kan Microsoft 365 Copilot söka efter och ge svar baserat på en användares specifika dokument och e-postmeddelanden, samtidigt som endast innehåll som är relevant för användaren nås.

  • Minska ytan. En grundläggande strategi för Well-Architected Framework Security-pelare är att minimera attackytan och härda resurser. Du bör tillämpa den här strategin på standardmetoder för slutpunktssäkerhet genom att noggrant kontrollera API-slutpunkter, exponera endast viktiga data och undvika onödig information i svar. Balansera designvalet mellan flexibilitet och kontroll.

    Kontrollera att det inte finns några anonyma slutpunkter. I allmänhet bör du undvika att ge användarna mer kontroll än nödvändigt. I de flesta scenarier behöver användarna inte justera hyperparametrar förutom i experimentella miljöer. För vanliga användningsfall, som att interagera med en virtuell agent, bör användarna endast kontrollera viktiga aspekter för att garantera säkerheten genom att begränsa onödig kontroll.

Mer information finns i Programdesign för AI-arbetsbelastningar i Azure.

Nästa steg