Felelős AI az Azure-számítási feladatokban
A terhelés tervezésében a felelős AI célja annak biztosítása, hogy az AI-algoritmusok használata tisztességes, átláthatóés befogadólegyen. A Microsoft Azure Well-Architected Framework biztonsági alapelvei egymással összefüggnek, és bizalmassági és integritásiösszpontosítanak. Biztonsági intézkedéseknek kell lenniük a felhasználói adatvédelem fenntartása, az adatok védelme és a kialakítás integritásának védelme érdekében. A kialakítást nem szabad szándékolt célokra visszaélni.
Az AI-számítási feladatokban a modellek gyakran átlátszatlan logikát használnak a döntések meghozatalához. A felhasználóknak megbízhatónak kell lennie a rendszer működésében, és biztosnak kell lennie abban, hogy a modellek felelősségteljesen hozzák meg ezeket a döntéseket. Meg kell akadályozni az elfogadhatatlan viselkedéseket, például a manipulációt, a tartalom toxicitását, az IP-jogsértést és a feldolgozott válaszokat.
Fontolja meg azt a használati esetet, amelyben egy média-szórakoztató vállalat AI-modellek használatával szeretne javaslatokat adni. Ha a vállalat nem implementálja a felelős AI-t és a megfelelő biztonsági protokollokat, előfordulhat, hogy egy rossz szereplő átveszi a modellek irányítását. A modell olyan tartalmakat javasolhat, amelyek kárt okoznak. A szervezet számára ez a viselkedés márkakárokat, nem biztonságos környezeteket és jogi problémákat okozhat. Ezért a megfelelő éberség fenntartása a rendszer teljes életciklusa során alapvető és nem tárgyalható.
A tervezés során fontossági sorrendbe kell helyeznie a biztonságot és a számítási feladatokat, és szem előtt kell tartania az emberi eredményeket. Ismerje meg a Microsoft-keretrendszer a felelős AI-, és győződjön meg arról, hogy a keretrendszer alapelveit a tervezés során méri és valósítja meg. Az alábbi képen a keretrendszer alapfogalmai láthatók.
Fontos
Az előrejelzések pontossága és a felelős AI-hez tartozó metrikák általában egymáshoz kapcsolódnak. A modell pontosságának javításával javíthatja annak méltányosságát és a valósághoz való igazítását. A felelős AI gyakran igazodik a pontossághoz, de a pontosság önmagában nem foglalja magában az összes biztonsági szempontot. Fontos, hogy felelősségteljesen érvényesítsük ezeket az alapelveket.
Ez a cikk javaslatokat tartalmaz a felelős döntéshozatalról, a felhasználói bemenetek ellenőrzéséről és a biztonságos felhasználói élmény biztosításáról. Útmutatást nyújt az adatbiztonságról is a felhasználói adatok védelme érdekében.
Ajánlások
Az alábbi táblázat összefoglalja a cikkben szereplő javaslatokat.
Ajánlás | Leírás |
---|---|
Olyan szabályzatok kidolgozása, amelyek az életciklus minden szakaszában érvényesítik az erkölcsi gyakorlatokat. | Olyan ellenőrzőlistaelemeket is tartalmazhat, amelyek kifejezetten a biztonsági követelményeket támasztják, és a számítási feladatok környezetéhez vannak igazítva. Ilyenek például a felhasználói adatok átláthatósága, a hozzájárulás konfigurálása és az elfeledtetéshez való jog kezelésére vonatkozó eljárások (RTBF). ▪ Fejleszd a felelős AI szabályzataidat ▪ A felelős AI- szabályzatainak szabályozásának kikényszerítése |
A felhasználói adatok védelme az adatvédelem maximalizálása érdekében. | Csak a szükséges adatokat gyűjtse össze a megfelelő felhasználói hozzájárulással. Technikai vezérlők alkalmazása a felhasználók profiljainak, adatainak és az adatokhoz való hozzáférésnek a védelméhez. ▪ Felhasználói adatok megfelelő kezelése ▪ Bejövő és kimenő adatok vizsgálata |
AI-döntések világos és érthető maradnak. | Egyértelműen magyarázza el, hogyan működnek a javaslati algoritmusok. Betekintést nyújt a felhasználóknak az adathasználatba és az algoritmikus döntéshozatalba, hogy segítsen nekik megérteni és megbízni a folyamatban. ▪ A felhasználói élmény biztonságossá tétele |
Szabályzatok fejlesztése a felelős AI-hoz
Dokumentálja a felelős AI-használat megközelítését. Explicit módon adja meg az életciklus minden szakaszában alkalmazott szabályzatokat, hogy a számítási feladatokért felelős csapat megértse a feladataikat. A Felelős AI-ra vonatkozó Microsoft-szabványok útmutatást nyújtanak, de meg kell határoznia, hogy ezek az irányelvek mit jelentenek kifejezetten az Ön környezetére vonatkozóan.
A szabályzatoknak tartalmazniuk kell például a felhasználói adatok átláthatóságát és a hozzájárulás konfigurálásának támogató mechanizmusok ellenőrzőlistáit. Ideális esetben ezeknek a mechanizmusoknak lehetővé kell tenniük, hogy a felhasználók kikapcsolják az adatbefoglalást. Az adatfolyamoknak, az elemzéseknek, a modellbetanításnak és más szakaszoknak tiszteletben kell tartaniuk ezt a választást. Egy másik példa az RTBF kezelésére szolgáló eljárások. A megalapozott döntések meghozatalához forduljon a szervezet etikai részlegéhez és jogi csapatához.
Transzparens adatkezelési szabályzatok és algoritmikus döntéshozatal létrehozása a felhasználók számára a folyamat megértéséhez és megbízhatóságához. Dokumentálja ezeket a döntéseket, hogy megőrizze a lehetséges jövőbeli peres eljárások egyértelmű előzményeit.
A felelős AI-implementáció három fő szerepkört foglal magában: a kutatócsoportot, a szakpolitikai csapatot és a mérnöki csapatot. Ezeknek a csapatoknak az együttműködését működőképessé kell tenni. Ha a szervezet egy meglévő csapattal rendelkezik, használja a munkájukat. Ellenkező esetben ezeket a gyakorlatokat saját maga hozhatja létre.
Minden csapatnak saját felelősségi körekkel kell rendelkeznie. Például:
A kutatócsoport a szervezeti irányelvek, az iparági szabványok, a törvények, a szabályozások és az ismert vöröscsapat-taktikák segítségével kockázatfelderítési hajt végre.
A szabályzatcsapat a számítási feladatra vonatkozó szabályzatokat fejleszt. Ezek a szülőszervezet és a kormányzati szabályozás irányelveit tartalmazzák.
A mérnöki csapat implementálja a szabályzatokat a folyamataikba és a termékeikbe. A csapat ellenőrzi és teszteli a betartást.
Minden csapat formálisan meghatározza az irányelveit, de a számítási feladatokat tartalmazó csapatnak elszámoltathatónak kell lennie a saját dokumentált eljárásaiért. A csapatnak egyértelműen dokumentálnia kell az esetleges további lépéseket vagy szándékos eltéréseket, hogy meggyőződjön arról, hogy nincs kétértelműség az engedélyezettekkel kapcsolatban. A csapatnak átláthatónak kell lennie a megoldás esetleges hiányosságaival vagy váratlan eredményével kapcsolatban is.
Az irányelvek érvényesítése a felelős mesterséges intelligencia érdekében.
Úgy tervezheti meg a számítási feladatot, hogy megfeleljen a szervezeti és szabályozási szabályozásnak. Ha például az átláthatóság szervezeti követelmény, határozza meg, hogy ez hogyan vonatkozik a számítási feladatra. Azonosítsa a tervezési, életciklus-, kód- vagy egyéb összetevők azon területeit, ahol átláthatósági funkciókat kell bevezetnie az adott szabványnak megfelelően.
Ismerje meg a szükséges irányítási, elszámoltathatósági, felülvizsgálati tanácsokat és jelentéskészítési feladatokat. Győződjön meg arról, hogy a szabályozási tanács jóváhagyja és aláírja a számítási feladatok tervezését, hogy elkerülje az újratervezést, és mérsékelje a biztonsági vagy adatvédelmi problémákat. Előfordulhat, hogy több jóváhagyási rétegen kell végighaladnia. Az alábbi ábra egy szervezet tipikus irányítási struktúráját mutatja be.
A szervezeti szabályzatokkal és jóváhagyókkal kapcsolatos további információkért lásd: Felelős AI-stratégia meghatározása.
A felhasználói élmény biztonságossá tétele
A felhasználói élménynek iparági irányelveken kell alapulnia. Használja a Microsoft Human-AI Élmények tervezési könyvtárát, amely alapelveket és megvalósítási irányelveket tartalmaz. Példákat is kínál a Microsoft-termékekből és más iparági forrásokból.
A felhasználói interakció teljes életciklusa során számítási feladatokat kell ellátni. A rendszer használatának szándékával kezdődnek, és a munkamenetek során és a rendszerhibák által okozott fennakadások során is folytatódnak. Vegye figyelembe az alábbi eljárásokat:
Átláthatóság létrehozása. Tudatosíthatja a felhasználókban, hogy a rendszer hogyan generál válaszokat a lekérdezésükre.
Adjon meg hivatkozásokat azokra az adatforrásokra, amelyeket a modell az előrejelzésekhez keres. Ez a gyakorlat növeli a felhasználók megbízhatóságát azáltal, hogy megjeleníti nekik az információk eredetét. Az adattervezésnek tartalmaznia kell ezeket a forrásokat a metaadatokban. Ha például egy lekéréses-bővített alkalmazás vezénylője keresést végez, lekéri a 20 dokumentumtömbet, és kontextusként elküldi az első 10 adattömbet a modellnek. Az első 10 adattömb három különböző dokumentumhoz tartozik. A felhasználói felület ezután hivatkozhat erre a három forrásdokumentumra, amikor megjeleníti a modell válaszát. Ez az átláthatóság növeli a felhasználói bizalmat.
Az átláthatóság akkor válik fontossá, ha ügynököket használ, amelyek közvetítőként működnek az előtérbeli felületek és a háttérrendszerek között. Egy jegykezelő rendszerben például a vezénylési kód értelmezi a felhasználói szándékot, és az alkalmazásprogramozási felület (API) meghívja az ügynököket a szükséges információk lekérésére. Ezeknek az interakcióknak a felfedése segít a felhasználónak a rendszer műveleteinek tudatosításában.
Több ügynököt tartalmazó automatizált munkafolyamatok esetén hozzon létre olyan naplófájlokat, amelyek rögzítik az egyes lépéseket. A naplófájlok segíthetnek a hibák azonosításában és javításában. Emellett magyarázatot is adnak a felhasználóknak a döntésekhez, ami az átláthatóságot is működőképessé teszi.
Figyelemfelhívás
Ha átláthatósági javaslatokat valósít meg, ne terhelje túl sok információval a felhasználót. Alkalmazzon fokozatos megközelítést minimálisan zavaró felhasználói felületi módszerekkel.
Például jelenítsen meg egy elemleírást, amely a modell megbízhatósági pontszámát mutatja. Olyan hivatkozásokat is tartalmazhat, például forrásdokumentumokra mutató hivatkozásokat, amelyeket a felhasználók további részletekért választhatnak ki. Ez a felhasználó által kezdeményezett módszer nem zavarja meg a felhasználói felületet, és lehetővé teszi, hogy a felhasználók csak akkor kérjenek további információt, ha úgy döntenek.
Visszajelzések gyűjtése. Visszajelzési mechanizmusok implementálása.
Minden válasz után kerülje a kiterjedt kérdőívekkel rendelkező felhasználók túlterheltségét. Használjon gyors és egyszerű visszajelzési mechanizmusokat, például felfelé vagy lefelé mutató hüvelykujjat, vagy egy értékelési rendszert a válasz adott aspektusaihoz az 1-5-ös skálán. Ezek a módszerek segítenek idővel javítani a rendszert, és lehetővé teszik a részletes visszajelzést anélkül, hogy tolakodóak. Vegye figyelembe a visszajelzések lehetséges méltányossági problémáit, mert a felhasználói válaszok mögött másodlagos okok állhatnak.
A visszajelzési mechanizmus implementálása az adattárolás szükségessége miatt befolyásolja az architektúrát. Kezelje a visszajelzéseket, például a felhasználói adatokat, és szükség szerint alkalmazza az adatvédelmi szabályozás szintjét.
A visszajelzések mellett visszajelzést is gyűjthet a felhasználói élmény hatékonyságáról. Gyűjtse össze az elköteleződési metrikákat a rendszer monitorozási eszközrendszerén keresztül.
Tartalombiztonsági intézkedések működtetése
A tartalombiztonság integrálása az AI életciklusának minden szakaszába egyéni megoldáskód, megfelelő eszközök és hatékony biztonsági eljárások használatával. Vegye figyelembe a következő stratégiákat:
Adatok anonimizálása. Ahogy az adatok a betöltésről a betanításra vagy az értékelésre kerülnek, az ellenőrzések végrehajtása során minimalizálja a személyes adatok kiszivárgásának kockázatát, és elkerülheti a nyers felhasználói adatok expozícióját.
Moderált tartalom. Használja a kérelmeket és válaszokat valós időben kiértékelő tartalombiztonsági API-t. Győződjön meg arról, hogy ezek az API-k elérhetők.
Fenyegetések azonosítása és elhárítása. Alkalmazzon jól ismert biztonsági eljárásokat az AI-forgatókönyvekre. Például végezze el a fenyegetésmodellezést, majd dokumentálja a fenyegetéseket és azok elhárításának módját. Az AI munkaterhelésekre alkalmazott tipikus biztonsági gyakorlatok, például a vörös csapatgyakorlatok, érvényesek. A vörös csapatok tesztelhetik, hogy a modellek manipulálhatók-e káros tartalmak létrehozásához. Ezeket a tevékenységeket integrálni kell az AI-műveletekbe.
További információ: Nagy nyelvi modellek és alkalmazásaik vörös összevonásának megtervezése.
Használja a megfelelő metrikákat. Olyan metrikákat használjon, amelyek hatékonyan mérik a modell viselkedését. A metrikák az AI-modell típusától függően változnak. Bizonyos esetekben előfordulhat, hogy a generatív modellek mérése nem vonatkozik a regressziós modellekre. Egy modell például előrejelzi a várható élettartamot, és az eredmények hatással vannak a biztosítási díjakra. A modell méltányossági problémái méltányossággal kapcsolatos károkat okozhatnak. Ez a probléma az alapvető metrikatesztelés eltéréseiből ered, mivel a méltányossági és pontossági metrikák általában egymáshoz kapcsolódnak. A pontosság javítása a méltányossággal kapcsolatos ártalmak csökkentése érdekében.
Adjon hozzá megfelelő eszközöket. Az AI-modell eredményeinek magyarázhatónak kell lenniük. Meg kell indokolnia és nyomon kell követnie, hogyan történik a következtetések levonása,beleértve a betanítási adatokat, a számított jellemzőket és az alapozó adatokat. A diszkriminatív MI-ben lépésről lépésre indokolhatja a döntéseket. A generatív modellek esetében azonban az eredmények magyarázata összetett lehet. Dokumentálja a lehetséges jogi következmények kezelésére és az átláthatóság biztosítására vonatkozó döntéshozatali folyamatot .
Ezt a magyarázhatósági szempontot a teljes AI-életciklus során végre kell hajtania. Az adattisztítás, a leválasztás, a kiválasztási feltételek és a feldolgozás kritikus fontosságú szakaszok, ahol a döntéseket nyomon kell követni.
Eszközök
Integrálhatók a tartalombiztonságot és az adatok nyomon követhetőségét szolgáló eszközök, például Microsoft Purview. Az Azure AI Content Safety API-k a tesztelésből hívhatók meg a tartalombiztonsági tesztelés megkönnyítése érdekében.
Az Azure AI Foundry olyan metrikákat biztosít, amelyek kiértékelik a modell viselkedését. További információ: A generatív AI kiértékelési és monitorozási mérőszámai.
Betanítási modellek esetén tekintse meg az Azure Machine Learning által biztosított metrikákat.
Bejövő és kimenő adatok vizsgálata
A gyors injektálási támadások, például a jailbreakelés gyakori problémát jelentenek az AI-számítási feladatok esetében. Ebben az esetben előfordulhat, hogy egyes felhasználók nem szándékos célokból próbálják visszaélni a modellel. A biztonság biztosítása érdekében adatok vizsgálatával megelőzheti a támadásokat, és kiszűrheti a nem megfelelő tartalmakat. Alkalmazza ezt az elemzést a felhasználó bemenetére és a rendszer válaszaira is, hogy biztosítsa a bejövő és kimenő folyamatok részletes tartalommoderálását.
Bizonyos esetekben több modellhívást kell létrehoznia, például az Azure OpenAI szolgáltatáson keresztül egyetlen ügyfélkérés kiszolgálásához. Ezekben a forgatókönyvekben a tartalombiztonsági ellenőrzések alkalmazása minden meghívásra költséges és szükségtelen lehet. Fontolja meg az architektúrában működő központosítást, miközben a biztonságot kiszolgálóoldali felelősségként tartja fenn. Tegyük fel, hogy egy architektúrában egy átjáró található a modell következtetési végpontja előtt, amely bizonyos háttérbeli feladatokat átad. Ezt az átjárót úgy tervezheti meg, hogy kezelje az olyan kérések és válaszok tartalombiztonsági ellenőrzését, amelyeket a háttér esetleg nem támogat natív módon. Bár az átjáró gyakori megoldás, a vezénylési réteg képes hatékonyan kezelni ezeket a feladatokat egyszerűbb architektúrákban. Mindkét esetben szelektíven alkalmazhatja ezeket az ellenőrzéseket, ha szükséges, ami optimalizálja a teljesítményt és a költségeket.
vizsgálatoknak többmodális kell lenniük, és különböző formátumokra kell kiterjedniük. Ha többmodális bemeneteket, például képeket használ, fontos elemezni azokat olyan rejtett üzenetek esetén, amelyek károsak vagy erőszakosak lehetnek. Előfordulhat, hogy ezek az üzenetek nem láthatók azonnal, ezért gondos ellenőrzést igényelnek. Ehhez használja az olyan eszközöket, mint a Content Safety API-k.
Az adatvédelmi és adatbiztonsági szabályzatok érvénybe léptetése érdekében vizsgálja meg a felhasználói adatokat és a földelési adatokat az adatvédelmi előírásoknak való megfelelés érdekében. Győződjön meg arról, hogy az adatok megtisztítva vagy szűrve lesznek a rendszeren áthaladva. A korábbi ügyfélszolgálati beszélgetésekből származó adatok például alapadatokként szolgálhatnak. Ezeket az adatokat az újbóli felhasználás előtt fertőtleníteni kell.
Felhasználói adatok megfelelő kezelése
A felelős eljárások magukban foglalják a felhasználói adatkezelés gondos kezelését. Ez a kezelés magában foglalja az adatok használatának és a felhasználói adatokra való támaszkodás elkerülésének ismeretét.
Gyakorolja a következtetést felhasználói adatok megosztása nélkül. A felhasználói adatok más szervezetekkel való biztonságos megosztásához használjon egy elszámolóház-modellt. Ebben az esetben a szervezetek adatokat biztosítanak egy megbízható partnernek, amely az összesített adatok használatával tanítja be a modellt. Ezután minden intézmény használhatja ezt a modellt, és megoszthatja az elemzéseket anélkül, hogy külön adathalmazokat tárt fel. A cél a modell következtetési képességeinek használata részletes betanítási adatok megosztása nélkül.
A sokszínűség és az inkluzivitás előmozdítása. Ha felhasználói adatokra van szükség, a méltányossághoz kapcsolódó ártalmak mérséklése érdekében használjon számos különböző adatot, köztük az alulreprezentált műfajokat és alkotókat. Olyan funkciók implementálása, amelyek új és változatos tartalmak megismerésére ösztönzik a felhasználókat. Folyamatosan monitorozza a használatot, és módosítsa a javaslatokat, hogy elkerülje az egyetlen tartalomtípus túlreprezentálását.
Tartsa tiszteletben az RTBF-et. Ha lehetséges, kerülje a felhasználói adatok használatát. Az RTBF-nek való megfelelés biztosításához a szükséges intézkedések megadásával gondoskodhat a felhasználói adatok gondos törléséről.
A megfelelőség biztosítása érdekében előfordulhatnak olyan kérések, amelyek eltávolítják a felhasználói adatokat a rendszerből. Kisebb modellek esetén a modellt újrataníthatja olyan adatokkal, amelyek kizárják a személyes adatokat, ezáltal eltávolítva a felhasználói adatokat. A nagyobb modellek esetében, amelyek több kisebb, egymástól függetlenül betanított modellből állhatnak, a folyamat összetettebb, és a költségek és az erőfeszítések jelentősek. Kérjen jogi és etikai útmutatást a helyzetek kezelésével kapcsolatban, és mindenképpen vegye bele az útmutatást a felelős AI-szabályzataiba.
Felelősségteljesen őrizze meg az adatokat. Ha az adatok törlése nem lehetséges, kérjen kifejezett felhasználói hozzájárulást az adatgyűjtéshez, és adjon egyértelmű adatvédelmi szabályzatokat. Csak akkor gyűjtse össze és őrizze meg az adatokat, ha feltétlenül szükséges. Ha már nincs rá szükség, az adatok agresszív eltávolítására vonatkozó műveletek végrehajtása. Törölje például a csevegési előzményeket a lehető leghamarabb, és anonimizálja a bizalmas adatokat a megőrzés előtt. Használjon fejlett titkosítási módszereket a tárolt adatokhoz.
Támogatja az érthetőséget. A rendszer döntéseinek nyomon követése a magyarázhatósági követelmények támogatásához. Világos magyarázatok kidolgozása a javaslati algoritmusok működéséről. Adjon betekintést a felhasználóknak abba, hogy miért ajánlanak nekik bizonyos tartalmakat. A cél annak biztosítása, hogy az AI-számítási feladatok és azok eredményei transzparensek és igazolhatóak legyenek a döntéshozatal módjának, az általuk használt adatoknak és a modellek betanításának részletezésével.
Felhasználói adatok titkosítása. A bemeneti adatokat az adatfeldolgozási folyamat minden szakaszában titkosítani kell attól a pillanattól kezdve, amikor a felhasználó adatokat ír be. Ezek a szakaszok magukban foglalják az egyik pontról a másikra történő áthelyezés során megjelenő adatokat, a tárolt adatokat, valamint az esetlegesen következtetni kívánt adatokat. Egyensúlyba kell helyezni a biztonságot és a funkcionalitást, és az adatok teljes életciklusa.
Robusztus hozzáférés-vezérlést biztosít. Több identitástípus is hozzáférhet a felhasználói adatokhoz. A szerepköralapú hozzáférés-vezérlés implementálása a vezérlősík és az adatsík számára is, hogy lefedje a felhasználók és a rendszerek közötti kommunikációt.
A megfelelő felhasználói szegmentálás fenntartása az adatvédelem érdekében. A Microsoft 365 Copilot például kereshet és adhat választ a felhasználó adott dokumentumai és e-mailjei alapján, miközben biztosíthatja, hogy csak az adott felhasználó számára releváns tartalmak legyenek elérhetők.
Csökkentse a felületi területet. A Well-Architected Keretrendszer biztonsági pillérének alapvető stratégiája a támadási felület minimalizálása és az erőforrások megerősítése. Ezt a stratégiát a szabványos végpontbiztonsági eljárásokra kell alkalmaznia az API-végpontok szigorú szabályozásával, csak az alapvető adatok felfedésével, valamint a válaszok felesleges információinak elkerülésével. Egyensúlyba hozhatja a tervezési lehetőségeket a rugalmasság és a vezérlés között.
Győződjön meg arról, hogy nincsenek névtelen végpontok. Általában kerülje a szükségesnél nagyobb kontrollt a felhasználóknak. A legtöbb esetben a felhasználóknak nem kell módosítaniuk a hiperparamétereket, kivéve a kísérleti környezetekben. Az olyan tipikus használati eseteknél, mint például a virtuális ügynökkel való interakció, a felhasználóknak csak az alapvető szempontokat kell szabályozni, hogy a szükségtelen vezérlés korlátozásával biztosítsák a biztonságot.
További információ: AI-számítási feladatok alkalmazástervezése az Azure.