Aracılığıyla paylaş


Azure iş yüklerinde sorumlu yapay zeka

İş yükü tasarımında sorumlu yapay zekanın amacı, yapay zeka algoritmalarının kullanımının adil , saydam ve kapsayıcı sağlanmasına yardımcı olmaktır. Microsoft Azure Well-Architected Framework güvenlik ilkeleri birbiriyle ilişkilidir ve gizlilik ve, bütünlüğüneodaklanır. Kullanıcı gizliliğini korumak, verileri korumak ve tasarımın bütünlüğünü korumak için güvenlik önlemleri alınmalıdır. Tasarım, istenmeyen amaçlarla kötüye kullanılmamalıdır.

Yapay zeka iş yüklerinde modeller genellikle karar almak için opak mantık kullanır. Kullanıcılar sistemin işlevselliğine güvenmeli ve modellerin bu kararları sorumlu bir şekilde aldığından emin olmalıdır. Manipülasyon, içerik toksisitesi, IP ihlali ve uydurulan yanıtlar gibi kabul edilemez davranışlar önlenmelidir.

Bir medya eğlence şirketinin yapay zeka modellerini kullanarak öneriler sağlamak istediği bir kullanım örneğini düşünün. Şirket sorumlu yapay zeka ve uygun güvenlik protokollerini uygulamazsa modellerin denetimini kötü bir aktör alabilir. Model, zarara neden olan içeriği önerebilir. Kuruluş için bu davranış marka hasarına, güvenli olmayan ortamlara ve yasal sorunlara neden olabilir. Bu nedenle, sistemin yaşam döngüsü boyunca uygun uyanıklığı korumak temeldir ve tartışılamaz.

Güvenlik ve iş yükü yönetimine öncelik vermeli ve tasarım kararları alırken insan sonuçlarını göz önünde bulundurmalısınız. Sorumlu yapay zeka için Microsoft çerçevesi hakkında bilgi edinin ve çerçevenin ilkelerini tasarımınızda ölçüp uyguladığınızdan emin olun. Aşağıdaki görüntüde çerçevenin temel kavramları gösterilmektedir.

Sorumlu yapay zeka için Microsoft çerçevesini gösteren diyagram.

Önemli

Tahminlerin doğruluğu ve sorumlu yapay zeka ölçümleri genellikle birbirine bağlıdır. Modelin doğruluğunu geliştirerek, eşitliğini ve gerçekliğe uyumunu geliştirebilirsiniz. Sorumlu yapay zeka sıklıkla doğrulukla uyumlu olur ancak tek başına doğruluk, güvenlikle ilgili dikkat edilmesi gereken tüm noktaları içermez. Bu ilkeleri sorumlu bir şekilde doğrulamak çok önemlidir.

Bu makalede sorumlu karar alma, kullanıcı girişini doğrulama ve güvenli bir kullanıcı deneyimi sağlamaya yardımcı olma hakkında öneriler sağlanır. Ayrıca, kullanıcı verilerini korumaya yardımcı olmak için veri güvenliği hakkında rehberlik sağlar.

Öneriler

Aşağıdaki tabloda bu makaledeki öneriler özetlemektedir.

Öneri Açıklama
Yaşam döngüsünün her aşamasında ahlaki uygulamaları zorunlu kılan ilkeler geliştirin. Güvenlik gereksinimlerini açıkça belirten ve iş yükü bağlamı için uyarlanmış denetim listesi öğelerini ekleyin. Örnek olarak kullanıcı verilerinin saydamlığı, onay yapılandırması ve unutulma hakkının (RTBF) nasıl işleneceğini gösteren yordamlar verilebilir.

Sorumlu yapay zeka için ilkelerinizi geliştirme
Sorumlu yapay zeka politikalarının yürütülmesini sağlama
Gizliliği en üst düzeye çıkarmak amacıyla kullanıcı verilerini koruyun. Yalnızca gerekli olanları ve uygun kullanıcı onayıyla toplayın. Kullanıcıların profillerini, verilerini ve bu verilere erişimi korumak için teknik denetimler uygulayın.

Kullanıcı verilerini uygun şekilde işleme
Gelen ve giden verileri inceleme
Yapay zeka kararlarını net ve anlaşılır tutun. Öneri algoritmalarının nasıl çalıştığını açıkça açıklayın. Kullanıcılara süreci anlamalarına ve güvenmelerine yardımcı olmak için veri kullanımı ve algoritmik karar alma hakkında içgörüler sağlayın.

Kullanıcı deneyimini güvenli hale getirme

Sorumlu yapay zeka için ilkeler geliştirme

Sorumlu yapay zeka kullanımı yaklaşımınızı belgeleyin. İş yükü ekibinin sorumluluklarını anlaması için yaşam döngüsünün her aşamasında uyguladığınız ilkeleri açıkça belirtebilirsiniz. Sorumlu yapay zeka için Microsoft standartları yönergeler sağlar, ancak bu yönergelerin bağlamınız için özel olarak ne anlama gelir tanımlamanız gerekir.

Örneğin, ilkeler kullanıcı verilerinin saydamlığını ve onay yapılandırmasını destekleyen mekanizmalar için denetim listesi öğelerini içermelidir. İdeal olan, bu mekanizmaların kullanıcıların veri dahil etmemeye izin vermesidir. Veri işlem hatları, analiz, model eğitimi ve diğer aşamaların tümü bu seçime saygı duymalıdır. Bir diğer örnek de RTBF'yi işleme prosedürleridir. Bilinçli kararlar almak için kuruluşunuzun etik departmanına ve hukuk ekibine başvurun.

Kullanıcıların süreci anlamasına ve güvenmesine yardımcı olmak için veri kullanımı ve algoritmik karar alma için saydam ilkeler oluşturun. Gelecekteki olası davalarda net bir geçmişi korumak için bu kararları belgeleme.

Sorumlu yapay zeka uygulaması üç temel rol içerir: araştırma ekibi, ilke ekibi ve mühendislik ekibi. Bu ekipler arasındaki işbirliği operasyonel hale getirilmelidir. Kuruluşunuzun mevcut bir ekibi varsa, çalışmalarını kullanın. Aksi takdirde, bu uygulamaları kendiniz oluşturun.

Her takımın kendi sorumlulukları olmalıdır. Mesela:

  • Araştırma ekibi kurumsal yönergelere, sektör standartlarına, yasalara, düzenlemelere ve bilinen kırmızı takım taktiklerine başvurarak risk bulma yürütür.

  • İlke ekibi, iş yüküne özgü ilkeler geliştirir. Bunlar, üst kuruluş ve kamu düzenlemelerinin yönergelerini içerir.

  • Mühendislik ekibi, süreçlerine ve teslim edilebilirlerine ilkeleri uygular. Ekip, bağlılığı doğrular ve test eder.

Her ekip kendi yönergelerini resmileştirir, ancak iş yükü ekibinin kendi belgelenmiş uygulamalarından sorumlu olması gerekir. Takım, izin verilenler konusunda belirsizlik olmadığından emin olmak için ek adımları veya kasıtlı sapmaları net bir şekilde belgelemelidir. Ekip, çözümdeki olası eksiklikler veya beklenmeyen sonuçlar konusunda da şeffaf olmalıdır.

Sorumlu yapay zeka için politikalarda yönetimi uygulama

İş yükünüzü kurumsal ve mevzuat idaresine uyacak şekilde tasarlar. Örneğin, saydamlık kurumsal bir gereksinimse, iş yükünüz için nasıl geçerli olduğunu belirleyin. Tasarımınızda, yaşam döngünüzde, kodunuzda veya diğer bileşenlerinizde, bu standardı karşılamak için saydamlık özellikleri sunmanız gereken alanları belirleyin.

Gerekli idare, sorumluluk, gözden geçirme panoları ve raporlama zorunluluğunu anlayın. yeniden tasarlamaları önlemek ve güvenlik veya gizlilik endişelerini azaltmak için idare konseyinizin iş yükü tasarımlarını onaylayıp onayını verdiğinden emin olun. Birden çok onay katmanından geçmeniz gerekebilir. Aşağıdaki diyagramda bir kuruluştaki tipik bir idare yapısı özetlenmiştir.

Bir kuruluştaki tipik bir idare yapısını gösteren diyagram.

Kuruluş ilkeleri ve onaylayanlar hakkında daha fazla bilgi için bkz. Sorumlu yapay zeka stratejisi tanımlama.

Kullanıcı deneyimini güvenli hale getirme

Kullanıcı deneyimleri sektör yönergelerine dayalı olmalıdır. İlkeleri içeren ve uygulama yönergeleri sağlayan Microsoft Human-AI Deneyimleri Tasarım Kitaplığıkullanın. Ayrıca Microsoft ürünlerinden ve diğer sektör kaynaklarından örnekler verir.

Kullanıcı etkileşiminin yaşam döngüsü boyunca iş yükü sorumlulukları vardır. Bir kullanıcının sistemi kullanma amacı ile başlar ve oturum boyunca ve sistem hatalarının neden olduğu kesintiler sırasında devam eder. Aşağıdaki uygulamaları göz önünde bulundurun:

  • Saydamlık oluşturma. Kullanıcıların, sistemin sorgularına nasıl yanıt oluşturacağı konusunda bilgi edinmelerini sağlayın.

    Modelin tahminler için başvurduğu veri kaynaklarına bağlantılar ekleyin. Bu uygulama, bilgilerin çıkış noktalarını göstererek kullanıcı güvenini artırır. Veri tasarımı, meta verilerde bu kaynakları içermelidir. Örneğin, alma artırımlı bir uygulamadaki orkestratör bir arama gerçekleştirdiğinde, 20 belge parçacığı alır ve en iyi 10 parçacığı model için bağlam olarak gönderir. İlk 10 öbek üç farklı belgeye aittir. Kullanıcı arabirimi, modelin yanıtını görüntülediği zaman bu üç kaynak belgeye başvurabilir. Bu saydamlık, kullanıcı güvenini artırır.

    Ön uç arabirimleri ve arka uç sistemleri arasında aracı görevi üstlenen aracıları kullandığınızda saydamlık daha önemli hale gelir. Örneğin, bir bilet oluşturma sisteminde düzenleme kodu kullanıcı amacını yorumlar ve gerekli bilgileri almak için aracılara uygulama programlama arabirimi (API) çağrıları yapar. Bu etkileşimleri ortaya çıkarmak, kullanıcının sistemin eylemlerinden haberdar edilmesine yardımcı olur.

    Birden çok aracı içeren otomatik iş akışları için her adımı kaydeden günlük dosyaları oluşturun. Günlük dosyaları hataları belirlemenize ve düzeltmenize yardımcı olabilir. Ayrıca kullanıcılara, şeffaflığı işler hale getiren kararlar için bir açıklama sunar.

    Dikkat

    Saydamlık önerileri uyguladığınızda kullanıcıyı çok fazla bilgiyle bunaltmaktan kaçının. En düşük düzeyde kesintiye neden olan kullanıcı arabirimi yöntemlerini kullanarak aşamalı bir yaklaşım benimser.

    Örneğin, modelden güvenilirlik puanı gösteren bir araç ipucu görüntüleyin. Kullanıcıların daha fazla ayrıntı için seçebileceği kaynak belgelere bağlantılar gibi bağlantılar ekleyebilirsiniz. Kullanıcı tarafından başlatılan bu yöntem, kullanıcı arabirimini uyumsuz tutar ve kullanıcıların yalnızca tercih ettikleri takdirde daha fazla bilgi aramasına olanak tanır.

  • Geri bildirim toplayın. Geri bildirim mekanizmaları uygulayın.

    Her yanıttan sonra kapsamlı anketlerle kullanıcıları bunaltmaktan kaçının. Bunun yerine başparmak yukarı veya başparmak aşağı gibi hızlı ve basit geri bildirim mekanizmalarını ya da yanıtın belirli yönleri için 1 ile 5 arasında bir ölçekte derecelendirme sistemi kullanın. Bu yöntemler, sistemin zaman içinde geliştirilmesine yardımcı olur ve müdahale etmeden ayrıntılı geri bildirim sağlar. Geri bildirimde olası eşitlik sorunlarına dikkat edin çünkü kullanıcı yanıtlarının arkasında ikincil nedenler olabilir.

    Geri bildirim mekanizmasının uygulanması, veri depolama gereksinimi nedeniyle mimariyi etkiler. Geri bildirimleri kullanıcı verileri gibi değerlendirin ve gerektiğinde gizlilik denetimi düzeylerini uygulayın.

    Yanıt geri bildirimlerine ek olarak, kullanıcı deneyiminin etkinliği hakkında geri bildirim toplayın. Sistemin izleme yığını aracılığıyla etkileşim ölçümlerini toplayın.

İçerik güvenliği önlemlerini kullanıma hazır hale getirme

Özel çözüm kodunu, uygun araçları ve etkili güvenlik uygulamalarını kullanarak içerik güvenliğini yapay zeka yaşam döngüsünün her aşamasıyla tümleştirin. Aşağıdaki stratejileri göz önünde bulundurun:

  • Verileri anonimleştirin. Veriler alımdan eğitime veya değerlendirmeye geçtikçe, kişisel bilgi sızıntısı riskini en aza indirmek ve ham kullanıcı verilerinin açığa çıkmasına engel olmak için yol boyunca denetimler uygulayın.

  • İçeriği ortala. İstekleri ve yanıtları gerçek zamanlı olarak değerlendiren içerik güvenliği API'sini kullanın. Bu API'lerin erişilebilir olduğundan emin olun.

  • Tehditleri tanımlama ve azaltma. Yapay zeka senaryolarınıza iyi bilinen güvenlik uygulamaları uygulayın. Örneğin, tehdit modellemesi gerçekleştirin ve ardından tehditleri ve bunları nasıl azalttığnızı belgeleyin. Kırmızı takım alıştırmaları gibi tipik güvenlik uygulamaları yapay zeka iş yükleri için geçerlidir. Kırmızı ekipler, modellerin zararlı içerik oluşturmak için işlenip işlenemeyeceğini test edebilir. Bu etkinlikler yapay zeka işlemleriyle tümleştirilmelidir.

    Daha fazla bilgi için bkz. Büyük dil modelleri ve uygulamaları için kırmızı grup oluşturma planlama.

  • Doğru ölçümleri kullanın. Modelin davranışını etkili bir şekilde ölçen ölçümleri kullanın. Ölçümler, yapay zeka modelinin türüne bağlı olarak değişir. Bazı durumlarda, üretici modellerinin ölçümü regresyon modelleri için geçerli olmayabilir. Örneğin, bir model yaşam beklentisini tahmin eder ve sonuçlar sigorta ücretlerini etkiler. Bu modeldeki eşitlik sorunları eşitlikle ilgili zararlara neden olabilir. Eşitlik ve doğruluk ölçümleri genellikle birbirine bağlı olduğundan bu sorun çekirdek ölçüm testindeki sapmalardan kaynaklanır. Eşitlikle ilgili zararları azaltmaya yardımcı olmak için doğruluğu geliştirin.

  • Uygun enstrümantasyon ekleyin. Yapay zeka modeli sonuçları açıklanabilir olmalıdır. Eğitim verileri, hesaplanan özellikler ve temel alma verileri dahil olmak üzereçıkarımların nasıl yapıldığını gerekçelendirmeniz ve izlemeniz gerekir. Ayrımcı yapay zekada, kararları adım adım gerekçelendirebilirsiniz. Ancak, üretken modeller için sonuçları açıklamak karmaşık olabilir. Olası yasal etkileri ele almak ve şeffaflık sağlamak için karar alma sürecini belgeleyin.

    Bu açıklanabilirlik özelliğini yapay zeka yaşam döngüsünün tamamında uygulamanız gerekir. Veri temizleme, köken, seçim ölçütleri ve işleme, kararların izlenmesi gereken kritik aşamalardır.

Araçlar

Microsoft Purviewgibi içerik güvenliği ve veri izlenebilirliği için araçları tümleştirme. Azure AI İçerik Güvenliği API'leri, içerik güvenliği testini kolaylaştırmak için testinizde çağrılabilir.

Azure AI Foundry, modelin davranışını değerlendiren ölçümler sağlar. Daha fazla bilgi için bkz . Üretken yapay zeka için değerlendirme ve izleme ölçümleri.

Eğitim modellerini incelemek için Azure Machine Learning'in sağladığı ölçümlerine bakın.

Gelen ve giden verileri inceleme

Jailbreak gibi hızlı ekleme saldırıları, yapay zeka iş yükleri için yaygın bir sorun oluşturur. Bu durumda, bazı kullanıcılar istenmeyen amaçlarla modeli kötüye kullanmayı deneyebilir. Güvenliği sağlamaya yardımcı olmak için, saldırıları önlemek ve uygunsuz içeriği filtrelemek amacıyla verileri inceleyin vefiltresi uygulayın. Gelen akışlarda ve giden akışlarda kapsamlı içerik denetimi sağlamaya yardımcı olmak için bu analizi hem kullanıcının girişine hem de sistemin yanıtlarına uygulayın.

Bazı durumlarda, tek bir istemci isteğine hizmet vermek için Azure OpenAI Hizmeti gibi birden çok model çağrısı yapmanız gerekir. Bu senaryolarda, her çağrıya içerik güvenliği denetimleri uygulamak maliyetli ve gereksiz olabilir. Güvenliği sunucu tarafı sorumluluk olarak koruyarak mimaride çalışmayı merkezileştirmeyi göz önünde bulundurun. Model çıkarım uç noktasının önüne, belirli arka uç yeteneklerinin yükünü hafifletmek için bir ağ geçidi yerleştirilmiş olduğunu varsayalım. Bu ağ geçidini, arka ucun yerel olarak desteklemeyebileceği istekler ve yanıtlar için içerik güvenliği denetimlerini işleyecek şekilde tasarlayabilirsiniz. Ağ geçidi yaygın bir çözüm olsa da, düzenleme katmanı bu görevleri daha basit mimarilerde etkili bir şekilde işleyebilir. Her iki durumda da, gerektiğinde bu denetimleri seçmeli olarak uygulayarak performansı ve maliyeti iyileştirebilirsiniz.

Denetimler çok modüllü olmalı ve çeşitli biçimleri kapsamalıdır. Görüntüler gibi çok modüllü girişleri kullandığınızda, bunları zararlı veya şiddet içeren gizli iletiler için analiz etmek önemlidir. Bu iletiler hemen görünmeyebilir, bu nedenle dikkatli bir inceleme gerektirir. Bu amaçla İçerik Güvenliği API'leri gibi araçları kullanın.

Gizlilik ve veri güvenliği ilkelerinin uygulanmasına yardımcı olmak için kullanıcı verilerini ve temel verileri gizlilik düzenlemelerine uygun olarak inceleyin. Verilerin sistem üzerinden aktıkça temizlendiğinden veya filtrelendiğinden emin olun. Örneğin, önceki müşteri desteği konuşmalarından alınan veriler temel veri olarak kullanılabilir. Bu veriler yeniden kullanmadan önce temizlenmelidir.

Kullanıcı verilerini uygun şekilde işleme

Sorumlu uygulamalar, kullanıcı veri yönetiminin dikkatli bir şekilde işlenmesini içerir. Bu yönetim, verilerin ne zaman kullanılacağını ve kullanıcı verilerine ne zaman güvenmekten kaçınmak gerektiğini bilmeyi içerir.

  • Kullanıcı verilerini paylaşmadan çıkarım yapma. İçgörüler için kullanıcı verilerini diğer kuruluşlarla güvenli bir şekilde paylaşmak için bir clearinghouse modeli kullanın. Bu senaryoda kuruluşlar, toplanan verileri kullanarak modeli eğiten güvenilir bir iş ortağına veri sağlar. Daha sonra tüm kurumlar bu modeli kullanabilir ve tek tek veri kümelerini göstermeden içgörüleri paylaşabilir. Hedef, ayrıntılı eğitim verilerini paylaşmadan modelin çıkarım özelliklerini kullanmaktır.

  • Çeşitliliği ve kapsayıcılığı teşvik edin. Kullanıcı verileri gerektiğinde, eşitlikle ilgili zararları azaltmak için az temsil edilen türler ve yaratıcılar dahil olmak üzere çeşitli veri çeşitliliğini kullanın. Kullanıcıları yeni ve çeşitli içerikleri keşfetmeye teşvik eden özellikler uygulayın. Kullanımı sürekli olarak izleyin ve tek bir içerik türünün fazla tanıtılmasını önlemek için önerileri ayarlayın.

  • RTBF'ye saygı gösterin. Mümkün olduğunda kullanıcı verilerini kullanmaktan kaçının. Kullanıcı verilerinin özenle silindiğinden emin olmak için gerekli önlemleri alarak RTBF ile uyumluluğu sağlamaya yardımcı olun.

    Uyumluluğu sağlamaya yardımcı olmak için sistemden kullanıcı verilerini kaldırma istekleri olabilir. Daha küçük modeller için, kişisel bilgileri dışlayan verileri kullanarak modeli yeniden eğiterek kullanıcı verilerini kaldırabilirsiniz. Daha küçük, bağımsız olarak eğitilmiş birkaç modelden oluşabilen daha büyük modeller için süreç daha karmaşıktır ve maliyet ve çaba önemlidir. Bu durumlarla ilgili yasal ve etik rehberlik alın ve sorumlu yapay zeka içinilkelerinize kılavuzu eklediğinizden emin olun.

  • Verileri sorumlu bir şekilde tutun. Veri silme mümkün olmadığında, veri toplama için açık kullanıcı onayı alın ve net gizlilik ilkeleri sağlayın. Verileri yalnızca kesinlikle gerekli olduğunda toplayın ve tutun. Artık gerekli olmadığında verileri agresif bir şekilde kaldırmak için işlemlerin gerçekleşmesini sağlayın. Örneğin, sohbet geçmişini en kısa sürede temizleyin ve bekletmeden önce hassas verileri anonimleştirin. Bu veri dururken gelişmiş şifreleme yöntemlerini kullanın.

  • Açıklanabilirliği destekleme. Açıklanabilirlik gereksinimlerini desteklemek için sistemdeki kararları izleme. Öneri algoritmalarının nasıl çalıştığına ilişkin net açıklamalar geliştirin. Kullanıcılara belirli içeriklerin neden önerildiğinden ilgili içgörüler sağlayın. Amaç, yapay zeka iş yüklerinin ve sonuçlarının nasıl karar aldıklarını, hangi verileri kullandıklarını ve modellerin nasıl eğitildiğini ayrıntılarıyla açıklayarak şeffaf ve gerekçeli olmasını sağlamaktır.

  • Kullanıcı verilerini şifreleme. Giriş verileri, kullanıcı veri girdiği andan itibaren veri işleme işlem hattının her aşamasında şifrelenmelidir. Bu aşamalar bir noktadan diğerine taşınan verileri, depolanan verileri ve gerekirse çıkarım yapılan verileri içerir. Güvenlik ve işlevselliği dengede tutun ve verileriyaşam döngüsü boyunca gizli tutmayı hedefleyin.

  • Sağlam erişim denetimleri sağlayın. Çeşitli kimlik türleri potansiyel olarak kullanıcı verilerine erişebilir. Kullanıcı ve sistemden sisteme iletişimi kapsayan denetim düzlemi ve veri düzlemi için rol tabanlı erişim denetimi uygulayın.

    Gizliliği korumak için uygun kullanıcı segmentasyonu sağlayın. Örneğin, Microsoft 365 Copilot kullanıcının belirli belgelerine ve e-postalarına göre arama yapabilir ve yanıtlar sağlarken yalnızca o kullanıcıyla ilgili içeriğe erişildiğinden emin olabilir.

  • Yüzey alanını azaltın. Well-Architected Framework Güvenlik sütununun temel stratejilerinden biri saldırı yüzeyini en aza indirmek ve kaynakları sağlamlaştırmaktır. API uç noktalarını sıkı bir şekilde denetleyerek, yalnızca temel verileri ortaya çıkartarak ve yanıtlarda gereksiz bilgilerden kaçınarak bu stratejiyi standart uç nokta güvenlik uygulamalarına uygulamalısınız. Tasarım seçimini esneklik ve denetim arasında dengeleyin.

    Anonim uç nokta olmadığından emin olun. Genel olarak, kullanıcılara gerekenden daha fazla denetim vermekten kaçının. Çoğu senaryoda kullanıcıların deneysel ortamlar dışında hiper parametreleri ayarlaması gerekmez. Sanal bir aracıyla etkileşim kurma gibi tipik kullanım örnekleri için, kullanıcılar gereksiz denetimi sınırlayarak güvenliği sağlamaya yardımcı olmak için yalnızca temel yönleri denetlemelidir.

Daha fazla bilgi için bkz. Azure 'da yapay zeka iş yükleri için uygulama tasarımı.

Sonraki adım