Windows Copilot 런타임을 사용하여 콘텐츠 안전 조정
중요하다
Windows 앱 SDK의 최신 실험 채널 릴리스에서 사용할 수 있습니다.
Windows 앱 SDK 실험 채널에는 개발 초기 단계의 API 및 기능이 포함되어 있습니다. 실험적 채널의 모든 API는 광범위한 수정 및 호환성이 손상되는 변경이 적용되며 언제든지 후속 릴리스에서 제거될 수 있습니다. 실험적 기능은 프로덕션 환경에서 사용할 수 없으며 이를 사용하는 앱은 Microsoft Store에 게시할 수 없습니다.
Phi Silica API 또는 Imaging API같은 Windows Copilot 런타임 API는 텍스트 콘텐츠 조정을 구현하여 잠재적으로 유해한 콘텐츠가 이러한 생성 모델에 의해 프롬프트되거나 반환되지 않도록 분류하고 필터링합니다. API는 기본적으로 잠재적으로 해로울 수 있는 것으로 분류된 콘텐츠를 필터링합니다. 그러나 개발자는 다른 민감도 수준을 구성할 수 있습니다.
필수 구성 요소
- Windows Copilot 런타임 API에는 퀄컴 칩이 포함된 코필로트+ PC가 필요합니다.
- Arm64EC(에뮬레이션 호환)는 현재 지원되지 않습니다.
- Windows 11 Insider Preview 빌드 26120.3073(개발 및 베타 채널) 이상이 디바이스에 설치되어 있어야 합니다.
텍스트 콘텐츠 조정
입력 프롬프트의 콘텐츠 조정을 생성 모델 및 AI 생성 출력으로 조정할 수 있습니다. Windows Copilot 런타임 API 콘텐츠 조정은 Azure AI Content Safety제공하는 것과 유사하게 설계 및 구현됩니다.
피해 범주
피해 범주는 Azure AI Content Safety에 사용되는 정의와 일치하며 Azure AI Content Safety 지침에서 찾을 수 있습니다. 피해 범주에는 증오와 공정성, 성적 콘텐츠, 폭력 또는 자해가 포함되며 동일한 콘텐츠에 여러 레이블을 포함할 수 있습니다.
잠재적으로 유해한 콘텐츠를 분류하는 이러한 네 가지 범주를 통해 민감도 필터를 조정할 수 있습니다.
범주 | 묘사 | API 이름 |
---|---|---|
미워하다 | 증오와 불공정한 피해는 특정 차별화된 특성에 따라 개인 또는 정체성 그룹을 대상으로 차별적 언어로 공격하거나 사용하는 모든 콘텐츠를 나타냅니다. | HateContentSeverity |
성적인 | 성적은 해부학 적 장기와 성기, 낭만적 인 관계 및 성적 행위와 관련된 언어를 묘사하며, 폭행이나 자신의 의지에 대한 강제 성적 폭력 행위로 묘사 된 것을 포함하여 에로틱하거나 애정어로 묘사 된 행위를 묘사합니다. | SexualContentSeverity |
폭력 | 폭력은 누군가 또는 무언가를 다치게 하거나, 다치게 하거나, 손상시키거나, 죽이려는 신체적 행동과 관련된 언어를 설명합니다. 는 무기, 총 및 관련 엔터티를 설명합니다. | ViolentContentSeverity |
자해 | 자해는 의도적으로 다치거나, 다치거나, 몸을 손상시키거나, 자신을 죽이기 위한 신체적 행동과 관련된 언어를 설명합니다. | SelfHarmContentSeverity |
심각도 수준
기본적으로 Windows Copilot 런타임 생성 API에 대한 모든 호출은 콘텐츠 조정을 사용하지만 심각도 수준을 조정할 수 있습니다.
high
: 사용할 수 없습니다. 심각도 수준 3 이상(잠재적 피해에 대한 위험 높음)으로 분류된 콘텐츠는 현재 생성 AI 모델에 의해 반환되지 않도록 차단됩니다.medium
: 기본 심각도 수준이medium
. 심각도 수준 0 - 3으로 분류된 콘텐츠가 반환됩니다.low
: 잠재적으로 유해한 콘텐츠를 추가로 반환할 위험을 낮춥니다. 심각도 수준 0 - 1로 분류된 콘텐츠만 반환됩니다.
심각도 수준에 대한 자세한 내용은 Azure AI 콘텐츠 안전 피해 범주 참조하세요.
텍스트 콘텐츠 조정 코드 샘플
Windows Copilot 런타임 내에 포함된 텍스트 콘텐츠 조정 심각도 필터를 구성하려면 ContentFilterOptions
같은 응답 생성에 사용되는 API에 매개 변수로 구조체를 전달해야 합니다.
다음 코드 샘플에서는 Microsoft Windows 생성 AI LanguageModel
에 텍스트 콘텐츠 조정의 심각도 필터를 추가하는 방법을 보여 줍니다.
var languageModelOptions = new LanguageModelOptions {
Temp = 0.9f,
Top_p = 0.9f,
Top_k = 40
};
var promptMinSeverityLevelToBlock = new TextContentFilterSeverity {
HateContentSeverity = SeverityLevel.Low,
SexualContentSeverity = SeverityLevel.Low,
ViolentContentSeverity = SeverityLevel.Medium,
SelfHarmContentSeverity = SeverityLevel.Low
};
var responseMinSeverityLevelToBlock = new TextContentFilterSeverity {
HateContentSeverity = SeverityLevel.Low,
SexualContentSeverity = SeverityLevel.Low,
ViolentContentSeverity = SeverityLevel.Low,
SelfHarmContentSeverity = SeverityLevel.Medium
};
var contentFilterOptions = new ContentFilterOptions {
PromptMinSeverityLevelToBlock = promptMinSeverityLevelToBlock,
ResponseMinSeverityLevelToBlock = responseMinSeverityLevelToBlock
};
IProgress<string> progress;
var languageModelResponseWithProgress = model.GenerateResponseWithProgressAsync(languageModelOptions, prompt, contentFilterOptions);
languageModelRepsonseWithProgress.Progress = (_, generationProgress) =>
{
progress.Report(generationProgress);
};
string response = (await languageModelResponseWithProgress).Response;
관련 콘텐츠
- Windows에서 책임 있는 생성 AI 애플리케이션 및 기능 개발
- Phi Silica API
- AI 기반 이미징 API
- Windows 앱 SDK
- Windows 앱 SDK의 최신 릴리스 정보