Поділитися через


Поширені запитання про можливості генерації запитів і тексту

Ці поширені запитання (FAQ) описують вплив AI Builder функції підказок на штучний інтелект.

Що таке підказки?

Функція підказок пропонує AI Builder користувачам універсальні можливості для розробки робочих процесів, додатків на основі штучного інтелекту, перетворення даних і налаштування других пілотів. Це дозволяє створювати робочі процеси та програми, які узагальнюють документи, створюють чернетки відповідей, класифікують текст і перекладають мови. Ця можливість працює на основі служби Azure OpenAI , яка використовує технологію Generative Pre-trained Transformer (GPT). Ці моделі були навчені на величезних обсягах текстових даних, що дозволило їм генерувати текст, схожий на контент, написаний людиною.

Дізнайтеся більше в розділі Transparency Note для служби Azure OpenAI .

Які передбачувані випадки використання підказок?

Підказки AI Builder дають змогу створювати інтелектуальні програми, робочі процеси та розширювати можливості другого пілота. Вони використовують можливості попередньо навчених моделей GPT, що усуває потребу в навчанні користувацьких моделей. Наприклад, намір може полягати в тому, щоб побудувати робочий процес, який узагальнює вхідні скарги клієнтів. Потім він створює тікет в інструменті управління інцидентами на основі категорії вхідної скарги. У цьому прикладі виробники можуть доручити моделі класифікувати та узагальнити вхідну скаргу, щоб створити новий інцидент.

У наведеному нижче списку зібрані найпопулярніші варіанти використання цієї послуги:

  • Узагальнення електронних листів, розмов, стенограм, документів тощо.
  • Пропозиції чернеток відповідей на запити клієнтів, скарги, електронні листи тощо.
  • Вилучення інформації з договорів, електронних листів, рахунків-фактур, замовлень тощо.
  • Класифікація контенту за потрібними категоріями (наприклад, чи є електронний лист замовленням, скаргою або поверненням).
  • Аналіз настроїв заданого тексту (наприклад, виявлення настроїв відгуку про продукт).

У всіх цих випадках користувачі несуть відповідальність за кінцевий результат роботи системи. Вони зобов’язані перевірити згенерований контент на наявність будь-яких потенційних неточностей або неповноти, перш ніж використовувати його.

Як оцінювалася готовність функції підказок? Які показники використовуються для вимірювання продуктивності?

Оцінка цієї здатності передбачає всебічне тестування цілого ряду параметрів безпеки. Це тестування гарантує, що ця функція відповідає стандартам і принципам відповідального штучного інтелекту нашої організації. Сервіс також постійно оцінюється на предмет потенційних вразливостей. Показники продуктивності, які ми використовуємо, в першу чергу стосуються ефективності фільтрації контенту та ступеня узгодженості між людиною та машиною щодо відфільтрованого та нефільтрованого контенту.

Яка модерація контенту реалізована для підказок?

Моделі GPT навчаються на інтернет-даних, що чудово підходить для побудови загальної моделі світу. У той же час він може успадковувати токсичний, шкідливий і упереджений контент з одних і тих же джерел. Моделі навчені поводитися безпечно і не містити шкідливого контенту продукту, але іноді це може генерувати токсичний вихід. AI Builder підказки використовують службу Azure AI Content Satefy , щоб запікати найсучасніші можливості модерації контенту в підказках штучного інтелекту. Це включає послуги з аналізу згенерованого результату за допомогою сканерів тексту з різною серйозністю та безпеку від оперативних атак ін’єкцій. На виході також сканується регургітація матеріалу, що захищається.

Які обмеження має функція підказок? Як користувачі можуть мінімізувати вплив оперативних обмежень під час використання системи?

Використання цієї технології має відповідати вимогам Кодексу поведінки для Служби Azure OpenAI . Цю технологію не можна використовувати для створення контенту, пов’язаного з політичною пропагандою, мовою ворожнечі, дезінформацією, самоушкодженням, дискримінацією, матеріалами відвертого сексуального характеру або іншим контентом, забороненим Кодексом поведінки. До непідтримуваних застосувань цієї технології належать надання порад, використання для юридичних, фінансових, пов’язаних зі здоров’ям або прогнозів на майбутнє, а також для фінансових, наукових або математичних розрахунків, а також будь-яке інше непідтримуване використання, згадане в Примітці про прозорість для служби OpenAI Azure. В даний час сервіс підтримується виключно в США і доступний тільки англійською мовою.

Контент, створений штучним інтелектом, може мати помилки, тому виробники повинні інформувати кінцевих користувачів свого рішення про те, що генерація контенту за цією моделлю створюється штучним інтелектом прозорим способом. Чітка комунікація згенерованого контенту допомагає уникнути надмірної залежності. Виробники також повинні впровадити можливість етапу перевірки людиною, щоб переконатися, що контент, створений штучним інтелектом, є точним і відповідним, перш ніж використовувати його.

Які фактори та параметри роботи дозволяють ефективно та відповідально використовувати систему?

Контент, створений моделлю штучного інтелекту, має імовірнісний характер, і, отже, відповіді моделі можуть відрізнятися для однієї і тієї ж підказки. Згенерована відповідь може бути неправильною або вводити в оману та спричинити непередбачувані наслідки від потоку або програми. Наприклад, бізнес-клієнти можуть отримувати неправильну або неправильну інформацію, рекомендації або підтримку. Виробники мають запровадити значущий людський контроль у своїх потоках і додатках, а також перевіряти їхні підказки на предмет того, що вони можуть призвести до створення шкідливої поведінки або забороненого вмісту, як зазначено в Кодексі поведінки Microsoft. Low-code розробники також повинні бути прозорими щодо використання штучного інтелекту у своїх додатках та потоках для інформування бізнес-користувача, вказуючи, що контент генерується штучним інтелектом. Крім того, згенеровані відповіді можуть не відповідати очікуванням розробників з низьким рівнем коду через обмеження тривалості, фільтрацію контенту або вибір моделі.

Як називається модель GPT, де вона розміщена та як я можу отримати до неї доступ?

AI Builder GPT 4o підтримує сімейство моделей, яке розміщується в службі Azure OpenAI . Ви можете отримати доступ до цих моделей за допомогою підказок Power Platform у своїх програмах, потоках і других пілотах.

Дізнайтеся більше в статті Що нового в службі Azure OpenAI ?

Чи використовуються мої дані для навчання або вдосконалення великих мовних моделей, доступних на? AI Builder

AI Builder підказки виконуються на службі Azure OpenAI , розміщеній на сервері Microsoft. Дані клієнтів не використовуються для навчання або вдосконалення жодної базової моделі служби Azure OpenAI . Корпорація Майкрософт не передає дані ваших клієнтів третій стороні, якщо ви не надали на це дозвіл. Ні підказки клієнта (вхід) з його даними заземлення, ні відповіді моделі (вихід) не використовуються для навчання або вдосконалення базових моделей служби Azure OpenAI .

Чи є вміст, доданий до дії «Створити текст за допомогою GPT за допомогою запиту», загальнодоступним?

У вкладці «Про програму » для дії сказано,що ця дія надає доступ до ваших підказок за допомогою моделі GPT, що працює на Azure OpenAI Service.

Підказки, які ви додаєте до розділу Створення тексту за допомогою GPT за допомогою дії підказки Power Automate , є приватними за замовчуванням. Вони видимі та придатні для використання лише у вашій організації, а не доступні для всього світу. Підказки є приватними та призначені для внутрішнього використання у вашій компанії.

Новостворені запити за замовчуванням є приватними. Це означає, що вони видимі та придатні для використання лише Power Automate Power Apps людиною, Microsoft Copilot Studio яка їх створила. Це дає розробнику час протестувати й оцінити їх у програмах або робочих процесах, а також переконатися в їхній точності, перш ніж ділитися ними.

Якщо ви хочете, щоб інші користувачі середовища або груп використовували ваш запит у Power Apps або Power Automate, вам потрібно поділитися ним.

Дізнайтеся більше в розділі Як поділитися запитом.

Як обробляються зображення людей у AI Builder підказках?

AI Builder не призначений для ідентифікації осіб на основі рис обличчя або біометричних даних. Коли ви надсилаєте зображення з людьми AI Builder, система автоматично застосовує функцію розмиття обличчя перед аналізом зображень, щоб захистити приватність людини. Цей крок розмиття допомагає вирішити проблеми конфіденційності, запобігаючи ідентифікації на основі рис обличчя. При розмитті не використовується розпізнавання облич або зіставлення шаблонів облич. Натомість, будь-яка ідентифікація добре відомих людей спирається на контекстуальні сигнали, такі як уніформа чи унікальна обстановка, а не на їхні обличчя. Цей захід конфіденційності не повинен впливати на якість результатів, які ви отримуєте. Розмиття обличчя іноді може згадуватися у відповідях системи.

Дізнайтеся більше в статті Розмиття обличчя.

Потенційна шкода під час використання зображень або документів у підказках

AI Builder Пом'якшує більшість ризиків, пов'язаних із використанням зображень або документів у підказках, але деякі ризики все одно вимагають особливої обережності від автора запиту:

  • Зображення або документи можуть містити шкідливий текст або візуальні елементи, які можуть вплинути на подальші процеси.
  • Зображення або документи можуть містити спеціальні та, можливо, приховані інструкції, які можуть скомпрометувати або перевизначити початковий запит.
  • Зображення або документи можуть містити інструкції, які можуть призвести до створення контенту, що підпадає під інтелектуальну власність (ІВ).
  • Підказки можуть викликати упереджені коментарі до зображень або документів.
  • Вилучення інформації з неякісних зображень або документа може призвести до галюцинацій.

Що таке спеціальні підказки та функції штучного інтелекту?

Користувацькі підказки

Користувацькі підказки дають виробникам свободу наказувати великій мовній моделі (LLM) поводитися певним чином або виконувати конкретне завдання. Ретельно розробляючи підказку, ви можете генерувати відповіді, які відповідають вашим конкретним бізнес-потребам. Це перетворює модель LLM в гнучкий інструмент для виконання різних завдань.

Приклад

У мовній моделі користувацький запит може скеровувати модель для відповіді на запитання, заповнення тексту, перекладу мов, підсумовування документа та визначення завдань, завдань та елементів дій у тексті. Складність користувацької підказки може варіюватися від одного речення до чогось більш складного, залежно від завдання.

Функції штучного інтелекту

Попередньо створені функції штучного інтелекту – це попередньо налаштовані підказки, створені командою Microsoft, щоб допомогти виробникам легко виконувати типові завдання. Вони пропонують готові до використання можливості штучного інтелекту в різних випадках використання, що спрощує роботу мейкера для впровадження інтелекту в їхні рішення.

Приклад

Попередньо створений запит мовної моделі може виглядати так:

Витягніть у вигляді нумерованого списку точки дії з: [TextToExtract]

У цьому випадку користувачеві потрібно лише надати текст, з [TextToExtract] якого він хоче витягнути точки дії. Про все інше подбає заздалегідь створений підказка.