FAQ для Copilot безпека та конфіденційність даних для Dynamics 365 та Power Platform
Copilot для Dynamics 365 та Power Platform функції відповідають набору основних практик безпеки та конфіденційності, а також стандарту Microsoft Responsible AI Standard. Дані Dynamics 365 і Power Platform захищено найкращими в галузі комплексними засобами контролю безпеки, конфіденційності та відповідності вимогам.
Copilot побудований на Microsoft Azure OpenAI Service і повністю працює в хмарі Azure. Служба Azure OpenAI пропонує регіональну доступність і фільтрування вмісту відповідно до принципів відповідального використання ШІ. Copilot використовує OpenAI моделі з усіма можливостями Microsoft Azure безпеки. OpenAI – незалежна організація. Ми не передаємо ваші дані компанії OpenAI.
Функції Copilot доступні не в усіх географічних регіонах Azure й не всіма мовами. Залежно від того, де розміщено ваше середовище, для їх використання може знадобитися дозволити переміщення даних між регіонами. Щоб дізнатися більше, перегляньте статті в розділі « Переміщення даних у різних географічних регіонах».
Що відбувається з моїми даними, коли я використовую Copilot?
Ви контролюєте використання своїх даних. Microsoft не передає ваші дані третім сторонам, якщо ви не надали на це дозвіл. Крім того, ми не використовуємо ваші дані (дані клієнта) для навчання технології Copilot і її функцій ШІ, якщо ви не надали на це згоду. Copilot дотримується наявних дозволів і політик щодо даних і генерує для вас відповіді лише на основі даних, до яких ви особисто маєте доступ. Для отримання додаткової інформації про те, як ви можете контролювати свої дані та як обробляються ваші дані, перегляньте статті, перелічені в розділі Copilot у Dynamics 365 apps та Power Platform.
Copilot відстежує неналежне чи шкідливе використання служби без збереження даних. Ми не зберігаємо вхідні й вихідні дані Copilot і не перевіряємо їх для виявлення зловживань.
Як Copilot використовує мої дані?
Кожна служба або функція використовує Copilot на основі даних, які ви надали або налаштували для обробки системою Copilot.
Ваші запити (вхідні дані) і відповіді Copilot (вихідні дані або результати):
НЕ доступні іншим клієнтам.
НЕ використовуються для навчання або вдосконалення сторонніх продуктів або служб (як-от моделі OpenAI).
НЕ використовуються для навчання або вдосконалення ШІ-моделей Microsoft (якщо адміністратор осередку не ввімкнув передавання даних нам). Дізнайтеся більше в FAQ про необов’язковий обмін даними для функцій Copilot AI в Dynamics 365 та Power Platform.
Дізнайтеся більше про Azure OpenAI Конфіденційність та безпеку даних сервісу. Щоб дізнатися більше про те, як Microsoft захищає та використовує ваші дані в більш загальному сенсі, прочитайте нашу Заяву про конфіденційність.
Куди передаються мої дані?
Microsoft працює на основі принципу довіри. Ми прагнемо до безпеки, конфіденційності та відповідності вимогам в усьому, що робимо, і наш підхід до ШІ не відрізняється. Дані клієнта, включно з вхідними запитами та результатами Copilot, зберігаються в межах довіри Microsoft Cloud.
Іноді, наприклад під час використання функцій на базі Bing і сторонніх плагінів-помічників, дані можуть передаватися за межі довіри Microsoft Cloud.
Чи може Copilot отримувати доступ до зашифрованого вмісту?
Copilot отримує дані на основі рівня доступу поточного користувача. Якщо користувач має доступ до зашифрованих даних у Dynamics 365 і Power Platform і дозволив їх використання в Copilot, то Copilot матиме до них доступ.
Як Copilot захищає дані клієнтів?
Корпорація Microsoft має унікальний набір технологій для надання ШІ корпоративного рівня. Copilot працює на базі служби Azure OpenAI та відповідає нашим зобов’язанням перед клієнтами щодо конфіденційності, безпеки та відповідності нормативним вимогам.
Побудований на комплексному підході Microsoft до безпеки, конфіденційності та відповідності. Copilot інтегровано в такі служби Microsoft, як Dynamics 365 і Power Platform. Від них ця система успадковує політики та процеси, що стосуються безпеки, відповідності вимогам і конфіденційності, зокрема багатофакторну автентифікацію й межі нормативного регіону.
Численні форми захисту захищають організаційні дані. Для шифрування корпоративного вмісту під час зберігання й передавання використовуються сервісні технології, що забезпечує надійний захист. З’єднання захищаються протоколом TLS. Дані між Dynamics 365, Power Platform і Azure OpenAI передаються через магістральну мережу Microsoft, що гарантує надійність і безпеку. Дізнайтеся більше про шифрування в хмарі Microsoft.
Розроблено для захисту ваших даних як на рівні клієнта, так і на рівні середовища. Ми знаємо, що клієнти турбуються через можливі витоки даних. ШІ-моделі Microsoft не навчаються на даних у вашому осередку або на ваших запитах, якщо адміністратор не ввімкнув передавання даних нам. У своїх середовищах ви можете керувати доступом да даних, налаштувавши необхідні дозволи. Механізми автентифікації й авторизації розподіляють запити до загальної моделі між осередками. Copilot застосовує виключно доступні вам дані, використовуючи ту саму технологію, яка вже довгі роки захищає дані наших клієнтів.
Чи завжди відповіді Copilot відповідають дійсності?
Як і у випадку з будь-яким генеративним штучним інтелектом, відповіді Copilot не є на 100% фактичними. Хоча ми продовжуємо вдосконалювати відповіді на запити стосовно фактів, ви все одно маєте покладатися на власний розсуд і перевіряти результати, перш ніж надсилати їх іншим особам. Copilot надає корисні чернетки та зведення, які допомагають вам устигати більше. Проте це повністю автоматична система. Ви завжди можете переглянути вміст, згенерований ШІ.
Наші команди працюють над проактивним вирішенням таких питань, як дезінформація та дезінформація, блокування контенту, безпека даних та просування шкідливого або дискримінаційного контенту відповідно до наших відповідальних принципів штучного інтелекту.
Крім того, ми пропонуємо інструкції в інтерфейсі, щоб сприяти відповідальному використанню пропонованих дій і вмісту, згенерованих ШІ.
Інструкції та підказки. Підказки та інші інформаційні елементи в Copilot нагадують про необхідність переглядати та редагувати відповіді, а також вручну перевіряти точність фактів, даних і тексту, перш ніж використовувати згенерований ШІ вміст.
Цитовані джерела. Якщо це доречно, Copilot посилається на свої джерела інформації (як відкриті, так і внутрішні): ви можете ознайомитися з ними самостійно й перевірити точність відповідей.
Додаткову інформацію див. в поширених запитання про відповідальний ШІ для свого продукту на сайті Microsoft Learn.
Як Copilot блокує шкідливий вміст?
Служба Azure OpenAI має систему фільтрування вмісту, яка працює разом з основними моделями. Моделі фільтрування спеціально навчено розпізнавати вміст у категоріях «Ненависть і справедливість», «Контент сексуального характеру», «Насильство» та «Заподіяння собі шкоди», а також протестовано різними мовами. Система фільтрування проганяє вхідний запит і відповіді через моделі класифікації, призначені для виявлення та блокування виведення небезпечного вмісту.
Під категорію «Ненависть і справедливість» підпадає вміст зі зневажливими або дискримінаційними висловлюваннями, пов’язаними з расовою, етнічною або національною приналежністю, гендерною ідентичність і гендерним самовираженням, сексуальною орієнтацією, релігією та розмірами тіла. Справедливість пов’язана з тим, щоб системи штучного інтелекту ставилися до всіх груп людей справедливо, не сприяючи існуючій соціальній нерівності. Контент сексуального характеру включає обговорення репродуктивних органів людини, романтичних стосунків, дій, які зображуються в еротичних або ніжних виразах, вагітності, фізичних статевих актів, зокрема тих, що зображуються як напад або примусовий акт сексуального насильства, проституції, порнографії та жорстокого поводження. Насильство – це мова, пов’язана з фізичними діями, спрямованими на заподіяння шкоди або вбивство, зокрема діями, зброєю та пов’язаними з ними сутностями. Самоушкодження – це навмисні дії, спрямовані на те, щоб поранити або вбити себе.
Дізнайтеся більше про фільтрацію OpenAI контенту Azure.
Чи блокує Copilot ін’єкції зловмисних запитів (джейлбрейк-атаки)?
Джейлбрейк-атаки – це підказки користувача, які призначені для того, щоб спровокувати генеративну модель штучного інтелекту поводитися так, як її навчили не робити, або порушувати правила, яких їй було сказано дотримуватися. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від ін’єкцій зловмисних запитів. Дізнайтеся більше про джейлбрейк-атаки та про те, як використовувати Azure AI Content Safety для їх виявлення.
Чи блокує Copilot непрямі ін’єкції зловмисних запитів (непрямі атаки)?
Непрямі атаки, які також називають непрямими швидкими атаками або атаками міждоменних оперативних ін’єкцій, є потенційною вразливістю, коли треті сторони розміщують шкідливі інструкції всередині документів, до яких може отримати доступ і обробляти генеративна система штучного інтелекту. Відповідно до наших вимог служби в Dynamics 365 і Power Platform має бути захищено від непрямих ін’єкцій зловмисних запитів. Дізнайтеся більше про непрямі атаки та про те, як їх виявляти за допомогою Azure AI Content Safety.
Як Microsoft тестує та перевіряє якість Copilot, зокрема релевантність відповідей і захист від ін’єкцій зловмисних запитів?
Перед випуском на ринок кожен новий продукт Copilot і кожна ітерація мовної моделі проходять внутрішню перевірку на відповідність принципам відповідального використання ШІ. Ми також проводимо тестування за участю «червоних команд» (спеціалісти імітують зловмисну атаку та виявляють і використовують слабкі місця, щоб допомогти організації покращити свої механізми захисту) і оцінюємо потенційні ризики в сценаріях із небезпечним вмістом і джейлбрейк-атаками, а також релевантність відповідей. Після випуску ми використовуємо автоматизоване тестування, а також засоби ручного й автоматизованого оцінювання для визначення якості відповідей Copilot.
Як Microsoft удосконалює базову модель і вимірює покращення релевантності відповідей?
У контексті штучного інтелекту, особливо штучного інтелекту, який має справу з мовними моделями, подібними до тієї, на якій базується Copilot, заземлення допомагає штучному інтелекту генерувати відповіді, які є більш релевантними та мають сенс у реальному світі. Така попередня підготовка гарантує, що ШІ-відповіді ґрунтуються на надійній інформації, максимально точні й релевантні. Показники релевантності відповіді дають змогу оцінити, наскільки точно факти, викладені в наданому моделі для попередньої підготовки вмісті, представлено в остаточній відповіді.
Для покращення базових моделей, як-от GPT-4, використовуються методики доповнення відповіді результатами пошуку (Retrieval Augmented Generation, RAG). Ці методики дають моделям змогу використовувати для розуміння сценарію користувача додаткову інформацію, а не лише ту, на основі якої їх навчено. Принцип роботи RAG полягає у визначенні даних, релевантних для сценарію. Це схоже на те, як пошукова система визначає сторінки, які відповідають пошуковому запиту користувача. Щоб визначити те, який вміст має відношення до запиту користувача й має використовуватися для попередньої підготовки відповіді, застосовується кілька підходів. Це, зокрема, пошук за різними типами індексів, наприклад інвертованими індексами з використанням таких прийомів видобування інформації, як зіставлення термінів, або векторними індексами з використанням порівнянь векторних відстаней для визначення семантичної подібності. Після виявлення релевантних документів технологія RAG передає моделі дані разом із поточною розмовою. Завдяки цьому модель отримує додатковий контекст для розуміння вже наявної в неї інформації та генерації релевантної відповіді. У кінці RAG перевіряє відповідь із погляду відповідності вихідному вмісту, наданому моделі. Функції генеративного ШІ Copilot застосовують RAG різними способами. Один із них — чат із даними, коли для попередньої підготовки відповіді чат-бота використовуються джерела даних клієнта.
Інший метод удосконалення базових моделей відомий як тонке налаштування. Базовій моделі надається великий набір даних типу «запит – відповідь», який доповнює інформацію, що використовувалася для її навчання, новими зразками, орієнтованими на конкретний сценарій. Потім цю модель можна розгорнути як окремий екземпляр, адаптований під цей сценарій. Попередня підготовка має на меті зробити вміст ШІ релевантнішим для реального світу, а тонке налаштування — специфічнішим для певного завдання або предметної галузі. Microsoft використовує тонке налаштування різними способами, наприклад для створення циклів Power Automate за описами користувачів.
Чи відповідає Copilot нормативним вимогам?
Як частина екосистеми Dynamics 365 і Power Platform технологія Microsoft Copilot відповідає тим самим нормативним вимогам. Для отримання додаткової інформації про нормативні сертифікати послуг Microsoft перейдіть на Портал довіри до сервісу. Крім того, Copilot дотримується наших зобов’язань щодо відповідального штучного інтелекту, які втілюються в життя за допомогою нашого Стандарту відповідального штучного інтелекту. Зі зміною законодавства у сфері ШІ корпорація Microsoft продовжуватиме адаптувати свої технології до нових вимог.
Докладніше
Copilot у програмах Dynamics 365 і Power Platform
Дізнайтеся більше в FAQ про необов’язковий обмін даними для функцій Copilot AI в Dynamics 365 та Power Platform.
Регіональна доступність і підтримувані мови
Copilot Міжнародна доступність
Переміщення даних між географічними регіонами
- Як відбувається переміщення даних між регіонами
- Налаштуйте переміщення даних між географічними місцями для функцій генеративного штучного інтелекту за межами Сполучених Штатів
- Copilot рух даних по географічних регіонах в Dynamics 365 Sales
- Copilot переміщення даних між географічними регіонами в Dynamics 365 Business Central
Безпека в Microsoft
- Вступ до Azure безпеки
- Шифрування в хмарі Microsoft
- Дані, конфіденційність та безпека для сервісу Azure OpenAI – Azure AI сервісів
Конфіденційність у Microsoft
Microsoft Положення про конфіденційність