Udostępnij za pośrednictwem


Często zadawane pytania dotyczące bezpieczeństwa danych i prywatności w Copilot systemie Dynamics 365 i Power Platform

Funkcje usług Copilot dla Dynamics 365 i Power Platform działają zgodnie z zestawem podstawowych praktyk z zakresu bezpieczeństwa i prywatności oraz Standardów odpowiedzialnej sztucznej inteligencji firmy Microsoft. Dane na platformach Dynamics 365 i Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.

Usługa Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa całkowicie w chmurze platformy Azure. Usługa Azure OpenAI oferuje dostępność regionalną i filtrowanie zawartości przez odpowiedzialną AI. Usługa Copilot używa modeli OpenAI ze wszystkimi możliwościami zabezpieczeń platformy Microsoft Azure. OpenAI to niezależna organizacja. Nie udostępniamy usłudze OpenAI Twoich danych.

Funkcje usługi Copilot nie są dostępne we wszystkich lokalizacjach i językach platformy Azure. W zależności od miejsca hostowania środowiska może być konieczne umożliwienie przenoszenia danych między lokalizacjami geograficznymi, by móc ich używać. Aby uzyskać więcej informacji, zobacz artykuły wymienione w obszarze Przenoszenie danych między lokalizacjami geograficznymi.

Co dzieje się z moimi danymi, gdy korzystam z Copilot?

Masz kontrolę nad swoimi danymi. Firma Microsoft nie udostępnia Twoich danych innym firmom, chyba że wyrażono na to zgodę. Ponadto nie wykorzystujemy danych klienta do trenowania usługi Copilot lub jej funkcji AI, chyba że udzielono nam na to zgody. Usługa Copilot przestrzega istniejących uprawnień i zasad dotyczących danych, a jej odpowiedzi są oparte wyłącznie na danych, do których masz dostęp osobiście. Więcej informacji na temat kontrolowania danych i sposobu ich obsługi można znaleźć w artykułach wymienionych w obszarze Usługa Copilot w aplikacjach Dynamics 365 i Power Platform.

Usługa Copilot monitoruje obelżywe i szkodliwe wykorzystanie usługi dzięki przejściowemu przetwarzaniu. Nie przechowujemy ani nie przeprowadzamy przeglądu danych wejściowych i wyjściowych usługi Copilot w celach monitorowania nadużyć.

Jak Copilot używa moje dane?

Każda usługa lub funkcja korzysta z usługi Copilot w oparciu o dane, które podajesz lub konfigurujesz do przetwarzania przez usługę Copilot.

Monity (dane wejściowe) i odpowiedzi usługi Copilot (dane wyjściowe lub wyniki):

Dowiedz się więcej o prywatności i bezpieczeństwie danych w usłudze Azure OpenAI . Więcej ogólnych informacji na temat sposobu, w jaki firma Microsoft chroni i korzysta z Twoich danych można znaleźć w naszym Oświadczeniu o ochronie prywatności.

Dokąd idą moje dane?

Firma Microsoft opiera się na zaufaniu. Dokładamy wszelkich starań, aby zapewnić bezpieczeństwo, prywatność i zgodność we wszystkim, co robimy, i nasze podejście do AI nie jest inne. Dane klientów, w tym dane wejściowe i wyjściowe usługi Copilot, są przechowywane w granicach zaufania usługi Microsoft Cloud.

W niektórych scenariuszach, na przykład funkcje obsługiwane przez Bing i dodatki plug-in pomocnika innych firm, dane klientów mogą być przesyłane poza granicę zaufania usługi Microsoft Cloud.

Czy Copilot może uzyskać dostęp do zaszyfrowanych treści?

Dane są przekazywane do usługi Copilot na podstawie poziomu dostępu bieżącego użytkownika. Jeśli użytkownik ma dostęp do zaszyfrowanych danych w rozwiązaniu Dynamics 365 i na platformie Power Platform i przekaże je do usługi Copilot, wówczas usługa Copilot będzie mieć do nich dostęp.

W jaki sposób Copilot chroni dane klientów?

Microsoft ma wyjątkową pozycję do dostarczania sztucznej inteligencji gotowej do użycia w przedsiębiorstwach. Usługa Copilot jest obsługiwana przez usługę Azure OpenAI Service i jest zgodna z naszymi obecnymi zobowiązaniami wobec klientów w zakresie prywatności, zabezpieczeń i przepisów.

  • Oparta na kompleksowym podejściu firmy Microsoft do zabezpieczeń, prywatności i zgodności. Usługa Copilot jest zintegrowana z usługami Microsoft, takimi jak Dynamics 365 i Power Platform, dzięki czemu dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnienie wieloskładnikowe i granice zgodności.

  • Wiele form zabezpieczeń w celu ochrony danych organizacyjnych. Technologie po stronie usługi szyfrują zawartość organizacyjną podczas przechowywania i przenoszenia w celu zapewnienia rozbudowanego bezpieczeństwa. Połączenia są zabezpieczone przy użyciu zabezpieczeń TLS (Transport Layer Security), a przenoszenie danych między usługami Dynamics 365 Power Platform i Azure OpenAI odbywa się w sieci podstawowej, zapewniając zarówno rzetelność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w chmurze Microsoft.

  • Zostało tak zaprojektowane, aby zapewnić ochronę danych zarówno na poziomie dzierżawy, jak i środowiska. Wiemy, że wyciek danych to coś, co spędza klientom sen z powiek. Modele AI firmy Microsoft nie są trenowane i nie uczą się na danych dzierżawcy lub monitach, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. We własnych środowiskach możesz kontrolować dostęp za pomocą ustawionych uprawnień. Mechanizmy uwierzytelniania i autoryzacji rozdzielają żądania do udostępnionego modelu wśród dzierżawców. Usługa Copilot wykorzystuje dane, do których tylko Ty możesz uzyskać dostęp dzięki zastosowaniu tej samej technologii, która jest przez nas używana od lat w celu zabezpieczania danych klientów.

Czy odpowiedzi usługi Copilot zawsze są merytorycznie poprawne?

Podobnie jak w przypadku każdej generatywnej sztucznej inteligencji, odpowiedzi Copilot nie są w 100% oparte na faktach. Choć nieustannie staramy się ulepszać odpowiedzi tak, by były one w jak największym stopniu oparte na faktach, to przed przesłaniem ich do innych osób użytkownicy powinni zaufać własnemu osądowi i zdrowemu rozsądkowi. Usługa Copilot oferuje pomocne wersje robocze i podsumowania, dzięki którym możesz robić więcej, ale jest to w pełni automatyczne. Zawsze będziesz mieć możliwość przejrzenia zawartości wygenerowanej przez AI.

Nasze zespoły pracują, aby w sposób aktywny rozwiązać problemy m.in. z dostarczaniem nieprawidłowych i niezgodnych ze stanem faktycznym informacji, blokowaniem zawartości, bezpieczeństwem danych i rozpowszechnianiem szkodliwej i dyskryminującej zawartości zgodnie z naszymi zasadami odpowiedzialnej AI.

Oferujemy także wskazówki w środowisku użytkownika, by wzmacniać nawyki odpowiedzialnego postępowania i korzystania z zawartości generowanej przez AI.

  • Instrukcje i monity. W czasie korzystania z usługi Copilot monity i inne elementy z instrukcjami przypominają o przejrzeniu i edytowaniu odpowiedzi odpowiednio do potrzeb, a także ręcznego sprawdzania faktów, danych i tekstu pod kątem ich dokładności przed użyciem zawartości wygenerowanej przez AI.

  • Przywoływane źródła. W pewnych przypadkach usługa Copilot przywołuje swoje źródła informacji, zarówno publiczne, jak i wewnętrzne, aby można było przejrzeć je samodzielnie w celu potwierdzenia odpowiedzi.

Aby uzyskać więcej informacji, zobacz temat Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące produktu w rozwiązaniu Microsoft Learn.

Jak usługa Copilot blokuje szkodliwą zawartość?

Usługa Azure OpenAI Service zawiera system filtrowania zawartości, który współpracuje z modelami podstawowymi. Modele filtrowania zawartości dla kategorii Nienawiść i uczciwość, Treści seksualne, Przemoc i Samookaleczanie zostały specjalnie przeszkolone i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno monitu wejściowego, jak i odpowiedzi w ramach modeli klasyfikacji opracowanych w celu identyfikowania i blokowania szkodliwej zawartości wyjściowej.

Termin Nienawiść i uczciwość odnosi się do wszelkiej zawartości, która używa pejoratywnego lub dyskryminującego języka opartego na takich atrybutach, jak rasa, pochodzenie etniczne, narodowość, identyfikacja i wyrażenie płci, orientacja seksualna, status imigracyjny, stan sprawności, wygląd i wymiary ciała. Uczciwość polega na upewnieniu się, że systemy AI traktują wszystkie grupy ludzi równo bez przypisywania istniejących nierówności społecznych. Treść seksualna zawiera dyskusje dotyczące ludzkich organów rozrodczych, relacji romantycznych, działań wyrażonych w sposób erotyczny lub tkliwy, ciąży, stosunków seksualnych, w tym tych przedstawionych jako atak lub wymuszona przemoc seksualne, prostytucja, pornografia i wykorzystywanie. Przemoc opisuje język odnoszący się do działań fizycznych, których zamiarem jest wyrządzenie krzywdy lub odebranie życia, w tym działania, broń i powiązane pojęcia. Kategoria samookaleczania dotyczy języka odnoszącego się do świadomych działań mających na celu uszkodzenie swojego ciała lub odebranie sobie życia.

Dowiedz się więcej o filtrowaniu OpenAI treści Azure.

Czy Copilot blokuje iniekcje monitów (ataki jailbreak)?

Ataki jailbreak to podpowiedzi użytkownika, które mają na celu sprowokowanie generatywnego modelu sztucznej inteligencji do zachowywania się w sposób, w jaki został wyszkolony, lub łamania zasad, których kazano mu przestrzegać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów. Dowiedz się więcej o atakach jailbreak i o tym, jak używać Azure AI Content Safety do ich wykrywania.

Czy usługa Copilot blokuje pośrednie iniekcje monitów (ataki pośrednie)?

Ataki pośrednie, zwane także pośrednimi atakami monitów lub ataki wstrzykiwania monitów między domenami, są potencjalną luką w zabezpieczeniach, gdzie osoby trzecie umieszczają złośliwe instrukcje w dokumentach, do których generatywna AI może uzyskać dostęp i je przetwarzać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów pośrednich. Dowiedz się więcej o atakach pośrednich i o tym, jak korzystać z Azure AI Content Safety do ich wykrywania.

Jak firma Microsoft testuje i weryfikuje jakość usługi Copilot, w tym ochronę przed wstawianiem monitów i uzasadnionych odpowiedzi.

Przed uruchomieniem każdy nowy produkt Copilot i iteracja modelu językowego muszą przejść wewnętrzny przegląd odpowiedzialnego AI. Przed wydaniem używamy procesu o nazwie „czerwony zespół” (w którym zespół symuluje atak, znajdując i wykorzystując słabe punkty, by pomóc organizacji w poprawie jej zabezpieczeń), aby ocenić potencjalne zagrożenia w szkodliwej zawartości, scenariuszach ataków polegających na usunięciu zabezpieczeń i uzasadnionych odpowiedzi. Po wydaniu używamy automatycznych testów oraz narzędzi do ręcznego i automatycznego oceniania jakości odpowiedzi usługi Copilot.

Jak firma Microsoft ulepsza model podstawowy i ocenia ulepszenia w uzasadnionych odpowiedziach?

W kontekście AI, szczególnie AI, które dotyczy modeli językowych, takich jak ten, na którym jest oparta usługa Copilot, uzasadnianiepomaga AI w generowaniu odpowiedzi, które są odpowiedniejsze i mają sens w świecie rzeczywistym. Uzasadnianie pomaga zagwarantować, że odpowiedzi AI są oparte na wiarygodnej informacji i są jak najdokładniejszą i najbardziej odpowiednią odpowiedzią. Metryki uzasadnionych odpowiedzi oceniają, na ile dokładnie fakty podane w uzasadnionej zawartości podanej modelu są odzwierciedlone w ostatecznej odpowiedzi.

Modele podstawowe, takie jak GPT-4 te, są wzbogacone o techniki Retrieval Augmented Generation (RAG). Te techniki umożliwiają modelom użycie większej liczby informacji niż wykorzystane do ich trenowania w celu zrozumienia scenariusza użytkownika. RAG działa, najpierw identyfikując dane odpowiednie dla scenariusza, podobnie do sposobu, w jaki aparat wyszukiwania identyfikuje strony internetowe odpowiednie dla wyszukiwanych terminów użytkownika. Używa różnych podejść do identyfikowania, która zawartość jest odpowiednia dla monitu użytkownika i powinna być użyta do uzasadnienia odpowiedzi. Sposoby obejmują wyszukiwanie różnych typów indeksów, na przykład indeksów odwróconych z zastosowaniem technik wyszukiwania informacji, takich jak dopasowanie terminów, lub indeksów wektorowych przy użyciu porównywania odległości wektorowej pod kątem podobieństwa semantycznego. Po zidentyfikowaniu odpowiednich dokumentów RAG przekazuje dane do modelu wraz z bieżącą konwersacją, co daje modelowi więcej kontekstu do lepszego zrozumienia posiadanych informacji i wygenerowania odpowiedzi uzasadnionej w świecie rzeczywistym. Na koniec RAG sprawdza odpowiedź, aby upewnić się, że jest ona potwierdzona przez zawartość źródłową dostarczoną modelowi. Funkcje generatywne AI usługi Copilot wykorzystują RAG na wiele sposobów. Jednym z przykładów jest czat z użyciem danych, gdzie czatbot posiada uzasadnienie z własnych źródeł danych użytkownika.

Innym sposobem ulepszenia modelu podstawowego jest dopracowanie szczegółów. Duży zestaw danych par zapytanie-odpowiedź jest przedstawiony jako model podstawowy w celu poprawienia swojego oryginalnego trenowania za pomocą nowych próbek, które są przeznaczone dla konkretnego scenariusza. Model można następnie wdrożyć jako oddzielny model — ten, który można szczegółowo dopracować do tego scenariusza. Uzasadniane polega na zapewnieniu odpowiedniości wiedzy AI w świecie rzeczywistym, a dopracowanie szczegółów na skonkretyzowaniu wiedzy AI dla specyficznego zadania lub domeny. Firma Microsoft używa dopracowania szczegółów na wiele sposobów. Na przykład używamy tworzenia przepływu usługi Power Automate na podstawie opisów języka naturalnego podanych przez użytkownika.

Czy usługa Copilot spełnia wymagania dotyczące zgodności z przepisami?

Microsoft Copilot jest częścią ekosystemu usług Dynamics 365 i Power Platform oraz spełnia te same wymagania w celu zapewnienia zgodności z przepisami. Aby uzyskać więcej szczegółowych informacji na temat certyfikacji usług Microsoft pod kątem ich zgodności z przepisami, przejdź do Portalu zaufania usług. Ponadto działanie narzędzia Copilot wpisuje się w nasze dążenie do odpowiedzialnego postępowania zgodnie z wytycznymi ujętymi w naszych zasadach odpowiedzialnego korzystania ze sztucznej inteligencji. W miarę wprowadzania zmian przepisów dotyczących AI firma Microsoft w dalszym ciągu dostosowuje się i odpowiada na nowe wymagania.

Dowiedz się więcej o dostępności Dynamics 365 Power Platform i Copilot, lokalizacjach danych klientów oraz zgodności z globalnymi, regionalnymi i branżowymi wymaganiami dotyczącymi zarządzania danymi.

Więcej informacji

Usługa Copilot w aplikacjach Dynamics 365 i Power Platform

Produkt Funkcja Wymagane środowiska zarządzane? Jak wyłączyć tę funkcję
AI Builder Scenariusze w wersji zapoznawcza Nie. Scenariusze w wersji zapoznawcza
Copilot Studio Ogólna wiedza na temat sztucznej inteligencji Nie. Copilot Studio Bezpieczeństwo i nadzór
Copilot Studio Twórz i edytuj tematy z hasztagiem Copilot Nie. Copilot Studio Bezpieczeństwo i nadzór
Copilot Studio Działania generatywne Nie. Copilot Studio Bezpieczeństwo i nadzór
Copilot Studio Odpowiedzi generatywne Nie. Copilot Studio Bezpieczeństwo i nadzór
Dynamics 365 Business Central Wszystkie (pełna lista jest dostępna na stronie aka.ms/bcAI). Nie. Aktywacja funkcji
Dynamics 365 Customer Insights - Data Tworzenie segmentów z symbolem Copilot for Customer Insights - Data (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Omówienie raportu przygotowywania danych (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Uzyskaj odpowiedzi na pytania dotyczące możliwości od Copilot (wersja zapoznawcza) Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights (Dane) Prowadzenie dialogu z danymi przy użyciu Copilot w Customer Insights Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Data Wyświetlanie konfiguracji systemu Nie Usługa Customer Insights - Data ma własną flagę dla wszystkich swoich funkcji Copilot dzięki Azure OpenAI.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot pomaga Ci się uczyć i robić więcej (recenzja) Nie Dostępność tego pomocnika w środowisku jest określana przez ustawienia administratora platformy Power Platform. Dowiedz się, jak dodać Copilot dla aplikacji opartych na modelu.


Ta funkcja to "aplikacja pomocnik w Customer Insights - Journeys" i dlatego jest włączona w Power Platform centrum administracyjnym. Dowiedz się więcej: Odpowiedzialna AI — często zadawane pytania
Dynamics 365 Customer Insights - Journeys Tworzenie procesów pozyskiwania klientów przy użyciu pomocy sztucznej inteligencji Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Odśwież i udoskonal swój przekaz Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Stylizuj swoje e-maile za pomocą motywów wspomaganych przez sztuczną inteligencję Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Docieranie do właściwych klientów za pomocą pomocy przy zapytaniach

Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Użyj sztucznej inteligencji, aby rozpocząć tworzenie wiadomości e-mail Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Używanie obrazów w treściach Nie Rozwiązanie Customer Insights - Journeys ma własne flagi dla funkcji usługi Copilot.

Dowiedz się więcej: Wyrażanie zgody na używanie usługi Copilot w rozwiązaniu Customer Insights - Journeys
Rozwiązanie Dynamics 365 Customer Service Redagowanie wiadomości e-mail Nie. Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Rozwiązanie Dynamics 365 Customer Service Sporządzanie wersji roboczej odpowiedzi na czacie Nie. Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Rozwiązanie Dynamics 365 Customer Service Odpowiadanie na pytania Nie. Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Rozwiązanie Dynamics 365 Customer Service Podsumuj sprawę i rozmowę Nie. Zarządzanie funkcjami usługi Copilot w rozwiązaniu Customer Service
Power Apps Kompilowanie aplikacji przy użyciu konwersacji Nie. Zarządzanie ustawieniami funkcji
Power Apps Copilot pomoc w wypełnianiu formularzy w aplikacjach opartych na modelu Nie Zarządzanie ustawieniami funkcji
Power Apps Szkic dobrze napisanego, wejściowego tekstu z Copilot Nie, licencja użytkownika premium Szkic dobrze napisanego, wejściowego tekstu z Copilot
Power Apps Z Excela do tabeli Nie Zarządzanie ustawieniami funkcji
Power Apps Używanie języka naturalnego do edytowania aplikacji za pomocą panelu Copilot Nie Zarządzanie ustawieniami funkcji
Power Automate Narzędzie Copilot w przepływach w chmurze na stronie głównej i w projektancie (szczegółowe informacje można znaleźć w sekcji Wprowadzenie do usługi Copilot w przepływach w chmurze). Nie Kontakt z działem pomocy technicznej w celu uruchomienia skryptu programu PowerShell.
Power Pages Wszystkie (szczegółowe informacje są dostępne w sekcji Omówienie usługi Copilot AI w rozwiązaniu Power Pages). Nie Wyłącz Copilot w Power Pages

Dowiedz się więcej na stronie FAQ dotyczącej opcjonalnego udostępniania danych dla funkcji sztucznej inteligencji Copilot w sekcji Dynamics 365 i Power Platform.

Dostępność w różnych regionach i językach

Copilot dostępność międzynarodowa

Przenoszenie danych między regionami geograficznymi

Zabezpieczenia w firmie Microsoft

Ochrona prywatności w firmie Microsoft

Microsoft Oświadczenie o ochronie prywatności

Odopowiedzialne AI