Często zadawane pytania dotyczące bezpieczeństwa danych i prywatności w Copilot systemie Dynamics 365 i Power Platform
Funkcje usług Copilot dla Dynamics 365 i Power Platform działają zgodnie z zestawem podstawowych praktyk z zakresu bezpieczeństwa i prywatności oraz Standardów odpowiedzialnej sztucznej inteligencji firmy Microsoft. Dane na platformach Dynamics 365 i Power Platform są chronione przez kompleksowe, wiodące w branży mechanizmy kontroli zgodności, bezpieczeństwa i prywatności.
Usługa Copilot opiera się na usłudze Microsoft Azure OpenAI Service i działa całkowicie w chmurze platformy Azure. Usługa Azure OpenAI oferuje dostępność regionalną i filtrowanie zawartości przez odpowiedzialną AI. Usługa Copilot używa modeli OpenAI ze wszystkimi możliwościami zabezpieczeń platformy Microsoft Azure. OpenAI to niezależna organizacja. Nie udostępniamy usłudze OpenAI Twoich danych.
Funkcje usługi Copilot nie są dostępne we wszystkich lokalizacjach i językach platformy Azure. W zależności od miejsca hostowania środowiska może być konieczne umożliwienie przenoszenia danych między lokalizacjami geograficznymi, by móc ich używać. Aby uzyskać więcej informacji, zobacz artykuły wymienione w obszarze Przenoszenie danych między lokalizacjami geograficznymi.
Co dzieje się z moimi danymi, gdy korzystam z Copilot?
Masz kontrolę nad swoimi danymi. Firma Microsoft nie udostępnia Twoich danych innym firmom, chyba że wyrażono na to zgodę. Ponadto nie wykorzystujemy danych klienta do trenowania usługi Copilot lub jej funkcji AI, chyba że udzielono nam na to zgody. Usługa Copilot przestrzega istniejących uprawnień i zasad dotyczących danych, a jej odpowiedzi są oparte wyłącznie na danych, do których masz dostęp osobiście. Więcej informacji na temat kontrolowania danych i sposobu ich obsługi można znaleźć w artykułach wymienionych w obszarze Usługa Copilot w aplikacjach Dynamics 365 i Power Platform.
Usługa Copilot monitoruje obelżywe i szkodliwe wykorzystanie usługi dzięki przejściowemu przetwarzaniu. Nie przechowujemy ani nie przeprowadzamy przeglądu danych wejściowych i wyjściowych usługi Copilot w celach monitorowania nadużyć.
Jak Copilot używa moje dane?
Każda usługa lub funkcja korzysta z usługi Copilot w oparciu o dane, które podajesz lub konfigurujesz do przetwarzania przez usługę Copilot.
Monity (dane wejściowe) i odpowiedzi usługi Copilot (dane wyjściowe lub wyniki):
NIE są dostępne dla innych klientów.
NIE służą do trenowania ani ulepszania jakichkolwiek produktów lub usług innych firm (takich jak modele OpenAI).
NIE są używane do trenowania ani ulepszania modeli Microsoft AI, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. Dowiedz się więcej na stronie FAQ dotyczącej opcjonalnego udostępniania danych dla funkcji sztucznej inteligencji Copilot w sekcji Dynamics 365 i Power Platform.
Dowiedz się więcej o prywatności i bezpieczeństwie danych w usłudze Azure OpenAI . Więcej ogólnych informacji na temat sposobu, w jaki firma Microsoft chroni i korzysta z Twoich danych można znaleźć w naszym Oświadczeniu o ochronie prywatności.
Dokąd idą moje dane?
Firma Microsoft opiera się na zaufaniu. Dokładamy wszelkich starań, aby zapewnić bezpieczeństwo, prywatność i zgodność we wszystkim, co robimy, i nasze podejście do AI nie jest inne. Dane klientów, w tym dane wejściowe i wyjściowe usługi Copilot, są przechowywane w granicach zaufania usługi Microsoft Cloud.
W niektórych scenariuszach, na przykład funkcje obsługiwane przez Bing i dodatki plug-in pomocnika innych firm, dane klientów mogą być przesyłane poza granicę zaufania usługi Microsoft Cloud.
Czy Copilot może uzyskać dostęp do zaszyfrowanych treści?
Dane są przekazywane do usługi Copilot na podstawie poziomu dostępu bieżącego użytkownika. Jeśli użytkownik ma dostęp do zaszyfrowanych danych w rozwiązaniu Dynamics 365 i na platformie Power Platform i przekaże je do usługi Copilot, wówczas usługa Copilot będzie mieć do nich dostęp.
W jaki sposób Copilot chroni dane klientów?
Microsoft ma wyjątkową pozycję do dostarczania sztucznej inteligencji gotowej do użycia w przedsiębiorstwach. Usługa Copilot jest obsługiwana przez usługę Azure OpenAI Service i jest zgodna z naszymi obecnymi zobowiązaniami wobec klientów w zakresie prywatności, zabezpieczeń i przepisów.
Oparta na kompleksowym podejściu firmy Microsoft do zabezpieczeń, prywatności i zgodności. Usługa Copilot jest zintegrowana z usługami Microsoft, takimi jak Dynamics 365 i Power Platform, dzięki czemu dziedziczy ich zasady i procesy zabezpieczeń, prywatności i zgodności, takie jak uwierzytelnienie wieloskładnikowe i granice zgodności.
Wiele form zabezpieczeń w celu ochrony danych organizacyjnych. Technologie po stronie usługi szyfrują zawartość organizacyjną podczas przechowywania i przenoszenia w celu zapewnienia rozbudowanego bezpieczeństwa. Połączenia są zabezpieczone przy użyciu zabezpieczeń TLS (Transport Layer Security), a przenoszenie danych między usługami Dynamics 365 Power Platform i Azure OpenAI odbywa się w sieci podstawowej, zapewniając zarówno rzetelność, jak i bezpieczeństwo. Dowiedz się więcej o szyfrowaniu w chmurze Microsoft.
Zostało tak zaprojektowane, aby zapewnić ochronę danych zarówno na poziomie dzierżawy, jak i środowiska. Wiemy, że wyciek danych to coś, co spędza klientom sen z powiek. Modele AI firmy Microsoft nie są trenowane i nie uczą się na danych dzierżawcy lub monitach, chyba że administrator dzierżawy wyraził zgodę na udostępnianie nam danych. We własnych środowiskach możesz kontrolować dostęp za pomocą ustawionych uprawnień. Mechanizmy uwierzytelniania i autoryzacji rozdzielają żądania do udostępnionego modelu wśród dzierżawców. Usługa Copilot wykorzystuje dane, do których tylko Ty możesz uzyskać dostęp dzięki zastosowaniu tej samej technologii, która jest przez nas używana od lat w celu zabezpieczania danych klientów.
Czy odpowiedzi usługi Copilot zawsze są merytorycznie poprawne?
Podobnie jak w przypadku każdej generatywnej sztucznej inteligencji, odpowiedzi Copilot nie są w 100% oparte na faktach. Choć nieustannie staramy się ulepszać odpowiedzi tak, by były one w jak największym stopniu oparte na faktach, to przed przesłaniem ich do innych osób użytkownicy powinni zaufać własnemu osądowi i zdrowemu rozsądkowi. Usługa Copilot oferuje pomocne wersje robocze i podsumowania, dzięki którym możesz robić więcej, ale jest to w pełni automatyczne. Zawsze będziesz mieć możliwość przejrzenia zawartości wygenerowanej przez AI.
Nasze zespoły pracują, aby w sposób aktywny rozwiązać problemy m.in. z dostarczaniem nieprawidłowych i niezgodnych ze stanem faktycznym informacji, blokowaniem zawartości, bezpieczeństwem danych i rozpowszechnianiem szkodliwej i dyskryminującej zawartości zgodnie z naszymi zasadami odpowiedzialnej AI.
Oferujemy także wskazówki w środowisku użytkownika, by wzmacniać nawyki odpowiedzialnego postępowania i korzystania z zawartości generowanej przez AI.
Instrukcje i monity. W czasie korzystania z usługi Copilot monity i inne elementy z instrukcjami przypominają o przejrzeniu i edytowaniu odpowiedzi odpowiednio do potrzeb, a także ręcznego sprawdzania faktów, danych i tekstu pod kątem ich dokładności przed użyciem zawartości wygenerowanej przez AI.
Przywoływane źródła. W pewnych przypadkach usługa Copilot przywołuje swoje źródła informacji, zarówno publiczne, jak i wewnętrzne, aby można było przejrzeć je samodzielnie w celu potwierdzenia odpowiedzi.
Aby uzyskać więcej informacji, zobacz temat Odpowiedzialna sztuczna inteligencja — często zadawane pytania dotyczące produktu w rozwiązaniu Microsoft Learn.
Jak usługa Copilot blokuje szkodliwą zawartość?
Usługa Azure OpenAI Service zawiera system filtrowania zawartości, który współpracuje z modelami podstawowymi. Modele filtrowania zawartości dla kategorii Nienawiść i uczciwość, Treści seksualne, Przemoc i Samookaleczanie zostały specjalnie przeszkolone i przetestowane w różnych językach. Ten system działa poprzez uruchomienie zarówno monitu wejściowego, jak i odpowiedzi w ramach modeli klasyfikacji opracowanych w celu identyfikowania i blokowania szkodliwej zawartości wyjściowej.
Termin Nienawiść i uczciwość odnosi się do wszelkiej zawartości, która używa pejoratywnego lub dyskryminującego języka opartego na takich atrybutach, jak rasa, pochodzenie etniczne, narodowość, identyfikacja i wyrażenie płci, orientacja seksualna, status imigracyjny, stan sprawności, wygląd i wymiary ciała. Uczciwość polega na upewnieniu się, że systemy AI traktują wszystkie grupy ludzi równo bez przypisywania istniejących nierówności społecznych. Treść seksualna zawiera dyskusje dotyczące ludzkich organów rozrodczych, relacji romantycznych, działań wyrażonych w sposób erotyczny lub tkliwy, ciąży, stosunków seksualnych, w tym tych przedstawionych jako atak lub wymuszona przemoc seksualne, prostytucja, pornografia i wykorzystywanie. Przemoc opisuje język odnoszący się do działań fizycznych, których zamiarem jest wyrządzenie krzywdy lub odebranie życia, w tym działania, broń i powiązane pojęcia. Kategoria samookaleczania dotyczy języka odnoszącego się do świadomych działań mających na celu uszkodzenie swojego ciała lub odebranie sobie życia.
Dowiedz się więcej o filtrowaniu OpenAI treści Azure.
Czy Copilot blokuje iniekcje monitów (ataki jailbreak)?
Ataki jailbreak to podpowiedzi użytkownika, które mają na celu sprowokowanie generatywnego modelu sztucznej inteligencji do zachowywania się w sposób, w jaki został wyszkolony, lub łamania zasad, których kazano mu przestrzegać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów. Dowiedz się więcej o atakach jailbreak i o tym, jak używać Azure AI Content Safety do ich wykrywania.
Czy usługa Copilot blokuje pośrednie iniekcje monitów (ataki pośrednie)?
Ataki pośrednie, zwane także pośrednimi atakami monitów lub ataki wstrzykiwania monitów między domenami, są potencjalną luką w zabezpieczeniach, gdzie osoby trzecie umieszczają złośliwe instrukcje w dokumentach, do których generatywna AI może uzyskać dostęp i je przetwarzać. Od usług Dynamics 365 i Power Platform jest wymagana ochrona przed wstawianiem monitów pośrednich. Dowiedz się więcej o atakach pośrednich i o tym, jak korzystać z Azure AI Content Safety do ich wykrywania.
Jak firma Microsoft testuje i weryfikuje jakość usługi Copilot, w tym ochronę przed wstawianiem monitów i uzasadnionych odpowiedzi.
Przed uruchomieniem każdy nowy produkt Copilot i iteracja modelu językowego muszą przejść wewnętrzny przegląd odpowiedzialnego AI. Przed wydaniem używamy procesu o nazwie „czerwony zespół” (w którym zespół symuluje atak, znajdując i wykorzystując słabe punkty, by pomóc organizacji w poprawie jej zabezpieczeń), aby ocenić potencjalne zagrożenia w szkodliwej zawartości, scenariuszach ataków polegających na usunięciu zabezpieczeń i uzasadnionych odpowiedzi. Po wydaniu używamy automatycznych testów oraz narzędzi do ręcznego i automatycznego oceniania jakości odpowiedzi usługi Copilot.
Jak firma Microsoft ulepsza model podstawowy i ocenia ulepszenia w uzasadnionych odpowiedziach?
W kontekście AI, szczególnie AI, które dotyczy modeli językowych, takich jak ten, na którym jest oparta usługa Copilot, uzasadnianiepomaga AI w generowaniu odpowiedzi, które są odpowiedniejsze i mają sens w świecie rzeczywistym. Uzasadnianie pomaga zagwarantować, że odpowiedzi AI są oparte na wiarygodnej informacji i są jak najdokładniejszą i najbardziej odpowiednią odpowiedzią. Metryki uzasadnionych odpowiedzi oceniają, na ile dokładnie fakty podane w uzasadnionej zawartości podanej modelu są odzwierciedlone w ostatecznej odpowiedzi.
Modele podstawowe, takie jak GPT-4 te, są wzbogacone o techniki Retrieval Augmented Generation (RAG). Te techniki umożliwiają modelom użycie większej liczby informacji niż wykorzystane do ich trenowania w celu zrozumienia scenariusza użytkownika. RAG działa, najpierw identyfikując dane odpowiednie dla scenariusza, podobnie do sposobu, w jaki aparat wyszukiwania identyfikuje strony internetowe odpowiednie dla wyszukiwanych terminów użytkownika. Używa różnych podejść do identyfikowania, która zawartość jest odpowiednia dla monitu użytkownika i powinna być użyta do uzasadnienia odpowiedzi. Sposoby obejmują wyszukiwanie różnych typów indeksów, na przykład indeksów odwróconych z zastosowaniem technik wyszukiwania informacji, takich jak dopasowanie terminów, lub indeksów wektorowych przy użyciu porównywania odległości wektorowej pod kątem podobieństwa semantycznego. Po zidentyfikowaniu odpowiednich dokumentów RAG przekazuje dane do modelu wraz z bieżącą konwersacją, co daje modelowi więcej kontekstu do lepszego zrozumienia posiadanych informacji i wygenerowania odpowiedzi uzasadnionej w świecie rzeczywistym. Na koniec RAG sprawdza odpowiedź, aby upewnić się, że jest ona potwierdzona przez zawartość źródłową dostarczoną modelowi. Funkcje generatywne AI usługi Copilot wykorzystują RAG na wiele sposobów. Jednym z przykładów jest czat z użyciem danych, gdzie czatbot posiada uzasadnienie z własnych źródeł danych użytkownika.
Innym sposobem ulepszenia modelu podstawowego jest dopracowanie szczegółów. Duży zestaw danych par zapytanie-odpowiedź jest przedstawiony jako model podstawowy w celu poprawienia swojego oryginalnego trenowania za pomocą nowych próbek, które są przeznaczone dla konkretnego scenariusza. Model można następnie wdrożyć jako oddzielny model — ten, który można szczegółowo dopracować do tego scenariusza. Uzasadniane polega na zapewnieniu odpowiedniości wiedzy AI w świecie rzeczywistym, a dopracowanie szczegółów na skonkretyzowaniu wiedzy AI dla specyficznego zadania lub domeny. Firma Microsoft używa dopracowania szczegółów na wiele sposobów. Na przykład używamy tworzenia przepływu usługi Power Automate na podstawie opisów języka naturalnego podanych przez użytkownika.
Czy usługa Copilot spełnia wymagania dotyczące zgodności z przepisami?
Microsoft Copilot jest częścią ekosystemu usług Dynamics 365 i Power Platform oraz spełnia te same wymagania w celu zapewnienia zgodności z przepisami. Aby uzyskać więcej szczegółowych informacji na temat certyfikacji usług Microsoft pod kątem ich zgodności z przepisami, przejdź do Portalu zaufania usług. Ponadto działanie narzędzia Copilot wpisuje się w nasze dążenie do odpowiedzialnego postępowania zgodnie z wytycznymi ujętymi w naszych zasadach odpowiedzialnego korzystania ze sztucznej inteligencji. W miarę wprowadzania zmian przepisów dotyczących AI firma Microsoft w dalszym ciągu dostosowuje się i odpowiada na nowe wymagania.
Więcej informacji
Usługa Copilot w aplikacjach Dynamics 365 i Power Platform
Dowiedz się więcej na stronie FAQ dotyczącej opcjonalnego udostępniania danych dla funkcji sztucznej inteligencji Copilot w sekcji Dynamics 365 i Power Platform.
Dostępność w różnych regionach i językach
Copilot dostępność międzynarodowa
Przenoszenie danych między regionami geograficznymi
- Jak działa przenoszenie danych między regionami
- Konfigurowanie przenoszenia danych między lokalizacjami geograficznymi dla funkcji generatywnej sztucznej inteligencji poza Stanami Zjednoczonymi
- Copilot przenoszenie danych między lokalizacjami geograficznymi w Dynamics 365 Sales
- Copilot przenoszenie danych między lokalizacjami geograficznymi w Dynamics 365 Business Central
Zabezpieczenia w firmie Microsoft
- Wprowadzenie do bezpieczeństwa Azure
- Szyfrowanie w chmurze Microsoft
- Dane, prywatność i bezpieczeństwo dla usługi Azure OpenAI – Azure usług AI
Ochrona prywatności w firmie Microsoft
Microsoft Oświadczenie o ochronie prywatności
Odopowiedzialne AI
- Microsoft Standard odpowiedzialnej sztucznej inteligencji
- Odpowiedzialna sztuczna inteligencja – często zadawane pytania dotyczące Microsoft Power Platform
- Odpowiedzialna sztuczna inteligencja – FAQ dla Dynamics 365
- Odpowiedzialna sztuczna inteligencja Często zadawane pytania dotyczące Microsoft Copilot Studio