Odpowiedzi generatywne — często zadawanie pytania
Te często zadawane pytania (FAQ) opisują efekt sztucznej inteligencji funkcji odpowiedzi generatywnych w Copilot Studio.
Czym są generatywne odpowiedzi?
Generatywne odpowiedzi sprawiają, że agent jest wartościowy od razu po wyjęciu z pudełka i zwiększa liczbę tematów, w których agent prowadzi konwersację, bez konieczności ręcznego tworzenia drzewa dialogów.
Jakie są możliwości funkcji generatywnych odpowiedzi?
Gdy użytkownik zada agentowi pytanie, które nie powoduje wyzwolenia skonfigurowanego tematu, agent może opcjonalnie wyszukać odpowiednią zawartość z wybranego źródła. To wyszukiwanie obejmuje publiczne witryny internetowe, SharePoint lub własne niestandardowe źródła danych, w tym elementy nietekstowe w przesłanych plikach, takie jak obrazy, dane tabelaryczne i diagramy. Agent używa generatywnej sztucznej inteligencji do podsumowania tych informacji w odpowiedzi zwróconej użytkownikowi agenta.
Jakie jest przeznaczenie funkcji generatywnych odpowiedzi?
Odpowiedzi generatywne mogą być używane jako podstawowe źródła informacji w twoim agencie lub jako rezerwowe, gdy utworzone tematy nie mogą odpowiedzieć na zapytanie użytkownika.
W jaki sposób ocenione generatywne odpowiedzi i jakie wskaźniki służą do pomiaru ich wydajności?
Możliwości są stale oceniane na podstawie zbioru ręcznie aktualizowanych zestawów danych dotyczących pytań i odpowiedzi, które obejmują wiele branż. Dalsza ocena jest wykonywana na niestandardowych zestawach danych w celu zapobiegania obraźliwym i złośliwym monitom i odpowiedziom, zarówno poprzez zautomatyzowane, jak i dedykowane sesje ręczne zaprojektowane w celu rozszerzenia zestawu testów.
Jakie są ograniczenia dialogu z generatywnymi odpowiedziami?
Dla każdego agenta należy włączyć opcję odpowiedzi generatywnych.
Zobacz Obsługa języka, aby zapoznać się z listą języków obsługiwanych przez tę funkcję i ich odpowiednim etapem. Możesz używać innych języków, ale wygenerowane odpowiedzi mogą być niespójne, a agent może nie odpowiadać poprawnie lub zgodnie z oczekiwaniami.
Ta funkcja może podlegać limitom użycia lub możliwościom wykrywania wydajności.
Odpowiedzi wygenerowane przez funkcję generatywne odpowiedzi nie zawsze są zawsze doskonałe i mogą zawierać błędy.
System został opracowany z myślą o pobraniu wiedzy z wybranej witryny internetowej oraz podaniem odpowiednich wyników w łatwo zrozumiałe odpowiedzi. Należy jednak pamiętać o cechach AI, które mogą powodować nieoczekiwane odpowiedzi:
Korpus, na którym wytrenowano model, nie obejmuje danych utworzonych po 2021 roku.
Istnieją ograniczenia uniemożliwiające modelowi używanie korpusu szkoleniowego jako źródła odpowiedzi, jednak możliwe jest, że odpowiedzi będą zawierać treści z witryn internetowych innych niż wybrana.System nie przeprowadza kontroli dokładności, więc jeśli wybrane źródło danych zawiera niedokładne informacje, może to być widoczne dla użytkowników agenta. Wdrożyliśmy środki zaradcze, aby odfiltrować nieistotne i obraźliwe odpowiedzi, a funkcja została zaprojektowana tak, aby nie reagować po wykryciu obraźliwego języka. Te filtry i środki ograniczenia ryzyka nie są niezawodne.
Notatka
Zawsze należy przetestować i przejrzeć agentów przed ich opublikowaniem, a także rozważyć zebranie opinii od użytkowników agenta. Administrator może wyłączyć możliwość publikowania agentów z odpowiedziami generatywnymi dla dzierżawy w centrum administracyjnym Power Platform.
Jakie dane zbiera ta funkcja? Jak dane są używane?
Jeśli klient jawnie wyrazi zgodę na rejestrowanie swojej konwersacji z agentem, funkcja zbiera monity użytkownika, odpowiedzi zwracane przez system oraz wszelkie przekazane przez Ciebie opinie.
Użyjemy tych danych, by ocenić i poprawić jakość możliwości.
Jakie czynniki operacyjne i ustawienia pozwalają na skuteczne i odpowiedzialne korzystanie z generatywnych odpowiedzi?
Odpowiedzi generatywne działają najlepiej, gdy użytkownik wyznacza zaufane i prawidłowe źródło, w którym należy szukać odpowiedzi. Tym źródłem może być witryna internetowa Twojej firmy, na przykład www.microsoft.com. Wszystkie strony sieci Web należące do tej domeny będą przeszukiwane w celu znalezienia dopasowania do pytania użytkownika.
Wykorzystujemy przekazane przez Ciebie informacje zwrotne na temat Twojego zadowolenia z wygenerowanych odpowiedzi w celu poprawy jakości systemu. Opinie można przekazać, wybierając ikonę kciuka w górę lub kciuka w dół dla wygenerowanych odpowiedzi. Więcej opinii można także dołączyć do bezpłatnego tekstu.
Jakie zabezpieczenia są stosowane w Copilot Studio w celu odpowiedzialnego wykorzystania AI?
Odpowiedzi generatywne obejmują różne zabezpieczenia, aby zapewnić administratorom, twórcom i użytkownikom bezpieczne i zgodne środowisko. Administratorzy mają pełną kontrolę nad funkcjami w swojej dzierżawie i zawsze mogą wyłączyć możliwość publikowania agentów z odpowiedziami generatywnymi w swojej organizacji. Twórcy mogą dodawać niestandardowe instrukcje, aby wpływać na typy odpowiedzi zwracanych przez ich agentów. Aby uzyskać więcej informacji na temat najlepszych praktyk dotyczących pisania niestandardowych instrukcji, zobacz Użyj modyfikacji promptów, aby dostarczyć agentowi niestandardowe instrukcje.
Twórcy mogą również ograniczyć źródła wiedzy, których agenci mogą używać do odpowiadania na pytania. Aby umożliwić agentom odpowiadanie na pytania spoza zakresu ich skonfigurowanych źródeł wiedzy, twórcy mogą włączyć funkcję Ogólna wiedza nt. AI. Aby ograniczyć agentów do odpowiadania na pytania tylko w zakresie skonfigurowanych źródeł wiedzy, twórcy powinni wyłączyć tę funkcję.
Copilot Studio stosuje również zasady moderowania treści we wszystkich żądaniach generatywnej sztucznej inteligencji, aby chronić administratorów, twórców i użytkowników przed obraźliwymi lub szkodliwymi treściami. Te zasady moderowania zawartości obejmują również złośliwe próby jailbreakingu, wstrzykiwania danych, wydobycia danych i naruszania praw autorskich. Cała zawartość jest sprawdzana dwukrotnie: po raz pierwszy podczas wprowadzania danych przez użytkownika i ponownie, gdy agent ma zamiar odpowiedzieć. Jeśli system znajdzie szkodliwą, obraźliwą lub złośliwą zawartość, uniemożliwi agentowi udzielenie odpowiedzi.
Wreszcie, najlepszą praktyką jest informowanie użytkowników o tym, że agent korzysta ze sztucznej inteligencji, dlatego poniższy domyślny komunikat informuje użytkowników: „Abyś był świadomy, czasami używam sztucznej inteligencji, aby odpowiedzieć na twoje pytania".