Udostępnij za pośrednictwem


Korzystanie z monitorowania zagrożeń i Sejf ty w usłudze Azure OpenAI Studio (wersja zapoznawcza)

Jeśli używasz wdrożenia modelu usługi Azure OpenAI z filtrem zawartości, możesz sprawdzić wyniki działania filtrowania. Możesz użyć tych informacji, aby jeszcze bardziej dostosować konfigurację filtru, aby obsłużyć określone potrzeby biznesowe i zasady odpowiedzialnej sztucznej inteligencji.

Usługa Azure OpenAI Studio udostępnia pulpit nawigacyjny monitorowania ryzyka i Sejf ty dla każdego wdrożenia korzystającego z konfiguracji filtru zawartości.

Monitorowanie zagrożeń dostępu i Sejf ty

Aby uzyskać dostęp do monitorowania ryzyka i Sejf ty, potrzebujesz zasobu usługi Azure OpenAI w jednym z obsługiwanych regionów świadczenia usługi Azure: Wschodnie stany USA, Szwajcaria Północna, Francja Środkowa, Szwecja Środkowa, Kanada Wschodnia. Potrzebujesz również wdrożenia modelu korzystającego z konfiguracji filtru zawartości.

Przejdź do usługi Azure OpenAI Studio i zaloguj się przy użyciu poświadczeń skojarzonych z zasobem usługi Azure OpenAI. Wybierz kartę Wdrożenia po lewej stronie, a następnie z listy wybierz wdrożenie modelu. Na stronie wdrożenia wybierz kartę Ryzyko i Sejf ty u góry.

Wykrywanie zawartości

W okienku Wykrywanie zawartości są wyświetlane informacje o działaniu filtru zawartości. Konfiguracja filtru zawartości jest stosowana zgodnie z opisem w dokumentacji filtrowania zawartości.

Opis raportu

Dane filtrowania zawartości są wyświetlane w następujący sposób:

  • Łączna liczba zablokowanych żądań i szybkość blokowania: ten widok przedstawia globalny widok ilości i szybkości zawartości filtrowanej w czasie. Pomaga to zrozumieć trendy szkodliwych żądań od użytkowników i zobaczyć nieoczekiwane działania.
  • Zablokowane żądania według kategorii: ten widok pokazuje ilość zawartości zablokowanej dla każdej kategorii. Jest to statystyka all-up szkodliwych żądań w wybranym zakresie czasu. Obecnie popiera kategorie szkód nienawiści, seksualne, samookaleczenia i przemocy.
  • Szybkość blokowania w czasie według kategorii: ten widok pokazuje częstotliwość blokowania dla każdej kategorii w czasie. Obecnie popiera kategorie szkód nienawiści, seksualne, samookaleczenia i przemocy.
  • Rozkład ważności według kategorii: ten widok przedstawia poziomy ważności wykryte dla każdej kategorii szkód w całym wybranym zakresie czasu. Nie jest to ograniczone do zablokowanej zawartości, ale obejmuje całą zawartość oflagowaną przez filtry zawartości.
  • Rozkład szybkości ważności w czasie według kategorii: ten widok przedstawia współczynniki wykrytych poziomów ważności w czasie dla każdej kategorii szkód. Wybierz karty, aby przełączać się między obsługiwanymi kategoriami.

Zrzut ekranu przedstawiający okienko wykrywania zawartości na stronie Monitorowanie zagrożeń i Sejf ty.

Dostosuj konfigurację filtru zawartości, aby lepiej dopasować się do potrzeb biznesowych i zasad odpowiedzialnej sztucznej inteligencji.

Potencjalnie obraźliwe wykrywanie użytkowników

Okienko Potencjalnie obraźliwe wykrywanie użytkowników wykorzystuje raportowanie nadużyć na poziomie użytkownika w celu wyświetlania informacji o użytkownikach, których zachowanie spowodowało zablokowanie zawartości. Celem jest pomoc w zapewnieniu wglądu w źródła szkodliwej zawartości, dzięki czemu można podjąć dynamiczne działania, aby upewnić się, że model jest używany w odpowiedzialny sposób.

Aby użyć wykrywania potencjalnie obraźliwych użytkowników, potrzebne są następujące elementy:

  • Konfiguracja filtru zawartości zastosowana do wdrożenia.
  • Musisz wysyłać informacje o identyfikatorze użytkownika w żądaniach ukończenia czatu (zobacz parametr użytkownika interfejsu API uzupełniania, na przykład).

    Uwaga

    Użyj ciągów identyfikatora GUID, aby zidentyfikować poszczególnych użytkowników. Nie należy uwzględniać poufnych informacji osobistych w polu "użytkownik".

  • Baza danych usługi Azure Data Explorer skonfigurowana do przechowywania wyników analizy użytkowników (instrukcje poniżej).

Konfigurowanie bazy danych usługi Azure Data Explorer

Aby chronić prywatność danych informacji o użytkowniku i zarządzać uprawnieniami do danych, obsługujemy opcję wprowadzenia własnego magazynu przez naszych klientów w celu uzyskania szczegółowych potencjalnie obraźliwych szczegółowych informacji o wykrywaniu użytkowników (w tym identyfikatora GUID użytkownika i statystyk dotyczących szkodliwych żądań według kategorii) przechowywanych w sposób zgodny i z pełną kontrolą. Wykonaj następujące kroki, aby je włączyć:

  1. W usłudze Azure OpenAI Studio przejdź do wdrożenia modelu, za pomocą którego chcesz skonfigurować analizę nadużyć użytkowników, a następnie wybierz pozycję Dodaj magazyn danych.
  2. Wypełnij wymagane informacje i wybierz pozycję Zapisz. Zalecamy utworzenie nowej bazy danych w celu przechowywania wyników analizy.
  3. Po nawiązaniu połączenia z magazynem danych wykonaj następujące kroki, aby udzielić uprawnień do zapisywania wyników analizy w połączonej bazie danych:
    1. Przejdź do strony zasobu usługi Azure OpenAI w witrynie Azure Portal i wybierz kartę Tożsamość .
    2. Włącz dla tożsamości przypisanej przez system i skopiuj wygenerowany identyfikator.
    3. Przejdź do zasobu usługi Azure Data Explorer w witrynie Azure Portal, wybierz bazy danych, a następnie wybierz określoną bazę danych utworzoną do przechowywania wyników analizy użytkowników.
    4. Wybierz uprawnienia i dodaj rolę administratora do bazy danych.
    5. Wklej tożsamość usługi Azure OpenAI wygenerowaną we wcześniejszym kroku i wybierz przeszukaną tożsamość. Teraz tożsamość zasobu usługi Azure OpenAI jest autoryzowana do odczytu/zapisu na koncie magazynu.
  4. Udziel dostępu do połączonej bazy danych usługi Azure Data Explorer użytkownikom, którzy muszą wyświetlić wyniki analizy:
    1. Przejdź do połączonego zasobu usługi Azure Data Explorer, wybierz pozycję Kontrola dostępu i dodaj rolę czytelnika klastra usługi Azure Data Explorer dla użytkowników, którzy muszą uzyskać dostęp do wyników.
    2. Wybierz bazy danych i wybierz konkretną bazę danych połączoną z wynikami analizy nadużyć na poziomie użytkownika. Wybierz uprawnienia i dodaj rolę czytelnika bazy danych dla użytkowników, którzy muszą uzyskać dostęp do wyników.

Opis raportu

Potencjalnie obraźliwe wykrywanie użytkowników opiera się na informacjach o użytkowniku wysyłanych przez klientów za pomocą wywołań interfejsu API usługi Azure OpenAI wraz z zawartością żądania. Poniżej przedstawiono następujące szczegółowe informacje:

  • Łączna liczba potencjalnie obraźliwych użytkowników: ten widok pokazuje liczbę wykrytych potencjalnie obraźliwych użytkowników w czasie. Są to użytkownicy, dla których wykryto wzorzec nadużyć i którzy mogą powodować wysokie ryzyko.
  • Lista potencjalnie obraźliwych użytkowników: ten widok jest szczegółową listą wykrytych potencjalnie obraźliwych użytkowników. Udostępnia on następujące informacje dla każdego użytkownika:
    • UserGUID: jest on wysyłany przez klienta za pośrednictwem pola "użytkownik" w interfejsach API usługi Azure OpenAI.
    • Wynik nadużyć: jest to liczba wygenerowana przez model analizujący żądania i zachowanie każdego użytkownika. Wynik jest znormalizowany do 0-1. Wyższy wynik wskazuje wyższe ryzyko nadużyć.
    • Trend wyników nadużyć: zmiana wyniku nadużyć w wybranym zakresie czasu.
    • Data oceny: data przeanalizowania wyników.
    • Łączny współczynnik żądań nadużyć/liczba
    • Współczynnik nadużyć/liczba według kategorii

Zrzut ekranu przedstawiający okienko Potencjalnie obraźliwe wykrywanie użytkowników na stronie Monitorowanie zagrożeń i Sejf ty.

Połącz te dane ze wzbogaconymi sygnałami, aby sprawdzić, czy wykryti użytkownicy są naprawdę obraźliwi, czy nie. Jeśli tak, wykonaj odpowiednie działania, takie jak ograniczanie przepustowości lub zawieszanie użytkownika w celu zapewnienia odpowiedzialnego korzystania z aplikacji.

Następne kroki

Następnie utwórz lub edytuj konfigurację filtru zawartości w programie Azure OpenAI Studio.