Czym jest usługa Azure Content Moderator?

Ważne

Usługa Azure Content Moderator jest przestarzała w lutym 2024 r. i zostanie wycofana do lutego 2027 r. Jest on zastępowany przez usługę Azure AI Content Sejf ty, która oferuje zaawansowane funkcje sztucznej inteligencji i zwiększoną wydajność.

Usługa Azure AI Content Sejf ty to kompleksowe rozwiązanie przeznaczone do wykrywania szkodliwej zawartości generowanej przez użytkownika i generowanej przez sztuczną inteligencję w aplikacjach i usługach. Usługa Azure AI Content Sejf ty jest odpowiednia dla wielu scenariuszy, takich jak platformy internetowe, firmy zajmujące się grami, platformy do obsługi wiadomości społecznościowych, firmy medialne dla przedsiębiorstw i dostawcy rozwiązań edukacyjnych K-12. Poniżej przedstawiono omówienie jej funkcji i możliwości:

  • Interfejsy API wykrywania tekstu i obrazu: skanuje tekst i obrazy pod kątem zawartości seksualnej, przemocy, nienawiści i samookaleczenia przy użyciu wielu poziomów ważności.
  • Content Sejf ty Studio: narzędzie online przeznaczone do obsługi potencjalnie obraźliwych, ryzykownych lub niepożądanych treści przy użyciu naszych najnowszych modeli uczenia maszynowego con tryb namiotu ration. Udostępnia szablony i dostosowane przepływy pracy, które umożliwiają użytkownikom tworzenie własnych systemów con tryb namiotu ration.
  • Obsługa języka: usługa Azure AI Content Sejf ty obsługuje ponad 100 języków i jest specjalnie przeszkolona w języku angielskim, niemieckim, japońskim, hiszpańskim, francuskim, włoskim, portugalskim i chińskim.

Usługa Azure AI Content Sejf ty zapewnia niezawodne i elastyczne rozwiązanie dla potrzeb kon tryb namiotu ration. Przechodząc z usługi Content Moderator do usługi Azure AI Content Sejf ty, możesz skorzystać z najnowszych narzędzi i technologii, aby upewnić się, że zawartość jest zawsze moderowana zgodnie z dokładnymi specyfikacjami.

Dowiedz się więcej o usłudze Azure AI Content Sejf ty i dowiedz się, jak można podnieść poziom strategii kon tryb namiotu ration.

Azure Content Moderator to usługa sztucznej inteligencji, która umożliwia obsługę zawartości potencjalnie obraźliwej, ryzykownej lub w inny sposób niepożądanej. Obejmuje ona usługę con tryb namiotu ration obsługiwaną przez sztuczną inteligencję, która automatycznie skanuje tekst, obraz i filmy wideo oraz stosuje flagi zawartości.

Możesz utworzyć oprogramowanie do filtrowania zawartości w aplikacji w celu zachowania zgodności z przepisami lub utrzymania zamierzonego środowiska dla użytkowników.

Ta dokumentacja zawiera następujące typy artykułów:

  • Przewodniki Szybki start to instrukcje wprowadzające, które ułatwiają wysyłanie żądań do usługi.
  • Przewodniki z instrukcjami zawierają instrukcje dotyczące korzystania z usługi w bardziej szczegółowy lub dostosowany sposób.
  • Pojęcia zawierają szczegółowe wyjaśnienia dotyczące funkcjonalności i funkcji usługi.

Aby uzyskać bardziej ustrukturyzowane podejście, postępuj zgodnie z modułem Szkoleniowym dla usługi Content Moderator.

Miejsce użycia

Poniżej przedstawiono kilka scenariuszy, w których deweloper oprogramowania lub zespół wymaga usługi con tryb namiotu ration:

  • Platformy handlowe online, które moderowały katalogi produktów i inną zawartość wygenerowaną przez użytkownika.
  • Firmy zajmujące się grami, które moderowały artefakty gier generowane przez użytkownika i pokoje rozmów.
  • Platformy do obsługi wiadomości społecznościowych, które moderują obrazy, tekst i filmy wideo dodane przez użytkowników.
  • Przedsiębiorstwa medialne, które implementują scentralizowane moderowanie zawartości.
  • Dostawcy rozwiązań edukacyjnych K-12 odfiltrowuje zawartość nieodpowiednią dla uczniów i nauczycieli.

Ważne

Usługi Content Moderator nie można używać do wykrywania nielegalnych obrazów wykorzystywania dzieci. Jednak kwalifikowane organizacje mogą używać usługi PhotoDNA Cloud Service do sprawdzania zawartości tego typu.

Co zawiera

Usługa Content Moderator składa się z kilku interfejsów API usług internetowych dostępnych za pośrednictwem wywołań REST i zestawu .NET SDK.

Interfejsy API moderowania

Usługa Content Moderator zawiera interfejsy API moderowania, które sprawdzają zawartość pod kątem materiałów potencjalnie nieodpowiednich lub niepożądanych.

block diagram for Content Moderator moderation APIs

W poniższej tabeli opisano różne typy interfejsów API moderowania.

Grupa interfejsów API opis
Moderowanie tekstu Skanuje tekst pod kątem obraźliwych treści, treści seksualnych lub sugestywnych, wulgaryzmów i danych osobowych.
Niestandardowe listy terminów Skanuje tekst pod niestandardową listą terminów wraz z wbudowanymi terminami. Użyj list niestandardowych, aby blokować zawartość lub zezwalać na nią zgodnie z własnymi zasadami dotyczącymi zawartości.
Moderowanie obrazów Skanuje obrazy pod kątem zawartości dla dorosłych i zawartości erotycznej, wykrywa tekst w obrazach za pomocą funkcji optycznego rozpoznawania znaków (OCR) i wykrywa twarze.
Niestandardowe listy obrazów Skanuje obrazy względem niestandardowej listy obrazów. Użyj niestandardowych list obrazów, aby filtrować wystąpienia często powtarzającej się zawartości, której nie chcesz klasyfikować ponownie.
Moderowanie filmów wideo Skanuje filmy wideo pod kątem potencjalnej zawartości dla dorosłych lub zawartości erotycznej i zwraca znaczniki czasu dla wypowiadanej zawartości.

Prywatność i zabezpieczenia danych

Podobnie jak w przypadku wszystkich usług sztucznej inteligencji platformy Azure, deweloperzy korzystający z usługi Content Moderator powinni pamiętać o zasadach firmy Microsoft dotyczących danych klientów. Aby dowiedzieć się więcej, zobacz stronę usługi Azure AI w Centrum zaufania firmy Microsoft.

Następne kroki