Content Moderator-Dokumentation

Die Azure Content Moderator-API überprüft Text-, Bild- und Videoinhalte auf potenziell anstößiges, riskantes oder anderweitig unerwünschtes Material. Content Moderator wird im Februar 2024 als veraltet markiert und bis Februar 2027 eingestellt. Er wird durch den Dienst Azure KI Content Safety ersetzt, der erweiterte KI-Features und eine verbesserte Leistung bietet. Azure KI Inhaltssicherheit ist eine umfassende Lösung für die Erkennung benutzer- und KI-generierter Inhalte in Anwendungen und Diensten. Azure KI Inhaltssicherheit ist für zahlreiche Szenarien geeignet, z. B. für Online-Marketplaces, Spieleanbieter, Social Messaging-Plattformen, Medienunternehmen und Anbieter von Lösungen für den primären und sekundären Bildungsbereich.

Azure AI Content Safety

Erste Schritte

Informationen zu Content Moderator

Überblick

Training

video

Verwenden von benutzerdefinierten Bildlisten

Schnellstart

Schrittanleitung

Analysieren von Textinhalten

Konzept

Schnellstart

Schrittanleitung

Verwenden von benutzerdefinierten Begriffslisten

Schnellstart

Schrittanleitung

Analysieren von Videoinhalten

Schrittanleitung

video

Hilfe und Feedback

Referenz