Content Moderator のドキュメント

Azure Content Moderator API は、テキスト、画像、ビデオのコンテンツに不快感を与える可能性がある内容、リスクのある内容、その他の望ましくない内容が含まれていないかを確認します。 Content Moderator は 2024 年 2 月に非推奨となり、2027 年 2 月までに廃止される予定です。 これは、高度な AI 機能とパフォーマンス強化を提供する Azure AI Content Safety で置き換えられている最中です。 Azure AI Content Safety は、アプリケーションやサービスでユーザーまたは AI によって生成された有害コンテンツを検出するように設計された包括的なソリューションです。 Azure AI Content Safety は、オンライン マーケットプレース、ゲーム会社、ソーシャル メッセージング プラットフォーム、エンタープライズ メディア企業、K-12 教育ソリューション プロバイダーなど、多くのシナリオに適しています。

Azure AI Content Safety

作業を開始する

イメージ コンテンツの分析

概念

クイックスタート

攻略ガイド

カスタム画像リストの使用

クイックスタート

攻略ガイド

テキスト コンテンツの分析

概念

クイックスタート

攻略ガイド

カスタム用語リストの使用

クイックスタート

攻略ガイド

ビデオ コンテンツの分析

攻略ガイド

video

ヘルプとフィードバック

リファレンス