Share via


QuickStart: Azure AI Content Safety Studio

In deze quickstart gaat u aan de slag met de Azure AI Content Safety-service met behulp van Content Safety Studio in uw browser.

Let op

Een deel van de voorbeeldinhoud van Content Safety Studio kan aanstootgevend zijn. Voorbeeldafbeeldingen zijn standaard wazig. Gebruikers discretie wordt geadviseerd.

Vereisten

Inhoud van tekst analyseren

De inhoudspagina Gemiddelde tekst biedt u de mogelijkheid om snel tekstbeheer uit te proberen.

Schermopname van het deelvenster Tekst analyseren.

  1. Selecteer het deelvenster Tekst beheren .
  2. Voeg tekst toe aan het invoerveld of selecteer voorbeeldtekst in de deelvensters op de pagina.

    Tip

    Tekstgrootte en granulariteit

    De standaard maximumlengte voor tekstinzendingen is 10.000 tekens.

  3. Selecteer Test uitvoeren.

De service retourneert alle categorieën die zijn gedetecteerd, met het ernstniveau voor elk (0-Safe, 2-Laag, 4-Gemiddeld, 6-Hoog). Het retourneert ook een binair geaccepteerd/geweigerd resultaat, op basis van de filters die u configureert. Gebruik de matrix op het tabblad Filters configureren aan de rechterkant om de toegestane/verboden ernstniveaus voor elke categorie in te stellen. Vervolgens kunt u de tekst opnieuw uitvoeren om te zien hoe het filter werkt.

Op het tabblad Bloklijst aan de rechterkant gebruiken kunt u een bloklijst maken, bewerken en toevoegen aan de beheerwerkstroom. Als u een blokkeringslijst hebt ingeschakeld wanneer u de test uitvoert, krijgt u een detectievenster voor de bloklijst onder Resultaten. Het rapporteert overeenkomsten met de blokkeringslijst.

Gebruikersinvoeraanvallen detecteren

In het deelvenster Prompt Shields kunt u de detectie van gebruikersinvoerrisico's uitproberen. Detecteer gebruikersprompts die zijn ontworpen om het Generatieve AI-model uit te lokken in gedrag dat is getraind om de regels die zijn ingesteld in het systeembericht te voorkomen of te verbreken. Deze aanvallen kunnen variëren van ingewikkeld rollenspel tot subtiele subversie van de veiligheidsdoelstelling.

Schermopname van inhoudsveiligheidsstudio met het deelvenster detectie van gebruikersinvoerrisico's geselecteerd.

  1. Selecteer het deelvenster Prompt Shields .
  2. Selecteer een voorbeeldtekst op de pagina of voer uw eigen inhoud in voor het testen. U kunt ook een CSV-bestand uploaden om een batchtest uit te voeren.
  3. Selecteer Test uitvoeren.

De service retourneert de risicovlag en het type voor elk voorbeeld.

Zie de conceptuele handleiding Prompt Shields voor meer informatie.

Inhoud van afbeelding analyseren

De pagina Inhoud van de moderate-afbeelding biedt u de mogelijkheid om snel afbeeldingsbeheer uit te proberen.

Schermopname van het deelvenster Afbeelding analyseren.

  1. Selecteer het deelvenster Afbeeldingsinhoud beheren.
  2. Selecteer een voorbeeldafbeelding in de panelen op de pagina of upload uw eigen afbeelding. De maximale grootte voor het indienen van afbeeldingen is 4 MB en de afmetingen van de afbeelding moeten tussen 50 x 50 pixels en 2048 x 2048 pixels zijn. Afbeeldingen kunnen een JPEG-, PNG-, GIF-, BMP-, TIFF- of WEBP-indeling hebben.
  3. Selecteer Test uitvoeren.

De service retourneert alle categorieën die zijn gedetecteerd, met het ernstniveau voor elk (0-Safe, 2-Laag, 4-Gemiddeld, 6-Hoog). Het retourneert ook een binair geaccepteerd/geweigerd resultaat, op basis van de filters die u configureert. Gebruik de matrix op het tabblad Filters configureren aan de rechterkant om de toegestane/verboden ernstniveaus voor elke categorie in te stellen. Vervolgens kunt u de tekst opnieuw uitvoeren om te zien hoe het filter werkt.

Code weergeven en exporteren

U kunt de functie Code weergeven gebruiken op zowel de pagina Tekstinhoud analyseren als Afbeeldingsinhoud analyseren om de voorbeeldcode weer te geven en te kopiëren. Deze bevat configuratie voor ernstfilters, bloklijsten en beheerfuncties. Vervolgens kunt u de code aan uw kant implementeren.

Schermopname van de weergavecode.

Onlineactiviteit bewaken

Op de pagina Onlineactiviteiten bewaken kunt u uw API-gebruik en trends bekijken.

Schermopname van het deelvenster Bewaking.

U kunt kiezen welk mediatype u wilt bewaken. U kunt ook het tijdsbereik opgeven dat u wilt controleren door Gegevens weergeven te selecteren voor de laatste __.

In het diagram Percentage weigeren per categorie kunt u ook de ernstdrempels voor elke categorie aanpassen.

Schermopname van de tabel met drempelwaarden voor ernst.

U kunt ook geblokkeerde lijst bewerken als u bepaalde termen wilt wijzigen, op basis van de grafiek met geblokkeerde termen in de top 10.

Uw resource beheren

Als u resourcedetails zoals de naam en prijscategorie wilt weergeven, selecteert u het pictogram Instellingen in de rechterbovenhoek van de startpagina van Content Safety Studio en selecteert u het tabblad Resource. Als u andere resources hebt, kunt u hier ook schakelen tussen resources.

Schermopname van Resource beheren.

Resources opschonen

Als u een Azure AI-servicesresource wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.

Volgende stappen

Ga vervolgens aan de slag met Azure AI Content Safety via de REST API's of een client-SDK, zodat u de service naadloos in uw toepassing kunt integreren.