Share via


Che cos'è la Sicurezza dei contenuti di Azure AI?

Sicurezza dei contenuti di Azure AI rileva contenuti dannosi generati dagli utenti e dall'intelligenza artificiale nelle applicazioni e nei servizi. Il contenuto di Intelligenza artificiale di Azure Cassaforte ty include API di testo e immagine che consentono di rilevare materiale dannoso. Abbiamo anche uno Studio di Sicurezza dei contenuti interattivo che consente di visualizzare, esplorare e provare il codice di esempio per rilevare contenuto dannoso in diverse modalità.

Un software di filtro dei contenuti può aiutare a garantire la conformità dell'app con le normative o mantenere l'ambiente previsto per gli utenti.

Questa documentazione contiene i tipi di articolo seguenti:

  • Argomenti di avvio rapido, ovvero istruzioni introduttive che guidano nell'esecuzione di richieste al servizio.
  • Guide pratiche, che contengono istruzioni per l'uso del servizio in modi più specifici o personalizzati.
  • Concetti, che forniscono spiegazioni approfondite delle caratteristiche e delle funzionalità del servizio.

Dove è utilizzato

Ecco alcuni scenari in cui uno sviluppatore di software o un team potrebbe aver bisogno di un servizio di moderazione del contenuto:

  • Marketplace online che sottopongono a moderazione i cataloghi prodotti e altro contenuto generato dagli utenti.
  • Aziende produttrici di giochi che sottopongono a moderazione gli artefatti di gioco generati dagli utenti e le chat room.
  • Piattaforme di messaggistica di social networking che sottopongono a moderazione le immagini e il testo aggiunti dagli utenti.
  • Grandi aziende nel settore dei media che implementano la moderazione centralizzata del contenuto.
  • Provider di soluzioni didattiche per scuola primaria e secondaria che filtrano il contenuto non appropriato per studenti e docenti.

Importante

Non è possibile usare il contenuto di Intelligenza artificiale di Azure Cassaforte ty per rilevare immagini di sfruttamento figlio illegali.

Tipi di prodotto

Questo servizio offre diversi tipi di analisi. La tabella seguente descrive le API attualmente disponibili.

Type Funzionalità
Analizzare l'API di testo Analizza i testi per identificare eventuali contenuti sessuali, violenti, di odio e autolesionismo con livelli di gravità multipla.
Analizzare l'API immagine Analizza le immagini per identificare eventuali contenuti sessuali, violenti, di odio e autolesionismo con livelli di gravità multipla.
Prompt Shields (anteprima) Analizza il testo per individuare il rischio di un attacco di input dell'utente su un modello linguistico di grandi dimensioni. Guida introduttiva
Rilevamento della terra (anteprima) Rileva se le risposte di testo di modelli di linguaggio di grandi dimensioni (LLM) vengono messe a terra nei materiali di origine forniti dagli utenti. Guida introduttiva
Rilevamento del testo del materiale protetto (anteprima) Analizza il testo generato dall'intelligenza artificiale per il contenuto di testo noto (ad esempio, testi di canzoni, articoli, ricette, contenuto Web selezionato). Guida introduttiva
API di risposta agli eventi imprevisti (anteprima) Consente di definire modelli di contenuto dannosi emergenti e analizzare testo e immagini per individuare corrispondenze. Guida pratica

Studio di Sicurezza dei contenuti

Studio di Sicurezza dei contenuti di Azure AI è uno strumento online progettato per gestire contenuti potenzialmente offensivi, rischiosi o indesiderati per mezzo di modelli di ML di moderazione dei contenuti all'avanguardia. Fornisce modelli e flussi di lavoro personalizzati, consentendo agli utenti di scegliere e creare il proprio sistema di moderazione dei contenuti. Gli utenti possono caricare contenuti propri o provarlo con il contenuto di esempio fornito.

Content Cassaforte ty Studio non solo contiene modelli di intelligenza artificiale predefiniti, ma include anche elenchi di blocchi predefiniti di Microsoft per contrassegnare le espressioni volgari e rimanere aggiornati sulle nuove tendenze. È anche possibile caricare blocklist personalizzate per migliorare la copertura dei contenuti dannosi specifici per il caso d'uso.

Studio consente anche di configurare un flusso di lavoro di moderazione, in cui è possibile monitorare e migliorare continuamente le prestazioni di moderazione dei contenuti. Può aiutare a soddisfare i requisiti sui contenuti di tutti i tipi di settori come gaming, media, istruzione, e-commerce e altro ancora. Le aziende possono facilmente connettere i propri servizi a Studio e avere la loro con modalità tenda valutata in tempo reale, sia generata dall'utente che dall'intelligenza artificiale.

Tutte queste funzionalità vengono gestite da Studio e dal suo back-end; i clienti non devono preoccuparsi dello sviluppo di modelli. È possibile eseguire l'onboarding dei dati per la convalida rapida e monitorare gli indicatori KPI di conseguenza, ad esempio metriche tecniche (latenza, accuratezza, richiamo) o metriche aziendali (frequenza dei blocchi, volume di blocchi, proporzioni di categoria, proporzioni del linguaggio e altro ancora). Grazie a semplici operazioni e configurazioni, i clienti possono testare rapidamente diverse soluzioni e trovare la soluzione migliore, invece di dedicare tempo a sperimentare modelli personalizzati o eseguire manualmente la moderazione.

Funzionalità di Studio di Sicurezza dei contenuti

In Content Cassaforte ty Studio sono disponibili le funzionalità del servizio Azure AI Content Cassaforte ty seguenti:

  • Moderare i contenuto di testo: con lo strumento di moderazione del testo, è possibile eseguire facilmente test sui contenuti di testo. Indipendentemente dal fatto che si desidera testare una singola frase o un intero set di dati, lo strumento offre un'interfaccia intuitiva che consente di valutare i risultati del test direttamente nel portale. È possibile sperimentare diversi livelli di riservatezza per configurare i filtri dei contenuti e la gestione dell'elenco delle blocklist, così da assicurarsi che i contenuti sia sempre moderati in base alle specifiche esatte. Inoltre, con la possibilità di esportare il codice, è possibile implementare lo strumento direttamente nell'applicazione, semplificando il flusso di lavoro e risparmiando tempo.

  • Moderare i contenuti di immagini: con lo strumento di moderazione delle immagini, è possibile eseguire facilmente test sulle immagini per assicurarsi che soddisfino gli standard sui contenuti. L'interfaccia intuitiva consente di valutare i risultati dei test direttamente nel portale ed è possibile sperimentare diversi livelli di riservatezza per configurare i filtri di contenuti. Dopo aver personalizzato le impostazioni, è possibile esportare facilmente il codice per implementare lo strumento nell'applicazione.

  • Monitorare l'attività online: la pagina di monitoraggio avanzata consente di tenere traccia facilmente dell'utilizzo e delle tendenze delle API di moderazione in diverse modalità. Con questa funzionalità è possibile accedere a informazioni dettagliate sulle risposte, tra cui distribuzione di categorie e gravità, latenza, errore e rilevamento delle blocklist. Queste informazioni forniscono una panoramica completa delle prestazioni di moderazione dei contenuti, consentendo di ottimizzare il flusso di lavoro e assicurarsi che i contenuti siano sempre moderati in base alle specifiche esatte. Grazie all'interfaccia intuitiva, è possibile spostarsi rapidamente e facilmente nella pagina di monitoraggio per accedere alle informazioni necessarie per prendere decisioni informate sulla strategia di moderazione dei contenuti. Sono disponibili gli strumenti necessari per restare aggiornati sulle prestazioni di moderazione dei contenuti e raggiungere gli obiettivi sui contenuti.

Requisiti di input

La lunghezza massima predefinita per gli invii di testo è di 10.000 caratteri. Se è necessario analizzare blocchi di testo più lunghi, è possibile suddividere il testo immesso (ad esempio, usando la punteggiatura o la spaziatura) tra diversi invii correlati.

La dimensione massima per gli invii di immagini è di 4 MB e le dimensioni dell'immagine devono essere comprese tra 50 x 50 pixel e 2.048 x 2.048 pixel. Le immagini possono essere in formati JPEG, PNG, GIF, BMP, TIFF o WEBP.

Sicurezza

Usare Microsoft Entra ID o identità gestita per gestire l'accesso

Per una maggiore sicurezza, è possibile usare Microsoft Entra ID o identità gestita (MI) per gestire l'accesso alle risorse.

  • L'identità gestita viene abilitata automaticamente quando si crea una risorsa Content Cassaforte ty.
  • Microsoft Entra ID è supportato sia negli scenari API che SDK. Fare riferimento alle linee guida generali per i servizi di intelligenza artificiale di Autenticazione con Microsoft Entra ID. È anche possibile concedere l'accesso ad altri utenti all'interno dell'organizzazione assegnando loro i ruoli utenti e lettore di Servizi cognitivi. Per altre informazioni sulla concessione dell'accesso utente alle risorse di Azure tramite il portale di Azure, vedere la guida al controllo degli accessi in base al ruolo.

Crittografia dei dati inattivi

Informazioni su come il contenuto di Intelligenza artificiale di Azure Cassaforte ty gestisce la crittografia e la decrittografia dei dati. Le chiavi gestite dal cliente (CMK), note anche come BYOK (Bring Your Own Key), offrono maggiore flessibilità per creare, ruotare, disabilitare e revocare i controlli di accesso. È anche possibile controllare le chiavi di crittografia usate per proteggere i dati.

Prezzi

Attualmente, Il contenuto di Intelligenza artificiale di Azure Cassaforte ty ha un piano tariffario F0 e S0. Per altre informazioni, vedere la pagina dei prezzi di Azure.

Limiti del servizio

Supporto di versioni in lingue diverse

I modelli Cassaforte ty sono stati sottoposti a training e test specifici nelle lingue seguenti: inglese, tedesco, giapponese, spagnolo, francese, italiano, portoghese e cinese. Tuttavia, il servizio può funzionare in molte altre lingue, ma la qualità potrebbe variare. In tutti i casi, è necessario eseguire test personalizzati per assicurarsi che funzioni per l'applicazione.

Per altre informazioni, vedere Supporto linguistico.

Area geografica/località

Per usare le API Content Cassaforte ty, è necessario creare la risorsa Content Cassaforte ty di Azure per intelligenza artificiale nelle aree supportate. Attualmente, è disponibile nelle aree di Azure seguenti:

  • Australia orientale
  • Canada orientale
  • Stati Uniti centrali
  • Stati Uniti orientali
  • Stati Uniti orientali 2
  • Francia centrale
  • Giappone orientale
  • Stati Uniti centro-settentrionali
  • Stati Uniti centro-meridionali
  • Svizzera settentrionale
  • Regno Unito meridionale
  • Europa occidentale
  • West US 2
  • Svezia centrale

Le funzionalità di anteprima pubblica, ad esempio Prompt Shields e il rilevamento dei materiali protetti, sono disponibili nelle aree di Azure seguenti:

  • Stati Uniti orientali
  • Europa occidentale

È possibile contattarci se sono necessarie altre aree per l'azienda.

Frequenze query

Piano tariffario Richieste per 10 secondi (RPS)
F0 1000
S0 1000

Se hai bisogno di una velocità più elevata, contattarci per richiederla.

Contatti

Se ci si blocca, inviarci un'e-mail o usare il widget di feedback in alto a destra di qualsiasi pagina della documentazione.

Passaggi successivi

Seguire una guida introduttiva per iniziare a usare Il contenuto di Intelligenza artificiale di Azure Cassaforte ty nell'applicazione.