Condividi tramite


Privacy, sicurezza e uso responsabile di Copilot in Microsoft Fabric (anteprima)

Con Copilot e altre funzionalità di intelligenza artificiale generative in anteprima, Microsoft Fabric offre un nuovo modo per trasformare e analizzare i dati, generare informazioni dettagliate e creare visualizzazioni e report.

Prima che l'azienda inizi a usare Copilot in Fabric, potrebbero essere presenti domande sul funzionamento, su come mantenere i dati aziendali sicuri e rispettare i requisiti di privacy e su come usare l'intelligenza artificiale generativa in modo responsabile.

Questo articolo fornisce risposte alle domande comuni relative alla sicurezza e alla privacy dei dati aziendali per aiutare l'organizzazione a iniziare a usare Copilot in Fabric. L'articolo Privacy, sicurezza e uso responsabile per Copilot in Power BI (anteprima) offre una panoramica di Copilot in Power BI. Per informazioni dettagliate su Fabric, vedere Informazioni dettagliate su Copilot Fabric.

Nota

  • L'amministratore deve abilitare l'opzione del tenant prima di iniziare a usare Copilot. Per informazioni dettagliate, vedere l'articolo Copilot Impostazioni del tenant.
  • La capacità F64 o P1 deve trovarsi in una delle aree elencate in questo articolo, disponibilità dell'area infrastruttura.
  • Se il tenant o la capacità si trova all'esterno degli Stati Uniti o della Francia, è disabilitato per impostazione predefinita, Copilot a meno che l'amministratore del tenant di Fabric non consenta l'elaborazione dei dati inviati ad Azure OpenAI all'esterno dell'area geografica del tenant, del limite di conformità o del tenant dell'istanza cloud nazionale nel portale di fabric Amministrazione.
  • Copilot in Microsoft Fabric non è supportato negli SKU di valutazione. Sono supportati solo gli SKU a pagamento (F64 o versione successiva o P1 o successiva).
  • Copilot In Fabric è attualmente in fase di distribuzione in anteprima pubblica e dovrebbe essere disponibile per tutti i clienti entro la fine di marzo 2024.
  • Per altre informazioni, vedere l'articolo Panoramica di Copilot in Infrastruttura e Power BI .

Panoramica

I dati aziendali sono sicuri

  • Copilot le funzionalità usano il servizio OpenAI di Azure, completamente controllato da Microsoft. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti.
  • Si mantiene il controllo sulla posizione in cui vengono elaborati i dati. I dati elaborati da Copilot in Fabric rimangono all'interno dell'area geografica del tenant, a meno che non si consenta esplicitamente l'elaborazione dei dati all'esterno dell'area, ad esempio per consentire agli utenti di usare Copilot quando Azure OpenAI non è disponibile nell'area o la disponibilità è limitata a causa di una domanda elevata. Altre informazioni sulle impostazioni di amministrazione per Copilot.

Controllare Copilot gli output prima di usarli

  • Copilot le risposte possono includere contenuti non accurati o di bassa qualità, quindi assicurarsi di esaminare gli output prima di usarli nel lavoro.
  • Le revisioni degli output devono essere eseguite da persone che possono valutare in modo significativo l'accuratezza e l'adeguatezza del contenuto.
  • Oggi, Copilot le funzionalità funzionano meglio nella lingua inglese. Anche altre lingue potrebbero non essere eseguite.

Importante

Esaminare le condizioni di anteprima supplementari per Fabric, che include le condizioni per l'utilizzo per le anteprime del servizio di intelligenza artificiale generative di Microsoft.

Come Copilot funziona

In questo articolo si Copilot riferisce a una gamma di funzionalità e funzionalità di intelligenza artificiale generative in Fabric basate sul servizio Azure OpenAI.

In generale, queste funzionalità sono progettate per generare linguaggio naturale, codice o altro contenuto basato su:

(a) input forniti e,

(b) dati di base a cui la funzionalità ha accesso.

Ad esempio, Power BI, Data Factory e Data Science offrono Copilot chat in cui è possibile porre domande e ottenere risposte contestualizzate sui dati. Copilot per Power BI può anche creare report e altre visualizzazioni. Copilot Per Data Factory è possibile trasformare i dati e spiegare i passaggi applicati. Data Science offre Copilot funzionalità esterne al riquadro della chat, ad esempio comandi magic IPython personalizzati nei notebook. Copilot Le chat possono essere aggiunte ad altre esperienze in Fabric, insieme ad altre funzionalità basate su Azure OpenAI.

Queste informazioni vengono inviate al servizio OpenAI di Azure, in cui vengono elaborate e viene generato un output. Di conseguenza, i dati elaborati da Azure OpenAI possono includere:

I dati di base possono includere una combinazione di schema del set di dati, punti dati specifici e altre informazioni rilevanti per l'attività corrente dell'utente. Esaminare ogni sezione dell'esperienza per informazioni dettagliate sui dati accessibili alle Copilot funzionalità in questo scenario.

Le interazioni con Copilot sono specifiche per ogni utente. Ciò significa che Copilot può accedere solo ai dati a cui l'utente corrente ha l'autorizzazione per accedere e i relativi output sono visibili solo a tale utente, a meno che l'utente non condivida l'output con altri utenti, ad esempio condividendo un report di Power BI generato o un codice generato. Copilot non usa dati di altri utenti nello stesso tenant o in altri tenant.

Copilot usa OpenAI di Azure, non i servizi OpenAI disponibili pubblicamente, per elaborare tutti i dati, inclusi gli input utente, i dati di terra e Copilot gli output. Copilot attualmente usa una combinazione di modelli GPT, tra cui GPT 3.5. Microsoft ospita i modelli OpenAI nell'ambiente Microsoft Azure e il servizio non interagisce con alcun servizio da OpenAI, ad esempio ChatGPT o l'API OpenAI. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti. Altre informazioni su Azure OpenAI.

Processo Copilot

Queste funzionalità seguono lo stesso processo generale:

  1. Copilotriceve un prompt da un utente. Questa richiesta potrebbe essere sotto forma di domanda che un utente digita in un riquadro di chat o sotto forma di azione, ad esempio la selezione di un pulsante che indica "Crea un report".
  2. Copilot pre-elabora la richiesta tramite un approccio denominato grounding. A seconda dello scenario, questo potrebbe includere il recupero di dati pertinenti, ad esempio lo schema del set di dati o la cronologia delle chat dalla sessione corrente dell'utente con Copilot. Il grounding migliora la specificità della richiesta, in modo che l'utente ottenga risposte rilevanti e utilizzabili per l'attività specifica. Il recupero dei dati è limitato ai dati accessibili all'utente autenticato in base alle relative autorizzazioni. Per altre informazioni, vedere la sezione Quali dati vengono Copilot usati e come vengono elaborati? in questo articolo.
  3. Copilot accetta la risposta da Azure OpenAI e la post-elabora. A seconda dello scenario, questa post-elaborazione può includere controlli di intelligenza artificiale responsabili, filtri con Azure con modalità tenda ration o vincoli specifici dell'azienda aggiuntivi.
  4. Copilotrestituisce una risposta all'utente sotto forma di linguaggio naturale, codice o altro contenuto. Ad esempio, una risposta potrebbe essere sotto forma di messaggio di chat o codice generato oppure potrebbe trattarsi di un modulo contestualmente appropriato, ad esempio un report di Power BI o una cella del notebook Synapse.
  5. L'utente esamina la risposta prima di usarla. Copilot le risposte possono includere contenuto impreciso o di bassa qualità, quindi è importante per gli esperti del settore controllare gli output prima di usarli o condividerli.

Proprio come ogni esperienza in Fabric è stata creata per determinati scenari e persone, dai data engineer agli analisti dei dati, ogni Copilot funzionalità di Fabric è stata creata anche con scenari e utenti univoci. Per le funzionalità, gli usi previsti e le limitazioni di ogni funzionalità, vedere la sezione relativa all'esperienza in uso.

Definizioni

Richiesta o input

Testo o azione inviato a Copilot da un utente. Potrebbe trattarsi di una domanda che un utente digita in un riquadro di chat o sotto forma di azione, ad esempio la selezione di un pulsante che indica "Crea un report".

Grounding

Una tecnica di pre-elaborazione in cui Copilot recupera dati aggiuntivi contestuali alla richiesta dell'utente e quindi invia tali dati insieme alla richiesta dell'utente ad Azure OpenAI per generare una risposta più pertinente e praticabile.

Risposta o output

Contenuto restituito Copilot a un utente. Ad esempio, una risposta potrebbe essere sotto forma di messaggio di chat o codice generato oppure potrebbe essere contenuto contestualmente appropriato, ad esempio un report di Power BI o una cella del notebook Synapse.

Quali dati vengono Copilot usati e come vengono elaborati?

Per generare una risposta, Copilot usa:

  • Richiesta o input dell'utente e, se appropriato,
  • Dati aggiuntivi recuperati tramite il processo di terra.

Queste informazioni vengono inviate al servizio OpenAI di Azure, in cui vengono elaborate e viene generato un output. Di conseguenza, i dati elaborati da Azure OpenAI possono includere:

  • Richiesta o input dell'utente.
  • Dati di base.
  • Risposta o output di intelligenza artificiale.

I dati di base possono includere una combinazione di schema del set di dati, punti dati specifici e altre informazioni rilevanti per l'attività corrente dell'utente. Esaminare ogni sezione dell'esperienza per informazioni dettagliate sui dati accessibili alle Copilot funzionalità in questo scenario.

Le interazioni con Copilot sono specifiche per ogni utente. Ciò significa che Copilot può accedere solo ai dati a cui l'utente corrente ha l'autorizzazione per accedere e i relativi output sono visibili solo a tale utente, a meno che l'utente non condivida l'output con altri utenti, ad esempio condividendo un report di Power BI generato o un codice generato. Copilot non usa dati di altri utenti nello stesso tenant o in altri tenant.

Copilot usa Azure OpenAI, non i servizi disponibili pubblicamente di OpenAI, per elaborare tutti i dati, inclusi gli input dell'utente, i dati di base e Copilot gli output. Copilot attualmente usa una combinazione di modelli GPT, tra cui GPT 3.5. Microsoft ospita i modelli OpenAI nell'ambiente Azure di Microsoft e il servizio non interagisce con alcun servizio da OpenAI, ad esempio ChatGPT o l'API OpenAI. I dati non vengono usati per eseguire il training dei modelli e non sono disponibili per altri clienti. Altre informazioni su Azure OpenAI.

Conformità e residenza dei dati

Si mantiene il controllo sulla posizione in cui vengono elaborati i dati. I dati elaborati da Copilot in Fabric rimangono all'interno dell'area geografica del tenant, a meno che non si consenta esplicitamente l'elaborazione dei dati all'esterno dell'area, ad esempio per consentire agli utenti di usare Copilot quando Azure OpenAI non è disponibile nell'area o la disponibilità è limitata a causa di una domanda elevata. Vedere dove è attualmente disponibile Azure OpenAI.

Per consentire l'elaborazione dei dati altrove, l'amministratore può attivare l'impostazione Dati inviati ad Azure OpenAI all'esterno dell'area geografica, del limite di conformità o dell'istanza cloud nazionale del tenant. Altre informazioni sulle impostazioni di amministrazione per Copilot.

Cosa devo sapere per usare Copilot in modo responsabile?

Microsoft si impegna a garantire che i sistemi di IA siano guidati dai principidi IA e dallo Standard di IA responsabile. Questi principi includono la possibilità per i nostri clienti di usare questi sistemi in modo efficace e in linea con i loro usi previsti. Il nostro approccio all'IA responsabile è in continua evoluzione per risolvere in modo proattivo i problemi emergenti.

Copilot le funzionalità di Fabric sono create per soddisfare lo standard di intelligenza artificiale responsabile, il che significa che vengono esaminate dai team multidisciplinari per individuare potenziali danni e quindi affinate per includere le mitigazioni per tali danni.

Prima di usare Copilot, tenere presenti le limitazioni di Copilot:

  • Copilot le risposte possono includere contenuti non accurati o di bassa qualità, quindi assicurarsi di esaminare gli output prima di usarli nel lavoro.
  • Persone che sono in grado di valutare in modo significativo l'accuratezza e l'adeguatezza del contenuto devono esaminare gli output.
  • Attualmente, Copilot le funzionalità funzionano meglio nella lingua inglese. Anche altre lingue potrebbero non essere eseguite.

Copilot per carichi di lavoro di Infrastruttura

Privacy, sicurezza e uso responsabile per:

Note per versione

Qui verranno visualizzate informazioni aggiuntive per le versioni future o gli aggiornamenti delle funzionalità.