Share via


Dati, privacy e sicurezza per Microsoft Copilot per Microsoft 365

Microsoft Copilot per Microsoft 365 è un motore di elaborazione e orchestrazione sofisticato che offre funzionalità di produttività basate su intelligenza artificiale coordinando i componenti seguenti:

  • Modelli linguistici di grandi dimensioni (Large Language Model, LLM)
  • Contenuto di Microsoft Graph, come messaggi di posta elettronica, chat e documenti a cui si ha l'autorizzazione ad accedere.
  • App di Microsoft 365 usate ogni giorno, ad esempio Word e PowerPoint.

Per una panoramica del funzionamento di questi tre componenti, vedi Panoramica di Microsoft Copilot per Microsoft 365. Per collegamenti ad altri contenuti correlati a Microsoft Copilot per Microsoft 365, vedi Documentazione di Microsoft Copilot per Microsoft 365.

Importante

  • Microsoft Copilot per Microsoft 365 è conforme agli impegni esistenti in materia di privacy, sicurezza e conformità per i clienti commerciali di Microsoft 365, tra cui il Regolamento generale sulla protezione dei dati (GDPR) e European Union (EU) Data Boundary.
  • Le richieste, le risposte e i dati a cui si accede tramite Microsoft Graph non vengono utilizzati per formare i LLM di base, compresi quelli utilizzati da Microsoft Copilot per Microsoft 365.

Le informazioni contenute in questo articolo intendono fornire una risposta alle seguenti domande:

Nota

Microsoft Copilot per Microsoft 365 continuerà a evolversi nel tempo con nuove funzionalità. Per restare aggiornato su Microsoft Copilot per Microsoft 365 o per domande, visita la community Microsoft 365 Copilot nella Microsoft Tech Community.

In che modo Microsoft Copilot per Microsoft 365 utilizza i dati dell’organizzazione proprietaria?

Microsoft Copilot per Microsoft 365 fornisce un valore aggiunto collegando gli LLM ai dati dell'organizzazione. Microsoft Copilot per Microsoft 365 accede ai contenuti e al contesto attraverso Microsoft Graph. È in grado di generare risposte ancorate ai dati organizzativi, come i documenti degli utenti, i messaggi di posta elettronica, il calendario, le chat, le riunioni e i contatti. Microsoft Copilot per Microsoft 365 combina questi contenuti con il contesto lavorativo, ad esempio la riunione in cui si trova l'utente, gli scambi di messaggi di e-mail su un argomento o le conversazioni in chat della settimana precedente. Microsoft Copilot per Microsoft 365 utilizza questa combinazione di contenuti e contesto per fornire risposte accurate, pertinenti e contestuali.

Importante

Le richieste, le risposte e i dati a cui si accede tramite Microsoft Graph non vengono utilizzati per formare i LLM di base, compresi quelli utilizzati da Microsoft Copilot per Microsoft 365.

Microsoft Copilot per Microsoft 365 visualizza solo i dati dell’organizzazione per i quali i singoli utenti dispongono almeno di autorizzazioni di visualizzazione. È importante usare i modelli di autorizzazione disponibili nei servizi di Microsoft 365, ad esempio SharePoint, per garantire che gli utenti o i gruppi giusti abbiano il tipo di accesso opportuno al contenuto dell'organizzazione. Sono incluse le autorizzazioni concesse agli utenti esterni all'organizzazione tramite soluzioni di collaborazione tra tenant, ad esempio canali condivisi in Microsoft Teams.

Quando inserisci i prompt utilizzando Microsoft Copilot per Microsoft 365, le informazioni contenute nei prompt, i dati recuperati e le risposte generate rimangono all'interno del perimetro del servizio Microsoft 365, in conformità con i nostri attuali impegni in materia di privacy, sicurezza e conformità. Microsoft Copilot per Microsoft 365 usa per l'elaborazione i servizi OpenAI di Azure, non i servizi di OpenAI disponibili pubblicamente. L'intelligenza artificiale aperta di Azure non memorizza nella cache il contenuto dei clienti e le richieste di Copilot per Microsoft 365 modificate da Copilot.

Nota

Quando si usa Microsoft Copilot per Microsoft 365, i dati dell'organizzazione potrebbero lasciare il perimetro del servizio Microsoft 365 nelle circostanze seguenti:

  • Quando usi i plug-in per aiutare Microsoft Copilot per Microsoft 365 a fornire informazioni più pertinenti. Controlla l'informativa sulla privacy e le condizioni per l'utilizzo del plug-in per determinare come verranno gestiti i dati dell'organizzazione. Per informazioni, vedi Estendibilità di Microsoft Copilot per Microsoft 365.
  • Quando usi il plug-in per il contenuto Web per migliorare le risposte nella chat, Copilot per Microsoft 365 genererà una query di ricerca che viene inviata a Bing per ottenere le informazioni più recenti nel Web. Per altre informazioni, vedi Microsoft Copilot per Microsoft 365 e il plug-in contenuto Web.

Il monitoraggio degli abusi per Microsoft Copilot per Microsoft 365 avviene in tempo reale, senza fornire a Microsoft alcun accesso permanente ai dati dei clienti, sia per la revisione umana che automatizzata. Anche se la moderazione degli abusi, che include la revisione umana del contenuto, è disponibile in Azure OpenAI, i servizi Microsoft Copilot per Microsoft 365 hanno scelto di non farne uso. I dati di Microsoft 365 non vengono raccolti o archiviati da Azure OpenAI.

Nota

Potremmo utilizzare il feedback dei clienti, che è facoltativo, per migliorare Microsoft Copilot per Microsoft 365, così come utilizziamo il feedback dei clienti per migliorare altri servizi Microsoft 365 e le app Microsoft 365. Non utilizziamo questo feedback per formare i LLM di base utilizzati da Microsoft Copilot per Microsoft 365. I clienti possono gestire il feedback tramite i controlli di amministrazione. Per altre informazioni, vedi Gestire il feedback Microsoft per l'organizzazione e Come fornire feedback su Microsoft Copilot per Microsoft 365.

Dati archiviati sulle interazioni degli utenti con Microsoft Copilot per Microsoft 365

Quando un utente interagisce con le app di Microsoft Copilot per Microsoft 365, come Word, PowerPoint, Excel, OneNote, Loop o Whiteboard, i dati relativi a queste interazioni vengono archiviati. I dati archiviati includono la richiesta dell'utente e la risposta di Copilot, incluse le citazioni a tutte le informazioni usate come base per la risposta di Copilot. Si fa riferimento alla richiesta dell'utente e alla relativa risposta di Copilot come "contenuto delle interazioni" e la registrazione di tali interazioni è la cronologia delle interazioni Copilot con l’utente. Ad esempio, i dati archiviati forniscono agli utenti la cronologia delle interazioni Copilot in Microsoft Copilot con chat basata su Graph e riunioni in Microsoft Teams. Questi dati vengono elaborati e archiviati in linea con gli impegni contrattuali con gli altri contenuti dell'organizzazione in Microsoft 365. I dati vengono crittografati durante l'archiviazione e non vengono usati per eseguire il training delle VM di base, incluse quelle usate da Microsoft Copilot per Microsoft 365.

Per visualizzare e gestire questi dati archiviati, gli amministratori possono usare Ricerca contenuto o Microsoft Purview. Gli amministratori possono anche usare Microsoft Purview per impostare i criteri di conservazione per i dati correlati alle interazioni tramite chat con Copilot. Per altre informazioni, vedere gli articoli seguenti:

Per le chat di Microsoft Teams con Copilot, gli amministratori possono anche usare le API di esportazione di Microsoft Teams per visualizzare i dati archiviati.

Eliminazione della cronologia delle interazioni degli utenti con Microsoft Copilot per Microsoft 365

Gli utenti possono eliminare la cronologia delle interazioni di Copilot, che include le richieste e le risposte restituite da Copilot, accedendo al portale Account personale. Per altre informazioni, vedi Eliminare la cronologia delle interazioni di Microsoft Copilot.

Microsoft Copilot per Microsoft 365 ed EU Data Boundary

Le chiamate di Microsoft Copilot per Microsoft 365 al LLM vengono indirizzate ai data center più vicini nell'area geografica, ma nei periodi di utilizzo elevato il sistema può chiamare anche altre aree in cui sia disponibile capacità.

Per gli utenti dell'Unione Europea (UE), disponiamo di salvaguardie aggiuntive per conformarci al Confine dei dati dell'UE. Il traffico dell'Europa rimane all'interno del Confine dei dati dell'Europa, mentre il traffico mondiale può essere inviato all'Europa e ad altri paesi o aree geografiche per l'elaborazione di LLM.

Microsoft Copilot per Microsoft 365 e residenza dei dati

Gli impegni di Copilot per Microsoft 365 relativamente alla residenza dei dati sono indicati nelle Condizioni del prodotto Microsoft e nell’addendum per la protezione dei dati. Copilot per Microsoft 365 è stato aggiunto come carico di lavoro coperto negli impegni di residenza dei dati nelle Condizioni del prodotto Microsoft il 1° marzo 2024.

Le offerte di Microsoft Advanced Data Residency (ADR) e Multi-Geo Capabilities includono impegni di residenza dei dati per i clienti Copilot per Microsoft 365 a partire dal 1° marzo 2024. Per i clienti dell'UE, Copilot per Microsoft 365 è un servizio EU Data Boundary. Le query dei clienti al di fuori dell'UE possono essere elaborate negli Stati Uniti, nell'UE o in altre aree.

Microsoft Copilot per Microsoft 365 e il plug-in contenuto Web

Copilot per Microsoft 365 ha la possibilità di migliorare le risposte alle chat con le informazioni più recenti nel Web. Quando il plug-in contenuto Web è abilitato, Copilot può recuperare informazioni dall'indice di ricerca Bing se Copilot determina che le informazioni nel Web forniranno una risposta migliore e più fondata.

I controlli dell'amministratore e l'alternanza a livello di utente sono disponibili per gestire se il plug-in contenuto Web è abilitato nell'ambiente.

Funzionamento del plug-in contenuto Web

Quando il plug-in contenuto Web è abilitato nella chat, Copilot per Microsoft 365 analizza la richiesta dell'utente e identifica come potrebbe migliorare la qualità della risposta basata sul Web. In base a questi termini, Copilot genera una query di ricerca inviata all'API di ricerca Bing che richiede altre informazioni. Questa query di ricerca è diversa dalla richiesta dell'utente, costituita in genere da alcune parole informate dal prompt dell'utente e/o dai dati di Microsoft 365. Non include automaticamente l'intera documentazione di Microsoft 365 associata alla richiesta.

La tabella seguente fornisce un esempio di richiesta di un utente, le query di ricerca inviate e la risposta di Copilot.

Entità Testo
Richiesta (come scritta dall'utente) Stiamo valutando una possibile acquisizione di Fabrikam. Aiutami a mettere insieme un rapporto di riepilogo di 200 parole con le informazioni finanziarie disponibili pubblicamente sull'azienda, inclusa la strategia aziendale.
Query di ricerca (generate da Copilot e inviate all'API di ricerca Bing) Strategia di Fabrikam
Dati finanziari di Fabrikam
Risposta (generata da Copilot) Fabrikam è una startup CPG che offre alternative alimentari più sane, ma con lo stesso gusto familiare dei marchi tradizionali. La società ha raccolto 4,5 milioni di dollari in fondi iniziali nel 2019 e 31,5 milioni di dollari in un round di finanziamento della serie B nel 2022. A gennaio 2023, Fabrikam ha raccolto un totale di 83,4 milioni di dollari di finanziamenti con il target di più del doppio delle vendite di quest'anno.

Durante la pandemia, Fabrikam ha fronteggiato le difficoltà di passare dai negozi fisici alle vendite online, ed è qui che è entrata in gioco la strategia di marketing con influencer. Invece di affidarsi a eventi e promozioni in negozio, Fabrikam si è rivolto ai social media e alle partnership di influencer per far conoscere il marchio raggiungendo un pubblico più ampio. L'azienda ha anche affrontato l'innovazione da un punto di vista naturale, bilanciando i tradizionali fattori che influenzano il consumo con offerte migliori per l'utente e con una strategia di distribuzione olistica e solida.

In sintesi, Fabrikam ha raccolto oltre 55 milioni di dollari in finanziamenti e la sua strategia di marketing basata su influencer ha consentito all'azienda di passare alle vendite online durante la pandemia.

In questo esempio vengono inviate solo le due query di ricerca all'API di ricerca Bing. Dopo che l'utente ha inserito la richiesta, l'esperienza di chat visualizzerà tutte le query generate e inviate a Bing. Le richieste dell'utente e le risposte di Copilot vengono archiviate in Microsoft 365. Le query di ricerca inviate all'API di ricerca Bing da Copilot per Microsoft 365 vengono dissociate dall'ID utente e dall'ID tenant.

L'API di ricerca Bing è fornita da Bing.com, che opera separatamente da Microsoft 365 e presenta procedure di gestione dei dati diverse. L'uso di Bing è trattato nel Contratto di Servizi Microsoft tra ogni utente e Microsoft, insieme all'Informativa sulla privacy di Microsoft. L'addendum per la protezione dei dati di prodotti e servizi Microsoft non si applica all'uso del plug-in contenuto Web o dell'API di ricerca Bing.

Controlli disponibili per gestire l'uso del contenuto Web

Gli amministratori possono bloccare l'accesso al contenuto Web in Copilot per Microsoft 365. Per altre informazioni, vedi Gestire l'accesso al contenuto Web nelle risposte Microsoft Copilot per Microsoft 365. Anche se consentito dall'amministratore, gli utenti hanno la possibilità di usare o meno il plug-in Web. Per altre informazioni, vedi Usare origini dati aggiuntive con Microsoft 365 Copilot.

Nota

Le impostazioni del criterio che controllano l'uso di esperienze connesse facoltative in Microsoft 365 Apps non si applicano ai contenuti Microsoft Copilot per Microsoft 365 e Web.

Estendibilità di Microsoft Copilot per Microsoft 365

Mentre Microsoft Copilot per Microsoft 365 è già in grado di utilizzare le app e i dati all'interno dell'ecosistema Microsoft 365, molte organizzazioni dipendono ancora da vari strumenti e servizi esterni per la gestione del lavoro e la collaborazione. Le esperienze Microsoft Copilot per Microsoft 365 possono fare riferimento a strumenti e servizi di terze parti nel rispondere alla richiesta di un utente usando plug-in o connettori di Microsoft Graph. I dati dei connettori di Graph possono essere restituiti nelle risposte di Microsoft Copilot per Microsoft 365 se l'utente dispone dell'autorizzazione per accedere a tali informazioni.

Quando i plug-in sono abilitati, Microsoft Copilot per Microsoft 365 determina se deve usare un plug-in specifico per fornire una risposta pertinente all'utente. Se è necessario un plug-in, Microsoft Copilot per Microsoft 365 genera una query di ricerca da inviare al plug-in per conto dell'utente. La query si basa sulla richiesta dell'utente, sulla cronologia delle interazioni Copilot e sui dati a cui l'utente ha accesso in Microsoft 365.

Nella sezione App integrate dell'interfaccia di amministrazione di Microsoft 365, gli amministratori possono visualizzare le autorizzazioni e l'accesso ai dati richiesti da un plug-in, nonché le condizioni per l'utilizzo e l'informativa sulla privacy del plug-in. Gli amministratori hanno il controllo completo per selezionare i plug-in consentiti nell'organizzazione. Un utente può accedere solo ai plug-in consentiti dall'amministratore e che l'utente ha installato o è assegnato. Microsoft Copilot per Microsoft 365 usa solo plug-in attivati dall'utente.

Nota

Le impostazioni del criterio che controllano l'uso di esperienze connesse facoltative in Microsoft 365 Apps non si applicano ai plug-in.

Per altre informazioni, vedere gli articoli seguenti:

In che modo Microsoft Copilot per Microsoft 365 protegge i dati dell'organizzazione?

Il modello di autorizzazioni configurato all'interno del tenant di Microsoft 365 consente di garantire che i dati non vengano involontariamente diffusi tra utenti, gruppi e tenant. Microsoft Copilot per Microsoft 365 presenta solo i dati a cui ogni persona può accedere usando gli stessi controlli sottostanti per l'accesso ai dati che vengono usati in altri servizi di Microsoft 365. L'indice semantico rispetta il limite di accesso basato sull'identità, in modo che il processo di grounding acceda solo al contenuto a cui l'utente corrente è autorizzato ad accedere. Per altre informazioni, vedere l'informativa sulla privacy e la documentazione sui servizi di Microsoft.

Quando si dispone di dati crittografati da Microsoft Purview Information Protection, Microsoft Copilot per Microsoft 365 rispetta i diritti di utilizzo concessi all'utente. La crittografia può essere applicata tramite etichette di riservatezza o autorizzazioni limitate nelle app di Microsoft 365 utilizzando la gestione dei diritti delle informazioni (IRM). Per altre informazioni sull'uso di Microsoft Purview con Microsoft Copilot per Microsoft 365, vedere Protezione della sicurezza dei dati e della conformità di Microsoft Purview per le app di intelligenza artificiale generative.

Implementiamo già più forme di protezione per evitare che i clienti possano compromettere i servizi e le applicazioni di Microsoft 365 oppure ottenere l'accesso non autorizzato ad altri tenant o al sistema Microsoft 365 stesso. Ecco alcuni esempi di queste forme di protezione:

  • L'isolamento logico dei contenuti dei clienti all'interno di ciascun tenant per i servizi Microsoft 365 è ottenuto grazie all'autorizzazione Microsoft Entra e al controllo degli accessi basato sui ruoli. Per altre informazioni, vedere Controlli di isolamento di Microsoft 365.

  • Microsoft usa una sicurezza fisica rigorosa, lo screening in background e una strategia di crittografia a più livelli per proteggere la riservatezza e l'integrità del contenuto dei clienti.

  • Microsoft 365 usa tecnologie lato servizio che crittografano il contenuto dei clienti sia inattivo che in transito, tra cui BitLocker, crittografia per file, TLS (Transport Layer Security) e IPSec (Internet Protocol Security). Per informazioni specifiche sulla crittografia in Microsoft 365, vedere Crittografia in Microsoft Cloud.

  • Il controllo sui propri dati è rafforzato dall'impegno di Microsoft a rispettare normative sulla privacy ampiamente applicabili, ad esempio il GDPR, e standard di privacy diffusi come ISO/IEC 27018, il primo codice di condotta internazionale al mondo per la privacy nel cloud.

  • Per i contenuti a cui si accede tramite i plug-in di Microsoft Copilot per Microsoft 365, la crittografia può escludere l'accesso programmatico, limitando così il plug-in dall'accesso ai contenuti. Per altre informazioni, vedere Configurare i diritti di utilizzo per Azure Information Protection.

Soddisfare i requisiti di conformità alla normativa

Man mano che le normative in materia di intelligenza artificiale si evolveranno, Microsoft continuerà ad adattarsi e a rispondere per soddisfare i requisiti normativi futuri.

Microsoft Copilot per Microsoft 365 si basa sugli attuali impegni di Microsoft in materia di sicurezza e privacy dei dati nell'azienda. Non sono previste modifiche a questi impegni. Microsoft 365 Copilot è integrato in Microsoft 365 e si attiene a tutti gli impegni esistenti in materia di privacy, sicurezza e conformità per i clienti commerciali di Microsoft 365. Per altre informazioni, vedere Conformità Microsoft.

Oltre a rispettare le normative, diamo priorità a un dialogo aperto con i nostri clienti, i partner e le autorità di regolamentazione per comprendere e affrontare al meglio i problemi, favorendo così un ambiente di fiducia e cooperazione. Riconosciamo che la privacy, la sicurezza e la trasparenza non sono solo caratteristiche, ma prerequisiti nel panorama guidato dall'IA di Microsoft.

Informazioni aggiuntive

Microsoft Copilot per Microsoft 365 e le impostazioni del criterio per le esperienze connesse

Se disattivi le esperienze connesse che analizzano il contenuto per Microsoft 365 Apps nei dispositivi Windows o Mac dell'organizzazione, le funzionalità Microsoft Copilot per Microsoft 365 non saranno disponibili per gli utenti nelle app seguenti:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Analogamente, le funzionalità Microsoft Copilot per Microsoft 365 in tali app nei dispositivi Windows o Mac non saranno disponibili se disattivi l'uso di esperienze connesse per Microsoft 365 Apps.

Per altre informazioni su queste impostazioni dei criteri, vedi gli articoli seguenti:

Informazioni sui contenuti creati da Microsoft Copilot per Microsoft 365

Non è garantito che le risposte generate dall'IA siano reali al 100%. Anche se continuiamo a migliorare le risposte, gli utenti devono comunque usare il loro giudizio nel rivedere i risultati prima di inviarli ad altri. Le nostre funzionalità di Microsoft Copilot per Microsoft 365 forniscono bozze e riepiloghi utili per aiutarti a ottenere di più, dandoti la possibilità di rivedere l'IA generata piuttosto che automatizzare completamente queste attività.

Continuiamo a migliorare gli algoritmi per affrontare in modo proattivo i problemi, come la cattiva informazione e la disinformazione, il blocco dei contenuti, la sicurezza dei dati e la prevenzione della promozione di contenuti dannosi o discriminatori, in linea con i nostri principi per l'intelligenza artificiale responsabile.

Microsoft non rivendica la proprietà dei risultati del servizio. Detto questo, non siamo noi a stabilire se la produzione di un cliente è protetta da copyright o se può essere fatta valere nei confronti di altri utenti. Questo perché i sistemi di intelligenza artificiale generativa possono produrre risposte simili a richieste o domande simili da parte di più clienti. Di conseguenza, più clienti possono avere o rivendicare diritti su contenuti uguali o sostanzialmente simili.

Se una terza parte cita in giudizio un cliente commerciale per violazione del copyright per aver utilizzato i Copilot di Microsoft o l'output da essi generato, difenderemo il cliente e pagheremo l'importo di eventuali sentenze o patteggiamenti sfavorevoli risultanti dalla causa, a condizione che il cliente abbia utilizzato i guardrail e i filtri per i contenuti che abbiamo integrato nei nostri prodotti. Per ulteriori informazioni, vedere Microsoft annuncia il nuovo impegno di copyright Copilot per i clienti.

Impegno per l'IA responsabile

Poiché l'IA è destinata a trasformare le nostre vite, dobbiamo definire collettivamente nuove regole, norme e procedure per l'uso e l'impatto di questa tecnologia. Microsoft ha avviato un percorso per l'intelligenza artificiale responsabile dal 2017, quando abbiamo definito i nostri principi e il nostro approccio per garantire che questa tecnologia venga usata in un modo conforme a principi etici che mettono le persone al primo posto.

Microsoft è guidata dai suoi principi per l'intelligenza artificiale, dallo standard per l'IA responsabile e da decenni di ricerca sull'intelligenza artificiale, il grounding e la preservazione della privacy nell'apprendimento automatico. Un team multidisciplinare di ricercatori, ingegneri ed esperti di criteri esamina i sistemi di intelligenza artificiale per individuare potenziali danni e mitigazioni, perfezionando i dati di training, filtrando per limitare i contenuti dannosi, bloccando le query e i risultati per gli argomenti sensibili e applicando tecnologie Microsoft come InterpretML e Fairlearn per rilevare e correggere la distorsione dei dati. Spieghiamo chiaramente in che modo il sistema prende decisioni notando le limitazioni, inserendo collegamenti alle fonti e invitando gli utenti a rivedere, verificare i fatti e modificare il contenuto in base alle proprie competenze in materia. Per altre informazioni, vedere Governance dell'intelligenza artificiale: un progetto per il futuro.

Il nostro obiettivo è aiutare i clienti a usare i nostri prodotti di intelligenza artificiale in modo responsabile, condividendo le nostre conoscenze e creando partnership basate sulla fiducia. Per questi nuovi servizi, vogliamo fornire ai clienti informazioni sugli usi previsti, le funzionalità e le limitazioni previsti del servizio della piattaforma di intelligenza artificiale, in modo che dispongano delle conoscenze necessarie per effettuare scelte di distribuzione responsabili. Condividiamo inoltre risorse e modelli con gli sviluppatori all'interno delle organizzazioni e con i fornitori indipendenti di software (ISV), per aiutarli a costruire soluzioni di IA efficaci, sicure e trasparenti.