Share via


Data, sekretess och säkerhet för Microsoft Copilot för Microsoft 365

Microsoft Copilot för Microsoft 365 är en sofistikerad bearbetnings- och orkestreringsmotor som tillhandahåller AI-baserade produktivitetsfunktioner genom att samordna följande komponenter:

  • Stora språkmodeller (LLMs)
  • Innehåll i Microsoft Graph, till exempel e-postmeddelanden, chattar och dokument som du har behörighet att komma åt.
  • De Microsoft 365-appar som du använder varje dag, till exempel Word och PowerPoint.

En översikt över hur dessa tre komponenter fungerar tillsammans finns i Översikt över Microsoft Copilot för Microsoft 365. Länkar till annat innehåll som är relaterat till Microsoft Copilot för Microsoft 365 finns i Microsoft Copilot för Microsoft 365-dokumentationen.

Viktigt

  • Microsoft Copilot för Microsoft 365 följer våra befintliga sekretess-, säkerhets- och efterlevnadsåtaganden för Microsoft 365 kommersiella kunder, inklusive allmän dataskyddsförordning (GDPR) och EU-datagränsen (EU).
  • Frågor, svar och data som nås via Microsoft Graph används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft Copilot för Microsoft 365.

Informationen i den här artikeln är avsedd att ge svar på följande frågor:

Obs!

Microsoft Copilot för Microsoft 365 fortsätter att utvecklas med tiden med nya funktioner. Om du vill hålla dig uppdaterad om Microsoft Copilot för Microsoft 365 eller ställa frågor kan du besöka Microsoft 365 Copilot-communityn på Microsoft Tech Community.

Hur använder Microsoft Copilot för Microsoft 365 dina egna organisationsdata?

Microsoft Copilot för Microsoft 365 ger mervärde genom att ansluta LLM:er till dina organisationsdata. Microsoft Copilot för Microsoft 365 kommer åt innehåll och kontext via Microsoft Graph. Det kan generera svar som fästs i organisationens data, till exempel användardokument, e-postmeddelanden, kalender, chattar, möten och kontakter. Microsoft Copilot för Microsoft 365 kombinerar det här innehållet med användarens arbetskontext, till exempel mötet en användare befinner sig i nu, e-postmeddelandena som användaren har skickat och mottagit gällande ett visst ämne eller de chattkonversationer som användaren hade förra veckan. Microsoft Copilot för Microsoft 365 använder den här kombinationen av innehåll och kontext för att leverera korrekta, relevanta och sammanhangsbaserade svar.

Viktigt

Frågor, svar och data som nås via Microsoft Graph används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft Copilot för Microsoft 365.

Microsoft Copilot för Microsoft 365 visar endast organisationsdata som enskilda användare har minst visningsbehörighet för. Det är viktigt att du använder de behörighetsmodeller som är tillgängliga i Microsoft 365-tjänster, till exempel SharePoint, för att säkerställa att rätt användare eller grupper har rätt åtkomst till rätt innehåll i din organisation. Detta omfattar behörigheter som du ger användare utanför organisationen via samarbetslösningar mellan klientorganisationer, till exempel delade kanaler i Microsoft Teams.

När du anger frågor med hjälp av Microsoft Copilot för Microsoft 365 förblir informationen i dina prompter, de data som de hämtar samt de genererade svaren inom Microsoft 365-tjänstgränsen, i enlighet med våra nuvarande åtaganden om sekretess, datasäkerhet och efterlevnad. Microsoft Copilot för Microsoft 365 använda Azure OpenAI-tjänster för bearbetning, inte OpenAI:s offentligt tillgängliga tjänster. Azure Open AI cachelagrar inte kundinnehåll och Copilot ändrade uppmaningar för Copilot för Microsoft 365.

Obs!

När du använder Microsoft Copilot för Microsoft 365 kan organisationens data lämna Microsoft 365-tjänstgränsen under följande omständigheter:

Missbruksövervakning för Microsoft Copilot för Microsoft 365 sker i realtid, utan att Microsoft får någon stående åtkomst till kunddata, antingen för mänsklig eller automatiserad granskning. Även om missbruksmoderering, som omfattar mänsklig granskning av innehåll, är tillgängligt i Azure OpenAI, har Microsoft Copilot för Microsoft 365 tjänster valt bort det. Microsoft 365-data samlas inte in eller lagras inte av Azure OpenAI.

Obs!

Vi kan använda kundfeedback, vilket är valfritt, för att förbättra Microsoft Copilot för Microsoft 365, precis som vi använder kundfeedback för att förbättra andra Microsoft 365-tjänster och Microsoft 365-program. Vi använder inte den här feedbacken för att träna de grundläggande LLM:er som används av Microsoft Copilot för Microsoft 365. Kunder kan hantera feedback via administratörskontroller. Mer information finns i Hantera Microsofts feedback för din organisation och Ge feedback om Microsoft Copilot för Microsoft 365.

Data som lagras om användarinteraktioner med Microsoft Copilot för Microsoft 365

När en användare interagerar med Microsoft Copilot för Microsoft 365-appar (till exempel Word, PowerPoint, Excel, OneNote, Loop eller Whiteboard) lagrar vi data om dessa interaktioner. Lagrade data innehåller användarens uppmaning och Copilots svar, inklusive citat till all information som används som grund för Copilots svar. Vi hänvisar till användarens fråga och Copilots svar på frågan eftersom innehållet i “interaktionerna” och posten för dessa interaktioner är användarens Copilot-interaktionshistorik. Dessa lagrade data förser till exempel användarna med interaktionshistorik för Copilot i Microsoft Copilot med Graph-baserad chatt och möten i Microsoft Teams. Dessa data bearbetas och lagras i enlighet med avtalsåtaganden med organisationens andra innehåll i Microsoft 365. Data krypteras medan de lagras och används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft Copilot för Microsoft 365.

För att visa och hantera dessa lagrade data kan administratörer använda innehållssökning eller Microsoft Purview. Administratörer kan också använda Microsoft Purview för att ange kvarhållningsprinciper för data som rör chattinteraktioner med Copilot. Mer information finns i följande artiklar:

För Microsoft Teams-chattar med Copilot kan administratörer också använda Export-API:er för Microsoft Teams för att visa lagrade data.

Ta bort historiken för användarinteraktioner med Microsoft Copilot för Microsoft 365

Användarna kan ta bort sin Copilot-interaktionshistorik, som innehåller deras frågor och svaren som Copilot returnerar, genom att gå till portalen Mitt konto. Mer information finns i Ta bort din Interaktionshistorik för Microsoft Copilot.

Microsoft Copilot för Microsoft 365 och EU-datagräns

Microsoft Copilot för Microsoft 365-anrop till LLM dirigeras till närmaste datacenter i regionen, men kan även anropas till andra regioner där kapaciteten är tillgänglig under perioder med hög användning.

För EU-användare har vi ytterligare garantier för att uppfylla EU-datagränsen. EU-trafiken stannar inom EU-datagränsen medan global trafik kan skickas till EU och andra länder eller regioner för LLM-bearbetning.

Microsoft Copilot för Microsoft 365 och datahemvist

Copilot för Microsoft 365 upprätthåller åtaganden för datahemvist enligt beskrivningen i Microsofts produktvillkor och tillägg för dataskydd. Copilot för Microsoft 365 lades till som en täckt arbetsbelastning i åtagandena om datahemvist i Microsofts produktvillkor den 1 mars 2024.

Erbjudandena Microsoft Advanced Data Residency (ADR) och Multi-Geo Capabilities omfattar åtaganden om datahemvist för Copilot för Microsoft 365 kunder från och med den 1 mars 2024. För EU-kunder är Copilot för Microsoft 365 en tjänst inom EU:s datagräns. Kunder utanför EU kan få sina frågor bearbetade i USA, EU eller andra regioner.

Microsoft Copilot för Microsoft 365 och plugin-programmet för webbinnehåll

Copilot för Microsoft 365 har möjlighet att förbättra chattsvaren med den senaste informationen från webben. När plugin-programmet för webbinnehåll är aktiverat kan Copilot hämta information från Bing-sökindexet när Copilot fastställer att information från webben hjälper till att ge ett bättre och mer jordat svar.

Administratörskontroller och användarnivåväxling finns tillgängliga för att hantera om programmet för webbinnehåll är aktiverat i din miljö.

Så här fungerar plugin-programmet för webbinnehåll

När plugin-programmet för webbinnehåll är aktiverat i chatten parsar Copilot för Microsoft 365 användarens uppmaning och identifierar termer där webbgrundning kan förbättra svarets kvalitet. Baserat på dessa termer genererar Copilot en sökfråga som skickas till Bing-sökning-API:et och ber om mer information. Den här sökfrågan skiljer sig från användarens prompt – den består vanligtvis av några ord som informeras av användarens prompt och/eller Microsoft 365-data. Den innehåller inte automatiskt hela Microsoft 365-dokument som är associerade med prompten.

Följande tabell innehåller ett exempel på en användares prompt, de sökfrågor som skickats och Copilots svar.

Entitet Text
Fråga (som skrivits av användaren) Vi överväger ett eventuellt förvärv av Fabrikam. Hjälp mig att sammanställa en sammanfattningsrapport på 200 ord med offentligt tillgänglig finansiell information om företaget, inklusive deras affärsstrategi.
Sökfrågor (genereras av Copilot och skickas till API:et för Bing-sökning) Fabrikam-strategi
Fabrikam-ekonomi
Svar (genereras av Copilot) Fabrikam är en CPG-startup som erbjuder hälsosammare matalternativ men med samma välbekanta smak som traditionella varumärken. Företaget samlade in 4,5 miljoner dollar i såddfinansiering 2019 och samlade in 31,5 miljoner dollar i en serie B-finansieringsrunda år 2022. Från och med januari 2023 samlade Fabrikam in totalt 83,4 miljoner dollar i finansiering och siktar på att mer än fördubbla sin försäljning i år.

När pandemin slog till stod Fabrikam inför utmaningen att pivotera från traditionella butiker till onlineförsäljning, och det var där deras influencer-marknadsföringsstrategi spelade in. I stället för att förlita sig på evenemang och kampanjer i butiken vände sig Fabrikam till sociala medier och influencer-partnerskap för att bygga varumärkesmedvetenhet och nå en bredare publik. Företaget närmade sig också innovation från en äkta vinkel, balanserade traditionella konsumtionsdrivande faktorer med bättre för dig-erbjudanden och hade en holistisk, robust distributionsstrategi.

Sammanfattningsvis har Fabrikam samlat in över 55 miljoner dollar i finansiering och har en stark influencer-marknadsföringsstrategi som har hjälpt dem att pivotera till onlineförsäljning under pandemin.

I det här exemplet skickas endast de två sökfrågorna till Bing-sökning-API:et. När användaren har angett sin uppmaning visar chattupplevelsen alla frågor som genereras och skickas till Bing. Användarens frågor och Copilots svar lagras i Microsoft 365. Sökfrågor som skickas till Bing-sökning-API:et av Copilot för Microsoft 365 kopplas bort från användar-ID och klientorganisations-ID.

Bing-sökning-API:et tillhandahålls av Bing.com, som fungerar separat från Microsoft 365 och har olika metoder för datahantering. Användningen av Bing omfattas av Villkor för Microsoft-tjänster mellan varje användare och Microsoft, tillsammans med Microsofts sekretesspolicy. Microsoft Products and Services Data Protection Addendum (DPA) gäller inte för användning av plugin-program för webbinnehåll eller Bing-sökning API.

Kontroller som är tillgängliga för att hantera användningen av webbinnehåll

Administratörer kan blockera åtkomst till webbinnehåll i Copilot för Microsoft 365. Mer information finns i Hantera åtkomst till webbinnehåll i Microsoft Copilot för Microsoft 365 svar. Även om administratören tillåter det kan användarna fortfarande välja om de vill använda webb-plugin-programmet eller inte. Mer information finns i Använda ytterligare datakällor med Microsoft 365 Copilot.

Obs!

Principinställningarna som styr användningen av valfria anslutna funktioner i Microsoft 365-applikationer gäller inte för Microsoft Copilot för Microsoft 365 och webbinnehåll.

Utökningsbarhet för Microsoft Copilot för Microsoft 365

Trots att Microsoft Copilot för Microsoft 365 redan kan använda program och data i Microsoft 365-ekosystemet, är många användare fortfarande beroende av olika externa verktyg och tjänster för arbetshantering och samarbete. Microsoft Copilot för Microsoft 365 funktioner kan referera till verktyg och tjänster från tredje part när du svarar på en användares begäran med hjälp av Microsoft Graph-kopplingar eller plugin-program. Data från Graph-kopplingar kan returneras i Microsoft Copilot för Microsoft 365 svar om användaren har behörighet att komma åt den informationen.

När plugin-program är aktiverade avgör Microsoft Copilot för Microsoft 365 om det behöver använda ett specifikt plugin-program för att ge användaren ett relevant svar. Om ett plugin-program behövs genererar Microsoft Copilot för Microsoft 365 en sökfråga som ska skickas till plugin-programmet för användarens räkning. Frågan baseras på användarens prompt, Copilot-interaktionshistorik och data som användaren har åtkomst till i Microsoft 365.

I avsnittet Integrerade appar i Administrationscenter för Microsoft 365 kan administratörer visa de behörigheter och dataåtkomst som krävs av ett plugin-program samt plugin-programmets användningsvillkor och sekretesspolicy. Administratörer har fullständig kontroll över vilka plugin-program som tillåts i organisationen. En användare kan bara komma åt de plugin-program som administratören tillåter och som användaren har installerat eller tilldelats. Microsoft Copilot för Microsoft 365 använder bara plugin-program som aktiveras av användaren.

Obs!

Principinställningarna som styr användningen av valfria anslutna funktioner i Microsoft 365-applikationer gäller inte för plugin-program.

Mer information finns i följande artiklar:

Hur skyddar Microsoft 365 Copilot känsliga organisationsdata?

Behörighetsmodellen i din Microsoft 365-klientorganisation kan hjälpa dig att säkerställa att data inte oavsiktligt läcker mellan användare, grupper och klientorganisationer. Microsoft Copilot för Microsoft 365 visar endast data som varje individ kan komma åt med samma underliggande kontroller för dataåtkomst som används i andra Microsoft 365-tjänster. Semantic Index respekterar gränsen för användaridentitetsbaserad åtkomst så att grundningsprocessen endast kommer åt innehåll som den aktuella användaren har behörighet att komma åt. Mer information finns i Microsofts sekretesspolicy och tjänstdokumentation.

När du har data som krypteras av Microsoft Purview Information Protection följer Microsoft Copilot för Microsoft 365 de användningsrättigheter som beviljas användaren. Den här krypteringen kan användas med känslighetsetiketter eller med begränsade behörigheter i Microsoft 365-appar med hjälp av IRM (Information Rights Management). Mer information om hur du använder Microsoft Purview med Microsoft Copilot för Microsoft 365 finns i Microsoft Purview-datasäkerhet och efterlevnadsskydd för generativa AI-appar.

Vi implementerar redan flera former av skydd för att förhindra att kunder komprometterar Microsoft 365-tjänster och -program eller får obehörig åtkomst till andra klientorganisationer eller själva Microsoft 365-systemet. Här följer några exempel på dessa skyddsformer:

  • Logisk isolering av kundinnehåll i varje klientorganisation för Microsoft 365-tjänster uppnås via Microsoft Entra-auktorisering och rollbaserad åtkomstkontroll. Mer information finns i Isoleringskontroller för Microsoft 365.

  • Microsoft använder rigorös fysisk säkerhet, bakgrundsgallring och en krypteringsstrategi i flera lager för att skydda konfidentialiteten och integriteten hos kundinnehåll.

  • Microsoft 365 använder tekniker på tjänstsidan som krypterar kundinnehåll i vila och under överföring, inklusive BitLocker, kryptering per fil, TLS (Transport Layer Security) och IPsec (Internet Protocol Security). Specifik information om kryptering i Microsoft 365 finns i Kryptering i Microsoft Cloud.

  • Din kontroll över dina data förstärks av Microsofts åtagande att följa allmänt tillämpliga sekretesslagar, till exempel GDPR, och sekretesstandarder, till exempel ISO/IEC 27018, världens första internationella uppförandekod för molnsekretess.

  • För innehåll som nås via Microsoft Copilot för Microsoft 365-plugin-program kan kryptering utesluta programmatisk åtkomst, vilket begränsar plugin-programmet från att komma åt innehållet. Mer information finns i Konfigurera användningsrättigheter för Azure Information Protection.

Uppfylla krav för regelefterlevnad

I takt med att regleringen inom AI-området utvecklas kommer Microsoft att fortsätta att anpassa sig och svara för att uppfylla framtida regelkrav.

Microsoft Copilot för Microsoft 365 bygger på Microsofts nuvarande åtaganden gällande datasäkerhet och sekretess i företaget. Dessa åtaganden ändras inte. Microsoft Copilot för Microsoft 365 är integrerat i Microsoft 365 och följer alla befintliga sekretess-,säkerhets- och efterlevnadsåtaganden för Microsoft 365 kommersiella kunder. Mer information finns i Microsofts efterlevnad.

Förutom att följa reglerna prioriterar vi en öppen dialog med våra kunder, partner och tillsynsmyndigheter för att bättre förstå och åtgärda problem och därigenom främja en miljö av förtroende och samarbete. Vi är medvetna om att sekretess, säkerhet och transparens inte bara är funktioner, utan krav, i det AI-drivna landskapet hos Microsoft.

Ytterligare information

Microsoft Copilot för Microsoft 365 och principinställningar för anslutna upplevelser

Om du inaktiverar anslutna funktioner som analyserar innehåll för Microsoft 365-applikationer på Windows- eller Mac-enheter i din organisation är Microsoft Copilot för Microsoft 365-funktioner inte tillgängliga för användarna i följande appar:

  • Excel
  • PowerPoint
  • OneNote
  • Word

På samma sätt är Microsoft Copilot för Microsoft 365-funktioner i dessa appar på Windows- eller Mac-enheter inte tillgängliga om du inaktiverar användningen av anslutna funktioner för Microsoft 365-applikationer.

Mer information om de här principinställningarna finns i följande artiklar:

Om innehållet som Microsoft Copilot för Microsoft 365 skapar

Svaren som generativ AI producerar är inte garanterade att vara 100 % faktiska. Även om vi fortsätter att förbättra svaren bör användarna fortfarande använda sitt omdöme när de granskar resultatet innan de skickas till andra. Våra Microsoft Copilot för Microsoft 365-funktioner ger användbara utkast och sammanfattningar som hjälper dig att uppnå mer samtidigt som du får möjlighet att granska den genererade AI:n i stället för att automatisera dessa uppgifter fullständigt.

Vi fortsätter att förbättra algoritmerna för att proaktivt åtgärda problem, till exempel felaktig information och desinformation, blockering av innehåll, datasäkerhet och förhindra att skadligt eller diskriminerande innehåll främjas i enlighet med våra ansvarsfulla AI-principer.

Microsoft gör inte anspråk på ägarskap för utdata från tjänsten. Med det sagt bestämmer vi inte om en kunds utdata är upphovsrättsskyddade eller verkställbara mot andra användare. Det beror på att generativa AI-system kan ge liknande svar på liknande prompter eller frågor från flera kunder. Därför kan flera kunder ha eller göra anspråk på rättigheter i innehåll som är samma eller i stort likartade.

Om en tredje part stämmer en kommersiell kund för upphovsrättsintrång för användning av Microsofts Copilots eller de utdata som de genererar, kommer vi att försvara kunden och betala beloppet för eventuella negativa bedömningar eller betalningar som är resultatet av stämning, så länge kunden har använt skyddsräcken och innehållsfiltren som vi har byggt in i våra produkter. Mer information finns i Microsoft presenterar nya Copilot Copyright Commitment för kunder.

Engagerad i ansvarsfull AI

När AI är redo att förändra våra liv måste vi gemensamt definiera nya regler, normer och metoder för användning och påverkan av den här tekniken. Microsoft har varit på en ansvarsfull AI-resa sedan 2017, då vi definierade våra principer och metoder för att säkerställa att den här tekniken används på ett sätt som drivs av etiska principer som sätter människor först.

På Microsoft vägleds vi av våra AI-principer, vår ansvarsfulla AI-standard och årtionden av forskning om AI, grundning och sekretessbevarande maskininlärning. Ett tvärvetenskapligt team med forskare, ingenjörer och policyexperter granskar våra AI-system för potentiella skador och åtgärder – förfina träningsdata, filtrera för att begränsa skadligt innehåll, fråge- och resultatblockerande känsliga ämnen och använda Microsoft-tekniker som InterpretML och Fairlearn för att identifiera och korrigera datafördomar. Vi gör det tydligt hur systemet fattar beslut genom att notera begränsningar, länka till källor och uppmana användare att granska, faktagranska och justera innehåll baserat på ämnesexpertis. Mer information finns i Styra AI: En skiss för framtiden.

Vi strävar efter att hjälpa våra kunder att använda våra AI-produkter på ett ansvarsfullt sätt, dela vår utbildning och skapa förtroendebaserade partnerskap. För dessa nya tjänster vill vi ge våra kunder information om avsedda användningsområden, funktioner och begränsningar för vår AI-plattformstjänst, så att de har den kunskap som krävs för att göra ansvarsfulla distributionsval. Vi delar även resurser och mallar med utvecklare inom organisationer och med oberoende programvaruleverantörer (ISV:er) för att hjälpa dem att skapa effektiva, säkra och transparenta AI-lösningar.