Data, personvern og sikkerhet for Microsoft Copilot for Microsoft 365

Microsof Copilot for Microsoft 365 er en avansert motor for behandling og orkestrering som tilbyr produktivitetsfunksjoner drevet av kunstig intelligens ved å koordinere følgende komponenter:

  • Store språkmodeller (LLM-er)
  • Innhold i Microsoft Graph, for eksempel e-postmeldinger, chatter og dokumenter som du har tilgang til.
  • Microsoft 365-appene du bruker hver dag, for eksempel Word og PowerPoint.

Hvis du vil ha en oversikt over hvordan disse tre komponentene fungerer sammen, kan du se Oversikt over Microsoft Copilot for Microsoft 365. Hvis du vil ha koblinger til annet innhold relatert til Microsoft Copilot for Microsoft 365, kan du se Microsoft Copilot for Microsoft 365-dokumentasjonen.

Viktig

  • Microsoft Copilot for Microsoft 365 er i samsvar med de eksisterende forpliktelsene våre når det gjelder personvern, sikkerhet og samsvar, overfor kommersielle Microsoft 365-kunder, inkludert personvernforordningen (GDPR) og EUs datagrense.
  • Ledetekster, svar og data som er tilgjengelige via Microsoft Graph, brukes ikke til å lære opp grunnleggende LLM-er, inkludert de som brukes av Microsoft Copilot for Microsoft 365.

Informasjonen i denne artikkelen er ment for å bidra til å gi svar på følgende spørsmål:

Obs!

Microsoft Copilot for Microsoft 365 vil fortsette å utvikle seg over tid med nye funksjoner. Hvis du vil holde deg oppdatert om Microsoft Copilot for Microsoft 365 eller stille spørsmål, kan du gå til Microsoft 365 Copilot-fellesskapet i Teknisk fellesskap for Microsoft.

Hvordan bruker Microsoft Copilot for Microsoft 365 de rettighetsbeskyttede organisasjonsdataene dine?

Microsoft Copilot for Microsoft 365 gir verdi ved å koble LLM-er til organisasjonsdataene. Microsoft Copilot for Microsoft 365 får tilgang til innhold og kontekst via Microsoft Graph. Den kan generere svar som er forankret i organisasjonsdataene dine, for eksempel brukerdokumenter, e-postmeldinger, kalender, chatter, møter, kontakter og kontakter. Microsoft Copilot for Microsoft 365 kombinerer dette innholdet med brukerens arbeidskontekst, for eksempel møtet en bruker er i nå, e-postutvekslingene brukeren hadde om et emne, eller chat-samtalene brukeren hadde forrige uke. Microsoft Copilot for Microsoft 365 bruker denne kombinasjonen av innhold og kontekst for å bidra til å tilby nøyaktige, relevante, kontekstuelle svar.

Viktig

Ledetekster, svar og data som er tilgjengelige via Microsoft Graph, brukes ikke til å lære opp grunnleggende LLM-er, inkludert de som brukes av Microsoft Copilot for Microsoft 365.

Microsoft Copilot for Microsoft 365 viser bare organisasjonsdata som enkeltbrukere minst har visningstillatelser til. Det er viktig at du bruker tillatelsesmodellene som er tilgjengelige i Microsoft 365-tjenester, for eksempel SharePoint, for å sikre at de riktige brukerne eller gruppene har riktig tilgang til riktig innhold i organisasjonen. Dette omfatter tillatelser du gir til brukere utenfor organisasjonen gjennom samarbeidsløsninger mellom tenanter, for eksempel delte kanaler i Microsoft Teams.

Når du legger inn ledetekster ved hjelp av Microsoft Copilot for Microsoft 365, forblir informasjonen i ledetekstene, dataene de henter og de genererte svarene, innenfor tjenestegrensen for Microsoft 365, i tråd med gjeldende forpliktelser når det gjelder personvern, sikkerhets og samsvar. Microsoft Copilot for Microsoft 365 bruker Azure OpenAI-tjenester for behandling, ikke OpenAIs offentlig tilgjengelige tjenester.

Obs!

Når du bruker Microsoft Copilot for Microsoft 365, kan organisasjonens data forlate tjenestegrensen for Microsoft 365 under følgende omstendigheter:

Overvåking av misbruk for Microsoft Copilot for Microsoft 365 forekommer i sanntid, uten å gi Microsoft pågående tilgang til kundedata, enten for menneskelig eller automatisert gjennomgang. Selv om moderering av misbruk, som inkluderer menneskelig gjennomgang av innhold, er tilgjengelig i Azure OpenAI, har Microsoft Copilot for Microsoft 365-tjenester valgt bort det. Microsoft 365-data hverken samles inn eller lagres av Azure OpenAI.

Obs!

Vi kan bruke tilbakemeldinger fra kunder, som er valgfrie, til å forbedre Microsoft Copilot for Microsoft 365, på samme måte som vi bruker tilbakemeldinger fra kunder til å forbedre andre Microsoft 365-tjenester og Microsoft 365-apper. Vi bruker ikke denne tilbakemeldingen til å lære opp de grunnleggende LLM-ene som brukes av Microsoft Copilot for Microsoft 365. Kunder kan administrere tilbakemeldinger via administratorkontroller. Hvis du vil ha mer informasjon, kan du se Administrere Microsoft-tilbakemeldinger for organisasjonen og Gi tilbakemelding om Microsoft Copilot for Microsoft 365.

Data lagret om brukersamhandlinger med Microsoft Copilot for Microsoft 365

Når en bruker samhandler med Microsoft Copilot for Microsoft 365-apper (for eksempel Word, PowerPoint, Excel, OneNote, Loop eller Whiteboard), lagrer vi data om disse samhandlingene. De lagrede dataene inkluderer brukerens ledetekst og Copilots svar, inkludert sitater til all informasjon som brukes til å begrunne Copilots svar. Vi viser til brukerens ledetekst og Copilots svar på denne ledeteksten som «innholdet i samhandlinger», og registreringen av disse samhandlingene er brukerens Copilot-samhandlingshistorikk. Disse lagrede dataene gir for eksempel brukerne mulighet til å se Copilot-samhandlingsloggen i Microsoft med Graph-basert chat og møter i Microsoft Teams. Disse dataene behandles og lagres i samsvar med kontraktsmessige forpliktelser i forbindelse med organisasjonens øvrige innhold i Microsoft 365. Dataene krypteres mens de lagres og brukes ikke til å lære opp grunnleggende LLM-er, inkludert de som brukes av Microsoft Copilot for Microsoft 365.

Administratorer kan bruke Innholdssøk eller Microsoft Purview til å vise og behandle disse lagrede dataene. Administratorer kan også bruke Microsoft Purview til å angi oppbevaringspolicyer for data relatert til chat-samhandlinger med Copilot. Hvis du vil ha mer informasjon, kan du se følgende artikler:

For Microsoft Teams-chatter med Copilot kan administratorer også bruke Microsoft Teams Eksport API-er for å se de lagrede dataene.

Slette loggen over brukersamhandlinger med Microsoft Copilot for Microsoft 365

Brukerne kan slette samhandlingsloggen til Copilot, som inkluderer ledetekstene og svarene Copilot returnerer, ved å gå til Min konto-portalen. Hvis du vil ha mer informasjon, kan du se Slette samhandlingsloggen for Microsoft Copilot.

Microsoft Copilot for Microsoft 365 og EU-datagrensen

Microsoft Copilot for Microsoft 365-kall til LLM rutes til de nærmeste datasentrene i området, men kan også ringe til andre områder der kapasitet er tilgjengelig i perioder med høy utnyttelse.

For brukere i EU har vi ytterligere sikkerhetstiltak for å overholde EUs datagrense. EU-trafikk forblir innenfor EUs datagrense, mens verdensomspennende trafikk kan sendes til EU og andre land og områder for LLM-behandling.

Microsoft Copilot for Microsoft 365 og datalagring

Copilot for Microsoft 365 opprettholder forpliktelser for datalagring som beskrevet i tillegget Microsofts produktvilkår og databeskyttelse. Copilot for Microsoft 365 ble lagt til som en dekket arbeidsbelastning i forpliktelsene for datalagring i Microsofts produktvilkår 1. mars 2024.

Microsoft Advanced Data Residency (ADR) og Multi-Geo Capabilities-tilbud inkluderer datalagringsforpliktelser for Copilot for Microsoft 365 kunder fra og med 1. mars 2024. For EU-kunder er Copilot for Microsoft 365 en tjeneste for EU-datagrense. Kunder utenfor EU kan få sine spørringer behandlet i USA, EU eller andre områder.

Microsoft Copilot for programtillegget for Microsoft 365 og nettinnhold

Copilot for Microsoft 365 har mulighet til å forbedre chattesvar med den nyeste informasjonen fra nettet. Når programtillegget for nettinnhold er aktivert, kan Copilot hente informasjon fra Bing-søkeindeksen når Copilot bestemmer at informasjon fra nettet vil bidra til å gi et bedre og mer jordet svar.

Administratorkontroller og veksleknapp på brukernivå er tilgjengelige for å bestemme om programtillegget for nettinnhold er aktivert i miljøet ditt.

Slik fungerer programtillegget for nettinnhold

Når programtillegget for nettinnhold er aktivert i chat, analyserer Copilot for Microsoft 365 brukerens ledetekst og identifiserer termer der nettjording kan forbedre kvaliteten på svaret. Basert på disse termene genererer Copilot en søkespørring som sendes til Bing-søk API-en som ber om mer informasjon. Denne søkespørringen er forskjellig fra brukerens ledetekst – den består vanligvis av noen få ord som er informert av brukerens ledetekst og/eller Microsoft 365 data. Det inkluderer ikke automatisk hele Microsoft 365-dokumenter som er knyttet til ledeteksten.

Tabellen nedenfor gir et eksempel på en brukers ledetekst, søkespørringene som er sendt, og Copilots svar.

Enhet Tekst
Ledetekst (som skrevet av brukeren) Vi vurderer en mulig anskaffelse av Fabrikam. Hjelp meg med å sette sammen en sammendragsrapport på 200 ord om offentlig tilgjengelig økonomisk informasjon om firmaet, inkludert deres forretningsstrategi.
Søkespørringer (generert av Copilot og sendt til Bing-søke-API-en) Fabrikam-strategi
Fabrikam-økonomi
Svar (generert av Copilot) Fabrikam er en CPG-oppstartsbedrift som tilbyr sunnere matalternativer, men med samme velkjente smak som tradisjonelle merker. Selskapet samlet inn USD 4,5 millioner i såkornfinansiering i 2019 og samlet inn 31,5 millioner USD i en serie B-finansieringsrunde i 2022. Fra og med januar 2023 samlet Fabrikam inn totalt USD 83,4 millioner i finansiering og er i rute for mer enn det dobbelte av salget i år.

Da pandemien traff, opplevde Fabrikam utfordringen med å dreie fra fysiske butikker til salg på nettet, og det var her deres markedsføringsstrategi for påvirkere kom inn i bildet. I stedet for å være avhengig av arrangementer og kampanjer i butikken, gikk Fabrikam over til partnerskap på sosiale medier og påvirkere for å bygge oppmerksomhet rundt merkevaren og nå et bredere publikum. Selskapet tilnærmet seg også innovasjon fra en genuin vinkel, og balanserte tradisjonelle forbruksdrivere med bedre tilbud og en helhetlig, robust distribusjonsstrategi.

I sum har Fabrikam samlet inn over USD 55 millioner i finansiering og har en sterk markedsføringsstrategi for påvirkere som har hjulpet dem med en overgang til nettsalg under pandemien.

I dette eksemplet sendes bare de to søkespørringene til Bing-søk API-en. Når brukeren har angitt ledeteksten, viser chatteopplevelsen alle spørringer som genereres og sendes til Bing. Brukerens ledetekster og Copilots svar lagres i Microsoft 365. Søkespørringer sendt til API-en for Bing-søk av Copilot for Microsoft 365 er fjernet fra bruker-ID-en og tenant-ID-en.

API-en for Bing-søk leveres av Bing.com, som opererer separat fra Microsoft 365 og har ulike praksiser for datahåndtering. Bruken av Bing dekkes av Microsofts tjenesteavtale mellom hver bruker og Microsoft, sammen med Microsofts personvernerklæring. Microsoft Products and Services Data Protection-tillegget (DPA) gjelder ikke for bruk av programtillegget for nettinnhold eller API for Bing-søk.

Kontroller som er tilgjengelige for å behandle bruken av nettinnhold

Administratorer kan blokkere tilgang til nettinnhold i Copilot for Microsoft 365. Hvis du vil ha mer informasjon, kan du se Administrere tilgang til nettinnhold i Microsoft Copilot for Microsoft 365-svar. Selv når administratoren tillater det, har brukerne fremdeles muligheten til å bruke programtillegget for nettet eller ikke. Hvis du vil ha mer informasjon, kan du se Bruke flere datakilder med Microsoft 365 Copilot.

Obs!

Policyinnstillingene som styrer bruken av valgfrie tilkoblede opplevelser i Microsoft 365 Apps, gjelder ikke for Microsoft Copilot for Microsoft 365 og nettinnhold.

Utvidelsesmuligheter for Microsoft Copilot for Microsoft 365

Selv om Microsoft Copilot for Microsoft 365 allerede er i stand til å bruke appene og dataene i Microsoft 365-økosystemet, er mange organisasjoner fortsatt avhengige av ulike eksterne verktøy og tjenester for arbeidsledelse og samarbeid. Microsoft Copilot for Microsoft 365-opplevelser kan referere til tredjepartsverktøy og -tjenester når du svarer på en brukers forespørsel ved hjelp av Microsoft Graph-koblinger eller plugin-moduler. Data fra Graph-koblinger kan returneres i Microsoft Copilot for Microsoft 365-svar hvis brukeren har tillatelse til å få tilgang til denne informasjonen.

Når plugin-moduler er aktivert, bestemmer Microsoft Copilot for Microsoft 365 om den må bruke en bestemt plugin-modul for å gi et relevant svar til brukeren. Hvis en plugin-modul er nødvendig, genererer Microsoft Copilot for Microsoft 365 en søkespørring som skal sendes til plugin-modulen på vegne av brukeren. Søkespørringen er basert på brukerens ledetekst, samtaleloggen i Copilot og data brukeren har tilgang til i Microsoft 365.

I delen Integrerte apper i Administrasjonssenter for Microsoft 365, kan administratorer vise tillatelsene og datatilgangen som kreves av en plugin-modul, i tillegg til vilkårene for bruk og personvernerklæringen for plugin-modulen. Administratorer har full kontroll for å velge hvilke plugin-moduler som er tillatt i organisasjonen. En bruker kan bare få tilgang til plugin-modulene som administratoren tillater, og som brukeren har installert eller er tilordnet. Microsoft Copilot for Microsoft 365 bruker bare plugin-moduler som er aktivert av brukeren.

Obs!

Policyinnstillingene som styrer bruken av valgfrie tilkoblede opplevelser i Microsoft 365 Apps gjelder ikke for plugin-moduler.

Hvis du vil ha mer informasjon, kan du se følgende artikler:

Hvordan beskytter Microsoft Copilot for Microsoft 365 organisasjonsdata?

Tillatelsesmodellen i Microsoft 365-leieren kan bidra til å sikre at data ikke utilsiktet lekker mellom brukere, grupper og leiere. Microsoft Copilot for Microsoft 365 presenterer bare data som hver enkelt har tilgang til ved hjelp av de samme underliggende kontrollene for datatilgang som brukes i andre Microsoft 365-tjenester. Semantisk indeks overholder den brukeridentitetsbaserte tilgangsgrensen, slik at jordingsprosessen bare får tilgang til innhold som gjeldende bruker har tillatelse til å få tilgang til. Hvis du vil ha mer informasjon, kan du se Microsofts personvernpolicy og tjenestedokumentasjon.

Når du har data som er kryptert av Microsoft Purview Information Protection, respekterer Microsoft Copilot for Microsoft 365 bruksrettighetene som gis til brukeren. Denne krypteringen kan brukes av følsomhetsetiketter eller av begrensede tillatelser i Microsoft 365-apper ved hjelp av Information Rights Management (IRM). Hvis du vil ha mer informasjon om hvordan du bruker Microsoft Purview med Microsoft Copilot for Microsoft 365, kan du se Microsoft Purview- datasikkerhet og -samsvarsbeskyttelse for Microsoft Copilot.

Vi implementerer allerede flere former for beskyttelse for å forhindre at kunder kompromitterer Microsoft 365-tjenester og -programmer eller får uautorisert tilgang til andre leiere eller selve Microsoft 365-systemet. Her er noen eksempler på disse formene for beskyttelse:

  • Logisk isolering av kundeinnhold i hver leier for Microsoft 365-tjenester oppnås gjennom Microsoft Entra ID-autorisasjon og rollebasert tilgangskontroll. Hvis du vil ha mer informasjon, kan du se Isolasjonskontroller for Microsoft 365.

  • Microsoft bruker streng fysisk sikkerhet, bakgrunnsscreening og en krypteringsstrategi med flere lag for å beskytte konfidensialiteten og integriteten til kundeinnhold.

  • Microsoft 365 bruker teknologier på tjenestesiden som krypterer inaktive og inaktive kundeinnhold, inkludert BitLocker, kryptering per fil, TLS (Transport Layer Security) og Internet Protocol Security (IPsec). Hvis du vil ha spesifikk informasjon om kryptering i Microsoft 365, kan du se Kryptering i Microsoft Cloud.

  • Din kontroll over dataene dine forsterkes av Microsofts forpliktelse til å overholde bredt gjeldende personvernlover, for eksempel GDPR, og personvernstandarder, for eksempel ISO/IEC 27018, verdens første internasjonale retningslinjer for personvern i skyen.

  • For innhold som er tilgjengelig via Microsoft Copilot for Microsoft 365-plugin-moduler, kan kryptering utelukke programmatisk tilgang, og dermed begrense plugin-modulens tilgang til innholdet. Hvis du vil ha mer informasjon, kan du se Konfigurere bruksrettigheter for Azure Information Protection.

Oppfylle forskriftsmessige krav til samsvar

Etter hvert som reguleringen i KI-området utvikler seg, vil Microsoft fortsette å tilpasse seg og svare for å oppfylle fremtidige forskriftsmessige krav.

Microsoft Copilot for Microsoft 365 er bygget over Microsofts nåværende forpliktelser til datasikkerhet og personvern i bedriften. Det er ingen endring i disse forpliktelsene. Microsoft Copilot for Microsoft 365 er integrert i Microsoft 365 og overholder alle eksisterende forpliktelser når det gjelder personvern, sikkerhet og samsvar overfor kommersielle Microsoft 365-kunder. Hvis du vil ha mer informasjon, kan du se Microsoft overholdelse av regler og standarder.

Utover å overholde forskrifter, prioriterer vi en åpen dialog med våre kunder, partnere og regulerende myndigheter for å bedre forstå og håndtere bekymringer, og dermed fremme et miljø av tillit og samarbeid. Vi erkjenner at personvern, sikkerhet og åpenhet ikke bare er funksjoner, men forutsetninger i det KI-drevne landskapet hos Microsoft.

Mer informasjon

Microsoft Copilot for Microsoft 365 og policyinnstillinger for tilkoblede opplevelser

Hvis du deaktiverer tilkoblede opplevelser som analyserer innhold for Microsoft 365-apps på Windows- eller Mac-enheter i organisasjonen, vil Microsoft Copilot for Microsoft 365-funksjoner ikke være tilgjengelige for brukerne i følgende apper:

  • Excel
  • PowerPoint
  • OneNote
  • Word

På samme måte vil ikke Microsoft Copilot for Microsoft 365-funksjoner i disse appene på Windows- eller Mac-enheter være tilgjengelige, hvis du deaktiverer bruken av tilkoblede opplevelser for Microsoft 365 Apps.

Hvis du vil ha mer informasjon om disse policyinnstillingene, kan du se følgende artikler:

Om innholdet som Microsoft Copilot for Microsoft 365 oppretter

Svarene som generativ KI produserer er ikke garantert å være 100 % riktige. Selv om vi fortsetter å forbedre svarene, bør brukerne fortsatt bruke skjønn når de gjennomgår utdataene før de sendes til andre. Microsoft Copilot for Microsoft 365-funksjonene gir nyttige utkast og sammendrag for å hjelpe deg med å oppnå mer, samtidig som du får sjansen til å gjennomgå den genererte kunstige intelligensen i stedet for å automatisere disse oppgavene fullstendig.

Vi fortsetter å forbedre algoritmer for proaktivt å løse problemer, for eksempel feilinformasjon og desinformasjon, innholdsblokkering, datasikkerhet og forebygging av promotering av skadelig eller diskriminerende innhold i tråd med våre ansvarlige KI-prinsipper.

Microsoft krever ikke eierskap over utdataene til tjenesten. Når det er sagt, bestemmer vi ikke om kundens utdata er opphavsrettbeskyttet eller håndhevbar mot andre brukere. Dette er fordi generative KI-systemer kan produsere lignende svar på lignende meldinger eller spørringer fra flere kunder. Derfor kan flere kunder ha eller kreve rettigheter i innhold som er likt eller vesentlig likt.

Hvis en tredjepart saksøker en kommersiell kunde for brudd på opphavsretten for bruk av Microsofts Copilots eller utdataene de genererer, vil vi forsvare kunden og betale beløpet for eventuelle negative vurderinger eller forlik som følge av søksmålet, så lenge kunden har brukt gelenderne og innholdsfiltrene vi har bygget inn i produktene våre. Hvis du vil ha mer informasjon, kan du se Microsoft annonserer nye Copilot Copyright Commitment for kunder.

Forpliktet til ansvarlig kunstig intelligens

Ettersom kunstig intelligens er klar til å forandre livene våre, må vi kollektivt definere nye regler, normer og praksis for bruk og innvirkning av denne teknologien. Microsoft har vært på en ansvarlig KI-reise siden 2017, da vi definerte prinsippene og tilnærmingen vår for å sikre at denne teknologien brukes på en måte som drives av etiske prinsipper som setter mennesker først.

Hos Microsoft styres vi av våre KI-prinsipper, vår Standard for ansvarlig kunstig intelligens og tiår med forskning på kunstig intelligens, jording og personvernbevarende maskinlæring. Et tverrfaglig team av forskere, ingeniører og policyeksperter gjennomgår KI-systemene våre for potensielle skader og reduksjoner – raffinering av opplæringsdata, filtrering for å begrense skadelig innhold, spørrings- og resultatblokkering av sensitive emner og bruk av Microsoft-teknologier som InterpretML og Fairlearn for å oppdage og korrigere dataskjevhet. Vi gjør det klart hvordan systemet tar beslutninger ved å merke seg begrensninger, koble til kilder og be brukere om å gjennomgå, faktasjekke og justere innhold basert på fagekspertise. Hvis du vil ha mer informasjon, kan du se Styrende kunstig intelligens: En kursplan for fremtiden.

Vi tar sikte på å hjelpe kundene våre med å bruke KI-produktene våre på en ansvarlig måte, dele det vi har lært og bygge tillitsbaserte partnerskap. For disse nye tjenestene ønsker vi å gi kundene våre informasjon om de tiltenkte bruksområdene, mulighetene og begrensningene til KI-plattformtjenesten vår, slik at de har kunnskapen som er nødvendig for å ta ansvarlige utrullingsvalg. Vi deler også ressurser og maler med utviklere i organisasjoner og med uavhengige programvareleverandører (ISV-er), for å hjelpe dem med å bygge effektive, sikre og transparente KI-løsninger.