Del via


Vanlige spørsmål om Copilot-datasikkerhet og -personvern for Dynamics 365 og Power Platform

Funksjoner for Copilot for Dynamics 365 og Power Platform følger et sett med kjernesikkerhets- og personvernpraksiser og Microsofts standard for ansvarlig kunstig intelligens. Dynamics 365- og Power Platform-data er beskyttet av omfattende, bransjeledende samsvars-, sikkerhets- og personvernkontroller.

Copilot er bygd på Microsoft Azure OpenAI Service og kjøres fullstendig innenfor Azure-skyen. Azure OpenAI tilbyr områdetilgjengelighet og innholdsfiltrering for ansvarlig kunstig intelligens. Copilot bruker OpenAI-modeller med alle sikkerhetsfunksjonene i Microsoft Azure. OpenAI er en uavhengig organisasjon. Vi deler ikke dataene med OpenAI.

Copilot-funksjoner er ikke tilgjengelige i alle geografiske områder og språk for Azure. Avhengig av hvor miljøet er vertsbasert, må du kanskje tillate at dataflytting på tvers av geografiske områder kan bruke dem. Hvis du vil ha mer informasjon, kan du se artiklene under Dataflytting på tvers av geografiske områder.

Hva skjer med dataene når jeg bruker Copilot?

Du har kontroll over dataene. Microsoft deler ikke dataene med en tredjepart med mindre du har gitt tillatelse til det. Vi bruker heller ikke kundedataene til å lære opp Copilot eller KI-funksjonene med mindre du gir samtykke til at vi kan gjøre det. Copilot overholder eksisterende datatillatelser og retningslinjer, og svarene til deg er bare basert på data som du personlig har tilgang til. Hvis du vil ha mer informasjon om hvordan du styrer dataene og hvordan dataene håndteres, kan du se artiklene under Copilot i Dynamics 365-apper og Power Platform.

Copilot ser etter misbrukende eller skadelig bruk av tjenesten med midlertidig behandling. Vi verken lagrer eller utfører gjennomgang av Copilot-inndata og -utdata til misbruksovervåkingsformål.

Hvordan bruker Copilot dataene? 

Hver tjeneste eller funksjon bruker Copilot basert på dataene du har oppgitt eller konfigurert som Copilot kan behandle.

Spørringene (inndata) og Copilots svar (utdata eller resultater):

  • er IKKE tilgjengelige for andre kunder

  • brukes IKKE til å lære opp eller forbedre noen tredjepartsprodukter eller -tjenester (som OpenAI-modeller)

  • brukes IKKE til å lære opp eller forbedre Microsofts modeller for kunstig intelligens med mindre leieradministratoren har valgt å dele data med oss

Finn ut mer om data, personvern og sikkerhet for Azure OpenAI Service. Hvis du vil finne ut mer om hvordan Microsoft beskytter og bruker dataene generelt, kan du lese personvernerklæringen.

Hvor går dataene?

Microsoft drives av tillit. Vi er forpliktet til sikkerhet, personvern og samsvar i alt vi gjør, og tilnærmingen vår til kunstig intelligens er ikke annerledes. Kundedata, inkludert Copilot-inndata og -utdata, lagres innenfor klareringsgrensen for Microsoft Cloud.

I noen scenarioer, for eksempel funksjoner som leveres av Bing og tredjeparts kopilotprogramtillegg, kan kundedata overføres utenfor klareringsgrensen for Microsoft Cloud.

Kan Copilot få tilgang til kryptert innhold?

Data er gitt til Copilot basert på tilgangsnivået til nåværende bruker. Hvis en bruker har tilgang til krypterte data i Dynamics 365 og Power Platform og brukeren gir dem til Copilot, har Copilot tilgang til dem.

Hvordan beskytter Copilot kundedata?

Microsoft er unikt posisjonert for å levere bedriftsklar kunstig intelligens. Copilot leveres av Azure OpenAI Service og samsvarer med de eksisterende forskriftsmessige forpliktelsene til personvern, sikkerhet og samsvar til kundene.

  • Basert på Microsofts omfattende tilnærming til sikkerhet, personvern og samsvar Copilot er integrert i Microsoft-tjenester som Dynamics 365 og Power Platform og arver retningslinjene og prosessene for sikkerhet, personvern og samsvar, som flerfaktorautentisering og samsvarsgrenser.

  • Flere former for beskyttelse for å beskytte organisasjonsdata Teknologier på servicesiden krypterer organisasjonsinnhold både inaktivt og underveis for robust sikkerhet. Tilkoblinger ivaretas med TLS (Transport Layer Security), og dataoverføringer mellom Dynamics 365 Power Platform og Azure OpenAI skjer over Microsofts baknettverk, noe som sikrer både pålitelighet og sikkerhet. Finn ut mer om kryptering i Microsoft Cloud.

  • Utformet for å beskytte dataene på både leier- og miljønivået Vi vet at datalekkasjer er en bekymring for kunder. Modeller for kunstig intelligens fra Microsoft er ikke opplært på og lærer ikke av leierdataene eller spørringene med mindre leieradministratoren har valgt å dele data med oss. I miljøene kan du kontrollere tilgang via tillatelser du konfigurerer. Godkjennings- og godkjenningsmekanismer skiller mellom forespørsler til den delte modellen blant leiere. Copilot bruker data som bare du har tilgang til, ved hjelp av den samme teknologien som vi har brukt i årevis for å sikre kundedata.

Er svarene fra Copilot alltid saklige?

Som med all generativ kunstig intelligens er ikke svarene fra Copilot garantert å være 100 % saklige. Selv om vi fortsetter å forbedre svarene på faktabaserte forespørsler, bør du fremdeles bruke dømmekraften din og gå gjennom utdataene før du sender dem til andre. Copilot gir nyttige utkast og sammendrag som hjelper deg med å gjøre mer, men det er helt automatisk. Du har alltid mulighet til å se gjennom innholdet generert av kunstig intelligens.

Teamene våre arbeider med å løse problemer proaktivt, for eksempel feilinformasjon og desinformasjon, innholdsblokkering, datasikkerhet og markedsføring av skadelig eller diskriminerende innhold i henhold til prinsippene for ansvarlig kunstig intelligens.

Vi tilbyr også veiledning i brukeropplevelsen for å formidle ansvarlig bruk av innhold og foreslåtte handlinger generert av kunstig intelligens.

  • Instruksjoner og spørringer Når du bruker Copilot, minner spørringer og andre instruksjonselementer deg på å gå gjennom og redigere svarene etter behov og manuelt å kontrollere fakta, data og tekst for nøyaktighet før du bruker innholdet generert av kunstig intelligens.

  • Siterte kilder Der det er aktuelt, siterer Copilot informasjonskildene, enten offentlige eller interne, slik at du kan gå gjennom dem selv for å bekrefte svarene.

Hvis du vil ha mer informasjon, kan du se vanlige spørsmål om ansvarlig kunstig intelligens for produktet på Microsoft Learn.

Hvordan blokkerer Copilot skadelig innhold?

Azure OpenAI Service inneholder et innholdsfiltreringssystem som fungerer sammen med kjernemodeller. Modellene for innholdsfiltrering for kategoriene Hat og rettferdighet, Seksuelt, Vold og Selvskading er spesielt opplært og testet på ulike språk. Dette systemet fungerer ved å kjøre både inndataspørringen og svaret via klassifiseringsmodeller som er utformet til å identifisere og blokkere skadelig innhold i utdataene.

Skadelig innhold knyttet til hat og rettferdighet henviser til alt innhold som bruker negativt eller diskriminerende språk basert på attributter som rase, etnisitet, nasjonalitet, kjønnsidentitet og -uttrykk, seksuell legning, religion, immigrasjonsstatus, funksjonsstatus, personlig utseende og kroppsstørrelse. Rettferdighet handler om å sørge for at systemene med kunstig intelligens behandler alle grupper av personer likt uten å bidra til eksisterende sosiale ulikheter. Seksuelt innhold involverer samtaler om menneskers forplantningsorganer, romantiske relasjoner, handlinger fremstilt i erotiske eller hengivende begreper, graviditet, fysiske seksuelle handlinger, inkludert de som portretteres som et overgrep eller en tvunget handling av seksuell vold, prostitusjon, pornografi og misbruk. Vold beskriver språk knyttet til fysiske handlinger som er ment å skade eller drepe, inkludert handlinger, våpen og relaterte enheter. Selvskadingsspråk henviser til overlagte handlinger som er ment å skade eller drepe seg selv.

Finn ut mer om Azure OpenAI-innholdsfiltrering.

Blokkerer Copilot spørringsinjeksjoner (jailbreak-angrep)?

Jailbreak-angrep er brukerspørringer utformet for å provosere modellen for generativ kunstig intelligens til å vise virkemåter den ble opplært til å unngå, eller bryte reglene den er angitt å følge. Tjenester i Dynamics 365 og Power Platform må beskytte mot spørringsinjeksjoner. Finn ut mer om jailbreak-angrep og hvordan du bruker Azure AI Content Safety til å registrere dem.

Hvordan tester og validerer Microsoft Copilot kvalitet, inkludert beskyttelse mot spørringsinjeksjon og begrunnede svar?

Alle nye gjentakelser for Copilot-produkter og -språkmodeller må bestå en intern ansvarlig gjennomgang av kunstig intelligens før de kan startes. Før utgivelsen bruker vi en prosess som kalles «red teaming» (der et team simulerer et angrep og finner og utnytter svakheter for å hjelpe organisasjonen med å forbedre forsvaret) til å vurdere potensielle risikoer i skadelig innhold, jailbreak-scenarioer og begrunnede svar. Etter utgivelsen bruker vi automatiserte tester samt manuelle og automatiserte evalueringsverktøy til å vurdere kvaliteten på Copilot-svar.

Hvordan forbedrer Microsoft grunnmodellen og måler forbedringer i begrunnede svar?

Når det gjelder kunstig intelligens, spesielt kunstig intelligens som håndterer språkmodeller som den Copilot er basert på, bidrar begrunnelse til at kunstig intelligens genererer svar som er mer relevante og gir mening i den virkelige verden. Begrunnelse bidrar til å sikre at svarene fra kunstig intelligens er basert på pålitelig informasjon og er så nøyaktige og relevante som mulig. Måleverdier for begrunnede svar vurderer hvor nøyaktig fakta som oppgis i det begrunnede innholdet i modellen, representeres i det endelige svaret.

Grunnmodeller som GPT-4 forbedres av teknikker for utvidet generering. Disse teknikkene gjør det mulig for modellene å bruke mer informasjon enn de var opplært på til å forstå en brukers scenario. Utvidet generering identifiserer først data som er relevante for scenarioet, på samme måte som en søkemotor identifiserer nettsider som er relevante for brukerens søkeord. Den bruker flere tilnærminger til å identifisere hvilket innhold som er relevant for brukerspørringen og skal brukes til å begrunne svaret. Tilnærminger omfatter søk mot ulike typer indekser, for eksempel inverterte indekser som bruker teknikker for informasjonshenting som termsamsvar, eller vektorindekser som bruker vektoravstandssammenligninger for semantisk likhet. Når den har identifisert de relevante dokumentene, sender utvidet generering dataene til modellen sammen med den nåværende samtalen, noe som gir modellen mer kontekst til bedre å forstå informasjonen den allerede har, og generere et svar som er begrunnet i den virkelige verden. Til slutt kontrollerer utvidet generering svaret for å kontrollere at det støttes av kildeinnholdet som ble gitt til modellen. Funksjoner for generativ kunstig intelligens i Copilot bruker utvidet generering på flere måter. Et eksempel er nettprat med data der en samtalerobot er begrunnet med kundens egne datakilder.

En annen metode for forbedring av grunnmodeller er kjent som finjustering. En stort datasett med par for spørring og svar vises til en grunnmodell for å utvide den opprinnelige opplæringen med nye eksempler som er rettet mot et bestemt scenario. Modellen kan deretter rulles ut som en separat modell – en som er finjustert for dette scenarioet. Selv om begrunnelse handler om å gjøre kunnskapen til kunstig intelligens relevant for den virkelige verden, handler finjustering om å gjøre kunnskapen til kunstig intelligens mer spesifikk for en bestemt oppgave eller et bestemt domene. Microsoft bruker finjustering på flere måter. Vi bruker for eksempel Power Automate-flytoppretting fra beskrivelser på naturlig språk som gis av brukeren.

Oppfyller Copilot kravene om forskriftsmessig samsvar?

Microsoft Copilot er en del av Dynamics 365- og Power Platform-økosystemet og oppfyller de samme kravene om forskriftsmessig samsvar. Hvis du vil ha mer informasjon om forskriftsmessige sertifiseringer av Microsoft-tjenester, kan du gå til Service Trust Portal. I tillegg overholder Copilot vår forpliktelse til ansvarlig kunstig intelligens, som brukes i praksis via standarden for ansvarlig kunstig intelligens. Etter hvert som forskriftene innen kunstig intelligens utvikler seg, fortsetter Microsoft å tilpasse seg og svare på nye krav.

Finn ut mer om tilgjengelighet for Dynamics 365, Power Platform og Copilot, kundedataplasseringer og samsvar med globale, regionale og bransjespesifikke krav for å håndtere data.

Finn ut mer

Copilot i Dynamics 365-apper og Power Platform

Produkt Funksjon Er administrerte miljøer påkrevd? Slik deaktiverer du funksjonen
AI Builder Scenarioer i forhåndsversjon Nei Scenarioer i forhåndsversjon
Dynamics 365 Customer Insights - Data Opprett segmenter med Copilot for Customer Insights - Data (forhåndsversjon) Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Oversikt over dataforberedelsesrapport (forhåndsversjon) Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Få svar på spørsmål om funksjoner fra Copilot (forhåndsversjon) Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights (data) Ha en dialog med data ved å bruke Copilot i Customer Insights Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Vis systemkonfigurasjon Nei Customer Insights - Data har sitt eget flagg for alle Copilot-funksjonene av Azure OpenAI.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot hjelper deg med å lære og gjøre mer (gjennomgang) Nei Om denne kopiloten er tilgjengelig i miljøet ditt, bestemmes av Power Platform-administratorinnstillingene. Finn ut hvordan du legger til Copilot for modelldrevne apper.


Denne funksjonen er «appkopilot i Customer Insights - Journeys», og det er derfor den er aktivert i administrasjonssenteret for Power Platform. Finn ut mer: Vanlige spørsmål om ansvarlig kunstig intelligens
Dynamics 365 Customer Insights - Journeys Opprett reiser ved å bruke KI-hjelp Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Oppdater og perfeksjoner meldingen Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Legg til stil i e-postene med KI-assisterte temaer Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nå ut til de riktige kundene ved å bruke spørringshjelp

Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruk kunstig intelligens til å sette fart på e-postoppretting Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruk bilder i innholdet Nei Customer Insights - Journeys har sine egne flagg for Copilot-funksjoner.

Finn ut mer: Gi samtykke til å bruke Copilot i Customer Insights - Journeys
Power Apps Bygg apper via samtaler (forhåndsversjon) Nei Administrer funksjonsinnstillinger
Power Apps Copilot-hjelp for skjemautfylling i modelldrevne apper Nei Administrer funksjonsinnstillinger
Power Apps Lag utkast til velskrevet inndatatekst med Copilot Nei, Premium-brukerlisens Lag utkast til velskrevet inndatatekst med Copilot
Power Apps Excel til tabell Nei Administrer funksjonsinnstillinger
Power Apps Bruk naturlig språk til å redigere en app ved hjelp av Copilot-panelet Nei Administrer funksjonsinnstillinger
Power Automate Copilot i skyflytprosesser på startsiden og i utformingen (Se Kom i gang med Copilot i skyflyt hvis du vil ha mer informasjon.) Nei Kontakt kundestøtte for å kjøre et PowerShell-skript.
Power Pages Alle (Se Copilot-oversikt i Power Pages hvis du vil ha mer informasjon.) Nei Deaktiver Copilot i Power Pages

Område- og språktilgjengelighet

Internasjonal tilgjengelighet for Copilot

Dataflytting på tvers av geografiske områder

Sikkerhet hos Microsoft

Personvern hos Microsoft

Microsofts personvernerklæring

Ansvarlig kunstig intelligens