Riktlinjer för ansvarsfull implementering av Personanpassare
För att människor och samhället ska kunna förverkliga ai-potentialen fullt ut måste implementeringar utformas på ett sådant sätt att de får förtroende för dem som lägger till AI i sina program och användare av program som skapats med AI. Dessa riktlinjer hjälper dig att implementera Personanpassare på ett sätt som hjälper dig att skapa förtroende för ditt företag och din tjänst. Var noga med att pausa för att undersöka, lära dig och avsiktligt om hur personanpassning påverkar människors liv. Om du är osäker kan du söka vägledning.
Dessa riktlinjer är inte avsedda som juridisk rådgivning och du bör se till att ditt program följer den snabba utvecklingen inom juridiken inom det här området och inom din sektor.
När du utformar ditt program med Personanpassare bör du dessutom överväga en bred uppsättning ansvarsområden som du har när du utvecklar ett datacentrerat AI-system, inklusive etik, sekretess, säkerhet, säkerhet, inkludering, transparens och ansvar. Du kan läsa mer om dessa i avsnittet Rekommenderad läsning.
Du kan använda följande innehåll som en checklista för start och anpassa och förfina det till ditt scenario. Det här dokumentet innehåller två huvudavsnitt: Den första handlar om att lyfta fram överväganden om ansvarsfull användning när du väljer scenarier, funktioner och förmåner för Personanpassare. Den andra tar en uppsättning värden som Microsoft anser bör övervägas när du skapar AI-system och ger användbara förslag och risker på hur din användning av Personanpassare påverkar dem.
Ditt ansvar
Alla riktlinjer för ansvarsfull implementering bygger på att utvecklare och företag som använder Personanpassare är ansvariga för effekterna av att använda dessa algoritmer i samhället. Om du utvecklar ett program som din organisation ska distribuera bör du känna igen din roll och ditt ansvar för dess drift och hur det påverkar människor. Om du utformar ett program som ska distribueras av en tredje part kan du komma till en delad förståelse med dem om vem som i slutändan ansvarar för programmets beteende och dokumentera den förståelsen.
Förtroende bygger på begreppet uppfyllda åtaganden – tänk på dina användare, samhället och det juridiska ramverk som dina program arbetar i för att identifiera explicita och implicita åtaganden som de kan ha.
Microsoft arbetar ständigt med sina verktyg och dokument för att hjälpa dig att agera på dessa ansvarsområden. Ge feedback till Microsoft om du tror att ytterligare verktyg, produktfunktioner och dokument skulle hjälpa dig att implementera dessa riktlinjer för att använda Personanpassare.
Faktorer för att implementera Personanpassare på ett ansvarsfullt sätt
Att implementera Personanpassare kan vara av stort värde för dina användare och din verksamhet. Om du vill implementera Personanpassaren på ett ansvarsfullt sätt börjar du med att tänka på följande riktlinjer när:
- Välja användningsfall för att tillämpa anpassning.
- Skapa belöningsfunktioner.
- Välja vilka funktioner om kontexten och möjliga åtgärder som du ska använda för anpassning.
Välja användningsfall för Personanpassare
Det är användbart att använda en tjänst som lär sig att anpassa innehåll och användargränssnitt. Den kan också användas felaktigt om det sätt som anpassningen skapar negativa sidoeffekter i verkligheten, även om användarna inte känner till innehållsanpassning.
Exempel på användningsområden för Personanpassare med förhöjd potential för negativa sidoeffekter eller brist på transparens är scenarier där "belöningen" är beroende av många långsiktiga komplexa faktorer som, när de överreparerats till en omedelbar belöning, kan ge icke-favoritbara resultat för individer. Dessa tenderar att betraktas som "följdval" eller alternativ som medför risk för skada. Exempel:
- Ekonomi: Anpassa erbjudanden om lån, finansiella produkter och försäkringsprodukter, där riskfaktorer baseras på data som individerna inte känner till, inte kan erhålla eller inte kan bestrida.
- Utbildning: Anpassa rangordningar för skolkurser och utbildningsutbildningsutbildningar där rekommendationer kan sprida bias och minska användarnas medvetenhet om andra alternativ.
- Att delta i programmet och delta i programmet: Personisering av innehåll för användare med målet att påverka åsikter är följdriktig och manipulativ.
- Utvärdering av tredjepartsbelöning: Anpassa objekt där belöningen baseras på en senare utvärdering från tredje part av användaren, i stället för att få en belöning som genereras av användarens eget beteende.
- Utforskning: Alla situationer där utforskningsbeteendet hos Personanpassaren kan orsaka skada.
När du väljer användningsfall för Personanpassare:
- Starta designprocessen och överväg hur anpassningen hjälper dina användare.
- Tänk på de negativa konsekvenserna i den verkliga världen om vissa objekt inte rangordnas för användare på grund av anpassningsmönster eller utforskning.
- Överväg om ditt användningsfall utgör automatiserad bearbetning som avsevärt påverkar registrerade som regleras enligt GDPR-artikel 22 eller andra lagar.
- Överväg självuppfyllande slingor. Detta kan inträffa om en personanpassningsbelöning tränar en modell så att den senare kan utesluta en demografisk grupp från att komma åt relevant innehåll. Till exempel får de flesta personer i ett låginkomstområde inte ett socialförsäkringserbjudande, och långsamt brukar ingen i närheten se erbjudandet alls om det inte finns tillräckligt med utforskning.
- Spara kopior av modeller och inlärningsprinciper om det är nödvändigt att återskapa Personanpassare i framtiden. Du kan göra detta regelbundet eller varje uppdateringsperiod för modellen.
- Överväg vilken nivå av utforskning som är lämplig för utrymmet och hur du använder den som ett verktyg för att minimera "echo chamber"-effekter.
Välja funktioner för Personanpassare
Anpassning av innehåll beror på att du har användbar information om innehållet och användaren. Tänk på att för vissa program och branscher kan vissa användarfunktioner direkt eller indirekt betraktas som skadliga och potentiellt ogiltiga.
Överväg effekten av dessa funktioner:
- Användardemografi: Funktioner som rör kön, kön, ålder, ras, ras: Dessa funktioner kan inte tillåtas i vissa program av regelmässiga skäl och det kanske inte är etiskt att anpassa runt dem eftersom personanpassningen skulle sprida generaliseringar och bias. Ett exempel på den här biasspridningen är ett jobb där tekniker inte visas för personer som är könsbaserade eller inte.
- Språkinformation: På många platser i världen kan platsinformation (till exempel postnummer, postnummer eller hemnamn) vara starkt korrelerad med inkomst, ras och efternamn.
- Användaruppfattning av rättvisa: Även i fall där ditt program fattar bra beslut bör du överväga effekten av att användare uppfattar att innehållet som visas i ditt program ändras på ett sätt som verkar vara korrelerat med funktioner som skulle vara bra.
- Oavsiktlig bias i funktioner: Det finns typer av bias som kan introduceras med hjälp av funktioner som endast påverkar en delmängd av populationen. Detta kräver extra uppmärksamhet om funktioner genereras algoritmiskt, till exempel när du använder bildanalys för att extrahera objekt i en bild- eller textanalys för att identifiera entiteter i text. Se till att du är medveten om egenskaperna för de tjänster som du använder för att skapa dessa funktioner.
Använd följande metoder när du väljer vilka funktioner som ska skickas i kontexter och åtgärder till Personanpassaren:
- Överväg laglighet och etik när det gäller att använda vissa funktioner för vissa program, och huruvida sämst etiska funktioner kan vara proxy för andra som du vill eller bör undvika,
- Var transparent för användarna om att algoritmer och dataanalys används för att anpassa de alternativ som de ser.
- Fråga dig själv: Skulle mina användare vara nöjda om jag använde den här informationen för att anpassa innehållet åt dem? Skulle jag känna mig bekväm med att visa hur beslutet togs att markera eller dölja vissa objekt?
- Använd beteende i stället för klassificerings- eller segmenteringsdata baserat på andra egenskaper. Demografisk information användes traditionellt av återförsäljare av historiska skäl – demografiska attribut verkade enkla att samla in och agera på före en digital tid, men frågan hur relevant demografisk information är när du har faktisk interaktion, kontextuella och historiska data som är mer relaterade till användarnas preferenser och identitet.
- Överväg hur du ska förhindra att funktioner "förfalskas" av illvilliga användare, vilket om de utnyttjas i stora mängder kan leda till att personanpassaren tränas på ett missvisande sätt för att avsiktligt störa, skada och trakassera vissa klasser av användare.
- När det är lämpligt och möjligt kan du utforma programmet så att användarna kan välja att använda eller välja bort vissa personliga funktioner. Dessa kan grupperas, till exempel "Platsinformation", "Enhetsinformation", "Tidigare inköpshistorik" osv.
Beräkningsbelöningar för personanpassare
Personanpassaren strävar efter att förbättra valet av åtgärd för belöning baserat på den belöningspoäng som tillhandahålls av din affärslogik för program.
En välbyggd belöningspoäng fungerar som en kortsiktig proxy till ett affärsmål som är kopplat till en organisations uppdrag.
Om du till exempel till exempel tillar dig på klick gör det möjligt för Personanpassartjänsten att söka efter klick på bekostnad av allt annat, även om det som klickas på är störande eller inte är kopplat till ett affärsresultat.
Som ett kontrasterande exempel kanske en nyhetswebbplats vill ge förmåner som är knutna till något mer meningsfullt än klickningar, till exempel "Har användaren tillbringat tillräckligt med tid för att läsa innehållet?" "Klickade de på relevanta artiklar eller referenser?". Med Personanpassare är det enkelt att knyta mått nära till förmåner. Men var noga med att inte stör kortvariga användarinteragemang med bra resultat.
Oönskade konsekvenser från belöningspoäng
Belöningspoäng kan skapas med de bästa avsikterna, men kan fortfarande skapa oväntade konsekvenser eller oavsiktliga resultat på hur Personanpassare rangordnar innehåll.
Överväg följande exempel:
- Givande av anpassning av videoinnehåll i den procentandel av videolängden som tittas på tenderar förmodligen att rangordna kortare videor.
- Att tillräkna sociala medier kan, utan attitydanalys av hur det delas eller själva innehållet, leda till rangordning av stötande, omodererat eller givande innehåll, som tenderar att ge mycket "engagemang", men ger lite värde.
- Att tillfredsställande åtgärder för användargränssnittselement som användarna inte förväntar sig att ändra kan störa användargränssnittens användbarhet och förutsägbarhet, där knappar överraskande ändrar plats eller syfte utan varning, vilket gör det svårare för vissa grupper av användare att fortsätta vara produktiva.
Implementera följande metodtips:
- Kör offlineexperiment med ditt system med olika metoder för belöning för att förstå påverkan och sidoeffekter.
- Utvärdera dina belöningsfunktioner och fråga dig själv hur en mycket na nave person skulle tolka den och nå oönskade resultat med den.
Överväganden för ansvarsfull design
Följande är designområden för ansvarsfulla implementeringar av AI. Lär dig mer om det här ramverket i The Future Computed.

Ansvar
Personer som utformar och distribuerar AI-system måste vara ansvariga för hur deras system fungerar.
- Skapa interna riktlinjer för hur du implementerar personanpassare, dokumenterar och kommunicerar dem med ditt team, chefer och leverantörer.
- Utför periodiska granskningar av hur belöningspoäng beräknas, utför offlineutvärderingar för att se vilka funktioner som påverkar Personanpassaren och använd resultaten för att eliminera onödiga och onödiga funktioner.
- Kommunicera tydligt för användarna hur Personanpassare används, i vilket syfte och med vilka data.
- Arkivera information och tillgångar – till exempel modeller, inlärningsprinciper och andra data – som Personanpassare använder för att fungera för att kunna återskapa resultat.
Transparens
AI-system bör vara begripliga. Med Personanpassare:
- Ge användarna information om hur innehållet har anpassats. Du kan till exempel visa användarna en knapp märkt som visar vilka av användarens viktigaste funktioner och vilka åtgärder som spelar en roll
Why These Suggestions?i resultatet av Personanpassaren. - Se till att dina användningsvillkor nämner att du kommer att använda information om användare och deras beteende för att anpassa upplevelsen.
Rättvisa
AI-system bör behandla alla människor rättvist.
- Använd inte Personanpassare för användningsfall där resultatet är långsiktigt, följdande eller innebär verklig skada.
- Använd inte funktioner som inte är lämpliga för att anpassa innehåll med, eller som kan bidra till att sprida oönskade fördomar. Till exempel bör alla med liknande ekonomiska omständigheter se samma anpassade rekommendationer för finansiella produkter.
- Förstå bias som kan finnas i funktioner som kommer från redigerare, algoritmiska verktyg eller själva användarna.
Tillförlitlighet och säkerhet
AI-system bör fungera på ett tillförlitligt och säkert sätt. För Personanpassare:
- Ange inte åtgärder för Personanpassare som inte ska väljas. Till exempel bör olämpligt filmer filtreras bort från åtgärder för att anpassa om du gör en rekommendation för en anonym användare eller underåldersanvändare.
- Hantera din personanpassarmodell som en affärstillgång. Fundera över hur ofta du vill spara och stillgångar på modell- och inlärningsprinciperna bakom din loop för personanpassare och på annat sätt hantera den som en viktig affärstillgång. Det är viktigt att återskapa tidigare resultat för självgranskning och mätning av förbättringar.
- Ange kanaler för att få direkt feedback från användare. Förutom att koda säkerhetskontroller för att se till att endast rätt målgrupper ser rätt innehåll kan du tillhandahålla en feedbackmekanism för användare att rapportera innehåll som kan vara överraskande eller konstigt. Särskilt om ditt innehåll kommer från användare eller tredje part bör du överväga att använda Microsoft Content Moderator eller ytterligare verktyg för att granska och verifiera innehåll.
- Utför frekventa offlineutvärderingar. Detta hjälper dig att övervaka trender och se till att effektiviteten är känd.
- Upprätta en process för att identifiera och agera på skadlig manipulering. Det finns aktörer som kan dra nytta av maskininlärning och AI-systems förmåga att lära sig från sin miljö för att flytta resultatet mot sina mål. Om din användning av Personanpassare kan påverka viktiga val, se till att du har rätt sätt att identifiera och minimera dessa klasser av attacker, inklusive mänsklig granskning under lämpliga omständigheter.
Säkerhet och sekretess
AI-system ska vara säkra och respektera sekretessen. När du använder Personanpassare:
- Informera användarna direkt om de data som samlas in och hur de används och få deras medgivande i förväg, enligt dina lokala och branschbestämmelser.
- Tillhandahåll sekretessskydd för användarkontroller. För program som lagrar personlig information bör du överväga att tillhandahålla en lätt att hitta-knapp för funktioner som:
Show me all you know about meForget my last interactionDelete all you know about me
I vissa fall kan dessa krävas enligt lag. Överväg kompromisserna med omträning av modeller med jämna mellanrum så att de inte innehåller spår av borttagna data.
Inkludering
Hantera en mängd olika mänskliga behov och erfarenheter.
- Tillhandahåll personliga upplevelser för hjälpmedelsaktiverade gränssnitt. Den effektivitet som kommer från en bra personanpassning – som används för att minska mängden arbete, rörelser och onödiga upprepningar i interaktioner – kan vara särskilt användbar för personer med funktionsnedsättningar.
- Justera programmets beteende till kontext. Du kan använda Personanpassare för att skilja mellan avsikter i en chattrobot, till exempel eftersom rätt tolkning kan vara kontextuell och en storlek kanske inte passar alla.
Proaktiv beredskap för ökat dataskydd och styrning
Det är svårt att förutsäga specifika ändringar i regelsammanhang, men i allmänhet är det klokt att gå längre än det minsta juridiska ramverket för att säkerställa en respekterad användning av personuppgifter och tillhandahålla transparens och val som rör algoritmiskt beslutsfattande.
- Överväg att planera i förväg i en situation där det kan finnas nya begränsningar för data som samlas in från individer och det finns ett behov av att visa hur de användes för att fatta beslut.
- Överväg extra beredskap där användare kan inkludera marginaliserade sårbara grupper, barn, användare i ekonomisk sårbarhet eller användare som annars är sårbara för påverkan från algoritmisk manipulering.
- Tänk på den stora dissatisfaction med hur målgrupps- och målgruppspåverkande program och algoritmer för datainsamling har utspelat sig och hur du undviker beprövade strategiska fel.
Proaktiva utvärderingar under projektlivscykeln
Överväg att skapa metoder för teammedlemmar, användare och företagsägare för att rapportera frågor om ansvarsfull användning och skapa en process som prioriterar deras lösning och förhindrar förtrycket.
Alla som tänker på sidoeffekter av användning av teknik begränsas av deras perspektiv och livsupplevelse. Utöka antalet åsikter som är tillgängliga genom att föra in fler röster i dina team, användare eller rådgivningstavlor; så att det är möjligt och uppmuntras att tala upp. Överväg utbildnings- och utbildningsmaterial för att ytterligare utöka teamkunskaperna inom den här domänen och lägga till funktioner för att diskutera komplexa och känsliga ämnen.
Överväg att behandla uppgifter som rör ansvarsfull användning precis som andra korsningsuppgifter i programmets livscykel, till exempel uppgifter som rör användarupplevelse, säkerhet eller DevOps. Dessa uppgifter och deras krav kan inte vara en efter omsegen. Ansvarsfull användning bör diskuteras och verifieras under programmets livscykel.
Frågor och feedback
Microsoft arbetar ständigt med verktyg och dokument för att hjälpa dig att agera på dessa ansvarsområden. Vårt team bjuder in dig att ge feedback till Microsoft om du tror att ytterligare verktyg, produktfunktioner och dokument skulle hjälpa dig att implementera dessa riktlinjer för att använda Personanpassare.
Rekommenderad läsning
- Se Microsofts sex principer för ansvarsfull utveckling av AI som publicerades i januari 2018-boken The Future Computed
- Vem äger framtiden? av Jaron Lanier.
- Math Destruktion av – Mathy O'Mate
- Ethics and Data Science av DJ Patil, Hilary Gäller, Mike MikeKides.
- ACM-kod för etik
- Genetisk information om icke-avidentifieringslag – GINA
- FATML-principer för ansvariga algoritmer