Richtlijnen voor een verantwoorde implementatie van Personalizer
Om ervoor te zorgen dat mensen en de samenleving het volledige potentieel van AI kunnen benutten, moeten implementaties zodanig worden ontworpen dat ze het vertrouwen krijgen van degenen die AI toevoegen aan hun toepassingen en de gebruikers van toepassingen die zijn gebouwd met AI. Deze richtlijnen zijn gericht op het implementeren van Personalizer op een manier waarmee u vertrouwen in uw bedrijf en service kunt opbouwen. Zorg ervoor dat u pauzeert om de impact van de persoonlijke voorkeur op het leven van mensen te onderzoeken, te leren en te opzettelijk. Zoek bij twijfel naar richtlijnen.
Deze richtlijnen zijn niet bedoeld als juridisch advies en u moet er afzonderlijk voor zorgen dat uw toepassing voldoet aan de snelle ontwikkelingen in de wet op dit gebied en in uw sector.
Bij het ontwerpen van uw toepassing met Personalizer moet u ook rekening houden met een breed scala aan verantwoordelijkheden die u hebt bij het ontwikkelen van een gegevensgericht AI-systeem, waaronder ethiek, privacy, beveiliging, veiligheid, insluiting, transparantie en aansprakelijkheid. U kunt hier meer over lezen in de sectie Aanbevolen lezen.
U kunt de volgende inhoud als startcontrolelijst gebruiken en deze aanpassen en verfijnen in uw scenario. Dit document bevat twee hoofdsecties: De eerste sectie is bedoeld om overwegingen voor verantwoord gebruik te benadrukken bij het kiezen van scenario's, functies en beloningen voor Personalizer. De tweede neemt een set waarden die volgens Microsoft moeten worden overwogen bij het bouwen van AI-systemen en biedt suggesties en risico's voor de manier waarop uw gebruik van Personalizer deze beïnvloedt.
Uw verantwoordelijkheid
Alle richtlijnen voor een verantwoorde implementatie zijn gebaseerd op de basis dat ontwikkelaars en bedrijven die Personalizer gebruiken verantwoordelijk zijn en verantwoordelijk zijn voor de effecten van het gebruik van deze algoritmen in de samenleving. Als u een toepassing ontwikkelt die uw organisatie gaat implementeren, moet u uw rol en verantwoordelijkheid voor de werking ervan en de invloed ervan op personen herkennen. Als u een toepassing ontwerpt die door een derde partij moet worden geïmplementeerd, moet u met hem/haar weten wie uiteindelijk verantwoordelijk is voor het gedrag van de toepassing en documenteert u dat inzicht.
Vertrouwen is gebaseerd op het idee van voldaan toezeggingen. Houd rekening met uw gebruikers, de samenleving en het juridische kader waarin uw toepassingen werken, om expliciete en impliciete toezeggingen te identificeren die ze mogelijk hebben.
Microsoft zet voortdurend inspanningen in de hulpprogramma's en documenten om u te helpen bij het uitvoeren van deze verantwoordelijkheden. Geef Microsoft feedback als u denkt dat u met extra hulpprogramma's, productfuncties en documenten deze richtlijnen voor het gebruik van Personalizer kunt implementeren.
Factoren voor het op verantwoorde wijze implementeren van Personalizer
Het implementeren van Personalizer kan van grote waarde zijn voor uw gebruikers en uw bedrijf. Als u Personalizer op verantwoorde wijze wilt implementeren, moet u eerst de volgende richtlijnen overwegen wanneer:
- Gebruiksgevallen kiezen om personalisatie toe te passen.
- Beloningsfuncties bouwen.
- Kiezen welke functies over de context en mogelijke acties u wilt gebruiken voor personalisatie.
Use cases kiezen voor Personalizer
Het is handig om een service te gebruiken die leert inhoud en gebruikersinterfaces te personaliseren. Het kan ook verkeerd worden toegepast als de manier waarop de personalisatie negatieve neveneffecten in de echte wereld veroorzaakt, ook als gebruikers zich niet bewust zijn van persoonlijke inhoud.
Voorbeelden van het gebruik van Personalizer met een verhoogd potentieel voor negatieve neveneffecten of een gebrek aan transparantie zijn scenario's waarbij de 'beloning' afhankelijk is van veel complexe factoren op de lange termijn die, wanneer te vereenvoudigd in een onmiddellijke beloning, negatieve resultaten voor personen kunnen hebben. Deze worden vaak beschouwd als consequentiële keuzes of keuzes die risico op schade met zich mee brengen. Bijvoorbeeld:
- Financiën: Het personaliseren van aanbiedingen op lening-, financiële en verzekeringsproducten, waarbij risicofactoren zijn gebaseerd op gegevens die personen niet kennen, niet kunnen verkrijgen of niet kunnen betwisten.
- Onderwijs: het personaliseren van de rangschikken voor schoolcursussen en onderwijsinstellingen waar aanbevelingen mogelijk vooroordelen doorgeven en het bewustzijn van gebruikers over andere opties verminderen.
- Civic en Civic Participation: Het personaliseren van inhoud voor gebruikers met het doel om de mening te beïnvloeden, is consequentieel en manipulatief.
- Beloningsevaluatie van derden: het aanpassen van items waarbij de beloning is gebaseerd op een evaluatie van een derde partij van de gebruiker, in plaats van een beloning te genereren door het eigen gedrag van de gebruiker.
- Verkennen: elke situatie waarin het verkenningsgedrag van Personalizer schade kan veroorzaken.
Bij het kiezen van use cases voor Personalizer:
- Begin het ontwerpproces met de manier waarop de personalisatie uw gebruikers helpt.
- Houd rekening met de negatieve gevolgen in de echte wereld als sommige items niet worden geclassificeerd voor gebruikers vanwege personalisatiepatronen of verkenning.
- Overweeg of uw gebruikscase geautomatiseerde verwerking is die aanzienlijke gevolgen heeft voor gegevensonderwerpen die onder AVG-artikel 22 of andere wetten vallen.
- U kunt zelfvervullende loops overwegen. Dit kan gebeuren als een personalisatiebeloning een model traint, zodat een demografische groep vervolgens kan worden uitgesloten van toegang tot relevante inhoud. De meeste mensen in een buurt met een laag inkomen krijgen bijvoorbeeld geen premium-verzekeringsaanbieding en langzaam ziet niemand in de buurt de aanbieding helemaal niet als er onvoldoende onderzoek is.
- Sla kopieën van modellen en leerbeleid op voor het geval het nodig is personalizer in de toekomst te reproduceren. U kunt dit periodiek doen of elke vernieuwingsperiode van het model.
- Denk na over het niveau van verkenning dat geschikt is voor de ruimte en hoe u deze kunt gebruiken als hulpmiddel om de effecten van 'echo-kamer' te beperken.
Functies voor Personalizer selecteren
Het personaliseren van inhoud is afhankelijk van nuttige informatie over de inhoud en de gebruiker. Houd er rekening mee dat sommige gebruikersfuncties voor sommige toepassingen en branches direct of indirect als verantwoordelijk en mogelijk onrechtmatig kunnen worden beschouwd.
Kijk eens naar het effect van deze functies:
- Demografische gegevens van gebruikers: kenmerken met betrekking tot geslacht, geslacht, leeftijd, ras, geslacht, geslacht: Deze functies zijn mogelijk niet toegestaan in bepaalde toepassingen om wettelijke redenen en het is mogelijk niet ethisch om deze kenmerken aan te persoonlijke voorkeur te veranderen, omdat de personalisatie generalisaties en bias zou doorgeven. Een voorbeeld van het doorgeven van vooroordelen is een functie voor engineering die niet wordt weergegeven aan een doelgroep op basis van geslacht of geslacht.
- Informatie over de lokatie: Op veel plaatsen ter wereld kunnen locatiegegevens (zoals een postcode, postcode of buurtnaam) sterk worden gecorreleerd met inkomen, ras en inkomen.
- User Perception of Fairness: Zelfs in gevallen waarin uw toepassing goede beslissingen neemt, moet u rekening houden met het effect van gebruikers die zien dat inhoud die in uw toepassing wordt weergegeven, verandert op een manier die lijkt te zijn gecorreleerd aan functies die negatief zouden zijn.
- Onbedoelde bias in functies: er zijn soorten vooroordelen die kunnen worden geïntroduceerd door functies te gebruiken die alleen van invloed zijn op een subset van de populatie. Dit vereist extra aandacht als functies via een algoritme worden gegenereerd, bijvoorbeeld wanneer u afbeeldingsanalyse gebruikt om items in een afbeelding of tekstanalyse te extraheren om entiteiten in tekst te ontdekken. Maak uzelf bewust van de kenmerken van de services die u gebruikt om deze functies te maken.
Pas de volgende procedures toe bij het kiezen van functies om in contexten en acties naar Personalizer te verzenden:
- Houd rekening met de legaliteit en ethiek van het gebruik van bepaalde functies voor sommige toepassingen en of de functies die er niet uitzien als een proxies voor anderen zijn die u wilt of moet vermijden,
- Wees transparant voor gebruikers dat algoritmen en gegevensanalyse worden gebruikt voor het personaliseren van de opties die ze zien.
- Stel uzelf de volgende vraag: Is het mijn gebruikers belangrijk en tevreden als ik deze informatie heb gebruikt om de inhoud voor hen aan te persoonlijker te maken? Zou ik het fijn vinden om te laten zien hoe de beslissing is genomen om bepaalde items te markeren of te verbergen?
- Gebruik gedragsgegevens in plaats van classificatie- of segmentatiegegevens op basis van andere kenmerken. Demografische gegevens werden traditioneel gebruikt door detailhandelaren om historische redenen. Demografische kenmerken waren eenvoudig te verzamelen en er actie op te ondernemen vóór een digitaal tijdperk, maar vraag hoe relevant demografische informatie is wanneer u feitelijke interactie, contextuele en historische gegevens hebt die meer verband houden met de voorkeuren en identiteit van gebruikers.
- Bedenk hoe u kunt voorkomen dat functies worden 'vervalst' door kwaadwillende gebruikers, wat kan leiden tot het trainen van Personalizer op misleidende manieren om bepaalde klassen gebruikers opzettelijk te verstoren, te verstoren en te verstoren.
- Ontwerp, indien van toepassing, uw toepassing zodat uw gebruikers zich kunnen in- of aftrekken van het gebruik van bepaalde persoonlijke functies. Deze kunnen worden gegroepeerd, zoals 'Locatiegegevens', 'Apparaatgegevens', 'Eerdere aankoopgeschiedenis', enzovoort.
Computing-beloningen voor Personalizer
Personalizer streeft ernaar om de keuze te verbeteren van welke actie moet worden beloning op basis van de beloningsscore die door de bedrijfslogica van uw toepassing wordt geleverd.
Een goed gebouwde beloningsscore zal fungeren als een kortetermijnproxy voor een bedrijfsdoel dat is gekoppeld aan de missie van een organisatie.
Als u bijvoorbeeld klikt, leidt dat tot het zoeken naar klikken door de Personalizer-service ten koste van al het andere, zelfs als erop wordt geklikt storend is of niet is gekoppeld aan een bedrijfsresultaat.
Een ander voorbeeld is dat een nieuwssite mogelijk beloningen wil instellen die zijn gekoppeld aan iets zinvoller dan klikken, zoals 'Heeft de gebruiker voldoende tijd besteed aan het lezen van de inhoud?' "Hebben ze op relevante artikelen of verwijzingen geklikt?". Met Personalizer is het eenvoudig om metrische gegevens nauw te binden aan beloningen. Maar wees voorzichtig met het niet verstoren van de betrokkenheid van gebruikers op de korte termijn met goede resultaten.
Onbedoelde gevolgen van beloningsscores
Beloningsscores kunnen worden gebouwd met de beste bedoelingen, maar kunnen nog steeds onverwachte gevolgen of onbedoelde resultaten opleveren voor de manier waarop Personalizer inhoud rangschikt.
Bekijk de volgende voorbeelden:
- Het personaliseren van video-inhoud op basis van het percentage van de gevolgde videolengte heeft waarschijnlijk de voorkeur aan kortere video's.
- Het belonen van sociale media-shares, zonder sentimentanalyse van hoe deze wordt gedeeld of de inhoud zelf, kan leiden tot een classificatie van aanstootgevende, niet-gemodereerde of ongeschikte inhoud, die vaak veel 'betrokkenheid' tot stand brengt, maar weinig waarde toevoegt.
- Het belonen van de actie voor elementen van de gebruikersinterface die gebruikers niet verwachten te wijzigen, kan de bruikbaarheid en voorspelbaarheid van de gebruikersinterface verstoren, waarbij knoppen zonder waarschuwing de locatie of het doel verrassend wijzigen, waardoor het voor bepaalde groepen gebruikers moeilijker wordt om productief te blijven.
Implementeert u deze best practices:
- Voer offline experimenten uit met uw systeem met behulp van verschillende beloningsmethoden om impact en neveneffecten te begrijpen.
- Evalueer uw beloningsfuncties en vraag uzelf af hoe een extreem naief persoon de interpretatie zou beïnvloeden en daarmee ongewenste resultaten zou bereiken.
Overwegingen voor verantwoord ontwerp
Hier volgen de ontwerpgebieden voor verantwoorde implementaties van AI. Meer informatie over dit framework in The Future Computed.

Verantwoordelijkheid
Personen die AI-systemen ontwerpen en implementeren, moeten verantwoordelijk zijn voor de werking van hun systemen.
- Maak interne richtlijnen voor het implementeren van Personalizer, documenteren en communiceren met uw team, leidinggevenden en leveranciers.
- Voer periodieke beoordelingen uit van hoe beloningsscores worden berekend, voer offline evaluaties uit om te zien welke functies Personalizer beïnvloeden en gebruik de resultaten om overbodige en onnodige functies te elimineren.
- Communiceer duidelijk aan uw gebruikers hoe Personalizer wordt gebruikt, voor welk doel en met welke gegevens.
- Archiveer informatie en assets , zoals modellen, leerbeleid en andere gegevens, die Personalizer gebruikt om te functioneren, om resultaten te reproduceren.
Transparantie
AI-systemen moeten begrijpelijk zijn. Met Personalizer:
- Geef gebruikers informatie over hoe de inhoud is gepersonaliseerd. U kunt uw gebruikers bijvoorbeeld een knop laten zien met het label welke belangrijkste functies van de gebruiker en acties een rol hebben gespeeld
Why These Suggestions?in de resultaten van Personalizer. - Zorg ervoor dat in uw gebruiksvoorwaarden wordt vermeld dat u informatie over gebruikers en hun gedrag gebruikt om de ervaring aan te passen.
Verdeling
AI-systemen moeten alle mensen eerlijk behandelen.
- Gebruik Personalizer niet voor gebruiksgevallen waarbij de resultaten op de lange termijn, consequentiële of werkelijke schade berokkenen.
- Gebruik geen functies die niet geschikt zijn om inhoud mee te personaliseren of die kunnen helpen ongewenste vooroordelen door te geven. Iedereen met vergelijkbare financiële omstandigheden zou bijvoorbeeld dezelfde persoonlijke aanbevelingen voor financiële producten moeten zien.
- Informatie over vooroordelen die kunnen bestaan in functies die afkomstig zijn van editors, algoritmen of gebruikers zelf.
Betrouwbaarheid en veiligheid
AI-systemen moeten betrouwbaar en veilig presteren. Voor Personalizer:
- Geef geen acties op voor Personalizer die niet mogen worden gekozen. Ongepaste films moeten bijvoorbeeld worden gefilterd uit de acties om te personaliseren als ze een aanbeveling doen voor een anonieme of under-age gebruiker.
- Beheer uw Personalizer-model als een bedrijfsactivum. Bedenk hoe vaak u het model en leerbeleid achter uw Personalizer-lus kunt opslaan en er een back-up van moet maken, en behandel het anders als een belangrijke bedrijfsactivum. Het reproduceren van eerdere resultaten is belangrijk voor zelfcontrole en het meten van verbetering.
- Geef kanalen op om directe feedback van gebruikers te krijgen. Naast het coderen van veiligheidscontroles om ervoor te zorgen dat alleen de juiste doelgroepen de juiste inhoud zien, biedt u een feedbackmechanisme voor gebruikers om inhoud te rapporteren die mogelijk verrassend of vreemd is. Met name als uw inhoud afkomstig is van gebruikers of derden, kunt u microsoft Content Moderator of aanvullende hulpprogramma's gebruiken om inhoud te controleren en te valideren.
- Voer regelmatig offline evaluaties uit. Dit helpt u trends te bewaken en ervoor te zorgen dat de effectiviteit bekend is.
- Stel een proces tot stand om schadelijke manipulatie te detecteren en er actie op te ondernemen. Er zijn actoren die profiteren van de mogelijkheid machine learning ai-systemen om te leren van hun omgeving om het resultaat naar hun doelen te verschuiven. Als u personalizer gebruikt om belangrijke keuzes te beïnvloeden, moet u ervoor zorgen dat u de juiste middelen hebt om deze soorten aanvallen te detecteren en te beperken, inclusief menselijke beoordeling in de juiste omstandigheden.
Beveiliging en privacy
AI-systemen moeten veilig zijn en privacy respecteren. Bij het gebruik van Personalizer:
- Informeer gebruikers vooraf over de gegevens die worden verzameld en hoe deze worden gebruikt, en vraag vooraf toestemming , op de hoogte van uw lokale en brancheregels.
- Bied gebruikersbesturingselementen die privacy beveiligen. Voor toepassingen die persoonlijke gegevens opslaan, kunt u overwegen om een gemakkelijk te vinden knop op te geven voor functies zoals:
Show me all you know about meForget my last interactionDelete all you know about me
In sommige gevallen zijn deze mogelijk juridisch vereist. Houd rekening met de afwegingen bij het periodiek opnieuw trainen van modellen, zodat ze geen traceringen van verwijderde gegevens bevatten.
Inclusiviteit
Een breed scala aan menselijke behoeften en ervaringen aanpakken.
- Persoonlijke ervaringen bieden voor interfaces met toegankelijkheid. De efficiëntie die voortkomt uit een goede personalisatie, die wordt toegepast om de hoeveelheid inspanning, beweging en onnodige herhaling in interacties te verminderen, kan met name nuttig zijn voor mensen met een handicap.
- Pas het gedrag van de toepassing aan context aan. U kunt Personalizer bijvoorbeeld gebruiken om onderscheid te maken tussen intenties in een chatbot, omdat de juiste interpretatie contextueel kan zijn en één grootte mogelijk niet allemaal past.
Proactieve gereedheid voor verbeterde gegevensbeveiliging en governance
Het is moeilijk om specifieke wijzigingen in regelgevingscontexten te voorspellen, maar over het algemeen is het verstandig om verder te gaan dan het minimale juridische kader om ervoor te zorgen dat persoonsgegevens zonder problemen worden gebruikt en om transparantie en keuze met betrekking tot algoritmische besluitvorming te bieden.
- Overweeg om vooruit te plannen in een situatie waarin er mogelijk nieuwe beperkingen zijn met betrekking tot gegevens die worden verzameld van personen en waarin moet worden laten zien hoe deze zijn gebruikt om beslissingen te nemen.
- Overweeg extra gereedheid wanneer gebruikers gemarginaliseerde kwetsbare populaties, kinderen, gebruikers met een economische kwetsbaarheid of gebruikers die anderszins vatbaar zijn voor beïnvloeding door algoritmische manipulatie kunnen omvatten.
- Denk na over de wijdverbreide ontevredenheid over de manier waarop programma's en algoritmen voor het verzamelen van gegevens op doelgroep gericht en beïnvloedend zijn geworden en hoe bewezen strategische fouten kunnen worden voorkomen.
Proactieve evaluaties tijdens de levenscyclus van uw project
Overweeg het maken van methoden voor teamleden, gebruikers en bedrijfseigenaren om problemen met betrekking tot verantwoord gebruik te melden en een proces te maken dat prioriteit geeft aan hun oplossing en voorkomt dat ze verantwoordelijk zijn.
Elke persoon die denkt over neveneffecten van het gebruik van technologie, wordt beperkt door zijn perspectief en levenservaring. Breid het aantal beschikbare adviezen uit door meer diverse stemmen in te brengen in uw teams, gebruikers of adviesborden; zodat het mogelijk en aangemoedigd is om te spreken. Overweeg trainings- en trainingsmateriaal om de teamkennis in dit domein verder uit te breiden en om de mogelijkheid toe te voegen om complexe en gevoelige onderwerpen te bespreken.
Overweeg taken met betrekking tot verantwoord gebruik op dezelfde manier te behandelen als andere kruislingse taken in de toepassingslevenscyclus, zoals taken met betrekking tot gebruikerservaring, beveiliging of DevOps. Deze taken en hun vereisten kunnen niet na afloop worden uitgevoerd. Verantwoord gebruik moet worden besproken en geverifieerd gedurende de levenscyclus van de toepassing.
Vragen en feedback
Microsoft zet voortdurend inspanningen in hulpprogramma's en documenten om u te helpen bij het uitvoeren van deze verantwoordelijkheden. Ons team nodigt u uit om feedback te geven aan Microsoft als u denkt dat aanvullende hulpprogramma's, productfuncties en documenten u kunnen helpen bij het implementeren van deze richtlijnen voor het gebruik van Personalizer.
Aanbevolen lees lezen
- Zie de zes principes van Microsoft voor de verantwoorde ontwikkeling van AI, gepubliceerd in het boek The Future Computed van januari 2018
- Wie is eigenaar van de toekomst? door Jaron La synchronisatie.
- Moeto van wiskundige destructie door - Cathy O'Hado
- Ethics and Data Science (ethiek en gegevenswetenschap) door DJ Patil, HadoesJekides, Mike Moetenkides.
- ACM-code voor ethiek
- Nondiscrimination Act voor genetische informatie - WAS
- FATML-principes voor toerekeningsbare algoritmen