Ansvarig och betrodd AIResponsible and trusted AI

Microsoft beskriver sex viktiga principer för ansvarig AI: ansvar, överslag, tillförlitlighet och säkerhet, skälighet, transparens och sekretess.Microsoft outlines six key principles for responsible AI: accountability, inclusiveness, reliability and safety, fairness, transparency, and privacy and security. Dessa principer är nödvändiga för att skapa ansvarig och betrodd AI när den flyttas till mer vanliga produkter och tjänster.These principles are essential to creating responsible and trustworthy AI as it moves into more mainstream products and services. De vägleds av två perspektiv: etiska och välklarande.They are guided by two perspectives: ethical and explainable.

Ett diagram över ansvariga AI-principer.

NågraEthical

I ett etiskt perspektiv bör AI vara rättvist och innefattande i sitt eget påstående, vara ett konto för besluts fattande och inte diskriminera eller hindra olika races, handikapp eller bakgrunder.From an ethical perspective, AI should be fair and inclusive in its assertions, be accountable for its decisions, and not discriminate or hinder different races, disabilities, or backgrounds.

Microsoft har upprättat en etiska kommitté för AI, etik och effekter i tekniska och forsknings Aetheri 2017.Microsoft established an ethical committee for AI, ethics, and effects in engineering and research Aether, in 2017. Kommitténs kärn ansvar är att informera om ansvariga för problem, teknik, processer och bästa praxis.The core responsibility of the committee is to advise on responsible issues, technologies, processes, and best practices. Läs mer om Aether i den här Microsoft Learn modulen.Learn more about Aether at this Microsoft Learn module.

AnsvarAccountability

Ansvar är en grundläggande pelare för ansvarig AI.Accountability is an essential pillar of responsible AI. De personer som utformar och distribuerar AI-systemet måste vara informerade för sina åtgärder och beslut, särskilt när vi går vidare mot fler autonoma system.The people who design and deploy the AI system need to be accountable for its actions and decisions, especially as we progress toward more autonomous systems. Organisationer bör överväga att upprätta en intern gransknings myndighet som ger insyn, insikter och vägledning om att utveckla och distribuera AI-system.Organizations should consider establishing an internal review body that provides oversight, insights, and guidance about developing and deploying AI systems. Även om den här vägledningen kan variera beroende på företaget och regionen bör den återspegla en organisations AI-resa.While this guidance might vary depending on the company and region, it should reflect an organization's AI journey.

InkluderingInclusiveness

Partiella mandat som AI bör tänka på för alla mänskliga Races och erfarenheter, och innefattar design metoder som hjälper utvecklare att förstå och åtgärda potentiella hinder som kan utesluta människor oavsiktligt.Inclusiveness mandates that AI should consider all human races and experiences, and inclusive design practices can help developers to understand and address potential barriers that could unintentionally exclude people. Där det är möjligt bör tal-till-text-, text-till-tal-och visuell igenkännings teknik användas för att ge personer med hörsel, visualisering och andra nedskrivningar.Where possible, speech-to-text, text-to-speech, and visual recognition technology should be used to empower people with hearing, visual, and other impairments.

Tillförlitlighet och säkerhetReliability and safety

AI-system måste vara pålitliga och säkra för att vara betrodda.AI systems need to be reliable and safe in order to be trusted. Det är viktigt för ett system att fungera som det ursprungligen utformat och för att det ska kunna reagera på nya situationer på ett säkert sätt.It's important for a system to perform as it was originally designed and for it to respond safely to new situations. Dess inbyggda återhämtning bör motstå eller oavsiktligt förändra sig.Its inherent resilience should resist intended or unintended manipulation. Rigorös testning och validering bör fastställas för drifts förhållanden för att säkerställa att systemet reagerar säkert på Edge-fall, och A/B-test och Champion/Challenger-metoder bör integreras i utvärderings processen.Rigorous testing and validation should be established for operating conditions to ensure that the system responds safely to edge cases, and A/B testing and champion/challenger methods should be integrated into the evaluation process.

Ett AI-Systems prestanda kan försämras med tiden, så en robust övervaknings-och modell spårnings process måste upprättas för att aktivera och proaktivt mäta modellens prestanda och träna den om det behövs för att modernisera den.An AI system's performance can degrade over time, so a robust monitoring and model tracking process needs to be established to reactively and proactively measure the model's performance and retrain it, as necessary, to modernize it.

Vad är förklaratWhat is explainable

Information som hjälper dig att hjälpa data experter, revisorer och besluts fattare att se till att AI-systemen kan motivera sina beslut och hur de når sina slut satser.Explainability helps data scientists, auditors, and business decision makers to ensure that AI systems can reasonably justify their decisions and how they reach their conclusions. Detta säkerställer också efterlevnaden av företagets principer, bransch standarder och myndighets bestämmelser.This also ensures compliance with company policies, industry standards, and government regulations. En data expert bör kunna förklara för från intressenter hur de uppnår vissa noggrannhets nivåer och vad som påverkas av det här resultatet.A data scientist should be able to explain to the stakeholder how they achieved certain levels of accuracy and what influenced this outcome. För att kunna följa företagets principer behöver en revisor ett verktyg som validerar modellen och en besluts fattare måste kunna tillhandahålla en transparent modell för att få förtroende för.Likewise, in order to comply with the company's policies, an auditor needs a tool that validates the model, and a business decision maker needs to be able to provide a transparent model in order to gain trust.

Verktyg för förklaringarExplainability tools

Microsoft har utvecklat InterpretML, ett verktyg för öppen källkod som hjälper till att uppnå modellens förklaringar och stöder glas-och färg Rute modeller.Microsoft has developed InterpretML, an open-source toolkit that helps to achieve model explainability and supports glass-box and black-box models.

  • Glas Rute modeller kan tolkas på grund av deras struktur.Glass-box models are interpretable because of their structure. För dessa modeller kan du använda en förklarad förstärknings dator, som är den här algoritmens status baserat på ett besluts träd eller linjära modeller, ger förlustfri förklaringar och kan redige ras av domän experter.For these models, use Explainable Boosting Machine, which is the state of the algorithm based on a decision tree or linear models, provides lossless explanations, and is editable by domain experts.

  • Svartvita modeller är mer utmanande att tolka på grund av en komplex intern struktur, neurala-nätverket.Black-box models are more challenging to interpret because of a complex internal structure, the neural network. Förklaringar som till exempel kalk eller SHapley additiv (SHAP) tolkar dessa modeller genom att analysera relationen mellan indata och utdata.Explainers like LIME or SHapley Additive exPlanations (SHAP) interpret these models by analyzing the relationship between the input and output.

  • Fairlearn är en Azure Machine Learning-integrering och ett verktyg med öppen källkod för det grafiska användar gränssnittet för SDK och AutoML.Fairlearn is an Azure Machine Learning integration and an open-source toolkit for the SDK and the AutoML graphical user interface. Använd förklaringar för att förstå vad som huvudsakligen påverkar modellen och domän experter för att validera dessa påverkan.Use explainers to understand what mainly influences the model and domain experts to validate these influences.

Utforska modell tolkningen i Azure Machine Learning om du vill veta mer om förklaringar.Explore model interpretability in Azure Machine Learning to learn more about explainability.

RättvisaFairness

Skälighet är en grundläggande etisk princip som alla människor kan använda för att förstå och tillämpa.Fairness is a core ethical principle that all humans aim to understand and apply. Den här principen är ännu viktigare när AI-system utvecklas.This principle is even more important when AI systems are being developed. Viktiga kontroller och balanser måste se till att systemets beslut inte diskriminerar eller kör kön, ras, sexuell orientering eller religion-bias mot en grupp eller en person.Key checks and balances need to make sure that the system's decisions don't discriminate or run a gender, race, sexual orientation, or religion bias toward a group or individual.

  • Microsoft tillhandahåller en Check lista för AI-skälighet som ger vägledning och lösningar för AI-system.Microsoft provides an AI fairness checklist that offers guidance and solutions for AI systems. De här lösningarna kategoriseras löst i fem steg: Envision, prototyp, build, lansera och utveckla.These solutions are loosely categorized into five stages: envision, prototype, build, launch, and evolve. Varje steg visar rekommenderade noggrannhet-aktiviteter som bidrar till att minimera effekten av en sundhet i systemet.Each stage lists recommended due diligence activities that help to minimize the impact of unfairness in the system.

  • Fairlearn integreras med Azure Machine Learning och har stöd för data experter och utvecklare för att utvärdera och förbättra skälighet för sina AI-system.Fairlearn integrates with Azure Machine Learning and supports data scientists and developers to assess and improve the fairness of their AI systems. Verktygs lådan innehåller olika algoritmer för minskning av rättvishet och en interaktiv instrument panel som visualiserar skälighet i modellen.The toolbox provides various unfairness mitigation algorithms and an interactive dashboard that visualizes the fairness of the model. Använd verktyget och utvärdera skälighet i modellen när den skapas. Detta bör vara en integrerad del av data vetenskaps processen.Use the toolkit and closely assess the fairness of the model while it's being built; this should be an integral part of the data science process.

Lär dig hur du minimerar skälighet i Machine Learning-modeller.Learn how to mitigate fairness in machine learning models.

TransparensTransparency

Att uppnå genomskinlighet hjälper teamet att förstå de data och algoritmer som används för att träna modellen, vilken omvandlings logik som tillämpades på data, den slutliga modellen som genererades och dess associerade till gångar.Achieving transparency helps the team to understand the data and algorithms used to train the model, what transformation logic was applied to the data, the final model generated, and its associated assets. Den här informationen innehåller information om hur modellen skapades, vilket gör att den kan reproduceras på ett transparent sätt.This information offers insights about how the model was created, which allows it to be reproduced in a transparent way. Ögonblicks bilder inom Azure Machine Learning arbets ytor har stöd för genomskinlighet genom att spela in eller återträna alla utbildnings-relaterade till gångar och mät värden som ingår i experimentet.Snapshots within Azure Machine Learning workspaces support transparency by recording or retraining all training-related assets and metrics involved in the experiment.

Sekretess och säkerhetPrivacy and security

En data innehavare är obligatorisk för att skydda data i ett AI-system, och sekretess och säkerhet är en integrerad del av systemet.A data holder is obligated to protect the data in an AI system, and privacy and security are an integral part of this system. Personliga behov måste skyddas, och det ska kunna nås på ett sätt som inte äventyrar en individs integritet.Personal needs to be secured, and it should be accessed in a way that doesn't compromise an individual's privacy. Azure differential Privacy skyddar och bevarar sekretessen genom att slumpmässiga data och lägga till brus för att dölja personlig information från data forskare.Azure differential privacy protects and preserves privacy by randomizing data and adding noise to conceal personal information from data scientists.

Human AI-rikt linjerHuman AI guidelines

Design rikt linjerna för Human AI består av 18 principer som inträffar under fyra perioder: inlednings vis, vid interaktion, vid fel och med tiden.Human AI design guidelines consist of 18 principles that occur over four periods: initially, during interaction, when wrong, and over time. Dessa principer är utformade för att skapa ett mer inkluderat och det mänskliga AI-systemet.These principles are designed to produce a more inclusive and human-centric AI system.

I börjanInitially

  • Klargör vad systemet kan göra.Clarify what the system can do. Om AI-systemet använder eller genererar mått, är det viktigt att visa alla och hur de spåras.If the AI system uses or generates metrics, it's important to show them all and how they're tracked.

  • Klargör hur väl systemet kan göra det.Clarify how well the system can do what it can do. Hjälp användarna att förstå att AI inte är helt korrekt och ange förväntningar för när AI-systemet kan göra misstag.Help users to understand that AI will not be completely accurate, and set expectations for when the AI system might make mistakes.

Under interaktionDuring interaction

  • Visa kontextuellt relevant information.Show contextually relevant information. Ange visuell information som är relaterad till användarens aktuella kontext och miljö, till exempel närliggande hotell och retur information nära mål destinationen och det aktuella datumet.Provide visual information related to the user's current context and environment, such as nearby hotels and return details close to the target destination and date.

  • Minimera sociala kompensationer.Mitigate social biases. Se till att språket och beteendet inte introducerar oönskade stereotyper eller kompensationer.Make sure that the language and behavior don't introduce unintended stereotypes or biases. Till exempel måste en funktion för automatisk komplettering bekräfta båda kön.For example, an autocomplete feature needs to acknowledge both genders.

När felWhen wrong

  • Stöd för effektiv inlämning.Support efficient dismissal. Tillhandahålla en enkel mekanism för att ignorera eller ignorera oönskade funktioner/tjänster.Provide an easy mechanism to ignore or dismiss undesirable features/services.
  • Stöd för effektiv korrigering.Support efficient correction. Ge ett intuitivt sätt att göra det enklare att redigera, förfina eller återställa.Provide an intuitive way of making it easier to edit, refine, or recover.
  • Ta reda på varför systemet gjorde det.Make clear why the system did what it did. Optimera AI för att ge insikter om AI-systemets kontroller.Optimize explainable AI to offer insights about the AI system's assertions.

Över tidOver time

  • Kom ihåg de senaste interaktionerna.Remember recent interactions. Behåll en historik över interaktioner för framtida bruk.Retain a history of interactions for future reference.
  • Lär dig av användar beteendet.Learn from user behavior. Anpassa interaktionen baserat på användarens beteende.Personalize the interaction based on the user's behavior.
  • Uppdatera och anpassa försiktigt.Update and adapt cautiously. Begränsa störande ändringar och uppdatera baserat på användarens profil.Limit disruptive changes, and update based on the user's profile.
  • Uppmuntra detaljerad feedback.Encourage granular feedback. Samla in feedback från användarna med AI-systemet.Gather user feedback from their interactions with the AI system.

En person som är centrerad, betrodd AI-ramverkA persona-centric, trusted AI framework

Ett diagram över en person-centrerad, betrodd AI-ramverk.

AI-designerAI designer

AI-designer bygger modellen och ansvarar för:The AI designer builds the model and is responsible for:

  • Kontroll av data avvikelser och kvalitet.Data drift and quality checks. De identifierar extrem värden och utför data kvalitets kontroller för att identifiera saknade värden, standardisera distribution, granska data och skapa användnings fall och projekt rapporter.They detect outliers and perform data quality checks to identify missing values, standardize distribution, scrutinize data, and produce use case and project reports.

  • Att utvärdera data i systemets källa för att identifiera potentiell kompensation.Assessing data in the system's source to identify potential bias.

  • Att utforma AI-algoritmer för att minimera data förskjutning, till exempel att upptäcka hur diskretisering, gruppering och normalisering (särskilt i traditionella Machine Learning-modeller som trädbaserade) kan eliminera minoritets grupper från data.Designing AI algorithms to minimize data biases, such as discovering how binning, grouping, and normalization (especially in traditional machine learning models like tree-based ones) can eliminate minority groups from data. Kategoriska AI-design upprepar data förskjutningar genom att gruppera sociala, ras och köns klasser i bransch lodräta som förlitar sig på skyddade hälso information (PHI) och personligt identifierbar information (PII).Categorical AI design reiterates data biases by grouping social, racial, and gender classes in industry verticals that rely on protected health information (PHI) and personally identifiable information (PII).

  • Optimera övervakning och aviseringar för att identifiera mål läckage och förbättra modellens utveckling.Optimizing monitoring and alerts to identify target leakage and strengthen the model's development.

  • Att upprätta bästa metoder för rapportering och insikter som ger en detaljerad förståelse för modellen och undvikande av svarta Box-metoder som använder funktionen eller Vector-betydelse, UMAP-klustring, Friedman H-statistik, funktions effekter och andra.Establishing best practices for reporting and insights that offer a granular understanding of the model and avoiding black-box approaches that use feature or vector importance, UMAP clustering, Friedman's H-statistic, feature effects, and others. Identifierings mått hjälper till att definiera förutsägelse påverkan, relationer och beroenden mellan korrelationer i komplexa och moderna data uppsättningar.Identification metrics help to define predictive influence, relationships, and dependencies between correlations in complex and modern datasets.

AI-administratörer och befälAI administrators and officers

AI-administratören och befälen övervakar AI, styrning och gransknings Ramverks åtgärder och prestanda mått, samt hur AI-säkerhet implementeras och företagets avkastning på investeringar.The AI administrator and officers oversee AI, governance, and audit framework operations and performance metrics, plus how AI security is implemented and the business' return on investment.

  • Övervakning av en instrument panel för spårning som underlättar modell övervakning, kombinerar modell mått för produktions modeller och fokuserar på precision, modell försämring, data avvikelse, avvikelse och förändringar i hastighet/fel på härledning.Monitoring a tracking dashboard that assists model monitoring, combines model metrics for production models, and focuses on accuracy, model degradation, data drift, deviation, and changes in speed/error of inference.

  • Implementering av flexibel distribution och omdistribution (helst, REST API) gör att modeller kan implementeras i öppen, oberoende arkitektur som integrerar modellen med affärs processer och genererar värde för feedback-slingor.Implementing flexible deployment and redeployment (preferably, REST API) allows models to be implemented into open, agnostic architecture, which integrates the model with business processes and generates value for feedback loops.

  • Arbetet med att skapa modell styrning och åtkomst anger gränser och minimerar negativa verksamhets-och drifts effekter.Working toward building model governance and access sets boundaries and mitigates negative business and operational impact. Rollbaserad åtkomst kontroll standarder fastställer säkerhets kontroller, som bevarar begränsade produktions miljöer och IP-adressen.Role-based access control standards determine security controls, which preserve restricted production environments and the IP.

  • Använd ramverk för AI-granskning och efterlevnad för att spåra hur modeller utvecklas och ändras för att upprätthålla branschspecifika standarder.Using AI audit and compliance frameworks to track how models develop and change to uphold industry-specific standards. Tolknings bara och ansvariga AI baseras på förklaringar, koncisa funktioner, modell visualiseringar och branschledande språk.Interpretable and responsible AI is founded on explainability measures, concise features, model visualizations, and industry-vertical language.

AI företags konsumentAI business consumer

AI-affärskonsumenter (affärs experter) stänger feedback-slingan och tillhandahåller ininformation för AI designer.AI business consumers (business experts) close the feedback loop and provide input for the AI designer. Förutsägande besluts fattande och potentiella bias-effekter som skälighet och etiska åtgärder, sekretess och efterlevnad och affärs effektivitets hjälp för att utvärdera AI-system.Predictive decision-making and potential bias implications like fairness and ethical measures, privacy and compliance, and business efficiency help to evaluate AI systems.

  • Feedback-slingor tillhör ett affärs eko system.Feedback loops belong to a business' ecosystem. Data som visar en modells bias, fel, förutsägelse hastighet och skälighet upprättar förtroende och balans mellan AI-designer, administratörer och befäl.Data showing a model's bias, errors, prediction speed, and fairness establish trust and balance between the AI designer, administrator, and officers. Mänskligt framtidens bedömning bör gradvis förbättra AI över tid, och minimera AI-inlärningen från flerdimensionella, komplexa data (med hjälp av LO inlärning) kan hjälpa till att förhindra prioriterad inlärning.Human-centric assessment should gradually improve AI over time, and minimizing AI learning from multidimensional, complex data (LO-shot learning) can help to prevent biased learning.

  • Att använda tolknings design och verktyg innehåller AI-system som är ett konto som är möjligt för potentiella kompensationer.Using interpretability design and tools hold AI systems accountable for potential biases. Modell bias och skälighet-problem bör flaggas och matas till ett varnings-och avvikelse identifierings system som lär sig från det här beteendet och automatiskt åtgärdar en förskjutning.Model bias and fairness issues should be flagged and fed to an alerting and anomaly detection system that learns from this behavior and automatically addresses biases.

  • Varje förutsägande värde bör delas upp i enskilda funktioner eller vektorer efter prioritet eller påverkan och ger noggranna förutsägelser som kan exporteras till en affärs rapport för gransknings-och gransknings granskningar, kund insyn och affärs beredskap.Each predictive value should be broken down into individual features or vectors by importance or impact and deliver thorough prediction explanations that can be exported into a business report for audit and compliance reviews, customer transparency, and business readiness.

  • På grund av ökande globala säkerhets-och integritets risker kräver bästa praxis för att lösa data överträdelser under uppfyllande av regler i enskilda bransch vertikaler. till exempel aviseringar om inkompatibilitet med PHI och PII, överträdelse av nationell säkerhets lagstiftning med mera.Due to increasing global security and privacy risks, best practices for resolving data violations during inference require complying with regulations in individual industry verticals; for example, alerts about noncompliance with PHI and PII, violation of national security laws, and more.

Nästa stegNext steps

Utforska de mänskliga AI-rikt linjerna för att lära dig mer om ansvarig AI.Explore human AI guidelines to learn more about responsible AI.