Verantwortungsbewusste und vertrauenswürdige KIResponsible and trusted AI

Microsoft legt sechs Leitprinzipien für verantwortungsbewusste KI, Inklusion, Zuverlässigkeit und Sicherheit, Fairness, Transparenz sowie Datenschutz zugrunde.Microsoft outlines six key principles for responsible AI: accountability, inclusiveness, reliability and safety, fairness, transparency, and privacy and security. Diese Prinzipien sind für die Erstellung verantwortlicher und vertrauenswürdiger KI entscheidend, die in immer mehr Mainstreamprodukte und -dienste implementiert wird.These principles are essential to creating responsible and trustworthy AI as it moves into more mainstream products and services. Diese werden von zwei Perspektiven geleitet: ethisch und erklärbar.They are guided by two perspectives: ethical and explainable.

Diagramm: Verantwortungsbewusste KI-Prinzipien

EthikEthical

Aus ethischer Sicht sollte KI faire und inklusive Assertionen stellen, Verantwortung für Entscheidungen übernehmen und nicht gegen unterschiedliche Ethnien, Behinderungen oder Hintergründe diskriminieren.From an ethical perspective, AI should be fair and inclusive in its assertions, be accountable for its decisions, and not discriminate or hinder different races, disabilities, or backgrounds.

2017 hat Microsoft ein Ethikkomitee für KI, Ethik und Auswirkungen von Engineering und Forschung namens Aether gegründet.Microsoft established an ethical committee for AI, ethics, and effects in engineering and research Aether, in 2017. Die Kernaufgabe dieses Komitees besteht darin, Beratung zu Problemen hinsichtlich der Verantwortlichkeit, zu Technologien, zu Prozessen und zu bewährten Methoden zu bieten.The core responsibility of the committee is to advise on responsible issues, technologies, processes, and best practices. Weitere Informationen über Aether finden Sie in diesem Microsoft Learn-Modul.Learn more about Aether at this Microsoft Learn module.

VerantwortlichkeitAccountability

Die Verantwortlichkeit ist eine wesentliche Säule der verantwortungsbewussten KI.Accountability is an essential pillar of responsible AI. Die Personen, die das KI-System entwerfen und bereitstellen, müssen für dessen Aktionen und Entscheidungen verantwortlich sein. Das gilt insbesondere für den Fortschritt zu autonomeren Systemen.The people who design and deploy the AI system need to be accountable for its actions and decisions, especially as we progress toward more autonomous systems. Organisationen sollten es in Erwägung ziehen, einen internen Überprüfungsausschuss zu gründen, der die Entwicklung und Bereitstellung von KI-Systemen beaufsichtigt sowie Erkenntnisse und Anleitungen bietet.Organizations should consider establishing an internal review body that provides oversight, insights, and guidance about developing and deploying AI systems. Diese Beratung kann sich zwar je nach Unternehmen und Region unterscheiden, jedoch sollte sie die KI-Journey der Organisation widerspiegeln.While this guidance might vary depending on the company and region, it should reflect an organization's AI journey.

NichtausgrenzungInclusiveness

Die Inklusion setzt voraus, dass KI alle Ethnien und Erfahrungen berücksichtigt. Außerdem können inklusive Entwurfspraktiken Entwickler dabei unterstützen, mögliche Barrieren zu verstehen und zu adressieren, die zur unbeabsichtigten Ausschließung von Menschen führen können.Inclusiveness mandates that AI should consider all human races and experiences, and inclusive design practices can help developers to understand and address potential barriers that could unintentionally exclude people. Wenn möglich sollten Technologien für Spracherkennung, Sprachsynthese und visuelle Erkennung verwendet werden, um Personen mit Hör- und Sehbehinderungen sowie anderen Behinderungen zu unterstützen.Where possible, speech-to-text, text-to-speech, and visual recognition technology should be used to empower people with hearing, visual, and other impairments.

Zuverlässigkeit und SicherheitReliability and safety

KI-Systeme müssen zuverlässig und sicher sein, damit sie als vertrauenswürdig angesehen werden können.AI systems need to be reliable and safe in order to be trusted. Es ist wichtig, dass ein System dem ursprünglichen Entwurf entsprechend funktioniert und es sicher auf neue Situationen reagiert.It's important for a system to perform as it was originally designed and for it to respond safely to new situations. Die inhärente Resilienz des Systems sollte vor beabsichtigten oder unbeabsichtigten Änderungen schützen.Its inherent resilience should resist intended or unintended manipulation. Für die Betriebsbedingungen sollten strenge Tests und Überprüfungen eingerichtet werden, um sicherzustellen, dass das System auf sichere Weise auf Grenzfälle reagiert. Außerdem sollten A/B-Tests und Champion/Challenger-Methoden in den Auswertungsprozess integriert werden.Rigorous testing and validation should be established for operating conditions to ensure that the system responds safely to edge cases, and A/B testing and champion/challenger methods should be integrated into the evaluation process.

Die Leistung eines KI-Systems kann im Laufe der Zeit abnehmen. Daher muss ein robuster Überwachungs- und Modellnachverfolgungsprozess eingerichtet werden, um die Leistung des Modells reaktiv und proaktiv zu messen und es bei Bedarf neu zu trainieren.An AI system's performance can degrade over time, so a robust monitoring and model tracking process needs to be established to reactively and proactively measure the model's performance and retrain it, as necessary, to modernize it.

Was ist erklärbar?What is explainable

Die Erklärbarkeit unterstützt Data Scientists, Prüfer und Geschäftsentscheidungsträger dabei, sicherzustellen, dass KI-Systeme ihre Entscheidungen und das Erreichen ihrer Schlussfolgerungen angemessen rechtfertigen können.Explainability helps data scientists, auditors, and business decision makers to ensure that AI systems can reasonably justify their decisions and how they reach their conclusions. Damit wird auch die Konformität mit Unternehmensrichtlinien, Branchenstandards und gesetzlichen Vorschriften sichergestellt.This also ensures compliance with company policies, industry standards, and government regulations. Ein Data Scientist sollte dazu in der Lage sein, Projektbeteiligten zu erläutern, wie bestimmte Genauigkeitsgrade erzielt wurden und was das Ergebnis beeinflusst hat.A data scientist should be able to explain to the stakeholder how they achieved certain levels of accuracy and what influenced this outcome. Für die Konformität mit den Richtlinien der Organisation benötigt einer Prüfer ein Tool, mit dem das Modell überprüft werden kann. Außerdem muss ein Geschäftsentscheidungsträger dazu in der Lage sein, ein transparentes Modell zum Erzielen der Vertrauensstellung bereitzustellen.Likewise, in order to comply with the company's policies, an auditor needs a tool that validates the model, and a business decision maker needs to be able to provide a transparent model in order to gain trust.

Tools für die ErklärbarkeitExplainability tools

Microsoft hat das Open-Source-Toolkit InterpretML entwickelt, das zur Modellerklärbarkeit beiträgt und transparente und intransparente Modelle unterstützt.Microsoft has developed InterpretML, an open-source toolkit that helps to achieve model explainability and supports glass-box and black-box models.

  • Transparente Modelle können aufgrund ihrer Struktur interpretiert werden.Glass-box models are interpretable because of their structure. Verwenden Sie für diese Modelle „Explainable Boosting Machine“. Dabei handelt es sich um den Zustand des Algorithmus basierend auf einer Entscheidungsstruktur oder auf linearen Modellen, der verlustfreie Erläuterungen bietet und von Domänenexperten bearbeitet werden kann.For these models, use Explainable Boosting Machine, which is the state of the algorithm based on a decision tree or linear models, provides lossless explanations, and is editable by domain experts.

  • Intransparente Modelle sind aufgrund einer komplexen internen Struktur, dem neuronalen Netz, schwieriger zu interpretieren.Black-box models are more challenging to interpret because of a complex internal structure, the neural network. Erklärmodule wie LIME oder SHAP (SHapley Additive exPlanations) interpretieren diese Modelle, indem sie die Beziehung zwischen der Eingabe und Ausgabe analysieren.Explainers like LIME or SHapley Additive exPlanations (SHAP) interpret these models by analyzing the relationship between the input and output.

  • Fairlearn ist eine Azure Machine Learning-Integration und ein Open-Source-Toolkit für das SDK und die grafische Benutzeroberfläche für automatisiertes maschinelles Lernen.Fairlearn is an Azure Machine Learning integration and an open-source toolkit for the SDK and the AutoML graphical user interface. Verwenden Sie Erklärmodule, um nachzuvollziehen, was sich hauptsächlich auf das Modell auswirkt, und nutzen Sie Domänenexperten, die diese Einflüsse überprüfen.Use explainers to understand what mainly influences the model and domain experts to validate these influences.

Weitere Informationen über die Erklärbarkeit finden Sie unter Modellinterpretierbarkeit in Azure Machine Learning.Explore model interpretability in Azure Machine Learning to learn more about explainability.

FairnessFairness

Fairness ist ein grundlegendes ethisches Prinzip, das alle Menschen verstehen und anwenden müssen.Fairness is a core ethical principle that all humans aim to understand and apply. Dieses Prinzip ist bei der Entwicklung von KI-Systemen noch wichtiger.This principle is even more important when AI systems are being developed. Mithilfe wichtiger Überprüfungen und Ausgleiche muss sichergestellt werden, dass die Entscheidungen des Systems nicht diskriminieren und keine Voreingenommenheit bezüglich dem Geschlecht, der Ethnie, der sexuellen Orientierung oder der Religion einer Gruppe oder einer Einzelperson aufweist.Key checks and balances need to make sure that the system's decisions don't discriminate or run a gender, race, sexual orientation, or religion bias toward a group or individual.

  • Microsoft stellt eine Prüfliste für KI-Fairness zur Verfügung, die Anweisungen und Lösungen für KI-Systeme bietet.Microsoft provides an AI fairness checklist that offers guidance and solutions for AI systems. Diese Lösungen werden grob in fünf Phasen kategorisiert: Planung, Prototyp, Erstellung, Start und Weiterentwicklung.These solutions are loosely categorized into five stages: envision, prototype, build, launch, and evolve. Jede Phase umfasst empfohlene Sorgfältigkeitsaktivitäten, die zur Minimierung der Auswirkungen durch Unfairness im System beitragen.Each stage lists recommended due diligence activities that help to minimize the impact of unfairness in the system.

  • Fairlearn ist mit Azure Machine Learning integriert und unterstützt Data Scientists und Entwickler bei der Bewertung und Verbesserung der Fairness ihrer KI-Systeme.Fairlearn integrates with Azure Machine Learning and supports data scientists and developers to assess and improve the fairness of their AI systems. Die Toolbox umfasst verschiedene Algorithmen zur Minderung der Unfairness und ein interaktives Dashboard, das die Fairness des Modells visualisiert.The toolbox provides various unfairness mitigation algorithms and an interactive dashboard that visualizes the fairness of the model. Verwenden Sie das Toolkit, und bewerten Sie die Fairness des Modells, während es erstellt wird. Dies sollte ein integraler Bestandteil des Data Science-Prozesses sein.Use the toolkit and closely assess the fairness of the model while it's being built; this should be an integral part of the data science process.

Lernen Sie, wie Sie die Fairness in Machine Learning-Modellen fördern.Learn how to mitigate fairness in machine learning models.

TransparenzTransparency

Die Transparenz unterstützt das Team dabei, die Daten und Algorithmen, die zum Trainieren des Modells verwendet wurden, welche Transformationslogik auf die Daten angewendet wurden, das finale generierte Modell und dessen zugehörigen Ressourcen zu verstehen.Achieving transparency helps the team to understand the data and algorithms used to train the model, what transformation logic was applied to the data, the final model generated, and its associated assets. Diese Informationen bieten Erkenntnisse zur Erstellung des Modells, sodass es auf transparente Weise reproduziert werden kann.This information offers insights about how the model was created, which allows it to be reproduced in a transparent way. Momentaufnahmen in Azure Machine Learning-Arbeitsbereichen unterstützen die Transparenz, indem alle auf Training bezogene Ressourcen und Metriken des Experiments aufgezeichnet oder neu trainiert werden.Snapshots within Azure Machine Learning workspaces support transparency by recording or retraining all training-related assets and metrics involved in the experiment.

Datenschutz und -sicherheitPrivacy and security

Dateninhaber sind dazu verpflichtet, die Daten in einem KI-System zu schützen. Datenschutz und Sicherheit sind ein integraler Bestandteil dieses Systems.A data holder is obligated to protect the data in an AI system, and privacy and security are an integral part of this system. Das Personal muss geschützt und auf eine Weise eingesetzt werden, die die Privatsphäre von Einzelpersonen nicht gefährdet.Personal needs to be secured, and it should be accessed in a way that doesn't compromise an individual's privacy. Der differenzielle Azure-Datenschutz schützt und gewährleistet den Datenschutz, indem Daten randomisiert und Fülldaten hinzugefügt werden, um vertrauliche Informationen vor Data Scientists zu verbergen.Azure differential privacy protects and preserves privacy by randomizing data and adding noise to conceal personal information from data scientists.

Richtlinien für die Interaktion zwischen Mensch und KIHuman AI guidelines

Die Entwurfsrichtlinien für die Interaktion zwischen Mensch und KI bestehen aus 18 Prinzipien, die über vier Zeiträume hinweg auftreten: zu Beginn, bei der Interaktion, bei einem Fehler und im Laufe der Zeit.Human AI design guidelines consist of 18 principles that occur over four periods: initially, during interaction, when wrong, and over time. Diese Prinzipien sind zur Entwicklung eines inklusiveren und menschenorientierten KI-Systems konzipiert.These principles are designed to produce a more inclusive and human-centric AI system.

EinleitungInitially

  • Erläutern Sie, was das System tun kann:Clarify what the system can do. Wenn das KI-System Metriken verwendet oder generiert, ist es wichtig, dass diese und ihre Nachverfolgung angezeigt werden.If the AI system uses or generates metrics, it's important to show them all and how they're tracked.

  • Erläutern Sie, wie gut das System seine Funktionen durchführen kann:Clarify how well the system can do what it can do. Helfen Sie den Benutzern zu verstehen, dass die KI nicht vollständig genaue Ergebnisse liefert, und legen Sie Erwartungen dafür fest, wenn das KI-System möglicherweise Fehler macht.Help users to understand that AI will not be completely accurate, and set expectations for when the AI system might make mistakes.

Bei der InteraktionDuring interaction

  • Zeigen Sie kontextuell relevante Informationen an:Show contextually relevant information. Stellen Sie visuelle Informationen zum aktuellen Kontext und zur Umgebung des Benutzers bereit, z. B. nahe gelegene Hotels und Informationen zum Ziel und Datum.Provide visual information related to the user's current context and environment, such as nearby hotels and return details close to the target destination and date.

  • Mindern Sie soziale Voreingenommenheiten:Mitigate social biases. Stellen Sie sicher, dass die Sprache und das Verhalten keine unbeabsichtigten Stereotypen oder Voreingenommenheiten verursachen.Make sure that the language and behavior don't introduce unintended stereotypes or biases. Ein Feature für die Autovervollständigung muss beispielsweise beide Geschlechter berücksichtigen.For example, an autocomplete feature needs to acknowledge both genders.

Bei einem FehlerWhen wrong

  • Unterstützen Sie effiziente Ablehnungen:Support efficient dismissal. Stellen Sie einen einfachen Mechanismus zum Ignorieren oder Ablehnen unerwünschter Features/Dienste bereit.Provide an easy mechanism to ignore or dismiss undesirable features/services.
  • Unterstützen Sie effiziente Korrekturen:Support efficient correction. Stellen Sie eine intuitive Methode zum Vereinfachen der Bearbeitung, Optimierung oder Wiederherstellung bereit.Provide an intuitive way of making it easier to edit, refine, or recover.
  • Begründen Sie die Funktionsweise des Systems:Make clear why the system did what it did. Optimieren Sie die erklärbare KI, um Erkenntnisse zu den Assertionen des KI-Systems bereitzustellen.Optimize explainable AI to offer insights about the AI system's assertions.

Im Laufe der ZeitOver time

  • Protokollieren Sie aktuelle Interaktionen:Remember recent interactions. Legen Sie einen Verlauf der Interaktionen zur späteren Referenz an.Retain a history of interactions for future reference.
  • Lernen Sie vom Verhalten der Benutzer:Learn from user behavior. Personalisieren Sie die Interaktion anhand des Verhaltens des Benutzers.Personalize the interaction based on the user's behavior.
  • Führen Sie Updates und Änderungen mit Bedacht durch:Update and adapt cautiously. Beschränken Sie unterbrechende Änderungen, und führen Sie Updates basierend auf dem Benutzerprofil aus.Limit disruptive changes, and update based on the user's profile.
  • Ermutigen Sie zu präzisem Feedback:Encourage granular feedback. Erfassen Sie Feedback von Benutzern anhand ihrer Interaktionen mit dem KI-System.Gather user feedback from their interactions with the AI system.

Personenorientiertes vertrauenswürdiges KI-FrameworkA persona-centric, trusted AI framework

Diagramm: Personenorientiertes vertrauenswürdiges KI-Framework

KI-DesignerAI designer

KI-Designer erstellen das Modell und sind für Folgendes verantwortlich:The AI designer builds the model and is responsible for:

  • Datendrift und Qualitätsprüfungen:Data drift and quality checks. Sie ermitteln Ausreißer und führen Datenqualitätsprüfungen durch, um fehlende Werte zu identifizieren, die Verteilung zu standardisieren, Daten zu überprüfen und Anwendungsfälle und Projektberichte zu erstellen.They detect outliers and perform data quality checks to identify missing values, standardize distribution, scrutinize data, and produce use case and project reports.

  • Sie bewerten Daten in der Quelle des Systems, um mögliche Voreingenommenheiten zu identifizieren.Assessing data in the system's source to identify potential bias.

  • Sie entwerfen KI-Algorithmen zum Reduzieren von Datenvoreingenommenheit. Beispielsweise ermitteln sie, wie Quantisierung, Gruppierung und Normalisierung (insbesondere bei traditionellen Machine Learning-Modellen wie strukturbasierten Modellen) zur Beseitigung von Minderheitsgruppen aus Daten beitragen können.Designing AI algorithms to minimize data biases, such as discovering how binning, grouping, and normalization (especially in traditional machine learning models like tree-based ones) can eliminate minority groups from data. Ein kategorischer KI-Entwurf bestärkt Datenvoreingenommenheiten, indem soziale, ethnische und geschlechtliche Klassen nach Branchen gruppiert werden, die von geschützten Gesundheitsdaten und personenbezogenen Informationen abhängig sind.Categorical AI design reiterates data biases by grouping social, racial, and gender classes in industry verticals that rely on protected health information (PHI) and personally identifiable information (PII).

  • Sie optimieren die Überwachung und Warnungen, um Zielungenauigkeit zu identifizieren und die Entwicklung des Modells zu verbessern.Optimizing monitoring and alerts to identify target leakage and strengthen the model's development.

  • Sie richten bewährte Methoden für die Berichterstellung und Erkenntnisse ein, die ein detailliertes Verständnis des Modells vermitteln und intransparente Ansätze vermeiden, die Feature- oder Vektorrelevanz, UMAP-Cluster, Friedman-Tests (Friedman‘s H-statistic), Featureauswirkungen und anderes verwenden.Establishing best practices for reporting and insights that offer a granular understanding of the model and avoiding black-box approaches that use feature or vector importance, UMAP clustering, Friedman's H-statistic, feature effects, and others. Identifikationsmetriken tragen zur Definition der prädiktiven Auswirkung, Beziehungen und Abhängigkeiten zwischen Korrelationen in komplexen und modernen Datasets bei.Identification metrics help to define predictive influence, relationships, and dependencies between correlations in complex and modern datasets.

KI-Administratoren und -BeauftragteAI administrators and officers

Die KI-Administratoren und -Beauftragen leiten die KI-, Governance- und Überwachungsframeworkvorgänge und Leistungsmetriken. Außerdem sind sie für die Implementierung der KI-Sicherheit und die Rendite (Return On Investment, ROI) der Unternehmens zuständig.The AI administrator and officers oversee AI, governance, and audit framework operations and performance metrics, plus how AI security is implemented and the business' return on investment.

  • Bei der Überwachung eines Nachverfolgungsdashboards, das zur Modellüberwachung dient, werden Modellmetriken für Produktionsmodelle kombiniert und es konzentriert sich auf Genauigkeit, Modelldegradierung, Datendrift, Abweichungen und Änderungen der Geschwindigkeit oder Rückschlussfehler.Monitoring a tracking dashboard that assists model monitoring, combines model metrics for production models, and focuses on accuracy, model degradation, data drift, deviation, and changes in speed/error of inference.

  • Die Implementierung einer flexiblen Bereitstellung und neuen Bereitstellung (vorzugsweise REST-API) ermöglicht die Implementierung von Modellen in eine offene, unabhängige Architektur, die das Modell mit Geschäftsprozessen integriert und Werte für Feedbackschleifen generiert.Implementing flexible deployment and redeployment (preferably, REST API) allows models to be implemented into open, agnostic architecture, which integrates the model with business processes and generates value for feedback loops.

  • Mithilfe von Modellgovernance und -zugriff legen sie Begrenzungen fest und mindern negative geschäftliche und betriebliche Auswirkungen.Working toward building model governance and access sets boundaries and mitigates negative business and operational impact. Mithilfe von Standards für die rollenbasierte Zugriffssteuerung werden Sicherheitskontrollen festgelegt, die eingeschränkte Produktionsumgebungen und die IP schützen.Role-based access control standards determine security controls, which preserve restricted production environments and the IP.

  • Sie verwenden KI-Überwachungs- und Complianceframeworks, um zu überwachen, wie sich Modelle entwickeln. Außerdem nehmen sie Änderungen vor, damit branchenspezifische Standards eingehalten werden.Using AI audit and compliance frameworks to track how models develop and change to uphold industry-specific standards. Interpretierbare und verantwortungsbewusste KI basiert auf messbarer Erklärbarkeit, präzisen Features, Modellvirtualisierungen und branchenspezifischer Sprache.Interpretable and responsible AI is founded on explainability measures, concise features, model visualizations, and industry-vertical language.

KI-UnternehmensbenutzerAI business consumer

KI-Unternehmensbenutzer (Unternehmensexperten) schließen die Feedbackschleife und bieten Anregungen für den KI-Designer.AI business consumers (business experts) close the feedback loop and provide input for the AI designer. Die prädiktive Entscheidungsfindung und Implizierung möglicher Voreingenommenheiten durch Messungen von Fairness und Ethik, Datenschutz und Konformität sowie Geschäftseffizienz unterstützen die Auswertung von KI-Systemen.Predictive decision-making and potential bias implications like fairness and ethical measures, privacy and compliance, and business efficiency help to evaluate AI systems.

  • Feedbackschleifen sind Teil des Ökosystems eines Unternehmens.Feedback loops belong to a business' ecosystem. Daten, die die Voreingenommenheiten, Fehler, Vorhersagegeschwindigkeit und Fairness eines Modells veranschaulichen, bilden Vertrauen und Gleichgewicht zwischen den KI-Designern, -Administratoren und -Beauftragten.Data showing a model's bias, errors, prediction speed, and fairness establish trust and balance between the AI designer, administrator, and officers. Mithilfe der menschenorientierten Bewertung sollte KI im Laufe der Zeit verbessert werden. Darüber hinaus kann das Minimieren des Lernens von mehrdimensionalen, komplexen Daten („LO-shot learning“) dazu beitragen, voreingenommenes Lernen zu verhindern.Human-centric assessment should gradually improve AI over time, and minimizing AI learning from multidimensional, complex data (LO-shot learning) can help to prevent biased learning.

  • Mithilfe des Entwurfs und der Tools für Interpretierbarkeit werden KI-Systeme für mögliche Voreingenommenheit verantwortlich gemacht.Using interpretability design and tools hold AI systems accountable for potential biases. Modellvoreingenommenheit und Fairnessprobleme müssen gekennzeichnet und in ein Warnungs- und Anomalieerkennungssystem eingespeist werden, das von diesem Verhalten lernt und Voreingenommenheit automatisch behebt.Model bias and fairness issues should be flagged and fed to an alerting and anomaly detection system that learns from this behavior and automatically addresses biases.

  • Jeder Vorhersagewert muss nach Wichtigkeit und Auswirkung in einzelne Features oder Vektoren unterteilt werden und umfassende Vorhersageerklärungen bereitstellen, die für Konformitätsprüfungen, Kundentransparenz und Unternehmensbereitschaft in einen Geschäftsbericht exportiert werden können.Each predictive value should be broken down into individual features or vectors by importance or impact and deliver thorough prediction explanations that can be exported into a business report for audit and compliance reviews, customer transparency, and business readiness.

  • Aufgrund der steigenden globalen Sicherheits- und Datenschutzrisiken, erfordern bewährte Methoden für die Auflösung von Datenverstößen bei Rückschlüssen, dass Vorschriften für individuelle Brachen eingehalten werden, z. B. Warnungen bei Nichtkonformität mit geschützten Gesundheitsdaten und personenbezogenen Informationen, Verstöße gegen nationale Sicherheitsgesetze und mehr.Due to increasing global security and privacy risks, best practices for resolving data violations during inference require complying with regulations in individual industry verticals; for example, alerts about noncompliance with PHI and PII, violation of national security laws, and more.

Nächste SchritteNext steps

Weitere Informationen über verantwortungsbewusste KI finden Sie in den Richtlinien für die Interaktion zwischen Mensch und KI.Explore human AI guidelines to learn more about responsible AI.