Share via


Häufig gestellte Fragen zu verantwortungsvoller KI

Microsoft Copilot für Security 

Copilot für Security ist ein KI-gestütztes Sicherheitsanalysetool in natürlicher Sprache, das Sicherheitsexperten dabei unterstützt, schnell auf Bedrohungen zu reagieren, Signale mit Maschinengeschwindigkeit zu verarbeiten und die Risikoexposition in Minuten zu bewerten. Es zeichnet Kontext aus Plug-Ins und Daten, um sicherheitsbezogene Aufforderungen zu beantworten, sodass Sicherheitsexperten dabei helfen können, die Sicherheit ihrer Organisationen zu gewährleisten. Benutzer können die Antworten von Copilot für Security sammeln, die sie nützlich finden, und sie zur späteren Referenz an die Pinnwand anheften.

Was kann Copilot für Security tun? 

Copilot für Security bietet die volle Leistungsfähigkeit der OpenAI-Architektur und kombiniert sie mit sicherheitsspezifischen Modellen, die von der führenden Expertise von Microsoft Security, globalen Threat Intelligence und umfassenden Sicherheitsprodukten entwickelt wurden. Copilot für Security hilft Sicherheitsexperten dabei, Bedrohungen besser zu erkennen, Verteidigungsmaßnahmen zu stärken und schneller auf Sicherheitsvorfälle zu reagieren.

Microsoft Copilot für Security unterstützt Sie bei der Verbesserung von Sicherheitsvorgängen durch Folgendes:

  • Ermitteln von Sicherheitsrisiken, Priorisieren von Risiken und Bereitstellen von Empfehlungen zur Bedrohungsverhütung und -behebung

  • Anzeigen von Incidents, Bewerten des Umfangs und Bereitstellen von Empfehlungen für Korrekturschritte

  • Zusammenfassung von Ereignissen, Vorfällen und Bedrohungen und Erstellen anpassbarer Berichte

  • Unterstützung der Zusammenarbeit von Sicherheitsexperten durch integrierte Funktionen

Was ist die beabsichtigte Verwendung von Copilot für Security? 

Copilot für Security soll Sicherheitsanalysten dabei unterstützen, Vorfälle zu untersuchen und zu beheben, Sicherheitsereignisse zusammenzufassen und zu erläutern und Ergebnisse mit Beteiligten zu teilen.  

Wie wurde Copilot für Security evaluiert? Welche Metriken werden verwendet, um die Leistung zu messen?  

Copilot für Security wurde vor der Veröffentlichung erheblichen Tests unterzogen. Zu diesen Tests gehört ein Red Teaming. Dies ist die Praxis, das Produkt strengen Test zu unterziehen, um Fehlermodi und Szenarien zu identifizieren, die dazu führen können, dass Copilot für Security Dinge abseits des vorgesehenen Verwendungszwecks tut oder sagt, oder die die Microsoft KI-Prinzipien nicht unterstützen.

Nachdem es veröffentlicht wurde, ist das Benutzerfeedback entscheidend, um Microsoft bei der Verbesserung des Systems zu unterstützen. Sie haben die Möglichkeit, Feedback zu senden, immer wenn Sie eine Antwort von Copilot für Security erhalten. Wenn eine Antwort ungenau, unvollständig oder unklar ist, verwenden Sie die Schaltflächen "Zieloffen" und "Bericht", um jede anstößige Ausgabe zu kennzeichnen. Sie können auch mithilfe der Schaltfläche „Bestätigen“ bestätigen, wenn Antworten nützlich und korrekt sind. Diese Schaltflächen werden unten in jeder Antwort von Copilot für Security angezeigt, und Ihr Feedback wird direkt an Microsoft gesendet, damit wir die Leistung der Plattform verbessern können.

Welche Einschränkungen gelten für Copilot für Security? Wie können Benutzer die Auswirkungen der Einschränkungen von Copilot für Security minimieren, wenn sie das System verwenden? 

  • Das Early Access-Programm bietet Kunden die Möglichkeit, frühzeitigen Zugriff auf Copilot für Security zu erhalten und Feedback zur Plattform zu geben. Vorschaufeatures sind nicht für die Verwendung in der Produktion vorgesehen und verfügen möglicherweise über eingeschränkte Funktionalität. 

  • Wie jede KI-gestützte Technologie macht Copilot für Security nicht alles richtig. Sie können die Antworten jedoch verbessern, indem Sie Ihre Beobachtungen mithilfe des Feedbacktools bereitstellen, das in die Plattform integriert ist.  

  • Das System generiert möglicherweise veraltete Antworten, wenn es nicht über Benutzereingaben oder Plug-Ins die aktuellsten Daten erhält. Um die besten Ergebnisse zu erzielen, überprüfen Sie, ob die richtigen Plug-Ins aktiviert sind.

  • Das System ist so konzipiert, dass es auf Eingabeaufforderungen im Zusammenhang mit der Sicherheitsdomäne reagiert, z. B. Incidentuntersuchung und Threat Intelligence. Eingabeaufforderungen außerhalb des Sicherheitsbereichs können zu Antworten führen, die ungenau und unvollständig sind.

  • Copilot für Security generiert möglicherweise Code oder schließt Code in Antworten ein, was potenziell vertrauliche Daten oder Sicherheitsrisiken offenlegen kann, wenn er nicht sorgfältig verwendet wird. Antworten können den Anschein geben fundiert zu sein, sind aber möglicherweise semantisch oder syntaktisch inkorrekt oder spiegeln möglicherweise nicht genau die Absicht des Entwicklers wider. Benutzer sollten immer die gleichen Vorsichtsmaßnahmen ergreifen, wie Sie es bei jedem Code tun würden, den sie schreiben, der Material verwendet, welches nicht unabhängig von Benutzern stammt, einschließlich Vorsichtsmaßnahmen, um dessen Eignung sicherzustellen. Dazu gehören strenge Tests, die IP-Überprüfung und die Überprüfung auf Sicherheitsrisiken.

  • Übereinstimmungen mit Öffentlichem Code: Copilot für Security kann neuen Code generieren, und zwar auf probabilistische Weise. Die Wahrscheinlichkeit, dass Code erzeugt wird, der dem Code im Trainingssatz entspricht, ist zwar gering, aber ein Copilot für Security-Vorschlag kann einige Codeausschnitte enthalten, die dem Code im Trainingssatz entsprechen. Benutzer sollten immer die gleichen Vorsichtsmaßnahmen ergreifen, wie Sie es bei jedem Code tun würden, den sie schreiben, der Material verwendet, welches nicht unabhängig von Entwicklern stammt, einschließlich Vorsichtsmaßnahmen, um dessen Eignung sicherzustellen. Dazu gehören strenge Tests, die IP-Überprüfung und die Überprüfung auf Sicherheitsrisiken.

  • Das System ist möglicherweise nicht in der Lage, lange Eingabeaufforderungen zu verarbeiten, z. B. Hunderttausende von Zeichen.

  • Die Nutzung der Plattform unterliegt möglicherweise Nutzungslimits oder Kapazitätseinschränkung. Selbst bei kürzeren Eingabeaufforderungen kann die Auswahl eines Plug-Ins, das Ausführen von API-Aufrufen, das Generieren von Antworten und das Überprüfen, bevor sie dem Benutzer angezeigt werden, einige Zeit (bis zu mehrere Minuten) dauern und eine hohe GPU-Kapazität erfordern. 

  • Um Fehler zu minimieren, wird Benutzern empfohlen, die Anweisungen zur Eingabeaufforderung zu befolgen. 

Welche operativen Faktoren und Einstellungen ermöglichen eine effektive und verantwortungsbewusste Verwendung von Copilot für Security? 

  • Sie können alltägliche Wörter verwenden, um zu beschreiben, was Copilot für Security tun soll. Zum Beispiel:

    • "Erzählen Sie mir von meinen neuesten Vorfällen" oder "Fassen Sie diesen Vorfall zusammen."
  • Während das System die Antwort generiert, sehen Sie die Schritte, die das System ausführt, im Prozessprotokoll. Damit haben Sie die Möglichkeit, seine Prozesse und Quellen zu überprüfen.  

  • Sie können eine Eingabeaufforderung jederzeit während der Eingabeaufforderung abbrechen, bearbeiten, erneut ausführen oder löschen. 

  • Sie können Feedback zur Qualität einer Antwort geben, und sie haben die Möglichkeit alles was inakzeptabel ist an Microsoft zu melden. 

  • Antworten können angeheftet, freigegeben und exportiert werden – so können Sicherheitsexperten zusammenarbeiten und Beobachtungen teilen. 

  • Administratoren haben die Kontrolle über die Plug-Ins, die eine Verbindung mit Copilot für Security herstellen.   

  • Sie können Plug-Ins auswählen, personalisieren und verwalten, die mit Copilot für Security zusammenarbeiten.

  • Copilot für Security hat Promptbooks erstellt, bei denen es sich um eine Gruppe von Eingabeaufforderungen handelt, die nacheinander ausgeführt werden, um einen bestimmten Workflow abzuschließen.

Wie geht Microsoft mit verantwortungsvoller KI für Copilot für Security um?

Bei Microsoft nehmen wir unsere Verpflichtung zu verantwortungsvoller KI ernst. Copilot für Security wird gemäß unseren KI-Prinzipien entwickelt. Wir arbeiten mit OpenAI zusammen, um eine Erfahrung bereitzustellen, die eine verantwortungsvolle Nutzung fördert. Beispielsweise haben und werden wir mit OpenAI an grundlegender Modellarbeit zusammenarbeiten. Wir haben die Benutzeroberfläche von Copilot für Security so entwickelt, dass Menschen im Mittelpunkt bleiben. Wir haben ein Sicherheitssystem entwickelt, das darauf ausgelegt ist, Fehler zu minimieren und Missbrauch mit Elementen wie Anmerkungen zu schädlichem Inhalt, operativer Überwachung und anderen Sicherheitsvorkehrungen zu verhindern. Das Early Access-Programm, das nur mit Einladung zugänglich ist, ist auch ein Teil unseres Ansatzes für verantwortungsvolle KI. Wir nehmen Benutzerfeedback von Personen mit frühem Zugriff auf Copilot für Security, um das Tool zu verbessern, bevor es allgemein verfügbar gemacht wird.

Verantwortungsvolle KI ist ein Prozess, und wir werden unsere Systeme auf diesem Weg kontinuierlich verbessern. Wir sind bestrebt, unsere KI zuverlässiger und vertrauenswürdiger zu machen, und Ihr Feedback hilft uns dabei.

Halten Sie das EU-Gesetz zur künstlichen Intelligenz ein?

Wir setzen uns für die Einhaltung des EU-Gesetzes zur künstlichen Intelligenz ein. Unsere mehrjährigen Bemühungen, unseren „Responsible AI Standard“ (Standard für verantwortungsvolle KI) und unsere interne Governance zu definieren, weiterzuentwickeln und zu implementieren, haben unsere Bereitschaft gestärkt.

Bei Microsoft erkennen wir die Bedeutung der Einhaltung gesetzlicher Bestimmungen als Grundlage für Vertrauen und Zuverlässigkeit in KI-Technologien an. Wir sind bestrebt, verantwortungsvolle KI entwurfsbedingt zu schaffen. Unser Ziel ist es, KI zu entwickeln und bereitzustellen, die sich positiv auf die Gesellschaft auswirkt und deren Vertrauen verdient.

Unsere Arbeit basiert auf einer Reihe von Kernprinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusivität, Transparenz und Verantwortlichkeit. Der Microsoft-Standard für verantwortungsvolle KI übernimmt diese sechs Prinzipien und unterteilt sie in Ziele und Anforderungen für die ki, die wir zur Verfügung stellen.

Unser „Responsible AI Standard“ (Standard für verantwortungsvolle KI) berücksichtigt gesetzliche Vorschläge und deren Entwicklung, einschließlich des ursprünglichen Vorschlags für das EU-Gesetz zur künstlichen Intelligenz. Wir haben unsere neuesten Produkte und Dienste im KI-Bereich wie Microsoft Copilot und Microsoft Azure OpenAI Service in Übereinstimmung mit unserem „Responsible AI Standard“ (Standard für verantwortungsvolle KI) entwickelt. Während die endgültigen Anforderungen im Rahmen des EU-Gesetzes zur künstlichen Intelligenz ausführlicher definiert werden, freuen wir uns darauf, mit den politischen Entscheidungsträgern zusammenzuarbeiten, um eine praktikable Implementierung und Anwendung der Regeln sicherzustellen, unsere Compliance zu demonstrieren und mit unseren Kunden und anderen Beteiligten zusammenzuarbeiten, um die Compliance im gesamten Ökosystem zu unterstützen.