Share via


Protections de la conformité et de la sécurité des données Microsoft Purview pour les applications d’intelligence artificielle générées

Guide de gestion des licences Microsoft 365 pour la sécurité & la conformité

Utilisez Microsoft Purview pour atténuer et gérer les risques associés à l’utilisation de l’IA, et implémenter les contrôles de protection et de gouvernance correspondants.

Découvrez, protégez et respectez les catégories d’utilisation et de données de l’IA générative à l’aide de Microsoft Purview.

Microsoft Purview AI Hub est actuellement en préversion et fournit des outils graphiques et des rapports faciles à utiliser pour obtenir rapidement des insights sur l’utilisation de l’IA dans votre organization. Les stratégies en un clic vous aident à protéger vos données et à vous conformer aux exigences réglementaires.

Utilisez le hub IA conjointement avec d’autres fonctionnalités de Microsoft Purview pour renforcer la sécurité et la conformité de vos données pour Microsoft Copilot pour Microsoft 365 :

Remarque

Pour case activée si les plans de licence de votre organization prennent en charge ces fonctionnalités, consultez le lien d’aide aux licences en haut de la page. Pour obtenir des informations de licence pour Microsoft Copilot pour Microsoft 365 lui-même, consultez la description du service pour Microsoft Copilot pour Microsoft 365.

Utilisez les sections suivantes pour en savoir plus sur le hub IA et les fonctionnalités de Microsoft Purview qui fournissent des contrôles de conformité et de sécurité des données supplémentaires pour accélérer l’adoption par votre organization de Microsoft Copilot et d’autres applications d’IA générative. Si vous débutez avec Microsoft Purview, vous trouverez peut-être également une vue d’ensemble du produit utile : En savoir plus sur Microsoft Purview.

Pour plus d’informations générales sur les exigences de sécurité et de conformité pour Copilot pour Microsoft 365, consultez Données, confidentialité et sécurité pour Microsoft Copilot pour Microsoft 365.

Microsoft Purview AI Hub fournit des insights, des stratégies et des contrôles pour les applications IA

Remarque

Microsoft Purview AI Hub est actuellement en préversion et susceptible d’être modifié.

Le hub IA du portail Microsoft Purview ou du portail de conformité Microsoft Purview fournit un emplacement de gestion central pour vous aider à sécuriser rapidement les données des applications IA et à surveiller de manière proactive l’utilisation de l’IA. Ces applications incluent des applications Microsoft Copilot pour Microsoft 365 et IA provenant de modules de langage volumineux (LLM) tiers.

Exemple de capture d’écran de Microsoft Purview AI Hub, analytique.

Le hub IA offre un ensemble de fonctionnalités qui vous permettent d’adopter l’IA en toute sécurité sans avoir à choisir entre productivité et protection :

  • Insights et analyses sur l’activité IA dans votre organization

  • Stratégies prêtes à l’emploi pour protéger les données et empêcher la perte de données dans les invites IA

  • Contrôles de conformité pour appliquer des stratégies optimales de gestion et de stockage des données

Pour obtenir la liste des sites IA tiers pris en charge, tels que ceux utilisés pour Bard et ChatGPT, consultez Sites IA pris en charge par Microsoft Purview pour les protections de conformité et de sécurité des données.

Comment utiliser le hub IA

Pour vous aider à obtenir plus rapidement des insights sur l’utilisation de l’IA et protéger vos données, le hub IA fournit des stratégies préconfigurées que vous pouvez activer en un seul clic. Prévoyez au moins 24 heures pour que ces nouvelles stratégies collectent des données afin d’afficher les résultats dans le hub IA ou reflètent les modifications que vous apportez aux paramètres par défaut.

Pour commencer à utiliser le hub IA, vous pouvez utiliser le portail Microsoft Purview ou le portail de conformité Microsoft Purview. Vous avez besoin d’un compte disposant des autorisations appropriées pour la gestion de la conformité, par exemple un compte membre du rôle de groupe Administrateur de conformité Microsoft Entra.

  1. Selon le portail que vous utilisez, accédez à l’un des emplacements suivants :

  2. Dans Analytics, consultez la section Prise en main pour en savoir plus sur le hub IA et les actions immédiates que vous pouvez prendre. Sélectionnez chacune d’elles pour afficher le volet volant pour en savoir plus, effectuer des actions et vérifier votre status actuelle.

    Action Informations supplémentaires
    Activer Microsoft Purview Audit L’audit étant activé par défaut pour les nouveaux locataires, vous pouvez déjà remplir ce prérequis. Si c’est le cas et que les utilisateurs se voient déjà attribuer des licences pour Copilot, vous commencez à voir des insights sur les activités Copilot dans la section Analyse des données IA plus bas dans la page.
    Installer l’extension de navigateur Microsoft Purview Un prérequis pour les sites IA tiers.
    Intégrer des appareils à Microsoft Purview Il s’agit également d’une condition préalable pour les sites IA tiers.
    Étendre vos insights pour la découverte des données Stratégies en un clic pour collecter des informations sur les utilisateurs qui visitent des sites d’IA générative tiers et leur envoient des informations sensibles. L’option est identique au bouton Étendre vos insights dans la section Analyse des données IA plus bas dans la page.

    Pour plus d’informations sur les prérequis, consultez Prérequis pour le hub IA.

    Pour plus d’informations sur les stratégies préconfigurées que vous pouvez activer, consultez Stratégies en un clic à partir du hub IA.

  3. Ensuite, passez en revue la section Recommandations et décidez s’il faut implémenter des options pertinentes pour votre locataire. Par exemple :

  4. Sélectionnez Stratégies à partir du hub IA où vous pouvez activer rapidement les stratégies par défaut pour vous aider à protéger les données sensibles envoyées à des sites d’IA générative tiers et protéger vos données avec des étiquettes de confidentialité. Pour plus d’informations sur ces stratégies, consultez Stratégies en un clic à partir du hub IA. Vous devez attendre au moins un jour que les rapports soient remplis.

    Sous Recommandations et Renforcer la sécurité de vos données pour l’IA, sélectionnez Bien démarrer pour en savoir plus, prendre des mesures et vérifier votre status actuelle.

    Lorsque vos stratégies sont créées, y compris celles d’Analytics, vous pouvez surveiller leur status à partir de cette page. Pour les modifier, utilisez la solution de gestion correspondante dans le portail. Par exemple, pour Contrôler le comportement contraire à l’éthique dans l’IA, vous pouvez examiner et corriger les correspondances à partir de la solution de conformité des communications.

  5. Sélectionnez Explorateur d’activités à partir du hub IA pour afficher les détails des données collectées à partir de vos stratégies. Si vous sélectionnez Afficher les détails dans l’un des graphiques de la page Analytics ou de la page Stratégies , vous accédez également à l’Explorateur d’activités.

    Ces informations plus détaillées incluent l’activité, la charge de travail et l’application, l’utilisateur, la date et l’heure, ainsi que tous les types d’informations sensibles détectés.

    Parmi les exemples d’activités, citons l’interaction ia, la classification estampillée, la correspondance de règle DLP et la visite de l’IA. Pour plus d’informations sur les événements, consultez Événements de l’Explorateur d’activités.

    Microsoft Copilot et d’autres applications IA sont des exemples d’applications.

    Exemple de capture d’écran de Microsoft Purview AI Hub, explorateur d’activités montrant les activités IA.

Pour Microsoft Copilot pour Microsoft 365, utilisez ces stratégies et insights conjointement avec des protections et des fonctionnalités de conformité supplémentaires de Microsoft Purview.

Microsoft Purview renforce la protection des informations pour Copilot

Copilot utilise des contrôles existants pour s’assurer que les données stockées dans votre locataire ne sont jamais retournées à l’utilisateur ou utilisées par un modèle de langage large (LLM) si l’utilisateur n’a pas accès à ces données. Lorsque les données ont des étiquettes de confidentialité de votre organization appliquées au contenu, il existe une couche de protection supplémentaire :

  • Lorsqu’un fichier est ouvert dans Word, Excel, PowerPoint ou, de même, un événement de courrier électronique ou de calendrier est ouvert Outlook, la sensibilité des données s’affiche pour les utilisateurs de l’application avec le nom d’étiquette et les marquages de contenu (tels que le texte d’en-tête ou de pied de page) qui ont été configurés pour l’étiquette.

  • Lorsque l’étiquette de confidentialité applique un chiffrement, les utilisateurs doivent avoir le droit d’utilisation EXTRACT, ainsi que VIEW, pour que Copilot retourne les données.

  • Cette protection s’étend aux données stockées en dehors de votre client Microsoft 365 lorsqu’elles sont ouvertes dans une application Office (données en cours d’utilisation). Par exemple, le stockage local, les partages réseau et le stockage cloud.

Conseil

Si vous ne l’avez pas déjà fait, nous vous recommandons d’activer les étiquettes de confidentialité pour SharePoint et OneDrive et de vous familiariser avec les types de fichiers et les configurations d’étiquettes que ces services peuvent traiter. Lorsque les étiquettes de confidentialité ne sont pas activées pour ces services, les fichiers chiffrés auxquels Copilot pour Microsoft 365 pouvez accéder sont limités aux données utilisées à partir des applications Office sur Windows.

Pour obtenir des instructions, voir Activer les étiquettes de confidentialité pour les fichiers Office dans SharePoint et OneDrive.

En outre, lorsque vous utilisez une conversation microsoft Copilot Graph (anciennement Microsoft 365 Chat) qui peut accéder aux données d’un large éventail de contenu, la sensibilité des données étiquetées retournées par Copilot pour Microsoft 365 est rendue visible par les utilisateurs avec l’étiquette de confidentialité affichée pour les citations et les éléments répertoriés dans la réponse. À l’aide du numéro de priorité des étiquettes de confidentialité défini dans le portail Microsoft Purview ou le portail de conformité Microsoft Purview, la dernière réponse dans Copilot affiche l’étiquette de confidentialité la plus élevée à partir des données utilisées pour cette conversation Copilot.

Bien que les administrateurs de conformité définissent la priorité d’une étiquette de confidentialité, un numéro de priorité plus élevé indique généralement une sensibilité plus élevée du contenu, avec des autorisations plus restrictives. Par conséquent, les réponses Copilot sont étiquetées avec l’étiquette de confidentialité la plus restrictive.

Remarque

Si les éléments sont chiffrés par Protection des données Microsoft Purview mais n’ont pas d’étiquette de confidentialité, Microsoft Copilot pour Microsoft 365 ne retournera pas non plus ces éléments aux utilisateurs si le chiffrement n’inclut pas les droits d’utilisation EXTRACT ou VIEW pour l’utilisateur.

Si vous n’utilisez pas encore d’étiquettes de confidentialité, consultez Prise en main des étiquettes de confidentialité.

Bien que les stratégies DLP ne prennent pas encore en charge les interactions pour les Microsoft Copilot pour Microsoft 365, la classification des données pour les types d’informations sensibles et les classifieurs pouvant être entraînés est prise en charge pour identifier les données sensibles dans les invites utilisateur à Copilot et les réponses.

Protection Copilot avec héritage des étiquettes de confidentialité

Lorsque vous utilisez Copilot pour créer du contenu basé sur un élément auquel une étiquette de confidentialité est appliquée, l’étiquette de confidentialité du fichier source est automatiquement héritée, avec les paramètres de protection de l’étiquette.

Par exemple, un utilisateur sélectionne Brouillon avec Copilot dans Word, puis Référencer un fichier. Ou un utilisateur sélectionne Create présentation à partir d’un fichier dans PowerPoint. L’étiquette de confidentialité Confidential\Anyone (sans restriction) est appliquée au contenu source et cette étiquette est configurée pour appliquer un pied de page qui affiche « Confidentiel ». Le nouveau contenu est automatiquement étiqueté Confidentiel\Tout le monde (sans restriction) avec le même pied de page.

Pour voir un exemple de ceci en action, watch la démonstration suivante de la session Ignite 2023, Préparer votre entreprise pour Microsoft 365 Copilot. La démonstration montre comment l’étiquette de confidentialité par défaut de Général est remplacée par une étiquette Confidentiel lorsqu’un utilisateur rédige avec Copilot et fait référence à un fichier étiqueté. La barre d’informations sous le ruban informe l’utilisateur que le contenu créé par Copilot a entraîné l’application automatique de la nouvelle étiquette :

Si plusieurs fichiers sont utilisés pour créer du contenu, l’étiquette de confidentialité avec la priorité la plus élevée est utilisée pour l’héritage des étiquettes.

Comme pour tous les scénarios d’étiquetage automatique, l’utilisateur peut toujours remplacer et remplacer une étiquette héritée (ou supprimer, si vous n’utilisez pas l’étiquetage obligatoire).

Protection Microsoft Purview sans étiquettes de confidentialité

Même si une étiquette de confidentialité n’est pas appliquée au contenu, les services et les produits peuvent utiliser les fonctionnalités de chiffrement du service Azure Rights Management. Par conséquent, Copilot pour Microsoft 365 pouvez toujours case activée pour les droits d’utilisation VIEW et EXTRACT avant de retourner des données et des liens à un utilisateur, mais il n’existe pas d’héritage automatique de protection pour les nouveaux éléments.

Conseil

Vous bénéficiez de la meilleure expérience utilisateur lorsque vous utilisez toujours des étiquettes de confidentialité pour protéger vos données et que le chiffrement est appliqué par une étiquette.

Exemples de produits et de services qui peuvent utiliser les fonctionnalités de chiffrement du service Azure Rights Management sans étiquettes de confidentialité :

  • Chiffrement des messages Microsoft Purview
  • Gestion des droits relatifs à l’information (IRM) Microsoft
  • Connecteur Microsoft Rights Management
  • Kit de développement logiciel (SDK) Microsoft Rights Management

Pour les autres méthodes de chiffrement qui n’utilisent pas le service Azure Rights Management :

  • Les e-mails protégés par S/MIME ne seront pas retournés par Copilot, et Copilot n’est pas disponible dans Outlook lorsqu’un e-mail protégé par S/MIME est ouvert.

  • Les documents protégés par mot de passe ne sont pas accessibles par Copilot pour Microsoft 365, sauf s’ils sont déjà ouverts par l’utilisateur dans la même application (données en cours d’utilisation). Les mots de passe ne sont pas hérités par un élément de destination.

Comme avec d’autres services Microsoft 365, tels que la découverte électronique et la recherche, les éléments chiffrés avec la clé client Microsoft Purview ou votre propre clé racine (BYOK) sont pris en charge et peuvent être retournés par Copilot pour Microsoft 365.

Microsoft Purview prend en charge la gestion de la conformité pour Copilot

Utilisez les fonctionnalités de conformité de Microsoft Purview pour prendre en charge vos exigences en matière de risques et de conformité pour Copilot pour Microsoft 365.

Les interactions avec Copilot peuvent être surveillées pour chaque utilisateur de votre locataire. Par conséquent, vous pouvez utiliser la classification de Purview (types d’informations sensibles et classifieurs pouvant être formés), la recherche de contenu, la conformité des communications, l’audit, eDiscovery et les fonctionnalités de rétention et de suppression automatiques à l’aide de stratégies de rétention.

Pour la conformité des communications, vous pouvez analyser les invites utilisateur et les réponses Copilot pour détecter les interactions inappropriées ou risquées ou le partage d’informations confidentielles. Pour plus d’informations, consultez Configurer une stratégie de conformité des communications pour détecter les interactions Copilot pour Microsoft 365.

communication-compliance-microsoft-365-copilot.

Pour l’audit, les détails sont capturés dans le journal d’audit unifié lorsque les utilisateurs interagissent avec Copilot. Les événements incluent comment et quand les utilisateurs interagissent avec Copilot, dans lequel le service Microsoft 365 a eu lieu, et les références aux fichiers stockés dans Microsoft 365 qui ont été consultés pendant l’interaction. Si une étiquette de confidentialité est appliquée à ces fichiers, elle est également capturée. Dans la solution Audit à partir du portail Microsoft Purview ou du portail de conformité Microsoft Purview, sélectionnez Activités Copilot et Interaction avec Copilot. Vous pouvez également sélectionner Copilot comme charge de travail. Par exemple, à partir du portail de conformité :

Options d’audit pour identifier les interactions utilisateur avec Microsoft Copilot pour Microsoft 365.

Pour la recherche de contenu, étant donné que les invites de l’utilisateur à Copilot et les réponses de Copilot sont stockées dans la boîte aux lettres d’un utilisateur, elles peuvent être recherchées et récupérées lorsque la boîte aux lettres de l’utilisateur est sélectionnée comme source pour une requête de recherche. Sélectionnez et récupérez ces données à partir de la boîte aux lettres source en sélectionnant Ajouter desinteractions Copilotde type>de condition>.

De même pour eDiscovery, vous utilisez le même processus de requête pour sélectionner des boîtes aux lettres et récupérer les invites utilisateur à Copilot et les réponses de Copilot. Une fois la collection créée et source dans la phase de révision dans eDiscovery (Premium), ces données sont disponibles pour effectuer toutes les actions de révision existantes. Ces collections et ensembles de révision peuvent ensuite être mis en attente ou exportés. Si vous devez supprimer ces données, consultez Rechercher et supprimer des données pour Microsoft Copilot pour Microsoft 365.

Pour les stratégies de rétention qui prennent en charge la rétention et la suppression automatiques, les invites utilisateur à Copilot et les réponses de Copilot sont identifiées par l’emplacement des conversations Teams et des interactions Copilot. Précédemment nommé uniquement conversations Teams, les utilisateurs n’ont pas besoin d’utiliser la conversation Teams pour que cette stratégie s’applique à eux. Toutes les stratégies de rétention existantes précédemment configurées pour les conversations Teams incluent désormais automatiquement des invites et des réponses des utilisateurs vers et depuis Microsoft Copilot pour Microsoft 365 :

Mise à jour de l’emplacement de rétention des conversations Teams pour inclure des interactions pour Microsoft Copilot pour Microsoft 365.

Pour plus d’informations sur le fonctionnement de cette rétention, consultez En savoir plus sur la rétention pour Microsoft Copilot pour Microsoft 365.

Comme pour toutes les stratégies et conservations de rétention, si plusieurs stratégies pour le même emplacement s’appliquent à un utilisateur, les principes de rétention résolvent les conflits. Par exemple, les données sont conservées pendant la durée la plus longue de toutes les stratégies de rétention appliquées ou des conservations eDiscovery.

Pour que les étiquettes de rétention conservent automatiquement les fichiers référencés dans Copilot, sélectionnez l’option pièces jointes cloud avec une stratégie d’étiquette de rétention d’application automatique : Appliquer une étiquette aux pièces jointes cloud et aux liens partagés dans Exchange, Teams, Viva Engage et Copilot. Comme pour toutes les pièces jointes cloud conservées, la version du fichier au moment où elle est référencée est conservée.

Mise à jour de l’option pièces jointes cloud pour appliquer automatiquement l’étiquette de rétention afin d’inclure des interactions pour Copilot.

Pour plus d’informations sur le fonctionnement de cette rétention, consultez Fonctionnement de la rétention avec les pièces jointes cloud.

Pour obtenir des instructions de configuration :

Autre documentation pour le hub IA et Copilot

Annonce du billet de blog : Sécuriser vos données pour tirer parti en toute confiance de l’IA générative avec Microsoft Purview

Pour plus d’informations, consultez Considérations relatives à Microsoft Purview AI Hub et protections de conformité et de sécurité des données pour Microsoft Copilot.

Microsoft Copilot pour Microsoft 365 :