Share via


FAQ sur la sécurité et la confidentialité des données Copilot pour Dynamics 365 et Power Platform

Les fonctionnalités de Copilot for Dynamics 365 et de Power Platform suivent un ensemble de pratiques de sécurité de base et de confidentialité ainsi que la Norme relative à l’IA responsable de Microsoft. Les données Dynamics 365 et Power Platform sont protégées par des contrôles de conformité, de sécurité et de confidentialité complets et à la pointe du secteur.

Copilot est basé sur Microsoft Azure OpenAI Service et est entièrement exécuté dans le cloud Azure. Azure OpenAI offre une disponibilité régionale et un filtre de contenu IA responsable. Copilot utilise des modèles OpenAI avec toutes les fonctionnalités de sécurité de Microsoft Azure. OpenAI est une organisation indépendante. Nous ne partageons pas vos données avec OpenAI.

Les fonctionnalités Copilot ne sont pas disponibles dans toutes les régions géographiques et langues Azure. Selon l’endroit où votre environnement est hébergé, vous devrez peut-être autoriser le déplacement des données entre les zones géographiques pour les utiliser. Pour en savoir plus, consultez les articles répertoriés sous Déplacement des données entre les zones géographiques.

Qu’arrive-t-il à mes données lorsque j’utilise Copilot ?

Vous avez le contrôle de vos données. Microsoft ne partage pas vos données avec un tiers, sauf si vous en avez donné l’autorisation. De plus, nous n’utilisons pas vos données client pour former Copilot ou ses fonctionnalités d’IA, sauf si vous nous donnez votre consentement pour le faire. Copilot adhère aux autorisations et politiques de données existantes, et ses réponses à vous sont basées uniquement sur les données auxquelles vous avez personnellement accès. Pour en savoir plus sur la manière de contrôler vos données et comment vos données sont traitées, consultez les articles répertoriés sous Copilot dans les applications Dynamics 365 et Power Platform.

Copilot surveille les utilisations abusives ou nuisibles du service avec un traitement transitoire. Nous ne stockons ni n’effectuons d’examen oculaire des entrées et sorties de Copilot à des fins de surveillance des abus.

Comment Copilot utilise-t-il mes données ? 

Chaque service ou fonctionnalité utilise Copilot en fonction des données que vous fournissez ou configurez pour être traitées par Copilot.

Vos invites (entrées) et les réponses de Copilot (sorties ou résultats) :

  • Ne sont PAS disponibles pour les autres clients.

  • Ne sont PAS utilisées pour former ou améliorer des produits ou services tiers (comme les modèles OpenAI).

  • Ne sont PAS utilisés pour former ou améliorer les modèles IA Microsoft, sauf si votre administrateur client opte pour le partage de données avec nous.

En savoir plus sur la confidentialité et la sécurité des données dans Azure OpenAI Service. Pour en savoir plus sur la manière dont Microsoft protège et utilise vos données de manière plus générale, lisez notre Déclaration de confidentialité.

Où vont mes données ?

Microsoft s'appuie sur la confiance. Nous nous engageons à garantir la sécurité, la confidentialité et la conformité dans tout ce que nous faisons, et notre approche de l’IA n’est pas différente. Les données client, y compris les entrées et sorties Copilot, sont stockées dans les limites de confiance Microsoft Cloud.

Dans certains scénarios, tels que les fonctionnalités optimisées par Bing et les plug-ins de copilote tiers, les données client peuvent être transmises en dehors des limites de confiance Microsoft Cloud.

Copilot peut-il accéder au contenu chiffré ?

Les données sont fournies à Copilot en fonction du niveau d’accès de l’utilisateur actuel. Si un utilisateur a accès aux données chiffrées dans Dynamics 365 et Power Platform et que l’utilisateur les fournit à Copilot, Copilot y accède.

Comment Copilot protège-t-il les données des clients ?

Microsoft est particulièrement bien placé pour fournir une IA prête pour l’entreprise. Optimisé par Azure OpenAI Service, Copilot est conforme à nos engagements réglementaires existants en matière de confidentialité, de sécurité et de conformité envers nos clients.

  • Basé sur l’approche globale de Microsoft en matière de sécurité, de confidentialité et de conformité. Copilot est intégré aux services Microsoft comme Dynamics 365 et Power Platform et hérite des précieuses politiques et processus de sécurité, de conformité et de confidentialité de ces produits, telles que l’authentification multifacteur et les limites de confidentialité.

  • Plusieurs formes de protection pour sauvegarder les données de l’organisation. Les technologies côté service chiffrent le contenu organisationnel au repos et en transit pour une sécurité renforcée. Les connexions sont sécurisées avec le protocole TLS (Transport Layer Security) et les transferts de données entre Dynamics 365, Power Platform et Azure OpenAI s’effectuent via le réseau fédérateur de Microsoft, garantissant à la fois fiabilité et sécurité. En savoir plus sur le chiffrement dans Microsoft Cloud.

  • Conçu pour protéger vos données au niveau du client et de l’environnement. Nous savons que la fuite de données est une préoccupation pour les clients. Les modèles IA de Microsoft ne sont pas formés et n’apprennent pas de vos données de client ou de vos invites, sauf si votre administrateur de client a choisi de partager des données avec nous. Au sein de vos environnements, vous pouvez contrôler l’accès via les autorisations que vous configurez. Les mécanismes d’authentification et d’autorisation séparent les demandes adressées au modèle partagé entre les clients. Copilot utilise uniquement les données auxquelles vous seul pouvez accéder en utilisant la même technologie que nous utilisons depuis des années pour sécuriser les données des clients.

Les réponses de Copilot sont-elles toujours factuelles ?

Comme avec l’IA générative, les réponses produites par Copilot ne sont pas garanties à 100 % factuelles. Bien que nous continuions à améliorer les réponses aux demandes factuelles, vous devez toujours faire preuve de jugement et examiner les résultats avant de les envoyer à d’autres. Copilot fournit des brouillons et des résumés utiles pour vous aider à en faire plus, mais il est entièrement automatique. Vous avez toujours la possibilité de consulter le contenu généré par l’IA.

Nos équipes s’efforçent de résoudre de manière proactive les problèmes tels que la mésinformation et la désinformation, le blocage de contenu, la sécurité des données et la promotion de contenu préjudiciable ou discriminatoire, conformément à nos principes de l’IA responsable.

Nous offrons également des conseils dans le cadre de l’expérience utilisateur pour renforcer l’utilisation responsable du contenu généré par l’IA et des actions suggérées.

  • Instructions et invites. Lorsque vous utilisez Copilot, des invites et autres éléments d’information vous rappellent d’examiner et de modifier les réponses si nécessaire, et de vérifier manuellement l’exactitude des faits, des données et du texte avant d’utiliser le contenu généré par l’IA.

  • Sources citées. Le cas échéant, Copilot cite ses sources d’informations, qu’elles soient publiques ou internes, afin que vous puissiez les consulter vous-même pour confirmer ses réponses.

Pour plus d’informations, consultez la FAQ sur l’IA responsable pour votre produit sur Microsoft Learn.

Copilot bloque-t-il les injections d’invites (attaques de jailbreak) ?

Les attaques de jailbreak sont des invites utilisateur conçues pour inciter le modèle IA génératif à présenter des comportements pour lesquels il a été entraîné à éviter ou à enfreindre les règles définies à suivre. Les services dans Dynamics 365 et Power Platform sont requis pour protéger contre les injections d’invites. En savoir plus sur les attaques de jailbreak et sur la manière d’utiliser Azure AI Content Safety pour les détecter.

Comment Microsoft teste-t-il et valide-t-il la qualité de Copilot, y compris la protection contre les injections d’invites et les réponses fondées ?

Chaque nouvelle itération de produit Copilot et de modèle de langage doit passer un examen interne de l’IA responsable avant son lancement. Avant la mise en production, nous utilisons un processus appelé « red-teaming » (dans lequel une équipe simule une attaque ennemie, trouvant et exploitant les faiblesses pour aider l’organisation à améliorer ses défenses) pour évaluer les risques potentiels liés aux contenus nuisibles, aux scénarios de jailbreak et aux réponses fondées. Après la mise en production, nous utilisons des tests automatisés et des outils d’évaluation manuels et automatisés pour évaluer la qualité des réponses Copilot.

Comment Microsoft améliore-t-il le modèle de base et mesure-t-il les améliorations des réponses fondées ?

Dans le contexte de l’IA, en particulier de l’IA qui traite des modèles de langage comme celui sur lequel Copilot est basé, l’ancrage permet à l’IA de générer des réponses plus pertinentes et plus logiques dans le monde réel. L’ancrage permet de garantir que les réponses de l’IA sont basées sur des informations fiables et sont aussi précises et pertinentes que possible. Les mesures de réponse fondée évaluent avec quelle précision les faits énoncés dans le contenu de base fourni au modèle sont représentés dans la réponse finale.

Les modèles de fondation comme GPT-4 sont améliorés par les techniques de génération augmentée de récupération (RAG). Ces techniques permettent aux modèles d’utiliser plus d’informations que celles sur lesquelles ils ont été formés pour comprendre le scénario d’un utilisateur. La RAG fonctionne en identifiant d’abord les données pertinentes pour le scénario, de la même manière qu’un moteur de recherche identifie les pages Web pertinentes pour les termes de recherche de l’utilisateur. Elle utilise plusieurs approches pour identifier le contenu pertinent pour l’invite de l’utilisateur et doit être utilisé pour étayer la réponse. Les approches incluent la recherche sur différents types d’index, tels que les index inversés utilisant des techniques de récupération d’informations telles que la correspondance de termes, ou les index vectoriels utilisant des comparaisons de distances vectorielles pour la similarité sémantique. Après avoir identifié les documents pertinents, la RAG transmet les données au modèle avec la conversation en cours, donnant au modèle plus de contexte pour mieux comprendre les informations dont il dispose déjà et générer une réponse ancrée dans le monde réel. Enfin, la RAG vérifie la réponse pour s’assurer qu’elle est prise en charge par le contenu source fourni au modèle. Les fonctionnalités d’IA générative de Copilot intègrent la RAG de plusieurs manières. Un exemple n’est autre que la conversation instantanée avec utilisation des données, où un chatbot est ancré avec les propres sources de données du client.

Une autre méthode pour améliorer les modèles fondamentaux est connue sous le nom de réglage affiné. Un important jeu de données de paires requête-réponse est présenté à un modèle fondamental pour augmenter sa formation d’origine avec de nouveaux échantillons ciblés sur un scénario spécifique. Le modèle peut ensuite être déployé en tant que modèle distinct, adapté à ce scénario. Tandis que l’ancrage consiste à rendre les connaissances de l’IA pertinentes pour le monde réel, le réglage affiné consiste à rendre les connaissances de l’IA plus spécifiques à une tâche ou à un domaine particulier. Microsoft a recours au réglage affiné de plusieurs manières. Par exemple, nous utilisons la création de flux Power Automate à partir de descriptions en langage naturel fournies par l’utilisateur.

Comment Copilot bloque-t-il les contenus nuisibles ?

Azure OpenAI Service comprend un système de filtrage de contenu qui fonctionne parallèlement aux modèles de base. Les modèles de filtrage de contenu pour les catégories Haine et équité, Sexualité, Violence et Auto-mutilation ont été spécifiquement formés et testés dans plusieurs langues. Ce système fonctionne en exécutant à la fois l’invite de saisie et la réponse via des modèles de classification conçus pour identifier et bloquer la sortie de contenu nuisible.

Les préjudices liés à la haine et à l’équité font référence à tout contenu utilisant un langage péjoratif ou discriminatoire basé sur des attributs tels que la race, l’origine ethnique, la nationalité, l’identité et l’expression de genre, l’orientation sexuelle, la religion, le statut d’immigration, les capacités, l’apparence personnelle et la taille. L’équité consiste à garantir que les systèmes d’IA traitent équitablement tous les groupes de personnes sans contribuer aux inégalités sociétales existantes. Le contenu sexuel implique des discussions sur les organes reproducteurs humains, les relations amoureuses, les actes décrits en termes érotiques ou affectueux, la grossesse, les actes sexuels physiques, y compris ceux décrits comme une agression ou un acte forcé de violence sexuelle, la prostitution, la pornographie et les abus. La violence décrit le langage lié aux actions physiques destinées à blesser ou à tuer, y compris les actions, les armes et les entités associées. Le langage de l’automutilation fait référence à des actions délibérées visant à se blesser ou à se suicider.

En savoir plus sur le filtrage de contenu Azure OpenAI.

Copilot répond-t-il aux exigences de conformité réglementaire ?

Microsoft Copilot fait partie de l’écosystème Dynamics 365 et Power Platform et répond aux mêmes exigences de conformité réglementaire. Pour en savoir plus sur les certifications réglementaires des services Microsoft, accédez au Portail d’approbation de services. De plus, Copilot adhère à notre engagement en matière d’IA responsable, qui est mis en œuvre conformément à nos standards d’IA responsable. À mesure que la réglementation dans le domaine de l’IA évolue, Microsoft continue de s’adapter et de répondre aux nouvelles exigences.

En savoir plus sur la disponibilité de Dynamics 365, Power Platform et Copilot, les emplacements de données client et la conformité aux exigences mondiales, régionales et spécifiques à l’industrie pour la gestion des données.

En savoir plus

Copilot dans les applications Dynamics 365 et Power Platform

Product Fonctionnalité Environnements gérés obligatoires ? Comment désactiver la fonctionnalité
AI Builder Scénarios en version préliminaire Non Scénarios en version préliminaire
Dynamics 365 Customer Insights - Data Créer des segments avec Copilot pour Customer Insights - Data (version préliminaire) Non Customer Insights - Data dispose de son propre indicateur pour toutes ses fonctionnalités Copilot par Azure OpenAI.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Data
Dynamics 365 Customer Insights - Data Vue d’ensemble du rapport de préparation des données (vue d’ensemble) Non Customer Insights - Data dispose de son propre indicateur pour toutes ses fonctionnalités Copilot par Azure OpenAI.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Data
Dynamics 365 Customer Insights - Data Obtenir des réponses aux questions sur les fonctionnalités de Copilot (version préliminaire) Non Customer Insights - Data dispose de son propre indicateur pour toutes ses fonctionnalités Copilot par Azure OpenAI.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Data
Dynamics 365 Customer Insights (Données) Dialoguer avec les données à l’aide de Copilot dans Customer Insights Non Customer Insights - Data dispose de son propre indicateur pour toutes ses fonctionnalités Copilot par Azure OpenAI.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Data
Dynamics 365 Customer Insights - Data Afficher la configuration du système Non Customer Insights - Data dispose de son propre indicateur pour toutes ses fonctionnalités Copilot par Azure OpenAI.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot vous aide à apprendre et à en faire plus (évaluation) Non La disponibilité de ce copilote dans votre environnement est déterminée par les paramètres administrateur de Power Platform. Découvrez comment ajouter Copilot aux applications pilotées par modèle.


Cette fonctionnalité est le « copilote d’application dans Customer Insights - Journeys » ; c’est la raison pour laquelle elle est activée dans le centre d’administration Power Platform. En savoir plus : FAQ sur l’IA responsable
Dynamics 365 Customer Insights - Journeys Créer des parcours avec l’assistance de l’IA Non Customer Insights - Journeys dispose de ses propres indicateurs pour les fonctionnalités Copilot.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Actualiser et perfectionner votre message Non Customer Insights - Journeys dispose de ses propres indicateurs pour les fonctionnalités Copilot.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Personnaliser vos courriers électroniques avec des thèmes assistés par l’IA Non Customer Insights - Journeys dispose de ses propres indicateurs pour les fonctionnalités Copilot.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Cibler les bons clients à l’aide de l’assistance à la requête

Non Customer Insights - Journeys dispose de ses propres indicateurs pour les fonctionnalités Copilot.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utiliser l’IA pour faciliter la création de courriers électroniques Non Customer Insights - Journeys dispose de ses propres indicateurs pour les fonctionnalités Copilot.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utiliser des images dans votre contenu Non Customer Insights - Journeys dispose de ses propres indicateurs pour les fonctionnalités Copilot.

En savoir plus : Donner votre consentement pour utiliser Copilot dans Customer Insights - Journeys
Power Apps Créer des applications via la conversation Non Gérer les paramètres de la fonctionnalité
Power Apps Assistance Copilot pour le remplissage de formulaires dans les applications pilotées par modèle Non Gérer les paramètres de la fonctionnalité
Power Apps Créer un brouillon de texte bien rédigé et le saisir avec Copilot Non, licence Premium par utilisateur Créer un brouillon de texte bien rédigé et le saisir avec Copilot
Power Apps Excel vers Table Non Gérer les paramètres de la fonctionnalité
Power Apps Utiliser le langage naturel pour modifier une application à l’aide du volet Copilot Non Gérer les paramètres de la fonctionnalité
Power Automate Copilot dans les flux de cloud sur la page d’accueil et dans le concepteur (voir Démarrer avec Copilot dans le flux de cloud pour plus de détails.) Non Contactez l’assistance pour exécuter un script PowerShell.
Power Pages Tout (Voir Vue d’ensemble de Copilot dans Power Pages pour plus de détails.) Non Désactiver Copilot dans Power Pages

Disponibilité régionale et linguistique

Disponibilité internationale de Copilot

Déplacement des données entre les zones géographiques

La sécurité chez Microsoft

La confidentialité chez Microsoft

Déclaration de confidentialité Microsoft

IA responsable