Данные, конфиденциальность и безопасность в Microsoft Copilot для Microsoft 365

Microsoft Copilot для Microsoft 365 — это сложный механизм обработки и оркестрации, который позволяет повышать продуктивность с помощью ИИ за счет согласованного использования перечисленных ниже компонентов.

  • Большие языковые модели (LLM)
  • Содержимое в Microsoft Graph, например электронные письма, чаты и документы, на доступ к которым у вас есть разрешение.
  • Приложения Microsoft 365, которые вы используете каждый день, например Word и PowerPoint.

Общие сведения о том, как эти три компонента работают вместе, см. в статье Обзор Microsoft Copilot для Microsoft 365. Ссылки на другой контент, связанный с Microsoft Copilot для Microsoft 365, см. в документации Microsoft Copilot для Microsoft 365.

Важно!

  • Microsoft Copilot для Microsoft 365 соответствует нашим существующим обязательствам в отношении конфиденциальности, безопасности и соответствию коммерческим клиентам Microsoft 365, включая Общий регламент по защите данных (GDPR) и Границу данных Европейского Союза (ЕС).
  • Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе тех, которые используются Microsoft Copilot для Microsoft 365.

Сведения в этой статье предназначены для предоставления ответов на следующие вопросы:

Примечание.

Microsoft Copilot для Microsoft 365 будет продолжать развиваться с течением времени, добавляя новые возможности. Чтобы быть в курсе Microsoft Copilot для Microsoft 365 или задать вопросы, посетите сообщество Microsoft 365 Copilot в техническом сообществе Microsoft.

Как Microsoft Copilot для Microsoft 365 использует собственные организационные данные?

Microsoft Copilot для Microsoft 365 обеспечивает ценность, подключая LLM к организационным данным. Microsoft Copilot для Microsoft 365 получает доступ к контенту и контексту через Microsoft Graph. Он может создавать ответы с привязкой к данным организации, таким как документы пользователей, сообщения электронной почты, календарь, чаты, собрания и контакты. Microsoft Copilot для Microsoft 365 объединяет это содержимое с рабочим контекстом пользователя, таким как собрание, в котором пользователь сейчас участвует, обмен электронными письмами, которые пользователь вел по определенной теме, или беседы в чате, которые пользователь вел на прошлой неделе. Microsoft Copilot для Microsoft 365 использует эту комбинацию контента и контекста для предоставления точных, релевантных и контекстуальных ответов.

Важно!

Запросы, ответы и данные, доступные через Microsoft Graph, не используются для обучения базовых LLM, в том числе тех, которые используются Microsoft Copilot для Microsoft 365.

Microsoft Copilot для Microsoft 365 отображает только те организационные данные, к которым у отдельных пользователей есть хотя бы разрешения на просмотр. Важно, чтобы вы использовали модели разрешений, доступные в службах Microsoft 365, таких как SharePoint, чтобы гарантировать, что нужные пользователи или группы имеют правильный доступ к нужному контенту в вашей организации. К ним относятся разрешения, которые вы предоставляете пользователям за пределами организации с помощью решений для совместной работы между клиентами, например общих каналов в Microsoft Teams.

При вводе запросов с помощью Microsoft 365 Copilot, сведения, содержащиеся в запросах, данные, которые они получают, и сгенерированные ответы остаются в границах службы Microsoft 365 в соответствии с нашими текущими обязательствами по обеспечению конфиденциальности, безопасности и соответствия требованиям. Microsoft Copilot для Microsoft 365 использует для обработки службы Azure OpenAI, а не общедоступные службы OpenAI.

Примечание.

При использовании Microsoft Copilot для Microsoft 365 организационные данные могут выйти за пределы службы Microsoft 365 при следующих обстоятельствах:

  • При использовании плагинов, которые помогают Microsoft Copilot для Microsoft 365 предоставлять более актуальную информацию. Ознакомьтесь с заявлением о конфиденциальности и условиями использования плагина, чтобы определить, как он будет обрабатывать организационные данные. Дополнительные сведения см. в разделе Расширяемость Microsoft Copilot для Microsoft 365.
  • Когда вы используете плагин веб-контента для улучшения ответов в чате, Copilot для Microsoft 365 сгенерирует поисковый запрос, отправляемый в Bing для получения последних сведений из Интернета. Дополнительные сведения см. в Microsoft Copilot для Microsoft 365 и плагине веб-содержимого.

Мониторинг злоупотреблений для Microsoft Copilot для Microsoft 365 осуществляется в реальном времени, без предоставления Microsoft постоянного доступа к данным клиентов для человеческого и для автоматического просмотра. Хотя модерация злоупотреблений, включающая проверку контента человеком, доступна в Azure OpenAI, Microsoft Copilot для служб Microsoft 365 ее не использует. Данные Microsoft 365 не собираются и не хранятся в Azure OpenAI.

Примечание.

Мы можем использовать отзывы клиентов (что не является обязательным) для улучшения Microsoft Copilot для Microsoft 365 точно так же, как мы используем отзывы клиентов для улучшения других служб Microsoft 365 и приложений Microsoft 365. Мы не используем эти отзывы для обучения базовым курсам LLM, используемым Microsoft Copilot для Microsoft 365. Клиенты могут управлять отзывами с помощью элементов управления администратора. Дополнительные сведения см. в разделах Управление отзывами Microsoft для организации и Предоставление отзывов о Microsoft Copilot для Microsoft 365.

Хранимые данные о взаимодействии пользователей с Microsoft Copilot для Microsoft 365

Когда пользователь взаимодействует с приложениями Microsoft Copilot для Microsoft 365 (такими как Word, PowerPoint, Excel, OneNote, Loop или Whiteboard), мы сохраняем данные об этих взаимодействиях. Сохраненные данные включают запросы пользователя и ответ Copilot, включая ссылки на все сведения, использованные для обоснования ответа Copilot. Мы называем запрос пользователя и ответ Copilot на этот запрос "содержанием взаимодействий", а запись этих взаимодействий — это журнал взаимодействий пользователя с Copilot. Например, эти хранимые данные предоставляют пользователям журнал взаимодействия Copilot в Microsoft Copilot с чатом на основе Graph и собраниями в Microsoft Teams. Эти данные обрабатываются и хранятся в соответствии с договорными обязательствами с другим контентом организации в Microsoft 365. Данные хранятся в зашифрованном виде и не используются для обучения базовых LLM, в том числе тех, что используются Microsoft Copilot для Microsoft 365.

Для просмотра этих сохраненных данных и управления ими администраторы могут использовать поиск контента или Microsoft Purview. Администраторы также могут использовать Microsoft Purview для установки политик хранения данных, связанных с взаимодействием в чате с Copilot. Дополнительные сведения см. в следующих статьях:

Для чатов Microsoft Teams с Copilot администраторы также могут использовать API-интерфейсы экспорта Microsoft Teams для просмотра хранимых данных.

Удаление журнала взаимодействия пользователей с Microsoft Copilot для Microsoft 365

Ваши пользователи могут удалять свои журналы взаимодействия с Copilot, включая запросы и ответы, возвращаемые Copilot, перейдя на портал "Моя учетная запись". Дополнительные сведения см. в разделе Удаление журнала взаимодействия с Microsoft Copilot.

Microsoft Copilot для Microsoft 365 и границы данных ЕС

Вызовы Microsoft Copilot для Microsoft 365 в LLM перенаправляются в ближайшие центры обработки данных в регионе, но также могут вызывать другие регионы с доступной емкостью в периоды высокой загрузки.

Для пользователей Европейского Союза (ЕС) у нас есть дополнительные гарантии соблюдения границ данных ЕС. Трафик из ЕС остается в пределах границ данных ЕС, в то время как мировой трафик может быть отправлен в ЕС и другие регионы для обработки LLM.

Microsoft Copilot для Microsoft 365 и место расположения данных

Copilot для Microsoft 365 соблюдает обязательства по месту расположения данных, как указано в Условиях использования продуктов Microsoft и Дополнении о защите данных. Copilot для Microsoft 365 был добавлен в качестве покрываемой рабочей нагрузки в обязательства по месту расположения данных в Условиях использования продуктов Microsoft 1 марта 2024 г.

Предложения Microsoft Advanced Data Residency (ADR) и Multi-Geo Capabilities включают обязательства по месту расположения данных для клиентов Copilot для Microsoft 365 с 1 марта 2024 года. Для клиентов из ЕС Copilot для Microsoft 365 — это служба границ данных ЕС. Запросы клиентов за пределами ЕС могут обрабатываться в США, ЕС или других регионах.

Microsoft Copilot для Microsoft 365 и плагин веб-содержимого

У Copilot для Microsoft 365 есть возможность дополнить ответы в чате самой последними сведениями из Интернета. Если плагин веб-контента включен, Copilot может получать сведения из поискового индекса Bing, определив, что сведения из Интернета помогут предоставить лучший и более обоснованный ответ.

Доступны элементы управления администратора и переключатель на уровне пользователя, позволяющие управлять тем, включен ли плагин веб-контента в среде.

Принципы работы плагина веб-контента

Когда плагин веб-контента включен в чате, Copilot для Microsoft 365 анализирует приглашение пользователя и определяет условия, при которых веб-обоснование может улучшить качество ответа. На основе этих условий Copilot генерирует поисковый запрос, который отправляется в API поиска Bing с запросом дополнительных сведений. Этот поисковый запрос отличается от запроса пользователя — обычно он состоит из нескольких слов, основанных на запросе пользователя или данных Microsoft 365. Он не включает автоматически все документы Microsoft 365, связанные с запросом.

В следующей таблице приведен пример запроса пользователя, отправленных поисковых запросов и ответа Copilot.

Объект Текст
Запрос (как записано пользователем) Мы рассматриваем возможность приобретения Fabrikam. Помогите мне составить краткий отчет из 200 слов с общедоступными финансовыми сведениями о компании, включая ее бизнес-стратегию.
Поисковые запросы (созданные Copilot и отправленные в API поиска Bing) Стратегия Fabrikam
Финансовые показатели Fabrikam
Ответ (созданный Copilot) Fabrikam — это CPG-стартап, предлагающий более здоровую пищу, но с тем же привычным вкусом, что и традиционные бренды. Компания собрала 4,5 млн USD начального финансирования в 2019 году и привлекла 31,5 млн USD в цикле финансирования серии B в 2022 году. По состоянию на январь 2023 года Fabrikam привлекла в общей сложности 83,4 миллиона долларов финансирования и планирует повысить уровень своих продаж в этом году более чем вдвое.

Когда разразилась пандемия, Fabrikam столкнулась с проблемой перехода от обычных магазинов к веб-продажам, и именно здесь в игру вступила их марке стратегия влияния. Вместо того чтобы полагаться на события и рекламные акции в магазинах, Fabrikam обратилась к социальным сетям и партнерству с влиятельными лицами, чтобы повысить узнаваемость бренда и расширить охват аудитории. Компания также подошла к инновациям с оригинальной точки зрения, балансируя традиционные потребительские стимулы с более выгодными предложениями и имея целостную и надежную стратегию распространения.

Таким образом, Fabrikam привлекла более 55 миллионов долларов финансирования и имеет сильную маркетинговую стратегию влияния, которая помогла им перейти к веб-продажам во время пандемии.

В этом примере в API поиска Bing отправляются только два поисковых запроса. После ввода запроса пользователя в чате будут отображаться все запросы, сгенерированные и отправленные в Bing. Запросы пользователя и ответы Copilot хранятся в Microsoft 365. Поисковые запросы, отправляемые Copilot для Microsoft 365 в Bing Search API, не связаны с идентификатором пользователя и идентификатором клиента.

API поиска Bing предоставляется Bing.com, который работает отдельно от Microsoft 365 и использует другие методы обработки данных. Использование Bing регулируется Соглашением об использовании служб Майкрософт между каждым пользователем и Майкрософт, а также Заявлением о конфиденциальности Майкрософт. Дополнение о защите данных продуктов и служб Microsoft (DPA) не распространяется на использование подключаемого модуля веб-контента или API поиска Bing.

Доступны элементы управления для управления использованием веб-контента.

Администраторы могут заблокировать доступ к веб-контенту в Copilot для Microsoft 365. Дополнительные сведения см. в разделе Управление доступом к веб-контенту в ответах Microsoft Copilot для Microsoft 365. Даже если это разрешено администратором, пользователи по-прежнему могут использовать плагин или отказаться от его использования. Дополнительные сведения см. в разделе Использование дополнительных источников данных с Microsoft 365 Copilot.

Примечание.

Параметры политики, управляющие использованием дополнительных подключенных возможностей в приложениях Microsoft 365, не применяются к Microsoft Copilot для Microsoft 365 и веб-контенту.

Расширяемость Microsoft Copilot для Microsoft 365

Хотя Microsoft Copilot для Microsoft 365 уже может использовать приложения и данные в экосистеме Microsoft 365, многие организации по-прежнему зависят от различных внешних инструментов и служб для управления работой и совместной работы. Microsoft Copilot для Microsoft 365 может ссылаться на сторонние инструменты и службы при ответе на запрос пользователя с помощью соединителей Microsoft Graph или плагинов. Данные из соединителей Graph могут быть возвращены в ответах Microsoft Copilot для Microsoft 365, если у пользователя есть разрешение на доступ к этой информации.

Если плагины включены, Microsoft Copilot для Microsoft 365 определяет, нужно ли использовать конкретный плагин для предоставления пользователю соответствующего ответа. Если необходим плагин, Microsoft Copilot для Microsoft 365 генерирует поисковый запрос для отправки плагину от имени пользователя. Запрос основан на запросе пользователя, журнале взаимодействия с Copilot и данных, к которым у пользователя есть доступ в Microsoft 365.

В разделе Интегрированные приложенияцентра администрирования Microsoft 365 администраторы могут просматривать разрешения и доступ к данным, необходимые для подключаемого модуля, а также условия использования подключаемого модуля и заявление о конфиденциальности. У администраторов есть полный доступ к управлению тем, какие плагины разрешены в их организации. Пользователь может получить доступ только к тем плагинам, которые разрешены администратором и которые пользователь установил или назначил. Microsoft Copilot для Microsoft 365 использует только плагины, включенные пользователем.

Примечание.

Параметры политики, управляющие использованием дополнительных подключенных возможностей в приложениях Microsoft 365, не применяются к плагинам.

Дополнительные сведения см. в следующих статьях:

Как Microsoft Copilot для Microsoft 365 защищает организационные данные?

Модель разрешений в вашем клиенте Microsoft 365 может помочь предотвратить непреднамеренную утечку данных между пользователями, группами и клиентами. Microsoft Copilot для Microsoft 365 представляет только данные, к которым каждый человек может получить доступ, используя те же базовые элементы управления доступом к данным, которые используются в других службах Microsoft 365. Семантический индекс учитывает границу доступа на основе удостоверения пользователя, поэтому процесс заземления получает доступ только к тому контенту, доступ к которому разрешен текущему пользователю. Дополнительные сведения см. в политике конфиденциальности Microsoft и сервисной документации .

Если у вас есть данные, зашифрованные с помощью Защиты информации Microsoft Purview, Microsoft Copilot для Microsoft 365 соблюдает права использования, предоставленные пользователю. Это шифрование можно применять с помощью меток конфиденциальности или ограниченных разрешений в приложениях Microsoft 365 с помощью управления правами на доступ к данным (IRM). Дополнительные сведения об использовании Microsoft Purview с Microsoft Copilot для Microsoft 365 см. в разделе Безопасность данных Microsoft Purview и защита соответствия требованиям для Microsoft Copilot.

Мы уже реализуем несколько форм защиты, чтобы помочь клиентам предотвратить компрометацию служб и приложений Microsoft 365 или получение несанкционированного доступа к другим клиентам или самой системе Microsoft 365. Вот несколько примеров таких форм защиты:

  • Логическая изоляция контента клиента внутри каждого клиента служб Microsoft 365 достигается за счет авторизации Microsoft Entra и управления доступом на основе ролей. Дополнительные сведения см. в разделе Элементы управления изоляцией Microsoft 365 .

  • Корпорация Майкрософт использует строгие меры физической безопасности, фоновую проверку и многоуровневую стратегию шифрования для защиты конфиденциальности и целостности пользовательского контента.

  • Microsoft 365 использует технологии на стороне службы, которые шифруют содержимое клиента при хранении и передаче, включая BitLocker, шифрование для каждого файла, безопасность транспортного уровня (TLS) и безопасность протокола Интернета (IPsec). Дополнительные сведения о шифровании в Microsoft 365 см. в статье Шифрование в Microsoft Cloud .

  • Ваш контроль над вашими данными усиливается обязательством Microsoft соблюдать широко применимые законы о конфиденциальности, такие как GDPR, и стандарты конфиденциальности, такие как ISO/IEC 27018, первый в мире международный свод правил для конфиденциальности в облаке.

  • Для содержимого, доступ к которому осуществляется через плагины Microsoft Copilot для Microsoft 365, шифрование может исключить программный доступ, тем самым ограничивая доступ плагина к контенту. Дополнительные сведения см. в разделе Настройка прав использования для Azure Information Protection .

Соответствие нормативным требованиям

По мере развития регулирования в сфере искусственного интеллекта Microsoft будет продолжать адаптироваться и реагировать на будущие нормативные требования.

Microsoft Copilot для Microsoft 365 создан на основе текущих обязательств Microsoft по обеспечению безопасности и конфиденциальности данных на предприятии. В этих обязательствах нет никаких изменений. Microsoft Copilot для Microsoft 365 интегрирован в Microsoft 365 и соответствует всем существующим обязательствам по конфиденциальности, безопасности и соответствию требованиям для коммерческих клиентов Microsoft 365. Дополнительные сведения см. в разделе Соответствие требованиям Microsoft .

Помимо соблюдения правил, мы отдаем приоритет открытому диалогу с нашими клиентами, партнерами и регулирующими органами, чтобы лучше понимать и решать проблемы, тем самым способствуя созданию атмосферы доверия и сотрудничества. Мы признаем, что конфиденциальность, безопасность и прозрачность — это не просто функции, а обязательные условия в сфере ИИ в Microsoft.

Дополнительные сведения

Microsoft Copilot для Microsoft 365 и параметры политики для подключенных возможностей

Если вы отключите сетевые возможности, которые анализируют контент для приложений Microsoft 365 на устройствах Windows или Mac в организации, функции Microsoft Copilot для Microsoft 365 не будут доступны пользователям в следующих приложениях:

  • Excel
  • PowerPoint
  • OneNote
  • Word

Аналогично, функции Microsoft Copilot для Microsoft 365 в этих приложениях на устройствах Windows или Mac не будут доступны, если вы отключите использование подключенных возможностей для Приложений Microsoft 365.

Дополнительные сведения об этих параметрах политики см. в следующих статьях:

О содержимом, которое создает Microsoft Copilot для Microsoft 365

Ответы, которые дает генеративный ИИ, не обязательно на 100% соответствуют действительности. Хотя мы продолжаем улучшать ответы, пользователям по-прежнему следует опираться на свое мнение при просмотре результатов, прежде чем отправлять их другим. Наши возможности Microsoft Copilot для Microsoft 365 предоставляют полезные черновики и сводки, которые помогут вам достичь большего, предоставляя возможность просмотра того, что создает ИИ, а не полностью автоматизировать эти задачи.

Мы продолжаем совершенствовать алгоритмы для заблаговременного решения таких проблем, как недостоверная и дезинформация, блокировка контента, безопасность данных и предотвращение продвижения вредоносного или дискриминационного контента в соответствии с нашими ответственными принципами искусственного интеллекта .

Корпорация Майкрософт не является владельцем выходных данных службы. Тем не менее, мы не определяем, защищены ли выходные данные клиента авторским правом или может ли оно быть принудительно применено против других пользователей. Это связано с тем, что генеративные системы искусственного интеллекта могут выдавать одинаковые ответы на аналогичные запросы или запросы от нескольких клиентов. Следовательно, у нескольких клиентов могут быть претензии или права на одинаковое или схожее по существу содержимое.

Если третья сторона подает в суд на коммерческого клиента за нарушение авторских прав за использование Microsoft Copilots или результатов, которые они создают, мы защитим клиента и выплатим сумму любых неблагоприятных судебных решений или урегулирований, вытекающих из судебного иска, при условии, что клиент использовал ограничения и фильтры содержимого, встроенные в наши продукты. Дополнительные сведения см. в статье Microsoft объявляет о новом обязательстве по защите авторских прав Copilot для клиентов.

Приверженность ответственному ИИ

Поскольку ИИ готов изменить нашу жизнь, мы должны коллективно определить новые правила, нормы и методы использования и воздействия этой технологии. Microsoft находится на пути ответственного ИИ с 2017 года, когда мы определили наши принципы и подход к обеспечению использования этой технологии таким образом, чтобы руководствоваться этическими принципами, ставящими людей на первое место.

Мы в Microsoft руководствуемся принципами искусственного интеллекта , нашим Стандартом ответственного искусственного интеллекта и десятилетиями исследований в области искусственного интеллекта, заземления и машинного обучения с сохранением конфиденциальности. Многопрофильная группа исследователей, инженеров и экспертов по политике анализирует наши системы искусственного интеллекта на предмет потенциального вреда и мер по его устранению: уточняет обучающие данные, фильтрует для ограничения вредоносного контента, блокирует запросы и результаты, деликатные темы, а также применяет технологии Microsoft, такие как InterpretML и Fairlearn , помогающие обнаруживать и исправлять необъективность данных. Мы разъясняем, как система принимает решения, отмечая ограничения, ссылаясь на источники и предлагая пользователям просматривать, проверять факты и корректировать контент на основе предметной экспертизы. Дополнительную информацию см. в разделе Управление ИИ: план будущего .

Мы стремимся помочь нашим клиентам ответственно использовать наши продукты искусственного интеллекта, делиться своими знаниями и строить доверительные партнерские отношения. Что касается этих новых услуг, мы хотим предоставить нашим клиентам информацию о предполагаемом использовании, возможностях и ограничениях нашей платформы ИИ, чтобы у них были знания, необходимые для ответственного выбора развертывания. Мы также делимся ресурсами и шаблонами с разработчиками внутри организаций и с независимыми поставщиками программного обеспечения (ISV), чтобы помочь им создавать эффективные, безопасные и прозрачные решения ИИ.