Share via


Privacidade, segurança e uso responsável do Copilot no Microsoft Fabric (versão prévia)

Com o Copilot e outros recursos de IA generativa em versão prévia, o Microsoft Fabric traz uma nova maneira de transformar e analisar dados, gerar insights e criar visualizações e relatórios.

Antes de sua empresa começar a usar o Copilot no Fabric, você pode ter dúvidas sobre como ele funciona, como ele mantém seus dados corporativos seguros e segue os requisitos de privacidade e como usar a IA generativa de forma responsável.

Este artigo fornece respostas a perguntas comuns relacionadas à segurança e à privacidade de dados empresariais para ajudar sua organização a começar a usar o Copilot no Fabric. O artigo Privacidade, segurança e uso responsável para Copilot no Power BI (versão prévia) fornece uma visão geral do Copilot no Power BI. Leia mais sobre o Copilot para Fabric.

Observação

Visão geral

Seus dados de negócios estão seguros

  • Os recursos do Copilot usam o Serviço OpenAI do Azure, que é totalmente controlado pela Microsoft. Seus dados não são usados para treinar modelos nem ficam disponíveis para outros clientes.
  • Você mantém o controle sobre onde os dados são processados. Os dados processados pelo Copilot no Fabric permanecem dentro da região geográfica do locatário, a menos que você permita explicitamente que os dados sejam processados fora de sua região, por exemplo, para permitir que os usuários usem o Copilot quando o Azure OpenAI não está disponível em sua região ou a disponibilidade fica limitada devido à alta demanda. Saiba mais sobre as configurações de administrador do Copilot.

Verificar as saídas do Copilot antes de usá-las

  • As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade. Portanto, revise os resultados antes de usá-los no seu trabalho.
  • As revisões dos resultados devem ser feitas por pessoas que podem avaliar significativamente a precisão e a adequação do conteúdo.
  • Hoje, os recursos do Copilot funcionam melhor no idioma inglês. Outros idiomas podem não ter um bom desempenho.

Importante

Examine os termos de visualização complementares do Fabric, que incluem os termos de uso para a Versão prévia do Serviço de IA Generativa da Microsoft.

Como funciona Copilot

Neste artigo, Copilot refere-se a uma variedade de recursos e funcionalidades de IA generativa no Fabric que são alimentados pelo Serviço OpenAI do Azure.

Em geral, esses recursos são projetados para gerar linguagem natural, código ou outro conteúdo com base em:

(a) entradas que você fornece e

(b) dados de fundamentação aos quais o recurso tem acesso.

Por exemplo, o Power BI, o Data Factory e a Ciência de Dados oferecem chats do Copilot nos quais você pode fazer perguntas e obter respostas contextualizadas sobre seus dados. O Copilot para Power BI também pode criar relatórios e outras visualizações. O Copilot para Data Factory pode transformar seus dados e explicar quais etapas ele aplicou. A Ciência de Dados oferece recursos do Copilot fora do painel de chat, como comandos mágicos IPython personalizados em notebooks. Os chats do Copilot podem ser adicionados a outras experiências no Fabric, juntamente com outros recursos que são alimentados pelo Azure OpenAI nos bastidores.

Essas informações são enviadas ao Serviço OpenAI do Azure, onde são processadas e geram uma saída. Portanto, os dados processados pelo Azure OpenAI podem incluir:

Os dados de fundamentação podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Examine cada seção de experiência para obter detalhes sobre quais dados podem ser acessados pelos recursos do Copilot nesse cenário.

As interações com o Copilot são específicas de cada usuário. Isso significa que o Copilot só pode acessar dados que o usuário atual tem permissão para acessar e suas saídas só ficam visíveis para esse usuário, a menos que o usuário compartilhe a saída com outras pessoas, por exemplo, compartilhar um relatório gerado pelo Power BI ou código gerado. O Copilot não usa dados de outros usuários no mesmo locatário ou em outros locatários.

O Copilot usa o Azure OpenAI, não os serviços OpenAI disponíveis publicamente, para processar todos os dados, incluindo entradas de usuário, dados de fundamentação e saídas do Copilot. Atualmente, o Copilot usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Microsoft Azure e o Serviço não interage com nenhum serviço do OpenAI, como ChatGPT ou a API OpenAI. Seus dados não são usados para treinar modelos nem ficam disponíveis para outros clientes. Saiba mais sobre o OpenAI do Azure.

O processo do Copilot

Esses recursos seguem o mesmo processo geral:

  1. O Copilotrecebe um prompt de um usuário. Esse prompt pode estar na forma de uma pergunta que um usuário digita em um painel de chat ou na forma de uma ação, por exemplo, selecionar um botão que diz "Criar um relatório".
  2. O Copilot processa previamente o prompt por meio de uma abordagem chamada de fundamentação. Dependendo do cenário, isso pode incluir a recuperação de dados relevantes, como o esquema de conjunto de dados ou o histórico de chat da sessão atual do usuário com o Copilot. O fundamentação melhora a especificidade do prompt, de modo que o usuário obtém respostas relevantes e acionáveis para sua tarefa específica. A recuperação de dados tem como escopo dados que podem ser acessados pelo usuário autenticado com base em suas permissões. Confira a seção Quais dados o Copilot usa e como eles são processados? neste artigo para obter mais informações.
  3. O Copilot obtém a resposta do Azure OpenAI e faz seu pós-processamento. Dependendo do cenário, esse pós-processamento pode incluir verificações de IA responsável, filtragem com moderação de conteúdo do Azure ou restrições adicionais específicas dos negócios.
  4. O Copilotretorna uma resposta ao usuário na forma de linguagem natural, código ou outro conteúdo. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser uma forma contextualmente apropriada, como um relatório do Power BI ou uma célula do notebook Synapse.
  5. O usuário analisa a resposta antes de usá-la. As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade, ou seja, é importante que os especialistas no assunto verifiquem as saídas antes de usá-las ou compartilhá-las.

Assim como cada experiência no Fabric é criada para determinados cenários e personas, de engenheiros de dados a analistas de dados, cada recurso do Copilot no Fabric também foi criado com cenários e usuários exclusivos em mente. Para conhecer recursos, usos pretendidos e limitações de cada recurso, examine a seção da experiência em que você está trabalhando.

Definições

Prompt ou entrada

O texto ou a ação enviada ao Copilot por um usuário. Isso pode estar na forma de uma pergunta que um usuário digita em um painel de chat ou na forma de uma ação, por exemplo, selecionar um botão que diz "Criar um relatório".

Fundamentação

Uma técnica de pré-processamento em que o Copilot recupera dados adicionais contextuais para o prompt do usuário e envia esses dados junto com o prompt do usuário ao Azure OpenAI, a fim de gerar uma resposta mais relevante e acionável.

Resposta ou saída

O conteúdo que o Copilot retorna a um usuário. Por exemplo, uma resposta pode estar na forma de uma mensagem de chat ou código gerado, ou pode ser um conteúdo contextualmente apropriado, como um relatório do Power BI ou uma célula do notebook Synapse.

Quais dados o Copilot usa e como eles são processados?

Para gerar uma resposta, Copilot usa:

  • O prompt ou a entrada do usuário e, quando apropriado,
  • Dados adicionais recuperados por meio do processo de fundamentação.

Essas informações são enviadas ao Serviço OpenAI do Azure, onde são processadas e geram uma saída. Portanto, os dados processados pelo Azure OpenAI podem incluir:

  • O prompt ou a entrada do usuário.
  • Dados de fundamentação.
  • A resposta ou saída da IA.

Os dados de fundamentação podem incluir uma combinação de esquema de conjunto de dados, pontos de dados específicos e outras informações relevantes para a tarefa atual do usuário. Examine cada seção de experiência para obter detalhes sobre quais dados podem ser acessados pelos recursos do Copilot nesse cenário.

As interações com o Copilot são específicas de cada usuário. Isso significa que o Copilot só pode acessar dados que o usuário atual tem permissão para acessar e suas saídas só ficam visíveis para esse usuário, a menos que o usuário compartilhe a saída com outras pessoas, por exemplo, compartilhar um relatório gerado pelo Power BI ou código gerado. O Copilot não usa dados de outros usuários no mesmo locatário ou em outros locatários.

O Copilot usa o Azure OpenAI, não os serviços OpenAI disponíveis publicamente, para processar todos os dados, incluindo entradas de usuário, dados de fundamentação e saídas do Copilot. Atualmente, o Copilot usa uma combinação de modelos GPT, incluindo GPT 3.5. A Microsoft hospeda os modelos OpenAI no ambiente do Microsoft Azure e o Serviço não interage com nenhum serviço do OpenAI, por exemplo, o ChatGPT ou a API OpenAI. Seus dados não são usados para treinar modelos nem ficam disponíveis para outros clientes. Saiba mais sobre o OpenAI do Azure.

Conformidade e residência de dados

Você mantém o controle sobre onde os dados são processados. Os dados processados pelo Copilot no Fabric permanecem dentro da região geográfica do locatário, a menos que você permita explicitamente que os dados sejam processados fora de sua região, por exemplo, para permitir que os usuários usem o Copilot quando o Azure OpenAI não está disponível em sua região ou a disponibilidade fica limitada devido à alta demanda. (Veja onde o Azure OpenAI está disponível no momento.)

Para permitir que os dados sejam processados em outro lugar, o administrador pode ativar a configuração Os dados enviados ao Azure OpenAI podem ser processados fora da região geográfica, do limite de conformidade ou da instância de nuvem nacional do locatário. Saiba mais sobre as configurações de administrador do Copilot.

O que devo saber para usar o Copilot com responsabilidade?

A Microsoft tem como compromisso garantir que nossos sistemas de IA sejam guiados por nossos Princípios de IA e por nosso Padrão de IA Responsável. Esses princípios incluem preparar nossos clientes para utilizar esses sistemas de forma eficaz e alinhada aos usos pretendidos. Nossa abordagem em relação à IA responsável está evoluindo continuamente para resolver proativamente os problemas que surgirem.

Os recursos do Copilot no Fabric foram criados para atender ao Padrão de IA Responsável, o que significa que eles são revisados por equipes multidisciplinares quanto a possíveis danos e, em seguida, refinados para incluir mitigações para esses danos.

Antes de usar o Copilot, tenha em mente as limitações do Copilot:

  • As respostas do Copilot podem incluir conteúdo impreciso ou de baixa qualidade. Portanto, revise os resultados antes de usá-los no seu trabalho.
  • As pessoas aptas a avaliar significativamente a precisão e a adequação do conteúdo devem analisar as saídas.
  • Atualmente, os recursos do Copilot funcionam melhor no idioma inglês. Outros idiomas podem não ter um bom desempenho.

Cargas de trabalho do Copilot para Fabric

Privacidade, segurança e uso responsável do:

Anotações por versão

Informações adicionais para versões futuras ou atualizações de recursos serão exibidas aqui.