Editar

Partilhar via


Perguntas frequentes sobre o Microsoft Copilot para Azure no Cosmos DB (visualização).

Este artigo fornece informações sobre perguntas frequentes gerais e de transparência sobre o Microsoft Copilot para Azure no Cosmos DB.

Geral

O que o Copilot pode fazer?

O Copilot pode ajudá-lo a escrever consultas NoSQL em seus próprios dados com facilidade e confiança para aumentar sua produtividade por meio de linguagem natural alimentada por IA para geração de consultas.

Que dados foram utilizados para treinar o Copilot?

O Copilot é alimentado por LLMs (Large Language Models) no Azure OpenAI que são pré-treinados e configurados para gerar consultas NoSQL do Azure Cosmos DB e explicações em linguagem natural.

Como é que um utilizador tira o máximo partido do Copilot?

Os utilizadores podem tirar o máximo partido da sua experiência seguindo estes passos:

  • Insira um prompt para que a IA gere uma consulta em um contêiner específico do Azure Cosmos DB. Os usuários podem digitar um prompt de linguagem natural na caixa Copilot e selecionar o botão de seta Gerar consulta. Em seguida, o Copilot gera uma consulta do Azure Cosmos DB para NoSQL que corresponde ao prompt e o exibe no editor de consultas, juntamente com uma explicação.
  • Modifique o prompt para ser mais específico e regenere a consulta: Se o usuário não estiver satisfeito com a consulta gerada pelo Copilot, ele pode selecionar o botão Regenerar para pedir à IA para gerar uma consulta diferente com base no prompt refinado.
  • Enviar comentários: os usuários podem fornecer comentários à equipe do Copilot usando o mecanismo de feedback incluído no prompt de consulta. Este feedback é utilizado para melhorar a qualidade do desempenho das respostas do Copilot.

Transparency

Que dados são recolhidos pelo Copilot e como podem ser utilizados?

O Copilot depende do esquema de itens em seu contêiner do Azure Cosmos DB para funcionar. Ele coleta dados para fornecer o serviço, alguns dos quais são retidos para análise, mitigação de erros e melhorias do produto. De acordo com os termos de uso de visualização, seus dados podem ser armazenados e processados fora da região geográfica do locatário, limite de conformidade ou instância de nuvem nacional.

Os dados recolhidos incluem:

  • Dados de serviço: quando você usa o Copilot no Azure Cosmos DB, ele coleta informações de uso sobre eventos gerados ao interagir com o serviço Copilot. Esses dados incluem informações como carimbo de data/hora, ID do banco de dados, ID da coleta, código de resposta HTTP, latência da solicitação HTTP, etc. Esses dados podem ser usados para melhorias no serviço e mitigação de erros.
  • Log: Se ocorrer um erro no serviço Azure Cosmos DB, registraremos o erro e outros dados usados pelo serviço no momento do erro. Esses logs podem incluir informações como o prompt que você inseriu no Copilot, a consulta gerada ou as informações sobre seu esquema de dados enviadas ao serviço Copilot. Esses dados podem ser usados para melhorias no serviço e mitigação de erros.
  • Feedback: os usuários têm a opção de dar feedback sobre uma consulta específica. Esses dados de feedback também contêm o prompt enviado ao Copilot pelo usuário, a consulta e explicação geradas e qualquer feedback que o usuário gostaria de fornecer à Microsoft. Esses dados podem ser usados para melhorar o produto.

Como são protegidos os dados de prompt e consulta transmitidos?

O Copilot toma várias medidas para proteger os dados, incluindo:

  • Os dados transmitidos são encriptados tanto em trânsito como em repouso; Os dados relacionados ao copiloto são criptografados em trânsito usando TLS e em repouso usando a criptografia de dados do Microsoft Azure (padrões FIPS Publication 140-2).
  • O acesso aos dados de registo e feedback é rigorosamente controlado. Os dados são armazenados em uma assinatura separada. Os dados só são acessíveis por 1) aprovação JIT Just-In-Time do pessoal de operações do Azure usando estações de trabalho de administração seguras.

Minhas solicitações privadas, consultas ou dados serão compartilhados com outras pessoas?

Não Prompts, consultas e quaisquer outros dados não são compartilhados com outras pessoas.

Onde posso saber mais sobre privacidade e proteção de dados?

Para obter mais informações sobre como o Copilot processa e usa dados pessoais, consulte a Declaração de Privacidade da Microsoft.

Termos e limitações

Onde posso encontrar os termos de visualização para usar visualizações do Azure OpenAI, como o Copilot?

Para mais informações, consulte os nossos termos de pré-visualização.

Qual é a utilização prevista do Copilot?

Você pode gerar consultas do Azure Cosmos DB para NoSQL a partir de suas próprias perguntas e prompts de linguagem natural no Azure Cosmos DB Data Explorer. Cada saída gerada também contém uma descrição natural (inglês) das operações de consulta. Enquanto na visualização pública, o desempenho e a precisão podem ser limitados. Os seres humanos devem rever e validar todas as consultas geradas pelo Copilot antes da utilização.

Como foi avaliado o Copilot? Que métricas são usadas para medir o desempenho?

O copiloto é avaliado com dados de teste e prompts em várias métricas, incluindo:

  • Validade: A consulta gerada é uma consulta válida do Azure Cosmos DB para NoSQL que pode ser executada no contêiner selecionado.
  • Correção: A consulta gerada é aquela que seria esperada em resposta ao prompt do usuário.
  • Precisão: A consulta gerada retorna os resultados relevantes e esperados para o prompt do usuário.

Quais são as limitações do Copilot?

O Copilot é um recurso que ajuda os usuários a escrever consultas NoSQL para o Azure Cosmos DB fornecendo sugestões com base na entrada de linguagem natural. No entanto, tem algumas limitações que os usuários devem estar cientes e tentar minimizar. Algumas das limitações incluem:

  • Limites de taxa: o copiloto limita quantas consultas um usuário pode executar. Se um usuário exceder cinco chamadas por minuto ou oito horas de uso total por dia, ele poderá receber uma mensagem de erro. O usuário terá que esperar até a próxima janela de tempo para usar o Copilot novamente.
  • Precisão limitada: O Copilot está em pré-visualização pública, o que significa que o desempenho e a precisão podem ser limitados. Os seres humanos devem rever e validar todas as consultas geradas pelo Copilot antes da utilização.
  • As consultas geradas podem não ser precisas e fornecer os resultados que o usuário pretendia receber. O Copilot não é um sistema perfeito e às vezes pode gerar consultas incorretas, incompletas ou irrelevantes. Essas consultas errantes podem acontecer devido a:
    • Ambiguidade no prompt de linguagem natural
    • Limitações do processamento de linguagem natural subjacente
    • Limitações dos modelos de geração de consulta subjacentes
    • Outras questões.
  • Os usuários devem sempre rever as consultas geradas pelo Copilot e verificar se elas correspondem às suas expectativas e requisitos. Os usuários também devem fornecer feedback à equipe do Copilot se encontrarem erros ou problemas com as consultas. Os usuários podem enviar feedback diretamente através do mecanismo de feedback da interface Copilot.
  • Suporte somente em inglês: o Copilot suporta oficialmente o inglês como idioma de entrada e saída. Os usuários que desejam usar o Copilot em outros idiomas podem experimentar qualidade degradada e precisão dos resultados.

O Copilot escreve consultas perfeitas ou ótimas?

O Copilot visa fornecer respostas precisas e informativas com base nos dados disponíveis. As respostas geradas pelo Copilot baseiam-se em padrões e probabilidades em dados linguísticos, o que significa que nem sempre são precisas. Os seres humanos devem analisar, testar e validar cuidadosamente todo o conteúdo gerado pelo Copilot.

Para mitigar o risco de compartilhamento de conteúdo ofensivo inesperado nos resultados e exibição de artigos potencialmente nocivos, o Copilot tem várias medidas em vigor. Apesar dessas medidas, você ainda pode encontrar resultados inesperados. Estamos constantemente trabalhando para melhorar nossa tecnologia para abordar proativamente os problemas de acordo com nossos princípios de IA responsável

O que devo fazer se vir saídas inesperadas ou ofensivas?

O Copilot utiliza filtros de conteúdo personalizados do Azure OpenAI para bloquear linguagem ofensiva nos prompts e evitar sintetizar sugestões em contextos sensíveis. É um recurso que ajuda os usuários a escrever consultas NoSQL para o Azure Cosmos DB e manter nossos princípios sobre IA responsável.