Descreva como o Microsoft Copilot para Segurança processa solicitações de prompt
Portanto, agora que existe uma compreensão básica dos plug-ins, funcionalidades e como o usuário interage com o Microsoft Copilot para Segurança através de prompts, vale a pena dar uma olhada nos bastidores para ver como esses componentes se unem para processar uma solicitação de prompt e ajudar os analistas de segurança.
Fluxo do processo
Quando um usuário envia um prompt, o Copilot processa esse prompt para gerar a melhor resposta possível. O diagrama a seguir ilustra essas etapas do processo para fornecer uma compreensão geral do que está acontecendo e como ocorre a resposta.
O processo começa quando um usuário envia um prompt na barra de prompts. Uma vez que o usuário envia seu prompt, ele é enviado para o Back-end do Copilot, referenciado como orquestrador. O orquestrador é o sistema do Copilot para compor recursos em conjunto para responder à solicitação de um usuário.
O Copilot agrupa o prompt do usuário e uma lista completa dos recursos do Copilot para as fontes habilitadas (plug-ins e bases de conhecimento) e, em seguida, envia-os para o OpenAI do Azure com a solicitação para fazer um plano para atender à solicitação do usuário
O Azure OpenAI executa LLMs avançadas para corresponder à solicitação com os recursos disponíveis e cria um plano (conjunto de etapas) para atender à solicitação do usuário. Esse plano é enviado de volta ao orquestrador.
- Se nenhum recurso for correspondido, a resposta ao prompt do usuário será gerada usando a LLM de conhecimento geral, e o processo passará para a etapa 7.
- A LLM de conhecimento geral é boa em conhecimento geral e solução de problemas, mas não é focada exclusivamente em segurança, portanto, há uma chance maior de que a resposta fornecida não seja precisa. Por esse motivo, é vantajoso ativar plug-ins e conectar-se a base de dados de conhecimento para trazer uma coleção de recursos específicos de recursos para o Copilot.
O orquestrador do Copilot executa o plano executando o código dos plug-ins/funcionalidades selecionados e chamando as interfaces de programação de aplicativos (API) apropriadas para coletar informações e executar ações.
Os aplicativos de parceiros de integração internos e de terceiros coletam informações e executam ações com base na chamada à API e enviam a resposta de volta ao Copilot.
O orquestrador recebe a resposta das chamadas à API, mas ela ainda não está pronta para ser enviada ao usuário. O Copilot itera o processo para garantir a melhor resposta. Antes que uma resposta final possa ser enviada ao usuário, o orquestrador agrupa essa resposta com o prompt original e a envia de volta ao OpenAI do Azure.
O OpenAI do Azure usa o poder de sua LLM avançada para compor uma resposta usando uma linguagem que faz sentido para um ser humano.
Essa resposta é enviada de volta ao Copilot para ser analisada pelos modelos de IA responsáveis da Microsoft, que procuram por algo mal-intencionado, discurso de ódio etc.
- Se tudo estiver certo, a resposta será enviada ao usuário.
- Se algo mal-intencionado ou inadequado for detectado, uma mensagem de erro será gerada em vez de enviar as informações ao usuário.
O usuário recebe a resposta do Copilot.
Log do processo
Durante esse processo, o Copilot gera um log de processo que é visível para o usuário. O usuário pode visualizar qual funcionalidade é usada para gerar a resposta. Isso é importante porque permite que o usuário determine se a resposta foi gerada por uma fonte confiável. Na captura de tela a seguir, o log de processos mostra que o Copilot escolheu o plug-in do Microsoft Sentinel e lista a funcionalidade selecionada. O registro do processo também mostra que a saída final foi verificada através de confirmações de segurança, o que faz parte do compromisso da Microsoft com a IA responsável.