Share via


Microsoft Copilot para Segurança perguntas frequentes

Informações gerais

O que é o Microsoft Copilot para Segurança?

Microsoft Copilot para Segurança é um produto de segurança cibernética de IA que permite que os profissionais de segurança respondam às ameaças rapidamente, processem sinais na velocidade do computador e avaliem a exposição ao risco em minutos. 

Como Microsoft Copilot para Segurança é diferente de outros produtos de segurança de IA?

Copilot para Segurança combina modelos gpt4 avançados do OpenAI com tudo o que a Microsoft traz para a tabela, incluindo infraestrutura de hiperescala, orquestração específica cibernética, experiência exclusiva da Microsoft Security, inteligência global contra ameaças e produtos de segurança abrangentes.

Atualmente, é a única solução de IA de segurança criada usando a relação exclusiva da Microsoft com o OpenAI, dando aos clientes acesso às LLMs (modelos de idioma grande) mais recentes e avançados e à infraestrutura de IA de hiperescala da Microsoft.

A Microsoft está em uma posição exclusiva para transformar a segurança para nossos clientes, não apenas por causa de nossos investimentos em IA, mas também porque oferecemos segurança de ponta a ponta, identidade, conformidade e muito mais em nosso portfólio. Somos otimizados para cobrir mais vetores de ameaças e entregar valor com uma experiência coordenada.

Quais são os casos de uso e os recursos que Copilot para Segurança desbloqueia para os clientes?

Os casos de uso de herói são cenários SOC, especificamente em torno de resumo de incidentes, análise de impacto, engenharia reversa de scripts e respostas guiadas.

O Microsoft Copilot para Segurança funciona com outros produtos da Microsoft?

Sim. Copilot para Segurança funciona com outros produtos do Microsoft Security. Esses produtos incluem, mas não se limitam a:

  • Microsoft Defender XDR,
  • Microsoft Sentinel,
  • Microsoft Intune,
  • Informações sobre Ameaças do Microsoft Defender,
  • Microsoft Purview
  • Microsoft Defender Gerenciamento de Superfície de Ataque

Copilot para Segurança pode acessar dados desses produtos e fornecer uma experiência assistiva do Copilot para aumentar a eficácia e a eficiência dos profissionais de segurança usando essas soluções. Por exemplo, recursos como a análise de script permitem que os clientes analisem centenas de linhas de código e as interpretem por meio da linguagem natural em minutos. Essa funcionalidade supera drasticamente até mesmo as habilidades avançadas de analista em termos de velocidade e experiência. Copilot para Segurança ajuda os profissionais de segurança a descobrir riscos anteriormente, responder a eles com maior orientação e permanecer em cima de vulnerabilidades no cenário de ameaças em evolução.

Como Copilot para Segurança torna Microsoft Defender XDR e o Microsoft Sentinel melhores?

Microsoft Defender XDR e o Microsoft Sentinel se tornam ainda mais poderosos quando os profissionais de segurança usam Copilot para Segurança. Copilot para Segurança oferece uma experiência que enriquece e se baseia nos dados de segurança, sinais e incidentes e insights existentes provenientes do Microsoft Defender XDR e do Microsoft Sentinel. A nova experiência inserida no Microsoft Defender XDR sobrecarrega as equipes de segurança com recursos de IA generativos para levar sua eficiência a um novo nível para o seguinte conjunto de casos de uso poderosos:

  • Responda a ameaças à velocidade da IA com investigação e resposta de incidentes assistidos. Com a experiência inserida no Defender, Copilot para Segurança fornece resumos para incidentes ativos e diretrizes acionáveis passo a passo para resposta a incidentes, criando atividade pós-resposta completa, tudo em segundos e com o clique de um botão.

  • Dimensione tarefas avançadas para todos os níveis de habilidade. Copilot para Segurança permite que os defensores em todos os níveis de habilidade descubram ameaças e vulnerabilidades em vários vetores de ameaças com facilidade. A solução explica em tempo real os dados de segurança e fornece uma maneira acessível de executar tarefas avançadas usando linguagem natural.

  • Execute uma análise de código mal-intencionada em tempo real. Anteriormente, a análise de malware e a engenharia reversa eram limitadas a respondentes avançados. Com Copilot para Segurança, os clientes podem analisar scripts de linha de comando complexos e traduzi-los em linguagem natural facilmente compreensível para ajudar os analistas a entender ações e motivações dos invasores.

  • Aplique inteligência contra ameaças em seus fluxos de trabalho de investigação com facilidade. Com Copilot para Segurança, os usuários podem obter informações estruturadas e contextualizadas sobre ameaças emergentes, técnicas de ataque e se uma organização está exposta a uma ameaça específica. Copilot para Segurança ajuda a evitar a exposição a campanhas do grupo de atividades e responder a incidentes com orientação maior.

O Copilot para Segurança substitui Microsoft Defender XDR e o Microsoft Sentinel?

Não, Copilot para Segurança não substitui Microsoft Defender XDR nem Microsoft Sentinel. Copilot para Segurança auxilia os profissionais de segurança no seu trabalho diário, proporcionando uma experiência de upskilling e maior eficiência. Ele adiciona um valor maior sobre Microsoft Defender XDR e Microsoft Sentinel.

O Copilot para Segurança inclui o acesso ao Informações sobre Ameaças do Microsoft Defender (Defender TI)?

Sim*. Quando solicitado, Copilot para Segurança razões sobre todo o conteúdo e dados no Informações sobre Ameaças do Microsoft Defender (Defender TI) para retornar o contexto crucial em torno de grupos de atividades, ferramentas e vulnerabilidades. Os clientes também têm acesso a workbench premium do Defender TI no nível do locatário, permitindo que eles acessem toda a amplitude de inteligência do Defender TI - perfis intel, análise de ameaças, conjuntos de dados da Internet e muito mais - para fazer um mergulho mais profundo no conteúdo exibido no Copilot para Segurança.

*Esse acesso não inclui a API do Defender TI, que permanece licenciada separadamente.

Quando Copilot para Segurança geralmente está disponível?

Copilot para Segurança estarão disponíveis para compra em 1º de abril de 2024.

Quem são os usuários pretendidos de Copilot para Segurança?

Analistas do SOC, analistas de conformidade e administradores de TI são os usuários pretendidos do Copilot para Segurança.

Quais idiomas têm suporte?

Copilot para Segurança dá suporte a vários idiomas. O modelo está disponível em oito idiomas* e a experiência do usuário está disponível em 25 idiomas.**

*Modelo: inglês, alemão, japonês, espanhol, francês, italiano, português e chinês

**UX: idiomas acima mais coreano, holandês, sueco, polonês, norueguês, turco, dinamarquês, finlandês e muito mais na experiência do usuário.

Para obter mais informações, confira Idiomas com suporte.

Os clientes do Programa de Acesso Antecipado (EAP) receberão recursos de GA em 1º de abril e quaisquer outros recursos adicionados antes do término do contrato EAP?

Sim, os clientes EAP receberão os recursos que estão no produto GA e quaisquer outras atualizações de recurso que ocorram durante a hora do contrato EAP.

O que acontece com os clientes que estão participando do Programa de Acesso Antecipado no GA?

O acesso do cliente no Programa de Acesso Antecipado terminará seis meses após a data de compra. Os termos contratuais aplicáveis ao uso e consumo do produto pelos clientes no Programa de Acesso Antecipado se aplicam durante esse período. Após esse tempo e após a GA, o Copilot of Security estará disponível para compra e consumo nos canais de contratação padrão da Microsoft. Um plano de migração está em vigor para dar suporte a esses clientes que migram do EAP para o GA para garantir que todas as informações sejam levadas para o Produto GA.

Quando um cliente EAP decidir comprar o produto GA dentro de 90 dias após a expiração do EAP, os Dados do Cliente permanecerão disponíveis.

Se um cliente EAP decidir não comprar o produto GA dentro de 90 dias após a expiração do EAP, seus Dados de Cliente EAP serão excluídos de acordo com nossas políticas de retenção de dados.

Os Dados do Cliente são usados para treinar modelos de fundação do Serviço OpenAI do Azure?

Não, os Dados do Cliente não são usados para treinar modelos de fundação do Serviço OpenAI do Azure e esse compromisso está documentado em nossos Termos de Produto. Para obter mais informações sobre o compartilhamento de dados no contexto de Copilot para Segurança, consulte Privacidade e segurança de dados.

Qual é a diretriz do GDPR para os mercados da UE?

A Microsoft cumpre todas as leis e regulamentos aplicáveis ao fornecimento de produtos e serviços, incluindo a lei de notificação de violação de segurança e os Requisitos de Proteção de Dados (conforme definido no Microsoft DPA). No entanto, a Microsoft não é responsável pela conformidade com quaisquer leis ou regulamentos aplicáveis ao setor do Cliente ou do Cliente que geralmente não são aplicáveis aos provedores de serviços de tecnologia da informação. A Microsoft não determina se os dados do Cliente incluem informações sujeitas a qualquer lei ou regulamentação específica. Para obter mais informações, consulte DPA (Microsoft Products and Services Data Protection Addendum).

Os clientes do GCC (Us Government Cloud) são qualificados?

O GCC não está disponível no GA. No momento, Copilot para Segurança não foi projetado para uso do cliente com nuvens do governo dos EUA, incluindo, mas não se limitando a GCC, GCC High, DoD e Microsoft Azure Governamental. Enquanto o caminho técnico para o conector do Microsoft Sentinel funciona, o locatário não consegue acessar 75% dos recursos do produto porque as interfaces e dados do Defender vivem no Microsoft Azure Governamental, no qual o Copilot não está integrado.

Os clientes de saúde dos EUA e do Canadá são qualificados?

Os clientes HLS dos EUA e canadá estão qualificados para comprar Copilot para Segurança. No entanto, Copilot para Segurança atualmente não é um Serviço de BAA-Scope da Microsoft.

Qual é a diferença entre ChatGPT e Copilot para Segurança?

ChatGPT e Copilot para Segurança são tecnologias de IA (inteligência artificial) que foram desenvolvidas com a intenção de ajudar os usuários a realizar tarefas e atividades de forma mais rápida e eficiente. Embora possam parecer semelhantes, há diferenças significativas entre os dois.

ChatGPT é uma tecnologia de processamento de linguagem natural. ChatGPT usa machine learning, aprendizado profundo, compreensão natural da linguagem e geração de linguagem natural para responder perguntas ou responder a conversas. ChatGPT trabalha com dados treinados na Internet, usa solicitações dos usuários para ajudar na engenharia de prompt e ajustes de modelo e é limitado a três plug-ins simultâneos.

Copilot para Segurança é uma linguagem natural, ferramenta de análise de segurança alimentada por IA projetada para ajudar as organizações a se defenderem contra ameaças em velocidade e escala do computador. Copilot para Segurança é criada com base na tecnologia OpenAI e é projetada e projetada como uma IA cibernética corporativa do zero. A plataforma funciona fora dos plug-ins conectados ao cliente e da inteligência global de ameaças da Microsoft como dados de aterramento. Os prompts inseridos não informam o modelo ou a engenharia de prompt, a menos que sejam enviados pelo cliente para revisão.

Uma diferença fundamental entre ChatGPT e Copilot para Segurança é o que os sistemas são projetados para realizar. Microsoft Copilot para Segurança foi projetado para gerenciamento de postura, resposta a incidentes e relatórios. A solução extrai insights de sinais de segurança agregados de plug-ins, enquanto ChatGPT funciona como um chatbot projetado para manter uma conversa com um usuário.

Copilot para Segurança tem acesso a informações atualizadas da inteligência contra ameaças e desenha insights de plug-ins para que os profissionais de segurança estejam melhor equipados para se defender contra ameaças. Microsoft Copilot para Segurança nem sempre acerta tudo e, como acontece com todas as ferramentas de IA, as respostas podem conter erros. O mecanismo de comentários internos fornece aos usuários controle para ajudar a melhorar o sistema.

Informações da compra

Como os clientes podem comprar no GA?

Copilot para Segurança está disponível em todos os canais: EA, MCA-E, CSP, Buy Online e Herdado Web Direct.

Há pré-requisitos para comprar?

Uma assinatura do Azure e Microsoft Entra ID (anteriormente conhecida como Azure Active Directory) são pré-requisitos para usar Copilot para Segurança; não há outros pré-requisitos de produto. Para obter mais informações, consulte Introdução ao Copilot para Segurança.

Perguntas técnicas e de produto

Os clientes recebem suporte de integração?

Após a compra, os clientes recebem fácil acesso à documentação, vídeos e blogs.

Onde posso encontrar mais informações sobre Proteção de Dados e Privacidade?

Você pode saber mais no Centro de Confiança da Microsoft.

O Microsoft Entra ID implantado (anteriormente conhecido como Azure Active Directory) é um requisito para Copilot para Segurança?

Sim. Copilot para Segurança é um aplicativo SaaS e exige que o AAD autentique os usuários que têm acesso.

A integração do Defender para XDR e Sentinel abrange dados armazenados ou apenas alertas e incidentes (eventos notáveis)?

Copilot para Segurança abrange alertas/incidentes e dados armazenados. O produto recupera dados de tabelas de caça avançadas no Defender para XDR e tabelas de dados superiores no Microsoft Sentinel.

Quais ferramentas de parceiros estão integradas ao Copilot para Segurança?

Os clientes podem usar plug-ins de terceiros desenvolvidos pelo ISV, como Cyware, Netskope SGNL, Tanium e Valence Security na capacidade de Visualização Pública. Plug-ins de terceiros desenvolvidos pela Microsoft, como CIRC.lu, CrowdSec, Greynoise e URLScan também estão disponíveis. Mais plug-ins serão adicionados no futuro.

Observação

Os produtos que se integram ao Copilot para Segurança precisam ser comprados separadamente.

Copilot para Segurança pode isolar computadores usando Microsoft Defender para Ponto de Extremidade e Microsoft Intune? Você pode personalizar e/ou bloquear IOCs individuais?

Copilot para Segurança não pode isolar computadores. Ele pode fornecer recomendações aos administradores de segurança de que eles devem isolar determinados computadores, mas Copilot para Segurança não toma essa ação em si. Você pode avaliar se os IOCs individuais estão presentes no ambiente usando Copilot para Segurança. No entanto, Copilot para Segurança não os bloqueia automaticamente. A automação pode vir em uma data posterior, mas por enquanto Copilot para Segurança não toma medidas de correção por conta própria.

Copilot para Segurança IPv6 está ciente?

Há uma funcionalidade chamada Obter Componentes Web por Endereço IP que atualmente dá suporte a IPV4.

O Copilot para Segurança faz recomendações para cenários de IoT/OT?

Não, Copilot para Segurança atualmente não dá suporte a IoT/OT.

O Copilot para Segurança oferece dashboarding ou você só pode investigar eventos únicos?

Copilot para Segurança não fornece dashboarding, no entanto, você pode consultar vários incidentes no Microsoft Sentinel. Para a linha de base, ele pode fornecer uma visualização de um caminho de ataque.

Pode Copilot para Segurança executar fluxos de trabalho - desde o tririaging até o uso de mensagens fixas, até a governança de como o cliente deve rotular o incidente e se um incidente deve ser fechado?

No momento, não há suporte para fluxos de trabalho no Copilot para Segurança.

Quais recursos de controle de acesso ou delegação baseados em função Copilot para Segurança têm? Como as permissões de usuário são mantidas em Copilot para Segurança alinhadas às configurações de permissão do usuário em outras soluções?

Copilot para Segurança usa direitos de "administrador em nome de" (AOBO) para o usuário conectado. Para obter mais informações, confira Entender a autenticação.

Por que o Microsoft Copilot transfere dados para um locatário da Microsoft?

O Microsoft Copilot é uma oferta saaS (Software como serviço) que é executada no locatário de produção do Azure. Os usuários inserem prompts e Copilot para Segurança fornece respostas com base nos insights provenientes de outros produtos, como Microsoft Defender XDR, Microsoft Sentinel e Microsoft Intune. Copilot para Segurança armazena prompts e respostas anteriores para um usuário. O usuário pode usar a experiência no produto para acessar prompts e respostas. Os dados de um cliente são logicamente isolados dos dados de outros clientes. Esses dados não deixam o locatário de produção do Azure e são armazenados até que os clientes peçam para excluí-los ou offboard do produto.

Como os dados transferidos são protegidos em trânsito e em repouso?

Os dados são criptografados em trânsito e em repouso, conforme descrito no Adendo de Proteção de Dados de Produtos e Serviços da Microsoft.

Como os dados transferidos são protegidos contra acesso não autorizado e quais testes foram feitos para esse cenário?

Por padrão, nenhum usuário humano tem acesso ao banco de dados e o acesso à rede é restrito à rede privada em que o aplicativo Microsoft Copilot é implantado. Se um humano precisar de acesso para responder a um incidente, o engenheiro de plantão precisará de acesso elevado e acesso à rede aprovados por funcionários autorizados da Microsoft.

Além dos testes regulares de recursos, a Microsoft também concluiu o teste de penetração. Microsoft Copilot para Segurança atende a todos os requisitos de privacidade, segurança e conformidade da Microsoft.

Em "Minhas Sessões" quando uma sessão individual é excluída, o que acontece com os dados da sessão?

Os dados da sessão são armazenados para fins de runtime (para operar o serviço) e também em logs. No banco de dados de runtime, quando uma sessão é excluída por meio do UX no produto, todos os dados associados a essa sessão são marcados como excluídos e o tempo de vida útil (TTL) é definido como 30 dias. Depois que o TTL expirar, as consultas não poderão acessar esses dados. Um processo em segundo plano exclui fisicamente os dados após esse tempo. Além do banco de dados de runtime 'live', há backups periódicos de banco de dados. Os backups envelhecerão – eles têm períodos de retenção de curta duração (atualmente definidos como quatro dias).

Os logs, que contêm dados de sessão, não são afetados quando uma sessão é excluída por meio do UX no produto. Esses logs têm um período de retenção de até 90 dias.

Quais Termos de Produto se aplicam a Copilot para Segurança? Copilot para Segurança é um "Serviço de IA generativo da Microsoft" dentro do significado dos Termos de Produto da Microsoft?

Os seguintes Termos de Produto regem Copilot para Segurança clientes:

  • Termos de Licença Universal para Serviços Online nos Termos do Produto, que incluem os termos dos Serviços de IA Generativos da Microsoft e o Compromisso de Direitos Autorais do Cliente.

  • Privacidade & Termos de Segurança nos Termos de Produto da Microsoft, que incluem o Adendo de Proteção de Dados.

Copilot para Segurança é um serviço de IA generativo dentro da definição dos Termos do Produto. Além disso, Copilot para Segurança é um "Produto Coberto" para fins do Compromisso de Direitos Autorais do Cliente. Neste momento, nos Termos do Produto não há termos específicos do produto exclusivos para Copilot para Segurança.

Além dos Termos do Produto, os contratos MBSA/EA e MCA dos clientes, por exemplo, regem a relação das partes. Se um cliente tiver dúvidas específicas sobre seus contratos com a Microsoft, envolva o CE, o gerenciador de negócios ou a CELA local que dá suporte ao negócio.

O Compromisso de Direitos Autorais do Cliente da Microsoft é um novo compromisso que estende o suporte de indenização de propriedade intelectual existente da Microsoft a determinados serviços de Copilot comerciais. O Compromisso de Direitos Autorais do Cliente se aplica a Copilot para Segurança. Se um terceiro processar um cliente comercial por violação de direitos autorais por usar Copilots da Microsoft ou a saída gerada, a Microsoft defenderá o cliente e pagará a quantidade de quaisquer julgamentos ou acordos adversos resultantes da ação judicial, desde que o cliente tenha usado os guardrails e filtros de conteúdo incorporados em nossos produtos.

Os clientes Copilot para Segurança podem optar pelo monitoramento de abuso do Serviço OpenAI do Azure? O Copilot para Segurança se envolve em algum monitoramento de filtragem ou abuso de conteúdo?

Atualmente, o monitoramento de abuso do Azure OpenAI está desabilitado em todo o serviço para todos os clientes.

O Copilot para Segurança faz algum local de processamento de dados ou compromissos de residência de dados?

  1. Local do processamento de dados: neste momento, Copilot para Segurança não faz nenhum local contratual de compromissos de processamento de dados. Nos Termos do Produto e usando um Serviço de IA generativo da Microsoft, Copilot para Segurança clientes concordam que seus dados podem ser processados fora da região geográfica de seu locatário. No entanto, os administradores do cliente podem selecionar o local para avaliação rápida. Embora a Microsoft recomende permitir a avaliação de prompt em qualquer lugar com capacidade de GPU disponível para resultados ideais, os clientes podem selecionar entre quatro regiões para ter seus prompts avaliados apenas nessas regiões

    Regiões disponíveis atualmente para avaliação de prompt:

    • Austrália (ANZ)
    • Europa (UE)
    • Reino Unido (Reino Unido)
    • Estados Unidos (EUA).
  2. Local do armazenamento de dados (residência de dados): neste momento, Copilot para Segurança não faz compromissos contratuais de armazenamento de dados/residência. Se um cliente não for optado pelo compartilhamento de dados*, Copilot para Segurança armazenará dados em repouso na casa Geo do locatário.

    Por exemplo, para um locatário de cliente cuja casa fica na Alemanha, Copilot para Segurança armazena Dados do Cliente na "Europa" como o Geo designado para a Alemanha.

    *Se um cliente optar pelo compartilhamento de dados, os Dados do Cliente, como prompts e respostas, serão compartilhados com a Microsoft para melhorar o desempenho do produto, melhorar a precisão e a latência da resposta de endereço. Quando esse evento ocorre, os Dados do Cliente, como prompts, podem ser armazenados fora do locatário Geo.

O Copilot para Segurança é um serviço de Limite de Dados da UE da Microsoft?

No momento da GA, todos os Serviços de Segurança da Microsoft estão fora do escopo dos requisitos de residência de dados da UE e Copilot para Segurança não serão listados como um serviço EUDB.

Onde os dados do cliente da UE são armazenados?

Copilot para Segurança armazena Dados do Cliente e Dados Pessoais, como prompts de usuário e IDs de objeto Microsoft Entra no locatário Geo. Se um cliente provisionar seu locatário na UE e não for optado pelo compartilhamento de dados, todos os Dados do Cliente e dados pessoais pseudônimos serão armazenados em repouso na UE. O processamento de dados do cliente e solicitações de dados pessoais pode ocorrer no Geo de GPU de Segurança designado. Para obter mais informações sobre a seleção de geografia da GPU de segurança, consulte Introdução ao Copilot para Segurança. Se um cliente for optado pelo compartilhamento de dados, os prompts poderão ser armazenados fora do Limite de Dados da UE. Para obter mais informações sobre compartilhamento de dados, consulte Privacidade e segurança de dados em Microsoft Copilot para Segurança.

Os prompts do cliente (como o conteúdo de entrada do cliente) são considerados Dados do Cliente dentro dos termos da DPA e dos Termos do Produto?

Sim, os prompts do cliente são considerados Dados do Cliente. Nos Termos do Produto, os prompts do cliente são considerados Entradas. As entradas são definidas como "todos os Dados do Cliente que o Cliente fornece, designa, seleciona ou entradas para uso por uma tecnologia de inteligência artificial generativa para gerar ou personalizar uma saída".

O "Conteúdo de Saída" é considerado Dados do Cliente dentro dos termos da DPA e dos Termos do Produto?

Sim, o Conteúdo de Saída é Dados do Cliente nos Termos do Produto.

Há uma nota de transparência ou uma documentação de transparência para Copilot para Segurança?

Sim, o documento de transparência de IA responsável pode ser encontrado aqui: Perguntas frequentes sobre IA responsável.

Como Copilot para Segurança está lidando com um "limite de token"?

LlMs (modelos de linguagem grandes), incluindo GPT, têm limites sobre a quantidade de informações que podem processar ao mesmo tempo. Esse limite é conhecido como "limite de token" e se correlaciona aproximadamente a 1,2 palavras por token. Copilot para Segurança usa os modelos de GPT mais recentes do Azure OpenAI para garantir que possamos processar o máximo de informações possível em uma única sessão. Em alguns casos, prompts grandes, sessões longas ou saída de plug-in verbosa podem estourar o espaço do token. Quando esse cenário acontece, Copilot para Segurança tenta aplicar mitigações para garantir que uma saída esteja sempre disponível, mesmo que o conteúdo dessa saída não seja ideal. Essas mitigações nem sempre são eficazes e talvez seja necessário parar de processar a solicitação e direcionar o usuário para tentar um prompt ou plug-in diferente.

O código de conduta do Serviço OpenAI do Azure inclui "Requisitos responsáveis de mitigação de IA". Como esses requisitos se aplicam a clientes Copilot para Segurança?

Esses requisitos não se aplicam a Copilot para Segurança clientes porque Copilot para Segurança implementa essas mitigações.

Informações do parceiro

Quais são os casos de uso para parceiros?  

Os parceiros podem fornecer sinais ou criar soluções complementares em torno de cenários Copilot para Segurança.

Trabalho com um MSSP (provedor de serviços de segurança gerenciada). Eles podem usar e gerenciar Copilot para Segurança em meu nome?

Sim, MSSPs que fornecem serviços SOC para clientes podem acessar o ambiente de Copilot para Segurança do cliente se o cliente optar por fornecer acesso. (Traga seu próprio MSSP).

Observação

Disponível no portal autônomo apenas com capacidade limitada.

Integrar e gerenciar o acesso de MSSPs ao locatário (cliente) é oferecido por meio do Acesso ao Convidado (B2B) e GDAP. Atualmente, não há um modelo multilocatário CSP ou revendedor para MSSPs. Cada cliente é responsável por comprar suas próprias SCUs e configurar seus MSSPs com o acesso necessário.

Os MSSPs podem usar uma única instância de Copilot para Segurança para gerenciar vários locatários?

Copilot para Segurança não dá suporte à solicitação em vários locatários. Em vez disso, os MSSPs podem usar a Comutação de Locatário e direcionar um locatário do cliente, usando opções de acesso delegado com suporte.

Os MSSPs podem gerenciar vários locatários de clientes em Copilot para Segurança usando a troca de locatário do locatário MSSP. A Troca de Locatários permite que os parceiros alternem entre locatários e protejam um locatário por vez com prompts/consultas selecionando o locatário do cliente em uma lista suspensa. Os clientes também podem adicionar o TENANTID (GUID) na URL da sessão Copilot para Segurança como um parâmetro de cadeia de caracteres de consulta. Os locatários do cliente podem ser selecionados com base no acesso delegado ao locatário do cliente. Copilot para Segurança é usado no contexto do usuário, portanto, o parceiro só pode acessar o que a conta delegada recebeu acesso no locatário do cliente.

Há integrações de terceiros disponíveis hoje?

Estamos trabalhando com ISVs como Cyware, Netskope, SGNL, Tanium e Valence Security para lançar seus plug-ins no Public Preview e continuar a criar mais integrações com o restante do ecossistema de Parceiros.

Existe um marketplace para os plug-ins ou serviços? 

Não há um marketplace de plug-in no GA. Os ISVs podem publicar suas soluções no GitHub. Na GA, todos os parceiros são obrigados a publicar suas soluções ou serviços gerenciados no marketplace do Microsoft Commercial. Mais informações sobre publicação no marketplace podem ser encontradas aqui:

Publicar solução no Microsoft Commercial Marketplace:

MsSP Específico: Deve ter uma designação de segurança no Microsoft AI Cloud Partner Program.

SaaS Específico:

E quanto aos MSSPs que também estão participando do EAP Copilot para Segurança como cliente? 

Os MSSPs que fazem parte do EAP continuarão a ter acesso a Copilot para Segurança até que o contrato de 6 meses do EAP termine. Se um MSSP estiver usando o mesmo locatário para serviços SOC internos e gerenciados pelo cliente, ele precisará comprar um plano de capacidade e garantir que os modelos de acesso delegados com suporte sejam habilitados por meio do locatário usado pelo SOC gerenciado. Se um MSSP estiver usando um locatário apenas para serviços SOC gerenciados pelo cliente que não seja usado para serviços gerenciados internos do SOC, o MSSP precisará ter o locatário provisionado manualmente para Copilot para Segurança pela Microsoft. Portanto, nenhuma compra de plano de capacidade é necessária para provisionamento de Copilot para Segurança.

E se os MSSPs não estiverem usando Microsoft Defender XDR ou Microsoft Sentinel? 

Microsoft Copilot para Segurança não tem nenhum requisito específico de produto de segurança da Microsoft para provisionamento ou uso, pois a solução é baseada na agregação de fontes de dados tanto da Microsoft quanto de serviços de terceiros. Dito isso, há um valor significativo em ter Microsoft Defender XDR e o Microsoft Sentinel habilitados como plug-ins com suporte para enriquecer investigações. Copilot para Segurança usa apenas habilidades e acessa dados de plug-ins habilitados.

Uma solução SOC do MSSPs precisa ser hospedada no Azure? 

É recomendável que a solução esteja hospedada no Azure, mas não seja necessária. 

Existe um roteiro de produto que pode ser compartilhado com parceiros? 

Não no momento.