Microsoft Copilot per la sicurezza domande frequenti

Informazioni generali

Che cos'è Microsoft Copilot per la sicurezza?

Microsoft Copilot per la sicurezza è un prodotto di cybersecurity per intelligenza artificiale che consente ai professionisti della sicurezza di rispondere rapidamente alle minacce, elaborare i segnali alla velocità della macchina e valutare l'esposizione ai rischi in pochi minuti. 

In che modo Microsoft Copilot per la sicurezza è diverso da altri prodotti per la sicurezza dell'intelligenza artificiale?

Copilot per la sicurezza combina modelli GPT4 avanzati di OpenAI con tutto ciò che Microsoft offre, tra cui l'infrastruttura iperscalabilità, l'orchestrazione specifica del cyber, l'esperienza unica di Microsoft Security, l'intelligence globale sulle minacce e i prodotti di sicurezza completi.

È attualmente l'unica soluzione di intelligenza artificiale di sicurezza creata usando la relazione univoca di Microsoft con OpenAI, che consente ai clienti di accedere ai modelli di linguaggio di grandi dimensioni più recenti e avanzati e all'infrastruttura di intelligenza artificiale iperscalabilità di Microsoft.

Microsoft si trova in una posizione unica per trasformare la sicurezza per i clienti, non solo a causa dei nostri investimenti nell'IA, ma anche perché offriamo sicurezza end-to-end, identità, conformità e molto altro ancora nel nostro portfolio. Siamo ottimizzati per coprire più vettori di minacce e offrire valore con un'esperienza coordinata.

Quali sono i casi d'uso e le funzionalità che Copilot per la sicurezza sblocca per i clienti?

I casi d'uso principali sono scenari SOC, in particolare per quanto riguarda il riepilogo degli eventi imprevisti, l'analisi dell'impatto, il reverse engineering degli script e le risposte guidate.

Microsoft Copilot per la sicurezza funziona con altri prodotti Microsoft?

Sì. Copilot per la sicurezza funziona con altri prodotti Microsoft Security. Questi prodotti includono, ma non sono limitati a:

  • Microsoft Defender XDR,
  • Microsoft Sentinel,
  • Microsoft Intune,
  • Microsoft Defender Threat Intelligence,
  • Microsoft Purview
  • gestione della superficie di attacco Microsoft Defender

Copilot per la sicurezza può accedere ai dati di questi prodotti e offrire un'esperienza di assistive Copilot per aumentare l'efficacia e l'efficienza dei professionisti della sicurezza che usano tali soluzioni. Ad esempio, funzionalità come l'analisi degli script consentono ai clienti di analizzare centinaia di righe di codice e interpretarle tramite il linguaggio naturale in pochi minuti. Questa funzionalità supera drasticamente anche le competenze avanzate degli analisti in termini di velocità e competenza. Copilot per la sicurezza aiuta i professionisti della sicurezza a individuare i rischi in anticipo, a rispondere con maggiori indicazioni e a rimanere al di sopra delle vulnerabilità nel panorama delle minacce in continua evoluzione.

In che modo Copilot per la sicurezza migliorare Microsoft Defender XDR e Microsoft Sentinel?

Microsoft Defender XDR e Microsoft Sentinel diventano ancora più potenti quando i professionisti della sicurezza usano Copilot per la sicurezza. Copilot per la sicurezza offre un'esperienza che arricchisce e si basa sui dati di sicurezza, i segnali e gli eventi imprevisti esistenti e le informazioni dettagliate provenienti da Microsoft Defender XDR e Microsoft Sentinel. La nuova esperienza incorporata in Microsoft Defender XDR potenzia i team di sicurezza con funzionalità generative di intelligenza artificiale per portare la loro efficienza a un nuovo livello per il set di casi d'uso potenti seguenti:

  • Rispondere alle minacce alla velocità dell'intelligenza artificiale con l'indagine e la risposta agli eventi imprevisti assistiti. Con l'esperienza incorporata in Defender, Copilot per la sicurezza fornisce riepiloghi per gli eventi imprevisti attivi e indicazioni dettagliate per la risposta agli eventi imprevisti, creando un'attività post-risposta completa, tutto in secondi e con il clic di un pulsante.

  • Ridimensionare le attività avanzate a tutti i livelli di competenza. Copilot per la sicurezza consente ai difensori a tutti i livelli di competenza di individuare facilmente minacce e vulnerabilità in più vettori di minacce. La soluzione spiega in tempo reale i dati di sicurezza e offre un modo accessibile per eseguire attività avanzate usando il linguaggio naturale.

  • Eseguire l'analisi del codice dannoso in tempo reale. In precedenza, l'analisi del malware e il reverse engineering erano limitati ai risponditori avanzati. Con Copilot per la sicurezza, i clienti possono analizzare script da riga di comando complessi e tradurli in un linguaggio naturale facilmente comprensibile per aiutare gli analisti a comprendere le azioni e le motivazioni degli utenti malintenzionati.

  • Applicare l'intelligence sulle minacce ai flussi di lavoro di indagine con facilità. Con Copilot per la sicurezza, gli utenti possono ottenere informazioni strutturate e contestualizzate su minacce emergenti, tecniche di attacco e se un'organizzazione è esposta a una minaccia specifica. Copilot per la sicurezza aiuta a prevenire l'esposizione alle campagne del gruppo di attività e a rispondere agli eventi imprevisti con indicazioni più dettagliate.

Sostituisce Copilot per la sicurezza Microsoft Defender XDR e Microsoft Sentinel?

No, Copilot per la sicurezza non sostituisce Microsoft Defender XDR o Microsoft Sentinel. Copilot per la sicurezza assiste i professionisti della sicurezza nel loro lavoro quotidiano, offrendo un'esperienza di miglioramento e una maggiore efficienza. Aggiunge un valore maggiore rispetto a Microsoft Defender XDR e Microsoft Sentinel.

Copilot per la sicurezza include l'accesso a Microsoft Defender Threat Intelligence (Defender TI)?

Sì*. Quando richiesto, Copilot per la sicurezza motivi per tutti i contenuti e i dati in Microsoft Defender Threat Intelligence (Defender TI) per restituire un contesto cruciale per gruppi di attività, strumenti e vulnerabilità. I clienti hanno anche accesso a Defender TI Premium workbench a livello di tenant, consentendo loro di accedere all'intera gamma di informazioni di Defender TI - profili Intel, analisi delle minacce, set di dati Internet e altro ancora - per approfondire il contenuto visualizzato in Copilot per la sicurezza.

*Questo accesso non include l'API TI di Defender, che rimane con licenza separata.

Quando è disponibile Copilot per la sicurezza a livello generale?

Copilot per la sicurezza sarà disponibile a livello generale per l'acquisto il 1° aprile 2024.

Chi sono gli utenti previsti di Copilot per la sicurezza?

Gli analisti SOC, gli analisti di conformità e gli amministratori IT sono gli utenti previsti di Copilot per la sicurezza.

Quali lingue sono supportate?

Copilot per la sicurezza supporta più lingue. Il modello è disponibile in otto lingue* e l'esperienza utente è disponibile in 25 lingue.**

*Modello: inglese, tedesco, giapponese, spagnolo, francese, italiano, portoghese e cinese

**Esperienza utente: sopra le lingue oltre a coreano, olandese, svedese, polacco, norvegese, turco, danese, finlandese e altro ancora nell'esperienza utente.

Per altre informazioni, vedere Lingue supportate.

I clienti del Programma di accesso anticipato (EAP) riceveranno le funzionalità di disponibilità generale il 1° aprile e tutte le altre funzionalità aggiunte prima della fine del contratto EAP?

Sì, i clienti EAP riceveranno le funzionalità presenti nel prodotto ga e tutti gli altri aggiornamenti delle funzionalità che si verificano durante il periodo del contratto EAP.

Cosa accade ai clienti che partecipano al programma di accesso anticipato in disponibilità generale?

L'accesso dei clienti nell'ambito del programma di accesso anticipato terminerà sei mesi dopo la data di acquisto. Durante questo periodo si applicano le condizioni contrattuali applicabili all'uso e al consumo del prodotto da parte dei clienti nell'ambito del Programma di accesso anticipato. Dopo questo periodo di tempo e dopo la disponibilità generale, Copilot of Security sarà disponibile per l'acquisto e l'utilizzo nei canali di contratto standard di Microsoft. È in atto un piano di migrazione per supportare i clienti che eseguono la migrazione da EAP a GA per garantire che tutte le informazioni vengano trasferite al prodotto a disponibilità generale.

Quando un cliente EAP decide di acquistare il prodotto ga entro 90 giorni dalla scadenza di EAP, i dati del cliente rimarranno disponibili.

Se un cliente EAP decide di non acquistare il prodotto ga entro 90 giorni dalla scadenza di EAP, i dati del cliente EAP vengono eliminati in base ai criteri di conservazione dei dati.

I dati dei clienti vengono usati per eseguire il training dei modelli di base del servizio Azure OpenAI?

No, i dati dei clienti non vengono usati per eseguire il training dei modelli di base del servizio Azure OpenAI e questo impegno è documentato nelle condizioni del prodotto. Per altre informazioni sulla condivisione dei dati nel contesto di Copilot per la sicurezza, vedere Privacy e sicurezza dei dati.

Quali sono le linee guida del GDPR per i mercati dell'UE?

Microsoft è conforme a tutte le leggi e le normative applicabili alla fornitura dei prodotti e del servizio, tra cui la legge sulla notifica delle violazioni della sicurezza e i requisiti di protezione dei dati (come definito in Microsoft DPA). Tuttavia, Microsoft non è responsabile della conformità alle leggi o alle normative applicabili al cliente o al settore del cliente che non sono generalmente applicabili ai provider di servizi informatici. Microsoft non determina se i dati del cliente includono informazioni soggette a leggi o normative specifiche. Per altre informazioni, vedere Microsoft Products and Services Data Protection Addendum (DPA) .For more information, see Microsoft Products and Services Data Protection Addendum (DPA).For more information, see Microsoft Products and Services Data Protection Addendum (DPA).

I clienti di US Government Cloud (GCC) sono idonei?

GCC non è disponibile in disponibilità generale. Al momento, Copilot per la sicurezza non è progettato per l'uso dei clienti con i cloud del governo degli Stati Uniti, tra cui GCC, GCC High, DoD e Microsoft Azure per enti pubblici. Mentre il percorso tecnico per il connettore di Microsoft Sentinel funziona, il tenant non è in grado di accedere al 75% delle funzionalità del prodotto perché le interfacce e i dati di Defender risiedono all'interno di Microsoft Azure per enti pubblici, in cui Copilot non è integrato.

I clienti dell'assistenza sanitaria negli Stati Uniti e in Canada sono idonei?

I clienti HLS di Stati Uniti e Canada possono acquistare Copilot per la sicurezza. Tuttavia, Copilot per la sicurezza non è attualmente un servizio microsoft BAA-Scope.

Qual è la differenza tra ChatGPT e Copilot per la sicurezza?

ChatGPT e Copilot per la sicurezza sono entrambe tecnologie di intelligenza artificiale sviluppate con l'intento di aiutare gli utenti a svolgere attività e attività in modo più rapido ed efficiente. Anche se potrebbero sembrare simili, esistono differenze significative tra i due.

ChatGPT è una tecnologia di elaborazione del linguaggio naturale. ChatGPT usa machine learning, deep learning, comprensione del linguaggio naturale e generazione del linguaggio naturale per rispondere alle domande o rispondere alle conversazioni. ChatGPT esegue il training dei dati da Internet, usa le richieste degli utenti per facilitare la progettazione rapida e la regolazione del modello ed è limitato a tre plug-in simultanei.

Copilot per la sicurezza è uno strumento di analisi della sicurezza basato su intelligenza artificiale in linguaggio naturale progettato per aiutare le organizzazioni a difendersi dalle minacce a velocità e scalabilità della macchina. Copilot per la sicurezza è basato sulla tecnologia OpenAI ed è progettato e progettato come intelligenza artificiale informatica aziendale da zero. La piattaforma funziona al di fuori dei plug-in connessi ai clienti e dell'intelligence globale sulle minacce di Microsoft come dati di base. Le richieste immesse non informano il modello o la progettazione delle richieste, a meno che non siano state inviate dal cliente per la revisione.

Una differenza fondamentale tra ChatGPT e Copilot per la sicurezza è ciò che i sistemi sono progettati per realizzare. Microsoft Copilot per la sicurezza è progettato per la gestione della postura, la risposta agli eventi imprevisti e la creazione di report. La soluzione trae informazioni dettagliate dai segnali di sicurezza aggregati dai plug-in, mentre ChatGPT funziona come un chatbot progettato per tenere una conversazione con un utente.

Copilot per la sicurezza ha accesso a informazioni aggiornate dall'intelligence sulle minacce e trae informazioni dettagliate dai plug-in in modo che i professionisti della sicurezza siano meglio preparati a difendersi dalle minacce. Microsoft Copilot per la sicurezza non sempre ottiene tutto a posto e come con tutti gli strumenti di intelligenza artificiale, le risposte possono contenere errori. Il meccanismo di feedback predefinito fornisce agli utenti il controllo per migliorare il sistema.

Informazioni sull'acquisto

In che modo i clienti possono acquistare a livello generale?

Copilot per la sicurezza è disponibile in tutti i canali: EA, MCA-E, CSP, Buy Online e Legacy Web Direct.

Sono presenti prerequisiti per l'acquisto?

Una sottoscrizione di Azure e Microsoft Entra ID (in precedenza noto come Azure Active Directory) sono prerequisiti per l'uso di Copilot per la sicurezza. Non sono presenti altri prerequisiti del prodotto. Per altre informazioni, vedere Introduzione a Copilot per la sicurezza.

Domande tecniche e di prodotto

I clienti ricevono il supporto per l'onboarding?

Al momento dell'acquisto, i clienti ricevono un facile accesso a documentazione, video e blog.

Dove è possibile trovare altre informazioni sulla protezione e la privacy dei dati?

Altre informazioni sono disponibili nel Centro protezione Microsoft.

Viene distribuito Microsoft Entra ID (in precedenza noto come Azure Active Directory) un requisito per Copilot per la sicurezza?

Sì. Copilot per la sicurezza è un'applicazione SaaS e richiede AAD per autenticare gli utenti che hanno accesso.

L'integrazione di Defender per XDR e Sentinel copre solo i dati archiviati o solo gli avvisi e gli eventi imprevisti (eventi rilevanti)?

Copilot per la sicurezza copre sia gli avvisi/eventi imprevisti che i dati archiviati. Il prodotto recupera i dati dalle tabelle di ricerca avanzate in Defender per XDR e dalle principali tabelle dati in Microsoft Sentinel.

Quali strumenti partner sono integrati con Copilot per la sicurezza?

I clienti possono usare plug-in di terze parti sviluppati da ISV, ad esempio Cyware, Netskope SGNL, Tanium e Valence Security nella capacità di anteprima pubblica. Microsoft ha sviluppato plug-in di terze parti come CIRC.lu, CrowdSec, Greynoise e URLScan. Altri plug-in verranno aggiunti in futuro.

Nota

I prodotti che si integrano con Copilot per la sicurezza devono essere acquistati separatamente.

È possibile Copilot per la sicurezza isolare i computer usando Microsoft Defender per endpoint e Microsoft Intune? È possibile personalizzare e/o bloccare singoli ioc?

Copilot per la sicurezza non è possibile isolare i computer. Può fornire consigli agli amministratori della sicurezza che devono isolare determinati computer, ma Copilot per la sicurezza non esegue l'azione stessa. È possibile valutare se i singoli ioc sono presenti nell'ambiente usando Copilot per la sicurezza. Tuttavia, Copilot per la sicurezza non li blocca automaticamente. L'automazione può avvenire in un secondo momento, ma per il momento Copilot per la sicurezza non esegue azioni correttive autonomamente.

È in grado di riconoscere Copilot per la sicurezza IPv6?

È disponibile una funzionalità denominata Get Web Components by IP Address che attualmente supporta IPV4.

Copilot per la sicurezza offre raccomandazioni per gli scenari IoT/OT?

No, Copilot per la sicurezza attualmente non supporta IoT/OT.

Copilot per la sicurezza offre il dashboard oppure è possibile analizzare solo singoli eventi?

Copilot per la sicurezza non fornisce dashboard, tuttavia è possibile eseguire query su più eventi imprevisti in Microsoft Sentinel. Per la linea di base, può fornire una visualizzazione di un percorso di attacco.

È possibile Copilot per la sicurezza eseguire flussi di lavoro, dalla valutazione all'uso di messaggi aggiunti, alla gestione del modo in cui il cliente deve etichettare l'evento imprevisto e se un evento imprevisto deve essere chiuso?

No, i flussi di lavoro non sono attualmente supportati in Copilot per la sicurezza.

Quali funzionalità di controllo o delega degli accessi in base al ruolo Copilot per la sicurezza hanno? In che modo le autorizzazioni utente vengono mantenute in Copilot per la sicurezza allineate alle configurazioni delle autorizzazioni utente in altre soluzioni?

Copilot per la sicurezza usa i diritti "admin per conto di" (AOBO) per l'utente connesso. Per altre informazioni, vedere Informazioni sull'autenticazione.

Perché Microsoft Copilot trasferisce i dati a un tenant Microsoft?

Microsoft Copilot è un'offerta SaaS (Software as a Service) eseguita nel tenant di produzione di Azure. Gli utenti immettono richieste e Copilot per la sicurezza fornisce risposte basate sulle informazioni dettagliate provenienti da altri prodotti, ad esempio Microsoft Defender XDR, Microsoft Sentinel e Microsoft Intune. Copilot per la sicurezza archivia le richieste e le risposte precedenti per un utente. L'utente può usare l'esperienza nel prodotto per accedere a richieste e risposte. I dati di un cliente sono logicamente isolati dai dati di altri clienti. Questi dati non lasciano il tenant di produzione di Azure e vengono archiviati fino a quando i clienti non chiedono di eliminarli o di uscire dal prodotto.

Come vengono protetti i dati trasferiti in transito e inattivi?

I dati vengono crittografati sia in transito che inattivi, come descritto nell'addendum Microsoft Products and Services Data Protection.

Come vengono protetti i dati trasferiti da accessi non autorizzati e quali test sono stati eseguiti per questo scenario?

Per impostazione predefinita, nessun utente umano ha accesso al database e l'accesso alla rete è limitato alla rete privata in cui viene distribuita l'applicazione Microsoft Copilot. Se un utente ha bisogno dell'accesso per rispondere a un evento imprevisto, il tecnico di chiamata necessita di accesso elevato e di accesso alla rete approvato dai dipendenti Microsoft autorizzati.

Oltre ai normali test di funzionalità, Microsoft ha completato anche i test di penetrazione. Microsoft Copilot per la sicurezza è conforme a tutti i requisiti microsoft in materia di privacy, sicurezza e conformità.

In "Sessioni personali" quando viene eliminata una singola sessione, cosa accade ai dati della sessione?

I dati della sessione vengono archiviati a scopo di runtime (per gestire il servizio) e anche nei log. Nel database di runtime, quando una sessione viene eliminata tramite l'esperienza utente nel prodotto, tutti i dati associati a tale sessione vengono contrassegnati come eliminati e il tempo di vita (TTL) è impostato su 30 giorni. Dopo la scadenza del TTL, le query non possono accedere a tali dati. Un processo in background elimina fisicamente i dati dopo tale periodo di tempo. Oltre al database di runtime "live", sono presenti backup periodici del database. I backup scadranno, con periodi di conservazione di breve durata (attualmente impostati su quattro giorni).

I log che contengono dati di sessione non sono interessati quando una sessione viene eliminata tramite l'esperienza utente nel prodotto. Questi log hanno un periodo di conservazione fino a 90 giorni.

Quali condizioni del prodotto si applicano a Copilot per la sicurezza? È Copilot per la sicurezza un "servizio di intelligenza artificiale generativa Microsoft" ai sensi delle Condizioni del prodotto Microsoft?

Le condizioni del prodotto seguenti regolano Copilot per la sicurezza clienti:

  • Condizioni di licenza universali per i servizi online nelle Condizioni del prodotto, che includono le condizioni di Microsoft Generative AI Services e l'impegno per il copyright del cliente.

  • Privacy & Termini di sicurezza nelle Condizioni del prodotto Microsoft, che includono l'addendum per la protezione dei dati.

Copilot per la sicurezza è un servizio di intelligenza artificiale generativa all'interno della definizione delle Condizioni del prodotto. Inoltre, Copilot per la sicurezza è un "Prodotto coperto" ai fini dell'impegno per il copyright del cliente. Al momento, nelle Condizioni del prodotto non sono presenti termini specifici del prodotto univoci per Copilot per la sicurezza.

Oltre alle Condizioni del prodotto, i contratti MBSA/EA e MCA dei clienti, ad esempio, regolano la relazione delle parti. Se un cliente ha domande specifiche sui propri contratti con Microsoft, rivolgersi al ce, al gestore delle trattative o al cela locale che supporta l'accordo.

Microsoft Customer Copyright Commitment è un nuovo impegno che estende il supporto dell'indennità di proprietà intellettuale esistente di Microsoft a determinati servizi Copilot commerciali. L'impegno per il copyright del cliente si applica a Copilot per la sicurezza. Se una terza parte fa causa a un cliente commerciale per violazione del copyright per l'uso di Copilot di Microsoft o dell'output generato, Microsoft difenderà il cliente e pagherà l'importo di eventuali sentenze o liquidazioni negative risultanti dalla causa, a condizione che il cliente abbia usato le guardrail e i filtri dei contenuti integrati nei nostri prodotti.

I clienti Copilot per la sicurezza possono rifiutare esplicitamente il monitoraggio degli abusi del servizio Azure OpenAI? Il Copilot per la sicurezza si impegna in un filtro dei contenuti o in un monitoraggio degli abusi?

Il monitoraggio degli abusi di Azure OpenAI è attualmente disabilitato a livello di servizio per tutti i clienti.

Il Copilot per la sicurezza esegue un'eventuale posizione degli impegni di trattamento dei dati o di residenza dei dati?

  1. Posizione dell'elaborazione dei dati: in questo momento, Copilot per la sicurezza non effettua alcuna posizione contrattuale degli impegni di elaborazione dati. In base alle Condizioni per il prodotto e usando un servizio di intelligenza artificiale generativa Microsoft, Copilot per la sicurezza clienti accettano che i loro dati possano essere elaborati al di fuori dell'area geografica del tenant. Tuttavia, gli amministratori dei clienti possono selezionare il percorso per la valutazione dei prompt. Mentre Microsoft consiglia di consentire la valutazione rapida ovunque con capacità GPU disponibile per ottenere risultati ottimali, i clienti possono scegliere tra quattro aree per valutare le richieste esclusivamente in tali aree

    Aree attualmente disponibili per la valutazione dei prompt:

    • Australia (ANZ)
    • Europa (UE)
    • Regno Unito (Regno Unito)
    • Stati Uniti (US).
  2. Posizione dell'archiviazione dati (residenza dei dati): al momento, Copilot per la sicurezza non effettua impegni contrattuali di archiviazione/residenza dei dati. Se un cliente non ha scelto la condivisione dei dati*, Copilot per la sicurezza archivia i dati inattivi nell'area geografica principale del tenant.

    Ad esempio, per un tenant del cliente la cui casa si trova in Germania, Copilot per la sicurezza archivia i dati dei clienti in "Europa" come area geografica designata per la Germania.

    *Se un cliente acconsente esplicitamente alla condivisione dei dati, i dati dei clienti, ad esempio richieste e risposte, vengono condivisi con Microsoft per migliorare le prestazioni del prodotto, migliorare l'accuratezza e la latenza di risposta degli indirizzi. Quando si verifica questo evento, i dati dei clienti, ad esempio le richieste, possono essere archiviati all'esterno dell'area geografica del tenant.

Copilot per la sicurezza è un servizio Microsoft EU Data Boundary?

Al momento della disponibilità generale, tutti i servizi di sicurezza Microsoft non rientrano nell'ambito dei requisiti di residenza dei dati dell'UE e Copilot per la sicurezza non verranno elencati come servizio EUDB.

Dove vengono archiviati i dati dei clienti dell'UE?

Copilot per la sicurezza archivia i dati dei clienti e i dati personali, ad esempio richieste utente e ID oggetto Microsoft Entra nell'area geografica del tenant. Se un cliente effettua il provisioning del tenant nell'UE e non ha acconsentito esplicitamente alla condivisione dei dati, tutti i dati dei clienti e i dati personali pseudonimi vengono archiviati inattivi all'interno dell'UE. L'elaborazione dei dati dei clienti e delle richieste di dati personali può avvenire nell'area geografica GPU di sicurezza designata. Per altre informazioni sulla selezione geografica della GPU di sicurezza, vedere Introduzione a Copilot per la sicurezza. Se un cliente ha acconsentito esplicitamente alla condivisione dei dati, le richieste possono essere archiviate al di fuori del limite dei dati dell'UE. Per altre informazioni sulla condivisione dei dati, vedere Privacy e sicurezza dei dati in Microsoft Copilot per la sicurezza.

Le richieste dei clienti (ad esempio il contenuto di input del cliente) vengono considerate dati dei clienti entro i termini del DPA e delle condizioni del prodotto?

Sì, le richieste dei clienti vengono considerate dati del cliente. In Termini di prodotto, le richieste dei clienti vengono considerate input. Gli input sono definiti come "tutti i dati del cliente che il cliente fornisce, designa, seleziona o input per l'uso da parte di una tecnologia di intelligenza artificiale generativa per generare o personalizzare un output".

Il "contenuto di output" è considerato come dati del cliente entro i termini del DPA e delle condizioni del prodotto?

Sì, il contenuto di output è dato dai clienti in base alle condizioni del prodotto.

È disponibile una nota sulla trasparenza o una documentazione sulla trasparenza per Copilot per la sicurezza?

Sì, il documento Sulla trasparenza dell'intelligenza artificiale responsabile è disponibile qui: Domande frequenti sull'intelligenza artificiale responsabile.

In che modo Copilot per la sicurezza gestisce un "limite di token"?

I modelli linguistici di grandi dimensioni, inclusi GPT, hanno limiti sulla quantità di informazioni che possono elaborare contemporaneamente. Questo limite è noto come "limite di token" e corrisponde approssimativamente a 1,2 parole per token. Copilot per la sicurezza usa i modelli GPT più recenti di Azure OpenAI per garantire che sia possibile elaborare il maggior numero possibile di informazioni in una singola sessione. In alcuni casi, richieste di grandi dimensioni, sessioni lunghe o output dettagliato del plug-in potrebbero sovraccaricare lo spazio del token. Quando si verifica questo scenario, Copilot per la sicurezza tenta di applicare mitigazioni per garantire che un output sia sempre disponibile, anche se il contenuto in tale output non è ottimale. Queste mitigazioni non sono sempre efficaci e potrebbe essere necessario interrompere l'elaborazione della richiesta e indirizzare l'utente a provare una richiesta o un plug-in diverso.

Il codice di comportamento del servizio Azure OpenAI include "Requisiti di mitigazione dell'intelligenza artificiale responsabile". In che modo questi requisiti si applicano ai clienti Copilot per la sicurezza?

Questi requisiti non si applicano ai clienti Copilot per la sicurezza perché Copilot per la sicurezza implementa queste mitigazioni.

Informazioni sui partner

Quali sono i casi d'uso per i partner?  

I partner possono fornire segnali o creare soluzioni complementari per scenari Copilot per la sicurezza.

Collaboro con un provider di servizi di sicurezza gestito (MSSP). Possono usare e gestire Copilot per la sicurezza per mio conto?

Sì, gli msp che forniscono servizi SOC per i clienti possono accedere all'ambiente Copilot per la sicurezza del cliente se il cliente sceglie di fornire l'accesso. (Bring your Own MSSP).

Nota

Disponibile nel portale autonomo solo con funzionalità limitate.

L'onboarding e la gestione dell'accesso MSSP al tenant (cliente) vengono offerti tramite Accesso guest (B2B) e GDAP. Attualmente non è disponibile un modello multi-tenant CSP o reseller per i provider di servizi condivisi. Ogni cliente è responsabile dell'acquisto delle proprie SKU e della configurazione dei propri provider di servizi di sicurezza con l'accesso necessario.

I provider di servizi cloud possono usare una singola istanza di Copilot per la sicurezza per gestire più tenant?

Copilot per la sicurezza non supporta la richiesta tra più tenant. Al contrario, i provider di servizi gestiti possono usare il cambio tenant e assegnare un tenant del cliente, usando le opzioni di accesso delegato supportate.

I provider di servizi condivisi possono gestire più tenant dei clienti all'interno di Copilot per la sicurezza usando il passaggio del tenant dal tenant MSSP. Il cambio tenant consente ai partner di passare da un tenant all'altro e proteggere un tenant alla volta con richieste/query selezionando il tenant del cliente in un elenco a discesa. I clienti possono anche aggiungere il GUID (TenantID) nell'URL della sessione Copilot per la sicurezza come parametro della stringa di query. I tenant dei clienti possono essere selezionati in base all'accesso delegato al tenant del cliente. Copilot per la sicurezza viene usato nel contesto utente, quindi il partner è in grado di accedere solo a ciò a cui è stato concesso l'accesso all'account delegato nel tenant del cliente.

Sono attualmente disponibili integrazioni di terze parti?

Stiamo lavorando con ISV come Cyware, Netskope, SGNL, Tanium e Valence Security per rilasciare i plug-in in Anteprima pubblica e continuare a creare altre integrazioni con il resto dell'ecosistema partner.

Esiste un marketplace per i plug-in o i servizi? 

Non esiste un marketplace di plug-in in disponibilità generale. Gli ISV possono pubblicare le proprie soluzioni in GitHub. A livello generale, tutti i partner sono tenuti a pubblicare le proprie soluzioni o servizi gestiti nel marketplace commerciale Microsoft. Altre informazioni sulla pubblicazione nel marketplace sono disponibili qui:

Pubblicare una soluzione in Microsoft Commercial Marketplace:

Specifica di MSSP: Deve avere una designazione di sicurezza in Microsoft AI Cloud Partner Program.

SaaS specifico:

Che dire degli MSSP che partecipano anche a Copilot per la sicurezza EAP come cliente? 

Gli MSP che fanno parte di EAP continueranno ad avere accesso a Copilot per la sicurezza fino alla fine del contratto EAP di 6 mesi. Se un provider di servizi microsoft usa lo stesso tenant per i servizi SOC interni e gestiti dal cliente, deve acquistare un piano di capacità e assicurarsi che i modelli di accesso delegato supportati siano abilitati tramite il tenant usato dal soc gestito. Se un provider di servizi condivisi del servizio gestito usa un tenant solo per i servizi SOC gestiti dal cliente che non vengono usati per i servizi gestiti soc interni, il provider di servizi condivisi del servizio gestito deve avere il provisioning manuale del tenant per Copilot per la sicurezza da Microsoft. Pertanto, non è necessario alcun acquisto del piano di capacità per il provisioning di Copilot per la sicurezza.

Cosa accade se i provider di servizi microsoft non usano Microsoft Defender XDR o Microsoft Sentinel? 

Microsoft Copilot per la sicurezza non dispone di alcun requisito specifico del prodotto di sicurezza Microsoft per il provisioning o l'uso, poiché la soluzione si basa sull'aggregazione di origini dati da servizi Microsoft e di terze parti. Detto questo, c'è un valore significativo nel fatto che Microsoft Defender XDR e Microsoft Sentinel sono abilitati come plug-in supportati per arricchire le indagini. Copilot per la sicurezza usa solo competenze e accede ai dati dai plug-in abilitati.

Una soluzione SOC MSSPs deve essere ospitata in Azure? 

È consigliabile che la soluzione sia ospitata in Azure ma non necessaria. 

Esiste una roadmap del prodotto che può essere condivisa con i partner? 

Al momento no.