Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce informazioni di riferimento su come Microsoft Security Copilot gestisce, archivia e protegge i dati dei clienti. Evidenzia i comportamenti chiave di residenza dei dati, gli impegni di sicurezza e privacy, le considerazioni sull'idoneità, le procedure di conservazione e il modo in cui Security Copilot è conforme ai criteri e alle normative del settore Microsoft.
Domande frequenti
Che cos'è Microsoft 365 E5 criteri di gestione dei dati di Security Copilot?
Tutte le Security Copilot di archiviazione e gestione dei dati dei clienti esistenti continueranno nella posizione in cui risiede l'area di lavoro corrente. Per altre informazioni, vedere Privacy e sicurezza dei dati in Microsoft Security Copilot.
L'organizzazione può scegliere di disabilitare Security Copilot in questo momento?
I clienti esistenti possono rimuovere Security Copilot capacità. Per altre informazioni, vedere Eliminare la capacità tramite Security Copilot.
Per i clienti che attualmente non hanno accesso a Security Copilot tramite Microsoft 365 E5, i dettagli verranno condivisi una volta inclusi nella licenza di Microsoft 365 E5.
I dati dei clienti vengono usati per eseguire il training di Azure modelli di base del servizio OpenAI?
No, i dati dei clienti non vengono usati per eseguire il training di Azure modelli di base del servizio OpenAI e questo impegno è documentato nelle condizioni del prodotto. Per altre informazioni sulla condivisione dei dati nel contesto di Security Copilot, vedere Privacy e sicurezza dei dati.
Quali sono le linee guida del GDPR per i mercati dell'UE?
Microsoft è conforme a tutte le leggi e le normative applicabili alla fornitura dei prodotti e del servizio, tra cui la legge sulla notifica delle violazioni della sicurezza e i requisiti di protezione dei dati (come definito in Microsoft DPA). Tuttavia, Microsoft non è responsabile della conformità alle leggi o alle normative applicabili al cliente o al settore del cliente che non sono generalmente applicabili ai provider di servizi informatici. Microsoft non determina se i dati del cliente includono informazioni soggette a leggi o normative specifiche. Per altre informazioni, vedere Microsoft Products and Services Data Protection Addendum (DPA) .For more information, see Microsoft Products and Services Data Protection Addendum (DPA).For more information, see Microsoft Products and Services Data Protection Addendum (DPA).
I clienti di US Government Cloud (GCC) sono idonei?
Attualmente, Security Copilot non è progettato per l'uso da parte dei clienti che usano cloud per enti pubblici degli Stati Uniti, tra cui GCC, GCC High, DoD e Microsoft Azure per enti pubblici. Per altre informazioni, vedere con il rappresentante Microsoft.
I clienti dell'assistenza sanitaria negli Stati Uniti e in Canada sono idonei?
I clienti HLS di Stati Uniti e Canada possono acquistare Security Copilot. Microsoft Security Copilot è ora elencato e coperto dal Contratto di associazione di business ("BAA"), importante per gli operatori sanitari soggetti alle normative ai sensi dell'HIPAA. Per altre informazioni sulle offerte di conformità attualmente coperte per Microsoft Security Copilot sono disponibili nel portale di attendibilità dei servizi.
Ricerca per categorie esportare o eliminare dati da Security Copilot?
Sarà necessario contattare il supporto tecnico. Per altre informazioni, vedere Contattare il supporto tecnico.
Dove è possibile trovare altre informazioni sulla protezione e la privacy dei dati?
Altre informazioni sono disponibili nel Centro protezione Microsoft.
Il codice di condotta del servizio OpenAI Azure include "Requisiti di mitigazione dell'intelligenza artificiale responsabile". Come si applicano questi requisiti ai clienti Security Copilot?
Questi requisiti non si applicano ai clienti Security Copilot perché Security Copilot implementa queste mitigazioni.
Perché Microsoft Copilot trasferisce i dati a un tenant Microsoft?
Microsoft Copilot è un'offerta SaaS (Software as a Service) eseguita nel tenant di produzione Azure. Gli utenti immettono richieste e Security Copilot fornisce risposte in base alle informazioni dettagliate provenienti da altri prodotti, ad esempio Microsoft Defender XDR, Microsoft Sentinel e Microsoft Intune. Security Copilot archivia le richieste e le risposte precedenti per un utente. L'utente può usare l'esperienza nel prodotto per accedere a richieste e risposte. I dati di un cliente sono logicamente isolati dai dati di altri clienti. Questi dati non lasciano il tenant di produzione Azure e vengono archiviati fino a quando i clienti non chiedono di eliminarli o di uscire dal prodotto.
Come vengono protetti i dati trasferiti in transito e inattivi?
I dati vengono crittografati sia in transito che inattivi, come descritto nell'addendum Microsoft Products and Services Data Protection.
Come vengono protetti i dati trasferiti da accessi non autorizzati e quali test sono stati eseguiti per questo scenario?
Per impostazione predefinita, nessun utente umano ha accesso al database e l'accesso alla rete è limitato alla rete privata in cui viene distribuita l'applicazione Microsoft Copilot. Se un utente ha bisogno dell'accesso per rispondere a un evento imprevisto, il tecnico di chiamata necessita di accesso elevato e di accesso alla rete approvato dai dipendenti Microsoft autorizzati.
Oltre ai normali test di funzionalità, Microsoft ha completato anche i test di penetrazione. Microsoft Security Copilot è conforme a tutti i requisiti microsoft in materia di privacy, sicurezza e conformità.
In "Sessioni personali" quando viene eliminata una singola sessione, cosa accade ai dati della sessione?
I dati della sessione vengono archiviati a scopo di runtime (per gestire il servizio) e anche nei log. Nel database di runtime, quando una sessione viene eliminata tramite l'esperienza utente nel prodotto, tutti i dati associati a tale sessione vengono contrassegnati come eliminati e il tempo di vita (TTL) è impostato su 30 giorni. Dopo la scadenza del TTL, le query non possono accedere a tali dati. Un processo in background elimina fisicamente i dati dopo tale periodo di tempo. Oltre al database di runtime "live", sono presenti backup periodici del database. I backup scadranno, con periodi di conservazione di breve durata (attualmente impostati su quattro giorni).
I log che contengono dati di sessione non sono interessati quando una sessione viene eliminata tramite l'esperienza utente nel prodotto. Questi log hanno un periodo di conservazione fino a 90 giorni.
Quali condizioni del prodotto si applicano a Security Copilot? Security Copilot è un "servizio di intelligenza artificiale generativa Microsoft" ai sensi delle Condizioni per il prodotto Microsoft?
Le condizioni del prodotto seguenti regolano Security Copilot clienti:
Condizioni di licenza universali per i servizi online nelle Condizioni del prodotto, che includono le condizioni di Microsoft Generative AI Services e l'impegno per il copyright del cliente.
Privacy & Termini di sicurezza nelle Condizioni del prodotto Microsoft, che includono l'addendum per la protezione dei dati.
Security Copilot è un servizio di intelligenza artificiale generativa all'interno della definizione delle Condizioni del prodotto. Inoltre, Security Copilot è un "Prodotto coperto" ai fini dell'impegno per il copyright del cliente. Al momento, nelle Condizioni del prodotto non sono presenti termini specifici del prodotto univoci per Security Copilot.
Oltre alle Condizioni del prodotto, i contratti MBSA/EA e MCA dei clienti, ad esempio, regolano la relazione delle parti. Se un cliente ha domande specifiche sui propri contratti con Microsoft, rivolgersi al ce, al gestore delle trattative o al cela locale che supporta l'accordo.
Qual è il Impegno relativo al copyright di Microsoft Copilot?
Microsoft Customer Copyright Commitment è un nuovo impegno che estende il supporto dell'indennità di proprietà intellettuale esistente di Microsoft a determinati servizi Copilot commerciali. L'impegno per il copyright del cliente si applica a Security Copilot. Se una terza parte fa causa a un cliente commerciale per violazione del copyright per l'uso di Copilot di Microsoft o dell'output generato, Microsoft difenderà il cliente e pagherà l'importo di eventuali sentenze o liquidazioni negative risultanti dalla causa, a condizione che il cliente abbia usato le guardrail e i filtri dei contenuti integrati nei nostri prodotti.
I clienti possono Security Copilot rifiutare esplicitamente Azure monitoraggio degli abusi del servizio OpenAI? Il Security Copilot si impegna in un filtro dei contenuti o in un monitoraggio degli abusi?
Azure monitoraggio degli abusi OpenAI è attualmente disabilitato a livello di servizio per tutti i clienti.
Il Security Copilot esegue un'eventuale posizione degli impegni di trattamento dei dati o di residenza dei dati?
Per altre informazioni sulla posizione e l'elaborazione dell'archiviazione dei dati dei clienti, vedere Privacy e sicurezza dei dati.
È Security Copilot un servizio Microsoft EU Data Boundary?
Al momento della disponibilità generale, tutti i servizi di sicurezza Microsoft non rientrano nell'ambito dei requisiti di residenza dei dati dell'UE e Security Copilot non verranno elencati come servizio EUDB.
Dove vengono archiviati i dati dei clienti dell'UE?
Security Copilot archivia i dati dei clienti e i dati personali, ad esempio le richieste degli utenti e gli ID oggetto Microsoft Entra nell'area geografica del tenant. Se un cliente effettua il provisioning del tenant nell'UE e non ha acconsentito esplicitamente alla condivisione dei dati, tutti i dati dei clienti e i dati personali pseudonimi vengono archiviati inattivi all'interno dell'UE. L'elaborazione dei dati dei clienti e delle richieste di dati personali può avvenire nell'area geografica GPU di sicurezza designata. Per altre informazioni sulla selezione geografica della GPU di sicurezza, vedere Introduzione a Security Copilot. Se un cliente ha acconsentito esplicitamente alla condivisione dei dati, le richieste possono essere archiviate al di fuori del limite dei dati dell'UE. Per altre informazioni sulla condivisione dei dati, vedere Privacy e sicurezza dei dati.
Le richieste dei clienti (ad esempio il contenuto di input del cliente) vengono considerate dati dei clienti entro i termini del DPA e delle condizioni del prodotto?
Sì, le richieste dei clienti vengono considerate dati del cliente. In Termini di prodotto, le richieste dei clienti vengono considerate input. Gli input sono definiti come "tutti i dati del cliente che il cliente fornisce, designa, seleziona o input per l'uso da parte di una tecnologia di intelligenza artificiale generativa per generare o personalizzare un output".
Il "contenuto di output" è considerato come dati del cliente entro i termini del DPA e delle condizioni del prodotto?
Sì, il contenuto di output è dato dai clienti in base alle condizioni del prodotto.
È disponibile una nota sulla trasparenza o una documentazione sulla trasparenza per Security Copilot?
Sì, il documento Sulla trasparenza dell'intelligenza artificiale responsabile è disponibile qui: Domande frequenti sull'intelligenza artificiale responsabile.
Quali sono le offerte di conformità per Microsoft Security Copilot?
Microsoft Security Copilot è dedicata a sostenere i più elevati standard di sicurezza, privacy ed eccellenza operativa, come dimostrato dalla sua vasta gamma di certificazioni del settore. Questi includono ISO 27001 per la gestione della sicurezza delle informazioni, ISO 27018 per la protezione dei dati personali nel cloud, ISO 27017 per i controlli di sicurezza specifici del cloud e ISO 27701 per la gestione delle informazioni sulla privacy.
Inoltre, Security Copilot ha certificazioni per ISO 20000-1 nella gestione dei servizi IT, ISO 9001 nella gestione della qualità e ISO 22301 nella gestione della continuità aziendale. È inoltre conforme ai requisiti SOC2 per la sicurezza, la disponibilità e la riservatezza, sottolineando il nostro impegno a fornire servizi sicuri e affidabili. Per i servizi correlati all'assistenza sanitaria, Security Copilot è certificato nel quadro di HiTrust CSF, migliorando ulteriormente la sua posizione di sicurezza e conformità, ed è coperto da HIPAA Business Associate Agreement (BAA), garantendo il rispetto delle normative sanitarie e la protezione delle informazioni sanitarie sensibili.
Per altre informazioni sulle offerte di conformità attualmente coperte per Microsoft Security Copilot vedere service trust portal.For more information on compliance offerings currently covered for Microsoft Security Copilot see, the Service Trust Portal.