Panoramica del progetto Copilot e ASD
Copilot per Microsoft 365 offre agli utenti una assistente generativa basata su intelligenza artificiale che interagisce in linguaggio naturale per semplificare il flusso di lavoro. Gli esempi includono il riepilogo di messaggi di posta elettronica e documenti, la creazione di nuovi contenuti e la risposta alle domande, tra le altre funzionalità, integrate direttamente nelle applicazioni di Microsoft 365 (Office) di tutti i giorni. Copilot offre un'interfaccia in linguaggio naturale su un sofisticato assistente di intelligenza artificiale all'interno di Office.
Una valutazione IRAP (Australian Government Protected Infosec Registered Assessors Program) di Microsoft 365 è stata rilasciata nel portale Microsoft Service Trust nel marzo 2024 e include Copilot per Microsoft 365 nell'ambito dei servizi valutati. Si tratta del livello più alto di valutazione della sicurezza applicabile a un servizio cloud pubblico in Australia. Tuttavia, come per qualsiasi nuovo servizio distribuito in un ambiente sensibile, l'introduzione di Copilot richiede una configurazione specifica. Questa guida alla pianificazione della configurazione è dedicata ad affrontare le considerazioni specifiche necessarie per la corretta distribuzione di Copilot per Microsoft 365 all'interno di un framework operativo sensibile. Offre una panoramica completa dell'architettura del servizio e considerazioni di integrazione essenziali per un ambiente sensibile. Queste linee guida presuppongono l'accesso alle licenze dell'abbonamento a Copilot per Microsoft 365 e Microsoft 365 Enterprise E5, in linea con le linee guida sulla configurazione di Australian Signals Directorate (ASD) per Secure Cloud per Microsoft 365.
Copilot è... | Copilot non è... |
---|---|
assistente di intelligenza artificiale | sostituzione dell'intelligenza artificiale |
controllato dall'uomo | un collega indipendente |
aumentare la produttività | eliminando il ruolo |
redazione del contenuto | selezionando "Invia" o "Salva" |
aiutare a trovare le risposte | processo decisionale automatizzato |
SaaS pronto per l'uso | un componente di sviluppo di app |
Architettura del servizio
Quando si valuta l'integrazione di Copilot per Microsoft 365, è utile valutare Copilot per Microsoft 365 nel contesto del modello di responsabilità condivisa di Intelligenza artificiale Microsoft. Questo approccio rispecchia le considerazioni fatte per altri servizi cloud nei modelli Infrastruttura, Piattaforma e Software come servizio. I servizi di IA hanno una distinzione simile e le considerazioni e l'attenzione di un consumatore su tali servizi devono essere informate in modo analogo. È consigliabile che i clienti acquisiranno familiarità con il modello di responsabilità condivisa per intelligenza artificiale Microsoft.
L'architettura specifica di Copilot per Microsoft 365 può essere più facilmente compresa in questo contesto, poiché Copilot per Microsoft 365 è un prodotto Software-as-a-Service (SaaS) facilmente incorporato in Microsoft 365.
Responsabilità dell'utente
Le cinque aree del modello di responsabilità condivisa per intelligenza artificiale rilevanti per l'implementazione di applicazioni SaaS come Copilot per Microsoft 365 sono descritte in dettaglio in questo articolo. È consigliabile che i clienti seguano le indicazioni sulla configurazione contenute in questo documento e riflettano sul modo in cui i criteri e le procedure interne possono influire su queste aree di responsabilità.
Nell'ambito del modello di responsabilità condivisa per intelligenza artificiale, Copilot per Microsoft 365 copre tutti e tre gli scenari di responsabilità:
Responsabilità del cliente: questi elementi sono indirizzati esclusivamente dal cliente. Microsoft non ha la responsabilità di affrontare questi componenti.
Responsabilità Microsoft: questi elementi sono trattati esclusivamente da Microsoft. Il cliente non ha la responsabilità di gestire questi componenti.
Responsabilità condivisa: all'interno degli elementi di responsabilità condivisa in questo modello, i clienti sono responsabili della configurazione del servizio in base alle esigenze specifiche, mentre Microsoft garantisce l'integrità della piattaforma e applica i controlli configurati dal cliente. I clienti sono responsabili degli aspetti non tecnici di questi elementi, ad esempio l'adozione e l'adattamento di criteri e procedure, la definizione di modelli ricorrenti & le procedure e l'adozione di decisioni sulle configurazioni da applicare.
La conformità Microsoft a questi requisiti è illustrata dal report di valutazione IRAP di Microsoft 365, che garantisce che Copilot per Microsoft 365 operi entro i parametri di sicurezza e conformità dei dati stabiliti dell'ambiente Microsoft 365.
Formazione e responsabilità degli utenti
All'interno del modello di responsabilità condivisa per intelligenza artificiale, i clienti hanno la piena responsabilità per la formazione e la responsabilità degli utenti.
Come con qualsiasi nuova tecnologia, una formazione efficace aiuta gli utenti a comprendere e applicare con sicurezza l'IA generativa nel proprio lavoro, riducendo le probabilità di errori o comportamenti degli utenti inappropriati e assicurando che gli output assistiti dall'IA siano adatti allo scopo.
Importante
Microsoft consiglia a tutti i clienti di assegnare priorità all'adozione e alla gestione delle modifiche durante l'implementazione di prodotti generativi di intelligenza artificiale. Ciò include lo sviluppo di una strategia completa che garantisce che gli utenti siano adeguatamente addestrati e preparati sui modi corretti per usare i sistemi di IA.
I servizi generativi di intelligenza artificiale, come Copilot per Microsoft 365, offrono vantaggi sostanziali nel migliorare la produttività, la creatività e la qualità del lavoro, ma non sono infallibili e commetteno errori. Di conseguenza, è fondamentale un approccio incentrato sull'uomo che riconosca l'autonomia dell'utente finale. I clienti devono assicurarsi che gli utenti siano adeguatamente addestrati e consapevoli delle proprie responsabilità quando usano servizi di IA generativi. Questa filosofia incentrata sull'uomo è parte integrante del modello Copilot, garantendo che gli utenti rimangano in controllo e siano responsabili dell'uso dell'IA.
È altrettanto imperativo che i professionisti IT, i responsabili del servizio e gli stakeholder senior e i leader aziendali all'interno dell'organizzazione siano informati sull'uso di Copilot per Microsoft 365. I leader svolgono un ruolo fondamentale nel comunicare la visione per i servizi generativi di intelligenza artificiale in tutta l'organizzazione, assicurando che gli utenti finali ricevano le indicazioni e il coaching necessari per massimizzare i vantaggi dei servizi. Ciò include l'articolazione della visione per Copilot per Microsoft 365, la descrizione dettagliata dei vantaggi e la fornitura di scenari di utilizzo appropriati per una comprensione olistica e un utilizzo efficace.
Importante
È importante che l'impegno della leadership di un'organizzazione a guidare la visione e allineare i criteri e le procedure all'interno di queste responsabilità sia altrettanto fondamentale per un'implementazione di successo di Copilot per Microsoft 365.
Seguendo queste procedure, molti clienti integrano in modo efficace l'IA generativa, la allineano agli obiettivi aziendali e migliorano la produttività.
Per altre informazioni sull'avvio della gestione delle modifiche, dell'adozione e della formazione degli utenti appropriati per i professionisti IT, vedere:
- Introduzione a Copilot per Microsoft 365
- Preparare l'organizzazione per Copilot per Microsoft 365
- Documentazione del prodotto
- Estensibilità
Per altre informazioni sull'avvio della gestione delle modifiche, dell'adozione e della formazione degli utenti appropriati per gli utenti finali, vedere:
- Panoramica del prodotto
- Video di prodotto
- Copilot Interaction Lab (richiede licenza e accesso)
- Adozione e gestione delle modifiche
Criteri di utilizzo, controlli di amministrazione
All'interno del modello di responsabilità condivisa per intelligenza artificiale, i clienti hanno la piena responsabilità dei criteri di utilizzo e dell'applicazione dei controlli di amministrazione.
La definizione di criteri di utilizzo è una questione che le singole organizzazioni devono considerare nel contesto dei propri quadri legali, contrattuali e normativi, dei propri modelli di lavoro e delle aspettative degli stakeholder, ad esempio:
- Aspettative di utilizzo interno rispetto agli utenti guest
- Uso nella creazione di comunicazioni esterne
- Accettazione del coinvolgimento dell'IA nelle interazioni personalizzate
- Dati demografici degli stakeholder
Questa guida alla pianificazione della configurazione si concentra principalmente sui controlli di amministrazione, descritti in dettaglio nell'articolo Configurazione consigliata .
Gestione di identità, dispositivi e accessi
All'interno del modello di responsabilità condivisa per intelligenza artificiale, la gestione di identità, dispositivi e accessi è una responsabilità condivisa.
Copilot per Microsoft 365 è progettato per integrarsi perfettamente con le configurazioni di gestione di identità, dispositivi e accessi esistenti all'interno dell'ambiente Microsoft 365 di un cliente. Questa guida è incentrata su controlli aggiuntivi specifici di Copilot per Microsoft 365 o evidenzia i controlli esistenti rilevanti per le organizzazioni che implementano Copilot per Microsoft 365.
Per altre indicazioni sulla configurazione nella distribuzione di un ambiente Microsoft 365 sensibile, vedere il progetto ASD per il cloud sicuro che offre raccomandazioni complete e protocolli per una configurazione sicura.
Governance dei dati
All'interno del modello di responsabilità condivisa per intelligenza artificiale, la governance dei dati è una responsabilità condivisa. Una governance efficace dei dati è essenziale per gestire le conoscenze e le informazioni, migliorare l'individuabilità e aumentare la produttività all'interno di qualsiasi organizzazione che ha subito la trasformazione digitale. Questo documento descrive i meccanismi di governance dei dati cruciali e le procedure che sono parte integrante di un'implementazione corretta di Copilot per Microsoft 365.
Per altre informazioni sulla governance dei dati all'interno del più ampio ecosistema di Microsoft 365, vedere:
Plug-in di intelligenza artificiale e connessioni dati
All'interno del modello di responsabilità condivisa per intelligenza artificiale, i plug-in e le connessioni dati sono una responsabilità condivisa. Connettori e plug-in consentono ai clienti di ampliare le funzionalità di Copilot per Microsoft 365, consentendo l'interfaccia con sistemi e dati oltre l'ambiente Microsoft 365. Pertanto, i clienti devono considerare sia la responsabilità di gestire i rischi con l'uso di dati e sistemi esterni, sia l'integrazione stessa, in quanto possono essere sviluppati da Microsoft, sviluppati dal cliente o non Microsoft di origine. I clienti sono responsabili di eventuali connettori e plug-in non Microsoft o personalizzati sviluppati.
I professionisti IT sono invitati a acquisire familiarità con le opzioni e le architetture di estendibilità di Copilot per Microsoft 365 .
I plug-in, ad esempio Bing, si differenziano dai connettori in quanto operano in tempo reale per aumentare Copilot con nuove funzionalità e informazioni dettagliate. Una descrizione più dettagliata dei plug-in e dei connettori è disponibile nell'articolo Componenti del servizio .