Bagikan melalui


Privasi, keamanan, dan penggunaan Copilot yang bertanggung jawab dalam Fabric

Sebelum bisnis Anda mulai menggunakan Copilot di Fabric, Anda mungkin memiliki pertanyaan tentang cara kerjanya, cara kerjanya menjaga data bisnis Anda tetap aman dan mematuhi persyaratan privasi, dan cara menggunakan AI generatif secara bertanggung jawab.

Artikel ini memberikan jawaban atas pertanyaan umum terkait keamanan dan privasi data bisnis untuk membantu organisasi Anda mulai menggunakan Copilot di Fabric. Artikel Privasi, keamanan, dan penggunaan yang bertanggung jawab untuk Copilot di Power BI (pratinjau) memberikan gambaran umum tentang Copilot di Power BI. Baca lebih lanjut tentang Copilot untuk kain.

Nota

Data bisnis Anda aman

  • fitur Copilot menggunakan Azure OpenAI Service, yang sepenuhnya dikontrol oleh Microsoft. Data Anda tidak digunakan untuk melatih model dan tidak tersedia untuk pelanggan lain.
  • Anda mempertahankan kontrol atas tempat data Anda diproses. Data yang diproses oleh Copilot di Fabric tetap berada dalam wilayah geografis penyewa Anda, kecuali Anda secara eksplisit mengizinkan data diproses di luar wilayah Anda—misalnya, untuk memungkinkan pengguna Anda menggunakan Copilot saat Azure OpenAI tidak tersedia di wilayah atau ketersediaan Anda terbatas karena permintaan tinggi. Pelajari selengkapnya tentang pengaturan admin untuk Copilot.
  • Copilot tidak menyimpan data Anda untuk pemantauan penyalahgunaan. Untuk meningkatkan privasi dan meningkatkan kepercayaan, kami telah memperbarui pendekatan kami untuk pemantauan penyalahgunaan: sebelumnya, kami menyimpan data dari Copilot di Fabric, yang berisi input dan output yang diminta, hingga 30 hari untuk memeriksa penyalahgunaan atau penggunaan yang tidak semestinya. Setelah mengikuti umpan balik pelanggan, kami telah menghilangkan retensi 30 hari ini. Sekarang, kami tidak lagi menyimpan data terkait permintaan, menunjukkan komitmen kami yang teguh terhadap privasi dan keamanan Anda.

Periksa output Copilot sebelum Anda menggunakannya

  • Copilot respons dapat menyertakan konten yang kurang akurat atau berkualitas rendah, maka pastikan untuk memeriksa hasil sebelum menggunakannya dalam pekerjaanmu.
  • Orang-orang yang secara bermakna dapat mengevaluasi akurasi dan kepatutan konten harus meninjau output.
  • Saat ini, fitur Copilot berfungsi paling baik dalam bahasa Inggris. Bahasa lain mungkin tidak berfungsi juga.

Penting

Tinjau syarat ketentuan pratinjau tambahan untuk Fabric, yang mencakup ketentuan penggunaan untuk Pratinjau Layanan AI Generatif Microsoft.

Cara kerja Copilot

Dalam artikel ini, Copilot mengacu pada berbagai fitur dan kemampuan AI generatif di Fabric yang didukung oleh Azure OpenAI Service.

Secara umum, fitur-fitur ini dirancang untuk menghasilkan bahasa alami, kode, atau konten lainnya berdasarkan:

(a) input yang Anda berikan, dan,

(b) data dasar yang dapat diakses fitur tersebut.

Misalnya, Power BI, Data Factory, dan data science menawarkan obrolan Copilot tempat Anda bisa mengajukan pertanyaan dan mendapatkan respons yang dikonteksualisasikan pada data Anda. Copilot untuk Power BI juga dapat membuat laporan dan visualisasi lainnya. Copilot untuk Data Factory dapat mengubah data Anda dan menjelaskan langkah-langkah apa yang telah diterapkannya. Ilmu data menawarkan fitur Copilot di luar panel obrolan, seperti perintah ajaib IPython kustom di buku catatan. Copilot obrolan dapat ditambahkan ke pengalaman lain di Fabric, bersama dengan fitur lain yang didukung oleh Azure OpenAI di balik layar.

Informasi ini dikirim ke Azure OpenAI Service, tempat informasi tersebut diproses dan output dihasilkan. Oleh karena itu, data yang diproses oleh Azure OpenAI dapat mencakup:

Data grounding dapat mencakup kombinasi skema himpunan data, titik data tertentu, dan informasi lain yang relevan dengan tugas pengguna saat ini. Tinjau setiap bagian pengalaman untuk detail tentang data apa yang dapat diakses oleh fitur Copilot dalam skenario tersebut.

Interaksi dengan Copilot khusus untuk setiap pengguna. Ini berarti bahwa Copilot hanya dapat mengakses data yang dapat diakses pengguna saat ini, dan outputnya hanya terlihat oleh pengguna tersebut kecuali pengguna berbagi output dengan orang lain, seperti berbagi laporan Power BI yang dihasilkan atau kode yang dihasilkan. Copilot tidak menggunakan data dari pengguna lain di penyewa yang sama atau penyewa lainnya.

Copilot menggunakan Azure OpenAI—bukan layanan OpenAI yang tersedia untuk umum—untuk memproses semua data, termasuk input pengguna, data grounding, dan output Copilot. Copilot saat ini menggunakan kombinasi model GPT, termasuk GPT 3.5. Microsoft menghosting model OpenAI di lingkungan Microsoft Azure, dan Layanan tidak berinteraksi dengan layanan apa pun oleh OpenAI, seperti ChatGPT atau OpenAI API. Data Anda tidak digunakan untuk melatih model dan tidak tersedia untuk pelanggan lain. Pelajari selengkapnya tentang Azure OpenAI .

Proses Copilot

Fitur-fitur ini mengikuti proses umum yang sama:

  1. Copilot menerima perintah dari pengguna. Perintah ini bisa berupa pertanyaan yang dititikan pengguna ke dalam panel obrolan, atau dalam bentuk tindakan seperti memilih tombol yang berbunyi "Buat laporan."
  2. Copilot memproses prompt dengan pendekatan yang dikenal sebagai grounding. Bergantung pada skenarionya, ini mungkin termasuk mengambil data yang relevan seperti skema himpunan data atau riwayat obrolan dari sesi pengguna saat ini dengan Copilot. Grounding meningkatkan kekhususan perintah, sehingga pengguna mendapatkan respons yang relevan dan dapat ditindakkan untuk tugas spesifik mereka. Pengambilan data dicakup ke data yang dapat diakses oleh pengguna yang diautentikasi berdasarkan izin mereka. Lihat bagian Data apa yang Copilot gunakan dan bagaimana prosesnya? dalam artikel ini untuk informasi selengkapnya.
  3. Copilot mengambil respons dari Azure OpenAI dan memprosesnya lebih lanjut. Bergantung pada skenarionya, pascaproscesing ini mungkin mencakup pemeriksaan AI yang bertanggung jawab, pemfilteran dengan moderasi konten Azure, atau batasan khusus bisnis tambahan.
  4. Copilot mengembalikan respons kepada pengguna dalam bentuk bahasa alami, kode, atau konten lainnya. Misalnya, respons mungkin dalam bentuk pesan obrolan atau kode yang dihasilkan, atau mungkin merupakan formulir yang sesuai secara kontekstual seperti laporan Power BI atau sel buku catatan Synapse.
  5. Pengguna meninjau respons sebelum menggunakannya. Copilot respons dapat mencakup konten yang tidak akurat atau berkualitas rendah, jadi penting bagi ahli bidang untuk memeriksa output sebelum menggunakannya atau membagikannya.

Sama seperti setiap pengalaman di Fabric dibangun untuk skenario dan persona tertentu—mulai dari teknisi data hingga analis data—setiap fitur Copilot di Fabric juga telah dibangun dengan skenario dan pengguna yang unik. Untuk kemampuan, penggunaan yang dimaksudkan, dan batasan setiap fitur, tinjau bagian yang relevan dengan pengalaman yang sedang Anda kerjakan.

Definisi

Perintah atau input

Teks atau tindakan yang dikirimkan ke Copilot oleh pengguna. Ini bisa berupa pertanyaan yang dititikan pengguna ke dalam panel obrolan, atau dalam bentuk tindakan seperti memilih tombol yang berbunyi "Buat laporan."

Pembumian

Teknik praproses di mana Copilot mengambil data tambahan yang kontekstual dengan permintaan pengguna, lalu mengirim data tersebut bersama dengan permintaan pengguna ke Azure OpenAI untuk menghasilkan respons yang lebih relevan dan dapat ditindak lanjuti.

Respon atau keluaran

Konten yang dikembalikan oleh Copilot kepada pengguna. Misalnya, respons mungkin dalam bentuk pesan obrolan atau kode yang dihasilkan, atau mungkin konten yang sesuai secara kontekstual seperti laporan Power BI atau sel buku catatan Synapse.

Data apa yang Copilot gunakan dan bagaimana prosesnya?

Untuk menghasilkan respons, Copilot menggunakan:

  • Perintah atau input pengguna dan, jika sesuai,
  • Data tambahan yang diperoleh melalui proses grounding.

Informasi ini dikirim ke Azure OpenAI Service, tempat informasi tersebut diproses dan output dihasilkan. Oleh karena itu, data yang diproses oleh Azure OpenAI dapat mencakup:

  • Perintah atau input pengguna.
  • Pendasaran data.
  • Respons atau output AI.

Data grounding dapat mencakup kombinasi skema himpunan data, titik data tertentu, dan informasi lain yang relevan dengan tugas pengguna saat ini. Tinjau setiap bagian pengalaman untuk detail tentang data apa yang dapat diakses oleh fitur Copilot dalam skenario tersebut.

Interaksi dengan Copilot khusus untuk setiap pengguna. Ini berarti bahwa Copilot hanya dapat mengakses data yang dapat diakses pengguna saat ini, dan outputnya hanya terlihat oleh pengguna tersebut kecuali pengguna berbagi output dengan orang lain, seperti berbagi laporan Power BI yang dihasilkan atau kode yang dihasilkan. Copilot tidak menggunakan data dari pengguna lain di penyewa yang sama atau penyewa lainnya.

Copilot menggunakan Azure OpenAI—bukan layanan OpenAI yang tersedia untuk umum—untuk memproses semua data, termasuk input pengguna, data grounding, dan output Copilot. Copilot saat ini menggunakan kombinasi model GPT, termasuk GPT 3.5. Microsoft menghosting model OpenAI di lingkungan Azure Microsoft dan Layanan tidak berinteraksi dengan layanan apa pun oleh OpenAI (misalnya, ChatGPT atau OpenAI API). Data Anda tidak digunakan untuk melatih model dan tidak tersedia untuk pelanggan lain. Pelajari selengkapnya tentang Azure OpenAI .

Residensi dan kepatuhan data

Anda mempertahankan kontrol atas tempat data Anda diproses. Data yang diproses oleh Copilot di Fabric tetap berada dalam wilayah geografis penyewa Anda, kecuali Anda secara eksplisit mengizinkan data diproses di luar wilayah Anda—misalnya, untuk memungkinkan pengguna Anda menggunakan Copilot saat Azure OpenAI tidak tersedia di wilayah atau ketersediaan Anda terbatas karena permintaan tinggi. (Lihat tempat Azure OpenAI saat ini tersedia.)

Untuk mengizinkan data diproses di tempat lain, admin Anda dapat mengaktifkan pengaturan Data yang dikirim ke Azure OpenAI dapat diproses di luar wilayah geografis penyewa Anda, batas kepatuhan, atau instans cloud nasional. Pelajari selengkapnya tentang pengaturan admin untuk Copilot.

Apa yang harus saya ketahui untuk menggunakan Copilot secara bertanggung jawab?

Microsoft berkomitmen untuk memastikan bahwa sistem AI kami dipandu oleh prinsip-prinsip AI kami dan Responsible AI Standard. Prinsip-prinsip ini termasuk memberdayakan pelanggan kami untuk menggunakan sistem ini secara efektif dan sejalan dengan penggunaan yang dimaksudkan. Pendekatan kami untuk AI yang bertanggung jawab terus berkembang untuk secara proaktif mengatasi masalah yang muncul.

Copilot fitur di Fabric dibangun untuk memenuhi Standar AI yang Bertanggung Jawab, yang berarti bahwa fitur tersebut ditinjau oleh tim multidisiplin untuk mengetahui potensi bahaya, lalu disempurnakan untuk mencakup mitigasi terhadap potensi bahaya tersebut.

Sebelum Anda menggunakan Copilot, ingatlah batasan Copilot:

  • Copilot respons dapat menyertakan konten yang tidak akurat atau berkualitas rendah, jadi pastikan untuk meninjau output sebelum menggunakannya dalam pekerjaan Anda.
  • Orang yang mampu mengevaluasi akurasi dan kepatutan konten secara bermakna harus meninjau output.
  • Saat ini, fitur Copilot berfungsi paling baik dalam bahasa Inggris. Bahasa lain mungkin tidak berfungsi juga.

Copilot untuk beban kerja Fabric

Privasi, keamanan, dan penggunaan yang bertanggung jawab untuk: