Soalan Lazim untuk keselamatan dan privasi data Copilot untuk Dynamics 365 dan Power Platform

Copilot for Dynamics 365 dan Power Platform ciri-ciri mengikuti satu set amalan keselamatan dan privasi teras dan Standard AI Bertanggungjawab Microsoft. Data Dynamics 365 dan Power Platform dilindungi oleh kawalan pematuhan, keselamatan dan privasi yang komprehensif dan terkemuka di industri.

Copilot dibina pada Microsoft Azure OpenAI Perkhidmatan dan berjalan sepenuhnya dalam awan Azure. Azure OpenAI menawarkan ketersediaan serantau dan penapisan kandungan AI yang bertanggungjawab. Copilot menggunakan OpenAI model dengan semua keupayaan Microsoft Azure keselamatan. OpenAI ialah organisasi bebas. Kami tidak berkongsi data anda dengan OpenAI.

Ciri Copilot tidak tersedia dalam semua geografi dan bahasa Azure. Bergantung pada persekitaran anda berhos, anda mungkin perlu membenarkan pergerakan data merentasi geografi untuk menggunakannya. Untuk maklumat lanjut, lihat artikel yang disenaraikan di bawah Pergerakan data merentasi geografi.

Apakah yang berlaku kepada data saya apabila saya menggunakan Copilot?

Anda mengawal data anda. Microsoft tidak berkongsi data anda dengan pihak ketiga melainkan anda telah memberikan keizinan untuk berbuat demikian. Di samping itu, kami tidak menggunakan data pelanggan anda untuk melatih Copilot atau ciri AInya, melainkan anda memberikan keizinan untuk kami berbuat demikian. Copilot mematuhi keizinan dan dasar data yang sedia ada, dan responsnya kepada anda hanya berdasarkan data yang anda boleh mengakses secara peribadi. Untuk maklumat lanjut tentang cara anda boleh mengawal data anda dan cara data anda dikendalikan, lihat artikel yang disenaraikan di bawah Copilot dalam aplikasi Dynamics 365 dan Power Platform.

Copilot memantau penggunaan perkhidmatan yang kasar atau memudaratkan dengan pemprosesan sementara. Kami tidak menyimpan atau menjalankan semakan semula terhadap input dan output Copilot untuk tujuan pemantauan penyalahgunaan.

Bagaimanakah Copilot menggunakan data saya? 

Setiap perkhidmatan atau ciri menggunakan Copilot berdasarkan data yang anda berikan atau sediakan untuk diproses oleh Copilot.

Prom (input) anda dan respons Copilot (output atau hasil):

  • TIDAK tersedia untuk pelanggan lain.

  • TIDAK digunakan untuk melatih atau menambah baik mana-mana produk atau perkhidmatan pihak ketiga (seperti model OpenAI).

  • TIDAK digunakan untuk melatih atau menambah baik model Microsoft AI, melainkan pentadbir penyewa anda mengikut serta dalam perkongsian data dengan kami.

Ketahui lebih lanjut tentang privasi dan keselamatan OpenAI data AzureService. Untuk mengetahui lebih lanjut tentang cara Microsoft melindungi dan menggunakan data anda secara lebih umum, baca Kenyataan Privasi kami.

Ke manakah data saya pergi?

Microsoft beroperasi berdasarkan kepercayaan. Kami komited kepada keselamatan, privasi dan pematuhan dalam semua perkara yang kami lakukan dan pendekatan kami terhadap AI adalah tidak berbeza. Data pelanggan, termasuk input dan output Copilot, disimpan dalam sempadan kepercayaan Microsoft Cloud.

Dalam sesetengah senario, seperti ciri yang dikuasakan oleh Bing dan pasang masuk Copilot pihak ketiga, data pelanggan mungkin dihantar di luar sempadan kepercayaan Microsoft Cloud.

Bolehkah Copilot mengakses kandungan yang disulitkan?

Data yang diberikan kepada Copilot berdasarkan tahap akses pengguna semasa. Jika pengguna mempunyai akses kepada data yang disulitkan dalam Dynamics 365 dan Power Platform dan pengguna memberikannya kepada Copilot, maka Copilot boleh mengakses data tersebut.

Bagaimanakah Copilot melindungi data pelanggan?

Microsoft mempunyai kedudukan unik dalam menyampaikan AI yang bersedia untuk perusahaan. Copilot dikuasakan oleh Perkhidmatan Azure OpenAI dan mematuhi komitmen privasi, keselamatan dan pematuhan kawal selia kami yang sedia ada kepada pelanggan kami.

  • Dibina berdasarkan pendekatan komprehensif Microsoft terhadap keselamatan, privasi dan pematuhan. Copilot disepadukan dalam perkhidmatan Microsoft seperti Dynamics 365 dan Power Platform serta mewarisi dasar dan proses keselamatan, privasi dan pematuhan mereka, seperti pengesahan berbilang faktor dan sempadan pematuhan.

  • Pelbagai bentuk perlindungan melindungi data organisasi. Teknologi bahagian perkhidmatan menyulitkan kandungan organisasi semasa rehat dan dalam transit untuk keselamatan yang kukuh. Sambungan dilindungi dengan Keselamatan Lapisan Pengangkutan (TLS) dan pemindahan data antara Dynamics 365, Power Platform dan Azure OpenAI berlaku merentasi rangkaian tulang belakang Microsoft, memastikan kedua-dua aspek kebolehpercayaan dan keselamatan. Ketahui lebih lanjut tentang penyulitan dalam Microsoft Cloud.

  • Arkitek untuk melindungi data anda di peringkat penyewa dan persekitaran. Kami tahu bahawa kebocoran data adalah kebimbangan bagi pelanggan. Model Microsoft AI tidak dilatih dan tidak belajar daripada data penyewa atau prom anda, melainkan pentadbir penyewa anda telah mengikut serta dalam perkongsian data dengan kami. Dalam persekitaran anda, anda boleh mengawal akses keizinan yang anda sediakan. Mekanisme pensahihan dan pengesahan mengasingkan permintaan kepada model yang dikongsi dalam kalangan penyewa. Copilot menggunakan data yang hanya anda boleh mengakses, menggunakan teknologi yang sama yang telah kami gunakan selama bertahun-tahun untuk menjamin data pelanggan.

Adakah respons Copilot sentiasa berasaskan fakta?

Sama seperti mana-mana AI generatif, respons Copilot tidak dijamin 100% berasaskan fakta. Walaupun kami secara berterusan menambah baik respons kepada pertanyaan berasaskan fakta, namun anda seharusnya masih menggunakan pertimbangan anda dan mengkaji semula output sebelum anda menghantar maklumat tersebut kepada orang lain. Copilot menyediakan draf dan ringkasan yang berguna untuk membantu anda melakukan lebih banyak perkara, tetapi ia dilakukan secara automatik sepenuhnya. Anda sentiasa mempunyai peluang untuk menyemak kandungan yang dijana AI.

Pasukan kami berusaha untuk secara proaktif menangani isu-isu seperti maklumat salah dan maklumat yang salah, menyekat kandungan, keselamatan data, dan promosi kandungan berbahaya atau diskriminasi, selaras dengan prinsip AI kami yang bertanggungjawab.

Kami juga menawarkan panduan dalam pengalaman pengguna untuk mengukuhkan penggunaan secara bertanggungjawab terhadap kandungan yang dijana dan tindakan yang dicadangkan oleh AI.

  • Arahan dan gesaan. Apabila anda menggunakan Copilot, prom dan elemen bersifat arahan mengingati anda agar menyemak dan mengedit respons apabila perlu dan memeriksa fakta, data dan teks secara manual untuk memastikan ketepatan sebelum anda menggunakan kandungan yang dijana oleh AI.

  • Sumber dinyatakan. Apabila berkenaan, Copilot menyatakan sumber maklumatnya, sama ada sumber awam atau dalaman, supaya anda boleh menyemaknya sendiri untuk mengesahkan responsnya.

Untuk mendapatkan maklumat lanjut, lihat Soalan Lazim (FAQ) AI yang Bertanggungjawab untuk produk anda pada Microsoft Learn.

Adakah Copilot menyekat suntikan segera (serangan jailbreak)?

Serangan jailbreak adalah gesaan pengguna yang direka untuk mencetuskan model AI generatif untuk berkelakuan dengan cara ia dilatih untuk tidak atau melanggar peraturan yang diberitahu untuk diikuti. Perkhidmatan merentasi Dynamics 365 dan Power Platform diperlukan untuk melindungi daripada suntikan prom. Ketahui lebih lanjut tentang serangan jailbreak dan cara menggunakan Azure AI Content Safety untuk mengesannya.

BagaimanaKah Microsoft menguji dan mengesahkan kualiti Copilot, termasuk perlindungan suntikan prom dan jawapan yang berasas?

Setiap produk Copilot baharu dan ulangan model bahasa hendaklah lulus dalam semakan AI dalaman yang bertanggungjawab sebelum produk itu boleh dilancarkan. Sebelum dikeluarkan, kami menggunakan proses yang dipanggil "pasukan merah" (melibatkan pasukan yang mensimulasikan serangan musuh, mencari dan mengeksploitasi kelemahan untuk membantu organisasi menambah baik pertahanannya) untuk menilai risiko yang berpotensi dalam kandungan yang memudaratkan, senario jailbreak dan respons yang berasas. Selepas dikeluarkan, kami menggunakan ujian automatik dan alatan penilaian manual serta automatik untuk menilai kualiti respons Copilot.

Bagaimanakah Microsoft meningkatkan model asas dan mengukur peningkatan dalam respons yang berasas?

Dalam konteks AI, terutamanya AI yang berkaitan dengan model bahasa seperti yang berasaskan Copilot, asas membantu AI menjana respons yang lebih relevan dan masuk akal di dunia nyata. Asas membantu memastikan bahawa jawapan AI adalah berdasarkan maklumat yang boleh dipercayai dan seberapa tepat dan relevan yang mungkin. Metrik respons berasas yang menilai sejauh mana fakta-fakta yang dinyatakan dalam kandungan asas yang diberikan kepada model diterangkan dalam jawapan akhir.

Model asas seperti GPT-4 dipertingkatkan dengan teknik Penjanaan Perolehan Semula Terimbuh (RAG). Teknik ini membolehkan model tersebut menggunakan lebih banyak maklumat daripada maklumat yang telah dilatih untuk memahami senario pengguna. RAG berfungsi dengan mengenal pasti terlebih dahulu data yang relevan dengan senario tersebut, serupa dengan cara enjin carian mengenal pasti halaman web yang relevan dengan istilah carian pengguna. Ia menggunakan berbilang pendekatan untuk mengenal pasti kandungan yang berkaitan dengan prom pengguna dan harus digunakan sebagai asas kepada jawapan. Pendekatan merangkumi pencarian terhadap jenis indeks yang berbeza, seperti indeks berbalik menggunakan teknik perolehan semula maklumat seperti pemadanan istilah atau indeks vektor menggunakan perbandingan jarak vektor untuk persamaan semantik. Selepas ia mengenal pasti dokumen yang berkaitan, RAG menghantar data ke model bersama-sama dengan perbualan semasa, memberikan model tersebut lebih banyak konteks untuk lebih memahami maklumat yang sedia ada dan menjana jawapan yang berasas di dunia nyata. Akhirnya, RAG menyemak respons untuk memastikan ia disokong oleh kandungan sumber yang diberikan kepada model. Ciri AI generatif Copilot menggabungkan RAG dalam berbilang cara. Satu contoh ialah sembang dengan data menggunakan, yang mana bot sembang mempunyai asas daripada sumber data pelanggan sendiri.

Kaedah lain untuk meningkatkan model asas dikenali sebagai penalaan halus. Set data besar bagi pasangan respons pertanyaan ditunjukkan kepada model asas untuk menambah latihan asalnya dengan sampel baharu yang disasarkan kepada senario tertentu. Model ini kemudian boleh dilaksanakan sebagai model berasingan—model yang menjalani pelarasan halus untuk senario tersebut. Walaupun asas adalah tentang menjadikan pengetahuan AI lebih relevan kepada dunia sebenar, pelarasan halus adalah proses yang menjadikan pengetahuan AI lebih khusus kepada tugas atau domain tertentu. Microsoft menggunakan pelarasan halus dalam pelbagai cara. Sebagai contoh, kami menggunakan penciptaan aliran Power Automate daripada perihalan bahasa semula jadi yang disediakan oleh pengguna.

Bagaimanakah Copilot menyekat kandungan yang berbahaya?

Perkhidmatan Azure OpenAI merangkumi sistem penapisan kandungan yang berfungsi bersama model teras. Model penapisan kandungan untuk kategori Kebencian dan Kesaksamaan, Seksual, Keganasan dan Mudarat Kendiri telah dilatih dan diuji secara khusus dalam pelbagai bahasa. Sistem ini berfungsi dengan menjalankan kedua-dua prom input dan respons melalui model pengelasan yang direka untuk mengenal pasti dan menyekat output kandungan yang berbahaya.

Kebencian dan kesaksamaan yang berkaitan merujuk kepada sebarang kandungan yang menggunakan bahasa pejoratif atau bersifat diskriminasi berdasarkan atribut seperti bangsa, etnik, kewarganegaraan, identiti jantina dan ungkapan, orientasi seksual, agama, status imigresen, status keupayaan, penampilan peribadi dan saiz badan. Keadilan adalah berkenaan dengan memastikan bahawa sistem AI melayan semua kumpulan orang secara saksama tanpa menyumbang kepada ketidaksamaan masyarakat yang sedia ada. Kandungan seksual melibatkan perbincangan tentang organ pembiakan manusia, hubungan romantis, perbuatan yang digambarkan dalam istilah erotik atau penyayang, kehamilan, perbuatan seksual fizikal, termasuk yang digambarkan sebagai serangan atau tindakan paksa keganasan seksual, pelacuran, pornografi, dan penderaan. Keganasan menerangkan bahasa yang berkaitan dengan tindakan fizikal yang bertujuan untuk membahayakan atau membunuh, termasuk tindakan, senjata, dan entiti yang berkaitan. Bahasa mencederakan diri merujuk kepada tindakan sengaja yang bertujuan untuk mencederakan atau membunuh diri.

Ketahui lebih lanjut tentang penapisan OpenAI kandungan Azure.

Adakah Copilot memenuhi keperluan untuk pematuhan kawal selia?

Microsoft Copilot ialah sebahagian daripada ekosystem Dynamics 365 dan Power Platform dan memenuhi keperluan yang sama untuk pematuhan kawal selia. Untuk maklumat lanjut tentang pensijilan kawal selia perkhidmatan Microsoft, pergi ke Portal Amanah Perkhidmatan. Di samping itu, Copilot mematuhi komitmen kami terhadap AI yang bertanggungjawab, yang dilaksanakan melalui Standard AI Bertanggungjawab kami. Disebabkan peraturan dalam AI berkembang, Microsoft meneruskan usaha penyesuaian dan bergerak balas untuk keperluan baharu.

Ketahui lebih lanjut tentang ketersediaan Dynamics 365,dan Power Platform Copilot, lokasi data pelanggan dan pematuhan terhadap keperluan khusus global, serantau dan industri untuk menguruskan data.

Ketahui lebih lanjut

Copilot dalam aplikasi Dynamics 365 dan Power Platform

Produk Ciri Persekitaran Terurus diperlukan? Cara mematikan ciri
AI Builder Senario dalam pratonton No Senario dalam pratonton
Dynamics 365 Customer Insights - Data Cipta segmen dengan Copilot untuk Customer Insights - Data (pratonton) No Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Data Gambaran keseluruhan laporan persediaan data (pratonton) Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Data Dapatkan jawapan kepada soalan tentang keupayaan daripada Copilot (pratonton) Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights (Data) Mempunyai dialog dengan data menggunakan Copilot dalam Wawasan Pelanggan Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Data Lihat konfigurasi sistem Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot membantu anda belajar dan melakukan lebih banyak lagi (semakan) Tiada Sama ada Copilot ini tersedia dalam persekitaran anda ditentukan oleh tetapan pentadbir Power Platform. Ketahui cara menambah Copilot untuk apl berpandukan model.


Keupayaan ini ialah "aplikasi copilot in Customer Insights - Journeys" dan itulah sebabnya ia didayakan dalam Power Platform pusat pentadbiran. Ketahui lebih lanjut: Soalan Lazim AI yang bertanggungjawab
Dynamics 365 Customer Insights - Journeys Buat perjalanan menggunakan bantuan AI No Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Segar semula dan sempurnakan mesej anda Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Gagaskan e-mel anda dengan tema dibantu AI Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Menyasarkan pelanggan yang betul menggunakan bantuan pertanyaan

No Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Gunakan AI untuk memulakan penciptaan e-mel Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Gunakan imej dalam kandungan anda Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Beri persetujuan untuk menggunakan Copilot dalam Customer Insights - Journeys
Power Apps Bina apl melalui perbualan No Menguruskan seting ciri
Power Apps Bantuan copilot untuk mengisi borang dalam aplikasi berpandukan model Tiada Menguruskan seting ciri
Power Apps Draf teks input yang ditulis dengan baik dengan Copilot Tidak, lesen pengguna premium Draf teks input yang ditulis dengan baik dengan Copilot
Power Apps Excel ke Jadual No Menguruskan seting ciri
Power Apps Gunakan bahasa semula jadi untuk mengedit aplikasi menggunakan panel Copilot No Menguruskan seting ciri
Power Pages Semua (Lihat gambaran keseluruhan Copilot untuk Power Pages butiran) No Matikan Copilot dalam Power Pages

Ketersediaan serantau dan bahasa

Ketersediaan antarabangsa copilot

Pergerakan data merentas geografi

Keselamatan di Microsoft

Privasi di Microsoft

Kenyataan Privasi Microsoft

AI yang Bertanggungjawab