Gunakan model berbasis pembelajaran mesin Azure
Data terpadu dalam Dynamics 365 Customer Insights- Data adalah sumber untuk membangun model Pembelajaran Mesin yang dapat menghasilkan wawasan bisnis tambahan. Customer Insights - Data terintegrasi dengan Azure Pembelajaran Mesin untuk menggunakan model kustom Anda sendiri.
Prasyarat
- Akses ke Customer Insights - Data
- Langganan Azure Enterprise aktif
- Profil pelanggan terpadu
- Ekspor tabel ke penyimpanan Azure Blob dikonfigurasi
Atur ruang kerja Pembelajaran Mesin Azure
Lihat membuat ruang kerja Azure Pembelajaran Mesin untuk berbagai opsi membuat ruang kerja . Untuk performa terbaik, buat ruang kerja di kawasan Azure yang secara geografis paling dekat dengan lingkungan Customer Insights Anda.
Akses ruang kerja Anda melalui Azure Pembelajaran Mesin Studio. Ada beberapa cara untuk berinteraksi dengan ruang kerja Anda.
Bekerja dengan desainer Pembelajaran Mesin Azure
Desainer Azure Pembelajaran Mesin menyediakan kanvas visual tempat Anda dapat menyeret dan melepas himpunan data dan modul. Alur batch yang dibuat dari perancang dapat diintegrasikan ke dalamnya Customer Insights - Data jika dikonfigurasi dengan tepat.
Bekerja dengan SDK Pembelajaran Mesin Azure
Ilmuwan data dan pengembang AI menggunakan Azure Pembelajaran Mesin SDK untuk membangun alur kerja Pembelajaran Mesin. Saat ini, model yang dilatih menggunakan SDK tidak dapat diintegrasikan secara langsung. Alur inferensi batch yang menggunakan model tersebut diperlukan untuk integrasi Customer Insights - Data.
Persyaratan alur batch untuk diintegrasikan dengan Customer Insights - Data
Konfigurasi set data
Buat himpunan data untuk menggunakan data tabel dari Customer Insights untuk alur inferensi batch Anda. Daftarkan himpunan data ini di ruang kerja. Saat ini, kami hanya mendukung himpunan data tabular dalam format .csv. Buat parameter himpunan data yang sesuai dengan data tabel sebagai parameter alur.
Parameter himpunan data dalam desainer
Di perancang, buka Pilih Kolom di Himpunan Data dan pilih Atur sebagai parameter alur tempat Anda memberikan nama untuk parameter .
Parameter himpunan data dalam SDK (Python)
HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data') HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset) HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
Alur kerja inferensi Batch
Di perancang, gunakan alur pelatihan untuk membuat atau memperbarui alur inferensi. Saat ini, hanya alur kerja inferensi batch yang didukung.
Dengan menggunakan SDK, publikasikan alur ke titik akhir. Saat ini, Customer Insights - Data terintegrasi dengan alur default dalam alur batch titik akhir di ruang kerja Pembelajaran Mesin.
published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline") pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") pipeline_endpoint.add_default(pipeline=published_pipeline)
Mengimpor data alur
Perancang menyediakan modul Ekspor Data yang memungkinkan output alur diekspor ke penyimpanan Azure. Saat ini, modul harus menggunakan jenis penyimpanan data Azure Blob Storage dan membuat parameter Datastore dan Jalur relatif. Sistem menimpa kedua parameter ini selama eksekusi alur dengan penyimpanan data dan jalur yang dapat diakses oleh aplikasi.
Saat menulis output inferensi menggunakan kode, unggah output ke jalur dalam penyimpanan data terdaftar di ruang kerja. Jika jalur dan penyimpanan data diparameterisasi dalam alur, Customer Insights dapat membaca dan mengimpor output inferensi. Saat ini, satu output tabular dalam format CSV didukung. Jalur harus mencakup direktori dan nama file.
# In Pipeline setup script OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv") OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore") ... # In pipeline execution script run = Run.get_context() ws = run.experiment.workspace datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized directory_name = os.path.dirname(output_path) # output_path is parameterized. # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True) output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name