Gunakan model berbasis pembelajaran mesin Azure

Data terpadu di Dynamics 365 Customer Insights adalah sumber untuk membangun model Pembelajaran Mesin yang dapat menghasilkan wawasan bisnis tambahan. Customer Insights berintegrasi dengan Studio Pembelajaran Mesin (klasik) dan Pembelajaran Mesin Azure untuk menggunakan model kustom Anda sendiri. Lihat eksperimen studio Pembelajaran Mesin (klasik) untuk contoh eksperimen yang dibuat di studio Pembelajaran Mesin (klasik).

Prasyarat

Atur ruang kerja Pembelajaran Mesin Azure

  1. Lihat membuat ruang kerja Pembelajaran Mesin Azure untuk pilihan yang berbeda untuk membuat ruang kerja. Untuk performa terbaik, buat ruang kerja di kawasan Azure yang secara geografis paling dekat dengan lingkungan Customer Insights Anda.

  2. Akses ruang kerja anda melalui Studio Pembelajaran Mesin Azure. Ada beberapa cara untuk berinteraksi dengan ruang kerja Anda.

Bekerja dengan desainer Pembelajaran Mesin Azure

Desainer Pembelajaran Mesin Azure menyediakan kanvas visual untuk menyeret dan menjatuhkan kumpulan data dan modul, mirip dengan Studio Pembelajaran Mesin (klasik). Alur kerja batch yang dibuat dari desainer dapat diintegrasikan ke dalam Customer Insights jika dikonfigurasi dengan sesuai.

Bekerja dengan SDK Pembelajaran Mesin Azure

Ilmuwan Data dan pengembang AI menggunakan SDK Pembelajaran Mesin Azure untuk membuat alur kerja Pembelajaran Mesin. Saat ini, model yang dilatih menggunakan SDK tidak dapat diintegrasikan langsung dengan Customer Insights. Alur inferensi batch yang mengkonsumsi model diperlukan untuk integrasi dengan Customer Insights.

Persyaratan alur jalur batch untuk diintegrasikan dengan Customer Insights

Konfigurasi himpunan data

Anda harus membuat dataset untuk menggunakan data entitas dari Customer Insights ke alur kerja inferensi batch Anda. Kumpulan data ini harus didaftarkan di ruang kerja. Saat ini, kami hanya mendukung himpunan data tabel dalam format .CSV. Kumpulan data yang terkait dengan data entitas harus diberi parameter sebagai parameter alur kerja.

  • Parameter himpunan data dalam desainer

    Di desainer, buka pilih kolom dalam himpunan data dan pilih Atur sebagai parameter alur kerja saat Anda memberikan nama untuk parameter.

    Parameterisasi himpunan data dalam desainer

  • Parameter himpunan data dalam SDK (Python)

    HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data')
    HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset)
    HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
    

Alur kerja inferensi Batch

  • Pada desainer, alur pelatihan dapat digunakan untuk membuat atau memperbarui alur inferensi. Saat ini, hanya alur kerja inferensi batch yang didukung.

  • Menggunakan SDK, anda dapat mempublikasikan alur ke titik akhir. Saat ini, Customer Insights terintegrasi dengan alur default di titik akhir alur batch di ruang kerja Pembelajaran Mesin.

    published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline")
    pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") 
    pipeline_endpoint.add_default(pipeline=published_pipeline)
    

Impor data alur jalur ke Customer Insights

  • Desainer menyediakan ekspor modul data yang memungkinkan output alur untuk diekspor ke Azure Storage. Saat ini, modul harus menggunakan penyimpanan jenis Penyimpanan Blob Azure dan memparameterisasi himpunan data dan jalur relatif. Customer Insights mengesampingkan parameter ini selama eksekusi alur kerja dengan himpunandata dan jalur yang dapat diakses oleh produk.

    Ekspor Konfigurasi Modul Data

  • Saat menulis output inferensi menggunakan kode, Anda dapat mengunggah output ke jalur di dalam himpunan data terdaftar di ruang kerja. Jika jalur dan himpunan data yang parameterized di alur kerja, Customer Insights akan dapat membaca, dan mengimpor inferensi output. Saat ini, satu output tabular dalam format CSV didukung. Jalur harus mencakup direktori dan nama file.

    # In Pipeline setup script
        OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv")
        OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore")
    ...
    # In pipeline execution script
        run = Run.get_context()
        ws = run.experiment.workspace
        datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized
        directory_name =  os.path.dirname(output_path)  # output_path is parameterized.
    
        # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data
        # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True)
        output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name