Gunakan model berbasis pembelajaran mesin Azure

Data terpadu dalam Dynamics 365 Customer Insights- Data adalah sumber untuk membangun model Pembelajaran Mesin yang dapat menghasilkan wawasan bisnis tambahan. Customer Insights - Data terintegrasi dengan Azure Pembelajaran Mesin untuk menggunakan model kustom Anda sendiri.

Prasyarat

Atur ruang kerja Pembelajaran Mesin Azure

  1. Lihat membuat ruang kerja Azure Pembelajaran Mesin untuk berbagai opsi membuat ruang kerja . Untuk performa terbaik, buat ruang kerja di kawasan Azure yang secara geografis paling dekat dengan lingkungan Customer Insights Anda.

  2. Akses ruang kerja Anda melalui Azure Pembelajaran Mesin Studio. Ada beberapa cara untuk berinteraksi dengan ruang kerja Anda.

Bekerja dengan desainer Pembelajaran Mesin Azure

Desainer Azure Pembelajaran Mesin menyediakan kanvas visual tempat Anda dapat menyeret dan melepas himpunan data dan modul. Alur batch yang dibuat dari perancang dapat diintegrasikan ke dalamnya Customer Insights - Data jika dikonfigurasi dengan tepat.

Bekerja dengan SDK Pembelajaran Mesin Azure

Ilmuwan data dan pengembang AI menggunakan Azure Pembelajaran Mesin SDK untuk membangun alur kerja Pembelajaran Mesin. Saat ini, model yang dilatih menggunakan SDK tidak dapat diintegrasikan secara langsung. Alur inferensi batch yang menggunakan model tersebut diperlukan untuk integrasi Customer Insights - Data.

Persyaratan alur batch untuk diintegrasikan dengan Customer Insights - Data

Konfigurasi set data

Buat himpunan data untuk menggunakan data tabel dari Customer Insights untuk alur inferensi batch Anda. Daftarkan himpunan data ini di ruang kerja. Saat ini, kami hanya mendukung himpunan data tabular dalam format .csv. Buat parameter himpunan data yang sesuai dengan data tabel sebagai parameter alur.

  • Parameter himpunan data dalam desainer

    Di perancang, buka Pilih Kolom di Himpunan Data dan pilih Atur sebagai parameter alur tempat Anda memberikan nama untuk parameter .

    Parameterisasi himpunan data di perancang.

  • Parameter himpunan data dalam SDK (Python)

    HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data')
    HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset)
    HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
    

Alur kerja inferensi Batch

  • Di perancang, gunakan alur pelatihan untuk membuat atau memperbarui alur inferensi. Saat ini, hanya alur kerja inferensi batch yang didukung.

  • Dengan menggunakan SDK, publikasikan alur ke titik akhir. Saat ini, Customer Insights - Data terintegrasi dengan alur default dalam alur batch titik akhir di ruang kerja Pembelajaran Mesin.

    published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline")
    pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") 
    pipeline_endpoint.add_default(pipeline=published_pipeline)
    

Mengimpor data alur

  • Perancang menyediakan modul Ekspor Data yang memungkinkan output alur diekspor ke penyimpanan Azure. Saat ini, modul harus menggunakan jenis penyimpanan data Azure Blob Storage dan membuat parameter Datastore dan Jalur relatif. Sistem menimpa kedua parameter ini selama eksekusi alur dengan penyimpanan data dan jalur yang dapat diakses oleh aplikasi.

    Ekspor Konfigurasi Modul Data.

  • Saat menulis output inferensi menggunakan kode, unggah output ke jalur dalam penyimpanan data terdaftar di ruang kerja. Jika jalur dan penyimpanan data diparameterisasi dalam alur, Customer Insights dapat membaca dan mengimpor output inferensi. Saat ini, satu output tabular dalam format CSV didukung. Jalur harus mencakup direktori dan nama file.

    # In Pipeline setup script
        OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv")
        OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore")
    ...
    # In pipeline execution script
        run = Run.get_context()
        ws = run.experiment.workspace
        datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized
        directory_name =  os.path.dirname(output_path)  # output_path is parameterized.
    
        # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data
        # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True)
        output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name