Používajte modely založené na strojovom učení platformy Azure

Zjednotené údaje v Dynamics 365 Customer Insights údajoch sú zdrojom pre vytváranie strojové učenie modelov, ktoré môžu generovať ďalšie obchodné poznatky. Customer Insights - Data integruje sa s Azure strojové učenie a používa vlastné modely.

Požiadavky

Nastavte pracovný priestor strojového učenia platformy Azure

  1. Pozrite si tému Vytvorenie pracovného priestoru Azure strojové učenie pre rôzne možnosti vytvorenia pracovného priestoru. S cieľom dosiahnuť čo najlepší výkon vytvorte pracovný priestor v oblasti platformy Azure, ktorá je geograficky najbližšie k vášmu prostrediu služby Customer Insights.

  2. Získajte prístup k svojmu pracovnému priestoru prostredníctvom Azure strojové učenie Studio. Existuje niekoľko spôsobov interakcie s pracovným priestorom.

Spolupracujte s návrhárom služby strojového učenia platformy Azure

Azure strojové učenie designer poskytuje vizuálne plátno, kde môžete presúvať množiny údajov a moduly. Dávkový kanál vytvorený návrhárom môže byť integrovaný Customer Insights - Data , ak je zodpovedajúcim spôsobom nakonfigurovaný.

Práca so súpravou SDK služby strojového učenia platformy Azure

Vedci údajov a vývojári umelej inteligencie používajú súpravu Azure strojové učenie SDK na vytváranie pracovných postupov strojové učenie. V súčasnosti nie je možné modely trénované pomocou súpravy SDK integrovať priamo. Dávkový inferenčný kanál, ktorý spotrebúva tento model, je potrebný na integráciu Customer Insights - Data.

Požiadavky na dávkové potrubie na integráciu s Customer Insights - Data

Konfigurácia množiny údajov

Vytvorte množiny údajov na používanie údajov tabuľky zo Customer Insights pre váš dávkový inferenčný kanál. Zaregistrujte tieto množiny údajov v pracovnom priestore. V súčasnosti podporujeme tabuľkové množiny údajov iba v .csv formáte. Parametrizujte množiny údajov, ktoré zodpovedajú údajom tabuľky, ako parameter kanála.

  • Parametre množiny údajov v Návrhárovi

    V návrhárovi otvorte položku Vybrať stĺpce v množine údajov a vyberte položku Nastaviť ako parameter kanála, kde zadáte názov parametra.

    Parametrizácia množiny údajov v návrhárovi.

  • Parameter množiny údajov v súprave SDK (Python)

    HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data')
    HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset)
    HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
    

Kanál hromadnej predikcie

  • V návrhárovi použite tréningový kanál na vytvorenie alebo aktualizáciu inferenčného kanála. V súčasnosti sú podporované iba kanály hromadnej predikcie.

  • Pomocou súpravy SDK publikujte kanál do koncového bodu. V súčasnosti Customer Insights - Data sa integruje s predvoleným kanálom v koncovom bode dávkového kanála v pracovnom priestore strojové učenie.

    published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline")
    pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") 
    pipeline_endpoint.add_default(pipeline=published_pipeline)
    

Import údajov kanála

  • Návrhár poskytuje modul Exportovať údaje, ktorý umožňuje exportovať výstup kanála do úložiska Azure. V súčasnosti musí modul používať ukladací priestor údajov typu Azure Blob Storage a parametrizovať ukladací priestorúdajov a relatívnucestu. Systém prepíše oba tieto parametre počas vykonávania kanála pomocou dátového úložiska a cesty, ktorá je prístupná aplikácii.

    Exportujte konfiguráciu dátového modulu.

  • Pri zápise výstupu inferencie pomocou kódu nahrajte výstup na cestu v rámci registrovaného úložiska údajov v pracovnom priestore. Ak sú cesta a ukladací priestor údajov parametrizované v kanáli, Customer Insights môže čítať a importovať výstup odvodenia. V súčasnosti je podporovaný jeden tabuľkový výstup vo formáte .csv. Postup musí obsahovať adresár a názov súboru.

    # In Pipeline setup script
        OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv")
        OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore")
    ...
    # In pipeline execution script
        run = Run.get_context()
        ws = run.experiment.workspace
        datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized
        directory_name =  os.path.dirname(output_path)  # output_path is parameterized.
    
        # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data
        # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True)
        output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name