Utilizați modele bazate pe Azure Machine Learning
Datele unificate din Dynamics 365 Customer Insights sunt o sursă pentru construirea de modele de învățare programată care pot genera informații suplimentare despre afaceri. Customer Insights se integrează cu învățare programată Azure pentru a utiliza propriile modele personalizate.
Cerințe preliminare
- Accesați la Customer Insights
- Abonament activ Azure Enterprise
- Profiluri de client unificate
- Export entitate către stocarea Blob Azure configurat
Configurați spațiul de lucru Azure Machine Learning
Consultați creați un spațiu de lucru Azure Machine Learning pentru diferitele opțiuni de creare a spațiului de lucru. Pentru cele mai bune performanțe, creați spațiul de lucru într-o regiune Azure care este cea mai apropiată geografic de mediul dvs. Customer Insights.
Accesați spațiul dvs. de lucru prin Azure Machine Learning Studio. Sunt câteva modalități de interacțiune cu spațiul dvs. de lucru.
Lucrați cu designerul Azure Machine Learning
Designerul Azure învățare programată oferă o pânză vizuală în care puteți glisa și plasa seturi de date și module. Un canal de lot creat din designer poate fi integrată în Customer Insights dacă acestea sunt configurate corespunzător.
Lucrul cu SDK Azure Machine Learning
Specialiștii în date și dezvoltatorii de AI folosesc SDK Azure Machine Learning pentru a construi fluxuri de lucru de învățare programată. În prezent, modelele instruite folosind SDK nu pot fi integrate direct cu Customer Insights. Pentru integrarea cu Customer Insights este necesar un canal de inferență de lot care consumă acel model.
Cerințe de canal de lot pentru integrare cu Customer Insights
Configurare set de date
Trebuie să creați seturi de date pentru a utiliza datele entității din Customer Insights în canalul de inferență a lotului. Aceste seturi de date trebuie înregistrate în spațiul de lucru. În prezent, acceptăm doar seturi de date tabelare în format .csv. Seturile de date care corespund datelor entității trebuie parametrizate ca parametru de canal.
Parametrii setului de date în Designer
În designer, deschideți Selectare Coloane în setul de date și selectați Setare ca parametru al canalului unde furnizați un nume pentru parametru.

Parametru set de date în SDK (Python)
HotelStayActivity_dataset = Dataset.get_by_name(ws, name='Hotel Stay Activity Data') HotelStayActivity_pipeline_param = PipelineParameter(name="HotelStayActivity_pipeline_param", default_value=HotelStayActivity_dataset) HotelStayActivity_ds_consumption = DatasetConsumptionConfig("HotelStayActivity_dataset", HotelStayActivity_pipeline_param)
Canal de inferență a lotului
În designer, un canal de instruire poate fi utilizat pentru a crea sau actualiza un canal de inferență. În prezent, sunt acceptate doar canalele de inferență în lot.
Folosind SDK, puteți publica canalul într-un punct final. În prezent, Customer Insights se integrează cu canalul implicit într-un punct final al canalului de lot din spațiul de lucru Machine Learning.
published_pipeline = pipeline.publish(name="ChurnInferencePipeline", description="Published Churn Inference pipeline") pipeline_endpoint = PipelineEndpoint.get(workspace=ws, name="ChurnPipelineEndpoint") pipeline_endpoint.add_default(pipeline=published_pipeline)
Importați datele canalelor în Customer Insights
Designerul oferă modulul Export date care permite exportarea ieșirii unui canal în stocarea Azure. În prezent, modulul trebuie să utilizeze tipul de depozit de date Stocare Blob Azure și parametrizează Depozitul de date și Calea relativă. Customer Insights anulează ambii acești parametri în timpul executării canalului cu un depozit de date și o cale accesibilă produsului.

Când scrieți ieșirea de inferență folosind cod, puteți încărca ieșirea către cale dintr-un depozit de date înregistrat în spațiul de lucru. Când calea și depozitul de date sunt parametrizate în canal, Customer Insights va putea citi și importa ieșirea de inferență. În prezent, este acceptată o singură ieșire tabulară în format csv. Calea trebuie să includă directorul și numele fișierului.
# In Pipeline setup script OutputPathParameter = PipelineParameter(name="output_path", default_value="HotelChurnOutput/HotelChurnOutput.csv") OutputDatastoreParameter = PipelineParameter(name="output_datastore", default_value="workspaceblobstore") ... # In pipeline execution script run = Run.get_context() ws = run.experiment.workspace datastore = Datastore.get(ws, output_datastore) # output_datastore is parameterized directory_name = os.path.dirname(output_path) # output_path is parameterized. # Datastore.upload() or Dataset.File.upload_directory() are supported methods to uplaod the data # datastore.upload(src_dir=<<working directory>>, target_path=directory_name, overwrite=False, show_progress=True) output_dataset = Dataset.File.upload_directory(src_dir=<<working directory>>, target = (datastore, directory_name)) # Remove trailing "/" from directory_name
Notă
Ne puteți spune care preferințele dvs. lingvistice pentru documentație? Răspundeți la un chestionar scurt. (rețineți că acest chestionar este în limba engleză)
Chestionarul va dura aproximativ șapte minute. Nu sunt colectate date personale (angajament de respectare a confidențialității).
Feedback
Trimiteți și vizualizați feedback pentru