Share via


Configurare l'applicazione di assistente vocale di Azure Percept

Importante

Ritiro di Azure Percept DK:

Aggiornamento 22 febbraio 2023: è ora disponibile un aggiornamento del firmware per i componenti accessori Percept DK Vision e Audio (noto anche come Visione e Audio SOM) e consentirà ai componenti accessori di continuare a funzionare oltre la data di ritiro.

L'anteprima pubblica di Azure Percept si evolverà per supportare nuove piattaforme perimetrali per dispositivi e esperienze per sviluppatori. Nell'ambito di questa evoluzione, Azure Percept DK e Audio Accessorio e i servizi di supporto associati ai servizi di Azure per percept DK verranno ritirati il 30 marzo 2023.

A partire dal 30 marzo 2023, Azure Percept DK e Audio Accessorio non saranno più supportati da tutti i servizi di Azure, tra cui Azure Percept Studio, aggiornamenti del sistema operativo, aggiornamenti dei contenitori, visualizzazione flusso Web e integrazione Visione personalizzata. Microsoft non fornirà più supporto tecnico ai clienti e qualsiasi servizio di supporto associato. Per altre informazioni, visitare il post di blog sull'avviso di ritiro.

Questo articolo descrive come configurare l'applicazione assistente vocale usando hub IoT. Per un'esercitazione dettagliata per il processo di creazione di un assistente vocale, vedere Creare un assistente vocale senza codice con Azure Percept Studio e Azure Percept Audio.

Aggiornare la configurazione dell'assistente vocale

  1. Aprire il portale di Azure e digitare hub IoT nella barra di ricerca. Selezionare l'icona per aprire la pagina hub IoT.

  2. Nella pagina hub IoT selezionare la hub IoT a cui è stato effettuato il provisioning del dispositivo.

  3. Selezionare IoT Edge in Gestione dispositivi automatico nel menu di spostamento a sinistra per visualizzare tutti i dispositivi connessi alla hub IoT.

  4. Selezionare il dispositivo in cui è stata distribuita l'applicazione assistente vocale.

  5. Selezionare Imposta moduli.

    Screenshot della pagina del dispositivo con Imposta moduli evidenziati.

  6. Verificare che la voce seguente sia presente nella sezione Credenziali del Registro contenitori . Aggiungere credenziali se necessario.

    Nome Indirizzo Username Password
    azureedgedevices azureedgedevices.azurecr.io devkitprivatepreviewpull
  7. Nella sezione Moduli di IoT Edgeselezionare azureearspeechclientmodule.

    Screenshot che mostra l'elenco di tutti i moduli IoT Edge nel dispositivo.

  8. Selezionare la scheda Impostazioni modulo . Verificare la configurazione seguente:

    URI immagine Riavviare i criteri Stato desiderato
    mcr.microsoft.com/azureedgedevices/azureearspeechclientmodule: preload-devkit always in esecuzione

    Se le impostazioni non corrispondono, modificarle e selezionare Aggiorna.

  9. Selezionare la scheda Variabili di ambiente . Verificare che non siano definite variabili di ambiente.

  10. Selezionare la scheda Impostazioni del gemello del modulo . Aggiornare la sezione speechConfigs come segue:

    "speechConfigs": {
        "appId": "<Application id for custom command project>",
        "key": "<Speech Resource key for custom command project>",
        "region": "<Region for the speech service>",
        "keywordModelUrl": "https://aedsamples.blob.core.windows.net/speech/keyword-tables/computer.table",
        "keyword": "computer"
    }
    

    Nota

    La parola chiave usata sopra è una parola chiave pubblicamente disponibile pubblicamente. Se si vuole usare la propria proprietà, è possibile aggiungere la parola chiave personalizzata caricando un file di tabella creato nell'archiviazione BLOB. L'archiviazione BLOB deve essere configurata con l'accesso anonimo al contenitore o l'accesso blob anonimo.

Come trovare appId, chiave e area

Per individuare l'appID, la chiave e l'area geografica, passare a Speech Studio:

  1. Accedere e selezionare la risorsa voce appropriata.

  2. Nella home page di Speech Studio selezionare Comandi personalizzati in Assistente vocale.

  3. Selezionare il progetto di destinazione.

    Screenshot della pagina del progetto in Speech Studio.

  4. Selezionare Impostazioni nel pannello del menu a sinistra.

  5. L'appID e la chiave si trovano nella scheda Impostazioni generali.

    Screenshot delle impostazioni generali del progetto di riconoscimento vocale.

  6. Per trovare l'area, aprire la scheda Risorse LUIS all'interno delle impostazioni. La selezione delle risorse di creazione conterrà le informazioni sull'area.

    Screenshot delle risorse LUIS del progetto voce.

  7. Dopo aver immesso le informazioni speechConfigs , selezionare Aggiorna.

  8. Selezionare la scheda Route nella parte superiore della pagina Imposta moduli . Assicurarsi di avere una route con il valore seguente:

    FROM /messages/modules/azureearspeechclientmodule/outputs/* INTO $upstream
    

    Aggiungere la route se non esiste.

  9. Selezionare Rivedi e crea.

  10. Selezionare Crea.

Passaggi successivi

Dopo aver aggiornato la configurazione dell'assistente vocale, tornare alla demo in Azure Percept Studio per interagire con l'applicazione.