Teilen über


Konfigurieren Ihrer Sprach-Assistent-Anwendung für Azure Percept

Wichtig

Einstellung von Azure Percept DK:

Update 22. Februar 2023: Ein Firmwareupdate für die Percept DK Vision- und Audiozubehörkomponenten (auch bekannt als Vision und Audio SOM) ist jetzt hier verfügbar und ermöglicht es den Zubehörkomponenten, über den Ausmusterungstermin hinaus weiter zu funktionieren.

Die Public Preview von Azure Percept wird weiterentwickelt und soll neue Edgegeräteplattformen und Entwicklerfunktionen unterstützen. Im Rahmen dieser Weiterentwicklung werden Azure Percept DK und Audio Accessory sowie die zugehörigen unterstützenden Azure-Dienste für Percept DK am 30. März 2023 eingestellt.

Ab dem 30. März 2023 werden Azure Percept DK und Audio Accessory von keinem Azure-Dienst mehr unterstützt, einschließlich Azure Percept Studio, Betriebssystemupdates, Containerupdates, Anzeige von Webstreams und Custom Vision-Integration. Ab diesem Zeitpunkt bietet Microsoft keinen Kundenerfolgssupport und keine unterstützenden Dienste mehr. Weitere Informationen finden Sie im Blogbeitrag zur Außerbetriebnahme.

In diesem Artikel wird beschrieben, wie Sie Ihre Sprach-Assistenten-Anwendung mithilfe von IoT Hub konfigurieren. Ein schrittweises Tutorial, das Sie durch den Prozess der Erstellung eines Sprach-Assistenten führt, finden Sie unter Erstellen eines Sprach-Assistenten ohne Code mit Azure Percept Studio und Azure Percept Audio.

Aktualisieren Ihrer Sprach-Assistenten-Konfiguration

  1. Öffnen Sie das Azure-Portal, und geben Sie IoT Hub in die Suchleiste ein. Klicken Sie auf das Symbol, um die Seite „IoT Hub“ zu öffnen.

  2. Wählen Sie auf der Seite „IoT Hub“ den IOT Hub aus, in dem Ihr Gerät bereitgestellt wurde.

  3. Wählen Sie im linken Navigationsmenü unter Automatische Geräteverwaltung den Eintrag IoT Edge aus, um alle mit Ihrem IoT Hub verbundenen Geräte anzuzeigen.

  4. Wählen Sie das Gerät aus, auf dem Ihre Sprach-Assistenten-Anwendung bereitgestellt wurde.

  5. Wählen Sie Module festlegen aus.

    Screenshot: Geräteseite mit Hervorhebung von „Module festlegen“

  6. Vergewissern Sie sich, dass der folgende Eintrag im Abschnitt Anmeldeinformationen für Container Registry vorhanden ist. Fügen Sie Anmeldeinformationen hinzu, falls dies erforderlich ist.

    Name Adresse Username Kennwort
    azureedgedevices azureedgedevices.azurecr.io devkitprivatepreviewpull
  7. Wählen Sie im Abschnitt IoT Edge-Module das Modul azureearspeechclientmodule aus.

    Screenshot: Liste aller IoT Edge-Module des Geräts

  8. Wählen Sie die Registerkarte Moduleinstellungen aus. Überprüfen Sie die folgende Konfiguration:

    Image-URI Neustartrichtlinie Gewünschter Status
    mcr.microsoft.com/azureedgedevices/azureearspeechclientmodule: preload-devkit immer „Wird ausgeführt“

    Wenn Ihre Einstellungen nicht übereinstimmen, bearbeiten Sie sie, und wählen Sie dann Aktualisieren aus.

  9. Wählen Sie die Registerkarte Umgebungsvariablen aus. Stellen Sie sicher, dass keine Umgebungsvariablen definiert sind.

  10. Wählen Sie die Registerkarte Einstellungen für Modulzwilling aus. Aktualisieren Sie den Abschnitt speechConfigs wie folgt:

    "speechConfigs": {
        "appId": "<Application id for custom command project>",
        "key": "<Speech Resource key for custom command project>",
        "region": "<Region for the speech service>",
        "keywordModelUrl": "https://aedsamples.blob.core.windows.net/speech/keyword-tables/computer.table",
        "keyword": "computer"
    }
    

    Hinweis

    Das oben verwendete Schlüsselwort ist ein standardmäßig öffentlich verfügbares Schlüsselwort. Wenn Sie Ihr eigenes verwenden möchten, können Sie Ihr eigenes benutzerdefiniertes Schlüsselwort hinzufügen, indem Sie eine erstellte Tabellendatei in den Blob Storage hochladen. Blob Storage muss entweder mit anonymem Containerzugriff oder mit anonymem Blobzugriff konfiguriert werden.

Herausfinden von App-ID (appId), Schlüssel (key) und Region (region)

Wechseln Sie zu Speech Studio, um Ihre appID, den keyund die region herauszufinden:

  1. Melden Sie sich an, und wählen Sie die entsprechende Sprachressource aus.

  2. Wählen Sie auf der Homepage von Speech Studio unter Sprach-Assistenten die Option Benutzerdefinierte Befehle aus.

  3. Wählen Sie Ihr Zielprojekt aus.

    Screenshot: Projektseite in Speech Studio

  4. Wählen Sie im linken Menübereich die Option Einstellungen aus.

  5. appID und key befinden sich auf der Registerkarte Allgemeine Einstellungen.

    Screenshot: Allgemeine Einstellungen für Speech-Projekt

  6. Um Ihre region zu finden, öffnen Sie die Registerkarte LUIS-Ressourcen in den Einstellungen. Der Abschnitt Erstellungsressource enthält Regionsinformationen.

    Screenshot: LUIS-Ressourcen für Speech-Projekt

  7. Nachdem Sie Ihre speechConfigs-Informationen eingegeben haben, wählen Sie Aktualisieren aus.

  8. Wählen Sie oben auf der Seite Module festlegen die Registerkarte Routen aus. Stellen Sie sicher, dass Sie eine Route mit folgendem Wert besitzen:

    FROM /messages/modules/azureearspeechclientmodule/outputs/* INTO $upstream
    

    Fügen Sie die Route hinzu, wenn sie nicht vorhanden ist.

  9. Klicken Sie auf Überprüfen + erstellen.

  10. Klicken Sie auf Erstellen.

Nächste Schritte

Kehren Sie nach dem Aktualisieren Ihrer Sprach-Assistenten-Konfiguration zur Demo in Azure Percept Studio zurück, um mit der Anwendung zu interagieren.