Uw LUIS-app testen in de LUIS-portal

Testen is het proces van het leveren van voorbeeld-utterances aan LUIS en het verkrijgen van een antwoord van door LUIS herkende intenties en entiteiten. U kunt LUIS interactief testen, één utterance tegelijk, of een set utterances leveren. Tijdens het testen kunt u de voorspellingsreactie van het huidige actieve model vergelijken met het voorspellingsreactie van het gepubliceerde model.

Het testen van een app is een iteratief proces. Nadat u uw LUIS-app hebt getraind, test u deze met voorbeeld-utterances om te zien of de intenties en entiteiten correct worden herkend. Als dat niet zo is, moet u de LUIS-app updaten, trainen en opnieuw testen.

Interactief testen

Interactieve tests worden uitgevoerd vanuit het testpaneel van de LUIS-portal. U kunt een utterance invoeren om te zien hoe intenties en entiteiten worden geïdentificeerd en scoren. Als LUIS de intenties en entiteiten niet voorspelt zoals u verwacht op een utterance in het testvenster, kopieert u deze als een nieuwe utterance naar de pagina Intent. Label vervolgens de onderdelen van die utterance voor entiteiten en train LUIS.

Zie batchtests als u meer dan één uiting tegelijk test en het artikel Voorspellingsscores voor meer informatie over voorspellingsscores.

U kunt testen met behulp van het eindpunt met maximaal twee versies van uw app. Wanneer uw hoofdversie of liveversie van uw app is ingesteld als het productie-eindpunt, voegt u een tweede versie toe aan het faserings-eindpunt. Deze aanpak biedt u drie versies van een utterance: het huidige model in het testvenster van de LUIS-portal en de twee versies op de twee verschillende eindpunten.

Alle eindpunttests tellen mee voor uw gebruiksquotum.

Logboekregistratie

LUIS slaat alle geregistreerde utterances op in het querylogboek, dat kan worden gedownload in de LUIS-portal op de lijstpagina apps, evenals de LUIS-ontwerp-API's.

Als u test op een eindpunt en de utterance niet wilt laten noteren, moet u de configuratie van de logging=false queryreeks gebruiken.

Alle utterances waar LUIS niet zeker van is, worden vermeld op de pagina Eindpunt-utterances controleren van de LUIS-portal.

Een utterance testen

Notitie

Vergeet niet om LUIS te trainen nadat u wijzigingen in het model hebt aangebracht. Wijzigingen in de LUIS-app worden pas zichtbaar bij het testen als de app is getraind.

  1. Meld u aan bij de LUIS-portal en selecteer uw abonnement en ontwerpresource om de apps te zien die zijn toegewezen aan die ontwerpresource.
  2. Open uw app door de naam ervan te selecteren op Mijn apps pagina.
  3. Als u wilt testen op de meest recente versie van de actieve app, selecteert u Trainen in het bovenste menu voordat u gaat testen.

De test-utterance mag niet precies hetzelfde zijn als een voorbeeld-utterance in de app. De test-utterance moet woordkeuze, woordlengte en entiteitsgebruik bevatten die u voor een gebruiker verwacht.

  1. Meld u aan bij de LUIS-portal en selecteer uw abonnement en Ontwerpresource om de apps weer te geven die aan die ontwerpresource zijn toegewezen.

  2. Open uw app door de naam ervan te selecteren op Mijn apps pagina.

  3. Als u het deelvenster Test wilt openen, selecteert u Testen in het bovenste deelvenster van uw toepassing.

    Pagina & test-app trainen

  4. Voer een utterance in het tekstvak in en selecteer Enter. U kunt zoveel test-utterances typen als u wilt in de test, maar slechts één uiting tegelijk.

  5. De utterance, de belangrijkste intentie en score worden toegevoegd aan de lijst met utterances onder het tekstvak.

    Interactief testen identificeert de verkeerde intentie

De voorspelling inspecteren

U inspecteert de details van het testresultaat in het deelvenster Inspecteren.

  1. Open het deelvenster Test en selecteer Inspecteren voor een uiting die u wilt vergelijken.

    Selecteer de knop Inspecteren voor meer informatie over de testresultaten

  2. Het deelvenster Inspectie wordt weergegeven. Het deelvenster bevat de best scorende intentie en eventuele geïdentificeerde entiteiten. In het deelvenster ziet u de voorspelling van de geselecteerde utterance.

    Gedeeltelijke schermopname van het deelvenster Test Inspect

Toevoegen aan voorbeeld-utterances

Vanuit het inspectievenster kunt u de test-utterance toevoegen aan een intentie door Toevoegen aan voorbeeld-utterances te selecteren.

Vereiste functies uitschakelen

Met deze schakelknop kunt u bepalen of de getrainde app uw entiteiten correct voorspelt op basis van de vereiste functies. De standaardinstelling is om de functie toe te passen zoals vereist tijdens de voorspelling. Selecteer deze schakelknop om te zien wat de voorspelling zou zijn als de functie van de subentiteit niet vereist was.

Wanneer de vereiste functies uitschakelen

De getrainde app kan een door machine geleerde entiteit verkeerd voorspelgen op basis van een van de volgende:

  • Onjuiste labeling van voorbeeld-utterances.
  • De vereiste functie komt niet overeen met de tekst.

Een voorbeeld is een door machine geleerde entiteit met een subentiteit van de naam van een persoon.

Schermopname van het machine-learned entiteitsschema in de LUIS-portal met de vereiste functie

Een voorbeeld van een utterance voor deze machine-learned-entiteit is: Assign Bob Jones to work on the new security feature .

De extractie moet de beschrijving van het ticket zijn en als technicus moeten twee security feature Bob Jones subentiteiten van de Assign ticket entiteit zijn.

Als u de subentiteit wilt helpen voorspellen, voegt u de vooraf gebouwde entiteit PersonName aa een functie toe aan engineer de subentiteit. Als u de functie vereist maakt, betekent dit dat de subentiteit alleen wordt geëxtraheerd als de vooraf gebouwde entiteit PersonName wordt voorspeld voor de tekst. Dit betekent dat een naam in de tekst die niet voorspelt met personname-subentiteit, niet wordt geretourneerd als een gelabelde subentiteit, engineer .

Wanneer u het interactieve testvenster gebruikt en ziet dat een subentiteit, met een vereiste functie, niet voorspelt, schakelt u deze instelling in of de subentiteit wordt voorspeld zonder dat de functie vereist is. De subentiteit kan correct worden voorspeld zonder de functie die vereist is vanwege het correct labelen van voorbeeld-utterances.

Sentimentresultaten weergeven

Als sentimentanalyse is geconfigureerd op de pagina Publiceren, bevatten de testresultaten het gevoel dat in de utterance is gevonden.

De intentie van het overeenkomende patroon corrigeren

Als u Patterns gebruikt en de uiting overeen komt met een patroon, maar de verkeerde intentie is voorspeld, selecteert u de koppeling Bewerken op basis van het patroon en selecteert u vervolgens de juiste intentie.

Vergelijken met gepubliceerde versie

U kunt de actieve versie van uw app testen met de gepubliceerde eindpuntversie. Selecteer in het deelvenster Inspecteren de optie Vergelijken met gepubliceerd. Testen op het gepubliceerde model worden in mindering gebracht op het quotumsaldo van uw Azure-abonnement.

Vergelijken met gepubliceerd

Eindpunt-JSON weergeven in testvenster

U kunt de geretourneerde eindpunt-JSON voor de vergelijking weergeven door JSON-weergave weergeven te selecteren.

Gepubliceerd JSON-antwoord

Aanvullende instellingen in het testvenster

LUIS-eindpunt

Als u meerdere LUIS-eindpunten hebt, gebruikt u de koppeling Aanvullende Instellingen in het deelvenster Gepubliceerd van de test om het eindpunt te wijzigen dat wordt gebruikt voor het testen. Als u niet zeker weet welk eindpunt u moet gebruiken, selecteert u de standaardwaarde Starter_Key.

Testvenster met de koppeling Instellingen gemarkeerd

Batchgewijs testen

Zie concepten voor batchtests en leer hoe u een batch met utterances kunt testen.

Volgende stappen

Als testen aangeeft dat uw LUIS-app niet de juiste intenties en entiteiten herkent, kunt u de nauwkeurigheid van uw LUIS-app verbeteren door meer uitingen te labelen of functies toe te voegen.