Veelgestelde vragen over Personalizer

Dit artikel bevat antwoorden op veelgestelde vragen over het oplossen van problemen met de Personalizer-service.

Configuratieproblemen

Ik heb een configuratie-instelling gewijzigd en nu presteert mijn lus niet op hetzelfde leerniveau. Wat is er gebeurd?

Sommige configuratie-instellingen stellen uw model opnieuw in. Configuratiewijzigingen moeten zorgvuldig worden gepland.

Bij het configureren van Personalizer met de API heb ik een foutmelding ontvangen. Wat is er gebeurd?

Als u één API-aanvraag gebruikt om uw service te configureren en uw leergedrag te wijzigen, krijgt u een foutmelding. U moet twee afzonderlijke API-aanroepen maken: eerst om uw service te configureren en vervolgens om te schakelen tussen leergedrag.

Transactiefouten

Ik krijg een HTTP 429-respons (te veel aanvragen) van de service. Wat kan ik doen?

Als u een gratis prijscategorie hebt kiest bij het maken van het Personalizer-exemplaar, is er een quotumlimiet voor het aantal Rank-aanvragen dat is toegestaan. Controleer de API-aanroepfrequentie voor de Rank API (in het deelvenster Metrische gegevens in de Azure Portal voor uw Personalizer-resource) en pas de prijscategorie aan (in het deelvenster Prijscategorie) als uw aanroepvolume naar verwachting hoger zal zijn dan de drempelwaarde voor de gekozen prijscategorie.

Ik krijg een 5xx-fout over Rank- of Reward-API's. Wat moet ik doen?

Deze problemen moeten transparant zijn. Als ze doorgaan, kunt u contact opnemen met de ondersteuning door Nieuwe ondersteuningsaanvraag te selecteren in de sectie Ondersteuning en probleemoplossing in Azure Portal voor uw Personalizer-resource.

Learning lus

De leerlus bereikt geen 100% overeenkomst met het systeem zonder Personalizer. Hoe kan ik dit oplossen?

De redenen waarom u uw doel niet bereikt met de leerlus:

  • Onvoldoende functies verzonden met Rank API-aanroep
  • Fouten in de verzonden functies, zoals het verzenden van niet-geaggregeerde functiegegevens, zoals tijdstempels naar Rank API
  • Fouten met lusverwerking, zoals het niet verzenden van beloningsgegevens naar reward-API voor gebeurtenissen

Als u dit wilt oplossen, moet u de verwerking wijzigen door de functies te wijzigen die naar de lus worden verzonden, of door ervoor te zorgen dat de beloning een juiste evaluatie is van de kwaliteit van het antwoord van de rank.

De leerlus lijkt niet te leren. Hoe kan ik dit oplossen?

De leerlus heeft een paar duizend Reward-aanroepen nodig voordat Rank de prioriteit effectief kan bepalen.

Als u niet zeker weet hoe uw leerlus zich momenteel gedraagt, moet u een offlineevaluatie uitvoeren en het gecorrigeerde leerbeleid toepassen.

Ik blijf positieresultaten krijgen met dezelfde waarschijnlijkheden voor alle items. Hoe kan ik dat Personalizer aan het leren is?

Personalizer retourneert dezelfde waarschijnlijkheden in een Rank API-resultaat wanneer het net is gestart en een leeg model heeft, of wanneer u de Personalizer-lus opnieuw in stelt, en uw model zich nog steeds binnen de frequentieperiode voor modelupdates.

Wanneer de nieuwe updateperiode begint, wordt het bijgewerkte model gebruikt en ziet u dat de waarschijnlijkheden veranderen.

De leerlus was aan het leren, maar lijkt niet meer te leren en de kwaliteit van de Rank-resultaten is niet zo goed. Wat moet ik doen?

  • Zorg ervoor dat u één evaluatie hebt voltooid en toegepast in de Azure Portal voor die Personalizer-resource (leerlus).
  • Zorg ervoor dat alle beloningen via de Reward-API worden verzonden en verwerkt.

Hoe kan ik dat de leerlus regelmatig wordt bijgewerkt en wordt gebruikt om mijn gegevens te scoren?

U vindt het tijdstip waarop het model voor het laatst is bijgewerkt op de pagina Model en Learning Instellingen van de Azure Portal. Als u een oude tijdstempel ziet, is dit waarschijnlijk omdat u de Rank- en Reward-aanroepen niet verstuurt. Als de service geen binnenkomende gegevens heeft, wordt het leerproces niet bijgewerkt. Als u ziet dat de leerlus niet vaak genoeg wordt bijgewerkt, kunt u de frequentie van de modelupdate van de lus bewerken.

Offline evaluaties

Het belang van een offline evaluatie retourneert een lange lijst met honderden of duizenden items. Wat is er gebeurd?

Dit wordt meestal veroorzaakt door tijdstempels, gebruikers-ID's of andere fijnafgekeurde functies die worden verzonden.

Ik heb een offline-evaluatie gemaakt en deze is bijna onmiddellijk geslaagd. De reden hiervoor? Zie ik geen resultaten?

De offline-evaluatie maakt gebruik van de getrainde modelgegevens van de gebeurtenissen in die periode. Als u geen gegevens hebt verzenden in de periode tussen de begin- en eindtijd van de evaluatie, worden deze zonder resultaten voltooid. Dien een nieuwe offline-evaluatie in door een tijdsbereik te selecteren met gebeurtenissen die naar Personalizer zijn verzonden.

Leerbeleid

Hoe kan ik leerbeleid importeren?

Meer informatie over leerbeleidsconcepten en het toepassen van een nieuw leerbeleid. Als u geen leerbeleid wilt selecteren, kunt u de offline-evaluatie gebruiken om een leerbeleid voor te stellen op basis van uw huidige gebeurtenissen.

Beveiliging

De API-sleutel voor mijn lus is aangetast. Wat kan ik doen?

U kunt één sleutel opnieuw maken nadat u uw clients hebt gewisseld om de andere sleutel te gebruiken. Met twee sleutels kunt u de sleutel op een luie manier doorgeven zonder dat er downtime nodig is. We raden u aan dit op een normale cyclus te doen als beveiligingsmaatregel.