Partage via


Planification de l’implémentation de Power BI : valider du contenu

Remarque

Cet article fait partie de la série d’articles sur la planification de l’implémentation de Power BI. Cette série se concentre principalement sur l’expérience Power BI au sein de Microsoft Fabric. Pour une introduction à la série, consultez Planification de la mise en œuvre de Power BI.

Cet article vous aide à valider du contenu dans le cadre de la gestion de cycle de vie du contenu. Il est principalement destiné à :

  • Centre d’excellence (COE) et équipes BI : les équipes qui sont également responsables de la supervision de Power BI au sein de l’organisation. Ces équipes comprennent des décideurs qui déterminent la manière de gérer le cycle de vie du contenu Power BI. Ces équipes peuvent également inclure des gestionnaires de mise en production qui gèrent le cycle de vie des versions du contenu et des ingénieurs qui créent et gèrent les composants nécessaires pour utiliser et prendre en charge efficacement la gestion de cycle de vie.
  • Créateurs de contenu et propriétaires de contenu : les utilisateurs qui créent du contenu qu’ils souhaitent publier sur le portail Fabric afin de le partager avec d’autres personnes. Ces personnes sont responsables de la gestion de cycle de vie du contenu Power BI qu’elles créent.

La gestion de cycle de vie est constituée de l’ensemble des processus et des pratiques que vous utilisez pour gérer le contenu depuis sa création jusqu’à sa mise hors service. Dans la deuxième phase de la gestion de cycle de vie, vous développez du contenu et gérez les modifications qui impliquent les décisions clés sur la façon dont vous allez développer du contenu et configurer le contrôle de version et les espaces de travail. Dans la troisième phase, vous validez du contenu pour vérifier s’il est prêt pour le déploiement.

Remarque

Vous itérez généralement via les étapes deux et trois dans les cycles de développement et de validation successifs.

La validation de contenu est critique pour veiller à la qualité et à la fiabilité de vos solutions. C’est la raison pour laquelle il est essentiel de tester les modifications de contenu avant de les déployer en production.

L’image suivante illustre le cycle de vie du contenu Power BI et met en évidence la troisième phase au cours de laquelle vous validez le contenu.

Le diagramme montre le cycle de vie du contenu Power BI. La phase 3, qui concerne la validation du contenu, est mise en évidence.

Remarque

Pour obtenir une vue d’ensemble de la gestion de cycle de vie du contenu, consultez le premier article de cette série.

Cet article se concentre sur les considérations et décisions clés de la validation du contenu via son cycle de vie. Pour obtenir plus de conseils sur la façon de valider du contenu, consultez :

La validation de contenu implique la prise d’actions ou de mesures spécifiques pour veiller à ce que le contenu s’exécute comme prévu.

Lorsque vous validez du contenu, vous évaluez différents aspects de la solution.

Vous validez du contenu en effectuant plusieurs types de tests. Les sections suivantes présentent les principales considérations à prendre en compte concernant les décisions sur la façon dont les créateurs et les consommateurs de contenu effectuent des tests.

Remarque

De nombreuses équipes utilisent des méthodologies de test qui proviennent du développement logiciel, telles que les tests unitaires, les tests d’intégration et les tests de détection de fumée. Il existe plusieurs approches également valables pour les tests et la validation de contenu. L’élément le plus important est que vous testiez du contenu en utilisant une approche qui convient à vos besoins et aux méthodes de travail de votre équipe.

Décider de la façon dont les créateurs valident du contenu

Les créateurs de contenu doivent valider leurs propres modifications apportées au contenu pour veiller à leur qualité et fonctionnalité. Les tests se produisent généralement dans l’espace de travail de développement qui contient la dernière version opérationnelle d’une solution. Les créateurs de contenu testent leurs modifications avant le déploiement du contenu dans un espace de travail de test afin que l’utilisateur les valide.

Remarque

Il est indispensable que les créateurs de contenu valident leur contenu avant de le mettre à la disposition des utilisateurs. Si une solution ayant des problèmes évidents est fournie à des utilisateurs de test, la confiance vis-à-vis de la solution se détériore. Les utilisateurs s’attendent à voir une représentation acceptable du produit final, même lors des tests. En outre, une solution fonctionnelle permet aux utilisateurs de se concentrer sur l’identification des problèmes liés à leur domaine d’activé.

Les créateurs de contenu disposent de deux moyens de valider du contenu.

  • Tests manuels : les tests manuels impliquent une validation manuelle du contenu par une personne, via une évaluation subjective ou en comparant quelques critères objectifs de test. Les tests manuels sont faciles à effectuer, mais ils peuvent faire l’objet de partialités ou d’erreurs humaines. De plus, l’exécution correcte de tests manuels peut devenir fastidieuse lorsque du contenu atteint une certaine échelle. Vous pouvez effectuer des tests manuels de deux manières.
    • L’évaluation indépendante qui implique le test de votre contenu, tel que des modèles sémantiques et des rapports.
    • L’évaluation par un confrère qui implique une évaluation subjective du contenu afin de mesurer la solution de manière critique et offrir des suggestions pour l’améliorer.
  • Tests automatiques : les tests automatiques impliquent un test préparé à l’avance et évalué automatiquement sans intervention humaine. Les tests automatisés vérifient généralement des parties du code de la solution par rapport à des points de référence ou à des bases de références spécifiques. Les tests automatisés sont plus difficiles à effectuer et leur configuration exige du temps et des efforts. Cependant, les tests automatisés sont essentiels dans des scénarios d’entreprise afin de veiller à la qualité et à la fiabilité d’implémentations plus importantes et de solutions vitales pour l'entreprise.

Les sections suivantes présentent différentes manières permettant aux créateurs de contenu d’effectuer des tests manuels, des tests automatisés et des évaluations par des confrères.

Effectuer des tests manuels

Vous devez effectuer vos propres tests manuels sur le contenu que vous créez. Ces tests doivent veiller à ce que vos modifications fonctionnent comme prévu et respectent les normes de qualité souhaitées. Les tests manuels nécessitent généralement l’utilisation d’une évaluation subjective du contenu ou de modifications spécifiques apportées au contenu, ainsi qu’une description et une documentation des résultats.

Voici quelques considérations à prendre en compte lorsque vous testez votre contenu.

  • Décidez et documentez à l’avance les conditions du test et les critères de réussite.
  • Faites preuve de minutie en ce qui concerne le test et la documentation des résultats de test. Veillez toutefois à éviter les tests superflus afin que vos pratiques de test ne ralentissent pas le développement.
  • Créez un ensemble de tests standard pour chaque type d’élément à améliorer de façon répétée.
  • Documentez les résultats de test et les conclusions.
  • Testez plusieurs fois afin de veiller à ce que vos résultats de test reflètent au mieux la réalité, et non le hasard.
  • Utilisez des conditions de test représentant votre environnement de production.

Les sections suivantes présentent d’autres considérations importantes pour les tests manuels.

Tester manuellement des modèles sémantiques

Les modèles sémantiques constituent une partie importante de solution dans Fabric et Power BI, car ils sont une source en amont pour des rapports, tableaux de bord et d’autres outils clients et charges de travail Fabric. C’est pourquoi il est important de valider vos modèles sémantiques avant un déploiement.

Répondez à des questions telles que celles qui suivent pour vous permettre de valider votre modèle sémantique.

  • Les tables contiennent-elles des valeurs manquantes, en double ou incorrectes inattendues ?
  • Les mesures DAX renvoient-elles les résultats attendus sans temps de requête prolongé ?
  • L’exécution d’une actualisation planifiée s’effectue-t-elle correctement sans temps d’actualisation prolongé ?
  • Observez-vous des résultats (Vides) dans des visuels, filtres ou résultats de requête entraînés par des violations d’intégrité référentielle ?
  • La sécurité des données, telle que la sécurité au niveau des lignes (RLS) ou la sécurité au niveau des objets (OLS) empêche-t-elle suffisamment des individus non autorisés d’accéder au modèle ou à ses données ?
  • Les objets de modèle (comme des colonnes de table ou des mesures DAX) sont-ils organisés dans les dossiers d’affichage ?

Vous pouvez utiliser divers outils et approches pour vous aider à valider vos modèles sémantiques.

  • Power BI Desktop : Power BI Desktop vous permet de valider divers aspects de vos modèles sémantiques en utilisant des fonctionnalités variées. Des exemples de fonctionnalités Power BI Desktop facilitant les tests de modèles sémantiques incluent :
    • Canevas de visuels : testez l’exactitude et la fonctionnalité du modèle avec des visuels de type glisser-déplacer.
    • Affichage de requête DAX : tester l’exactitude d’un modèle et du code DAX avec des requêtes DAX que vous pouvez enregistrer et réutiliser plus tard.
    • Diagnostics de requête : testez le niveau de performance des actualisations en obtenant des informations de diagnostic sur la manière dont les requêtes sont évaluées dans Power Query.
  • Fabric : les fonctionnalités et les éléments du portail Fabric vous permettent de valider des aspects de votre modèle sémantique après son déploiement sur un espace de travail.
  • Pools tiers : les outils tiers vous permettent de valider d’autres aspects de votre modèle sémantique, soit en offrant plus d’informations ou d’autres fonctionnalité qui facilitent la validation. Des exemples d’outils tiers facilitant les tests de modèles sémantiques incluent :
    • DAX Studio : testez et optimisez le niveau de performance du code DAX en recevant des décompositions détaillées des plans de requêtes et des minutages de requêtes DAX.
    • Éditeur tabulaire : testez et déboguez l’exactitude du code DAX en recevant des décompositions détaillées sur la façon dont les requêtes DAX sont évaluées et sur le type de contexte d’évaluation actif.

Conseil

Vous pouvez utiliser des diagnostics de requête pour valider et optimiser manuellement le niveau de performance de Power Query à partir d’autres éléments qui l’utilisent, tels que les flux de données.

En outre, vous pouvez utiliser l’affichage de requête DAX et des outils tiers tels que DAX Studio pour valider et optimiser des requêtes DAX pour des rapports paginés et des cartes de performance.

Tester manuellement des rapports

Les rapports constituent un moyen courant permettant aux utilisateurs d’interagir avec vos données. De nombreux utilisateurs dépendent des rapports pour prendre des mesures et effectuer des actions afin de progresser dans la réussite de leurs objectifs professionnels. C’est pourquoi il est important de valider vos rapports avant un déploiement.

Répondez à des questions telles que celles qui suivent pour vous permettre de valider vos rapports.

  • Les rapports répondent-ils aux exigences métier documentées ?
  • Est-ce que les types de visuel appropriés sont utilisés pour répondre à la bonne question ?
  • Les pages de rapport sont-elles claires et concises sans aucune couleur écrasante ou un trop grand nombre de visuels ?
  • Le rapport fonctionne-t-il comme prévu lors du filtrage d’un sous-ensemble restreint de données ?
  • Le rapport permet-il d’exporter vers Excel et, dans l’affirmative, est-ce qu’il permet de récupérer des données résumées ou les données sous-jacentes ?
  • Le rapport peut-il être utilisé pour l’extraction de rapports croisés ou la personnalisation de visuels ?

Vous pouvez utiliser divers outils et approches pour vous aider à valider vos rapports.

  • Power BI Desktop : Power BI Desktop vous permet de valider divers aspects de vos rapports en utilisant des fonctionnalités variées. Des exemples de fonctionnalités Power BI Desktop facilitant les tests de rapports incluent :
  • Fabric : les fonctionnalités et les éléments du portail Fabric vous permettent de valider des aspects de votre rapport après son déploiement sur un espace de travail.
    • Mettre à jour l’application : testez la sécurité et la fonctionnalité du rapport lors de la distribution de rapports dans les applications Power BI et de la définition des audiences d’application différentes pour déterminer les utilisateurs pouvant consulter et le type de contenu. Quand vous utilisez des audiences d’application, vous pouvez prévisualiser les rapports auxquels elles ont accès et tester vous-même l’expérience d’application.
    • Mode Lecture dans l’espace de travail ou l’application : testez l’exactitude et la fonctionnalité du rapport en l’utilisant dans le même environnement qu’un utilisateur.

Remarque

Vous pouvez également développer et valider des tableaux de bord dans le portail Fabric.

Important

Il est indispensable de tester vos rapports dans Power BI Desktop et, après de déploiement, dans le portail Fabric. Le rendu du visuel peut se comporter différemment sur votre ordinateur local par rapport à des rapports dans un espace de travail Fabric. De plus, notez que l’expérience utilisateur lors de l’utilisation d’un rapport à partir d’un espace de travail ou d’une application diffère considérablement par rapport à l’utilisation d’un rapport dans Power BI Desktop.

Tests manuels via l’exécution d’une évaluation par un confrère

L’exécution d’une évaluation par un confrère consiste une autre façon de valider du contenu manuellement. Lors d’une évaluation par un confrère, le créateur de contenu fournit la solution ou une partie de la solution à un collègue pour qu’il l’évalue. L’objectif d’une évaluation par un confrère consiste à améliorer une solution en utilisant l’expérience collective et les connaissances de plusieurs créateurs de contenu. Vous pouvez effectuer une évaluation par un confrère pendant ou après des tests manuels et automatisés.

Remarque

L’évaluation par un confrère est une approche classique utilisée dans plusieurs secteurs d’activité. Cette approche est bien connue pour améliorer la qualité du contenu, des produits et des processus.

Conseil

Si vous êtes le seul créateur de contenu d’une solution, envisagez de trouver un autre créateur de contenu dans une équipe différente pour l’évaluation de votre solution et proposez-lui de faire la même chose.

Il existe plusieurs façons d’effectuer une évaluation par un confrère.

  • Évaluation fonctionnelle : une évaluation fonctionnelle se concentre sur les fonctionnalités, les processus ou les exigences métier que la solution doit respecter. Dans une évaluation fonctionnelle, les évaluateurs utilisent la solution comme s’ils étaient des utilisateurs finaux. Ils documentent tous les défauts et problèmes rencontrés, ainsi qu’une critique subjective pour améliorer l’implémentation.
  • Évaluation technique : une évaluation technique privilégie les aspects techniques de la solution, tels que le modèle de données, le code ou la conception. Lors d’une évaluation technique, les évaluateurs analysent comment certaines fonctionnalités ou modifications sont implémentées, et suggère d’autres approches ou met l’accent sur les risques ou défauts éventuels de l’approche actuelle.
  • Demande de tirage (pull request) : quand vous effectuez un contrôle de code source, vous créez une demande de tirage (pull request) afin de fusionner vos modifications avec la dernière version d’une solution. Un propriétaire technique évalue les modifications proposées et évalue le code source. Ce type d’évaluation est utile pour veiller à ce que le code respecte les conventions standard, telles que la mise en forme de code M ou DAX, ou l’identification de code éventuellement problématique ou d’anti-modèles.

Conseil

Nous vous recommandons d’effectuer un type d’évaluation formelle par un confrère et une approbation avant que les modifications apportées au contenu puisse passer aux tests d’acceptation utilisateur. La raison est simple : un contenu de qualité médiocre peut nuire à la confiance placée dans vos solutions de données, même pendant les tests. De plus, l’évaluation par un confrère présente également des avantages en termes de collaboration et de partage de connaissances entres les membres de l’équipe.

Après l’exécution d’un cycle d’évaluation par un confrère, vous devez documenter et incorporer toutes les modifications recommandées. Le cas échéant, vous devez soumettre à nouveau les modifications pour approbation avant de passer au test utilisateur. En général, plusieurs itérations d’évaluation par un confrère sont uniquement nécessaires lorsqu’il existe de nombreuses modifications ou quelques modifications complexes à tester.

Automatiser les tests

Les créateurs de contenu peuvent automatiser les tests afin qu’ils soient effectués automatiquement avant le déploiement. Les tests automatisés impliquent généralement des conditions de test préparées d’avance et orchestrées de manière programmatique pour répondre à certaines actions, telles que l’enregistrement de contenu et la nouvelle soumission d’une demande de tirage (pull request). Les résultats de tests automatisés sont automatiquement stockés à des fins de référence ultérieure et de documentation.

L’objectif d’un test automatisé consiste à réduire le temps et les efforts nécessaires pour valider des modifications de contenu, tout en améliorant la cohérence des tests et la fiabilité de leurs résultats. Lorsqu’un contenu ne réussit pas un test automatisé, son déploiement est généralement empêché jusqu’à la résolution des problèmes par le créateur du contenu.

Un test automatisé efficace est un élément clé de l’implémentation de DataOps. DataOps permet aux équipes d’automatiser et de mettre à l’échelle les processus en adoptant des pratiques qui améliorent et accélèrent la livraison des données et des analyses.

Important

Pour effectuer des tests automatisés de manière efficace, vous devez créer des tests bien conçus. La création de ces tests peut demander beaucoup de temps et d’efforts. Si vous définissez les conditions et attentes de vos tests de manière incorrecte, vos tests automatisés ne pourront pas valider les aspects appropriés de votre contenu et vous tirerez peu d’avantages à automatiser ces tests.

Conseil

Les tests automatisés sont plus avantageux lorsque vous les intégrez à votre déploiement de solution dans des scénarios de publication de contenu d’entreprise. Par exemple, vous pouvez automatiser des tests en utilisant Azure Pipelines dans le cadre d’un pipeline de validation, ce qui veille à ce que le contenu soit prêt pour le déploiement. Pour obtenir plus d’informations, voir Étape 4 : Déployer le contenu.

Les sections suivantes présentent des considérations importantes pour tester automatiquement des rapports et modèles sémantiques Power BI.

Tests automatisés des modèles sémantiques

Les tests automatisés de modèles sémantiques sont possibles, bien qu’ils nécessitent généralement une installation personnalisée avec des infrastructures et des outils tiers.

Vous pouvez utiliser divers outils et approches pour automatiser les tests de modèles sémantiques.

  • Best Practice Analyzer (BPA) : le Best Practice Analyzer vous permet de spécifier des règles que vous pouvez utiliser pour évaluer un modèle sémantique. Vous pouvez exécuter le BPA en utilisant l’Éditeur tabulaire qui identifie toutes les violations de règle dans un modèle sémantique. Vous pouvez automatiser les vérifications pour les violations de règle du BPA en tirant parti de l’interface de ligne de commande (CLI) de l’Éditeur tabulaire avec Azure DevOps, ou dans le cadre d’un autre processus planifié.
  • Lien sémantique et notebooks Fabric :les notebooks dans Fabric vous permettent d’utiliser un lien sémantique pour interagir de manière programmatique avec des modèles sémantiques. Vous pouvez utiliser des notebooks afin d’exécuter des infrastructures telles que Great Expectations (GX) pour valider des données. Vous pouvez en outre évaluer des mesures et des requêtes DAX, puis tester les résultats par rapport à des bases de références connues.
  • Power Automate :Power Automate vous permet d’exécuter des requêtes sur des modèles sémantiques et d’exporter des rapports en utilisant les API REST Power BI. Vous pouvez vérifier les résultats de la requête par rapport à des bases de référence connues, puis effectuer des actions en aval, comme le déclenchement d’alertes aux propriétaires de contenu.

Conseil

Envisagez de combiner les tests automatisés et l’orchestration de vos modèles sémantiques. Par exemple, vous pouvez exécuter des tests automatisés sur une source de données et un modèle sémantique avant une actualisation en tirant parti de notebooks et de Power Automate. Si les tests échouent, vous pouvez empêcher l’actualisation, ce qui peut également éviter l’arrivée d’erreurs d’actualisation ou de données incorrectes dans des rapports d’activité.

Tests automatisés des rapports

Il existe des options limitées disponibles pour automatiser les tests de rapports. Ces options s’appuient sur des outils externes ou des solutions de la communauté pour valider automatiquement les propriétés des visuels ou des rapports, telles que la validation des métadonnées de rapport ou la simulation des interactions des utilisateurs avec des rapports.

Vous pouvez utiliser divers outils et approches pour automatiser les tests de rapports.

  • Analyseurs des meilleures pratiques de rapport : il existe divers outils tiers qui prennent en charge une fonctionnalité de type Best Practice Analyzer pour automatiser la détection de problèmes dans des rapports via l’examen de la définition de rapport. Deux outils prenant en charge cette fonctionnalité sont PBI Explorer et PBI Inspector.
  • Power Automate Desktop : les outils d’automatisation d’interface utilisateur tels que Selenium for Python ou Power Automate Desktop vous permettent de simuler des interactions par souris de l’utilisateur avec des rapports. La définition d’un flux utilisateur vous permet de tester la navigation et les interactions. Ces tests réussissent lorsqu’ils peuvent terminer le flux et échouent quand ils détectent des images ou des mots spécifiques à l’écran (comme un message d’erreur ou un visuel vide).

Décider de la façon dont les utilisateurs valident du contenu

Une fois qu’un contenu réussit un test manuel, un test automatisé et une évaluation par un confrère, il peut passer au test utilisateur. Lorsque des utilisateurs testent du contenu, ils fournissent des commentaires subjectifs sur le respect des besoins métier par ce contenu et sur le fait que son fonctionnement répond à leurs attentes, notamment en termes de renvoi de résultats exacts.

La validation de l’utilisateur se produit généralement dans un espace de travail de test. Lorsque vous configurez un espace de travail de test, prenez en compte les considérations suivantes.

  • Créer une application test : si vous prévoyez de distribuer du contenu en utilisant une application Power BI, configurez une application test pour des utilisateurs test afin de valider le contenu. L’application test doit être identique à l’application que vous configurez en production. Dans la navigation de l’application test, envisagez d’inclure des liens pour la documentation, la formation et les formulaires de commentaires.
  • Approvisionner l’accès : identifiez un sous-ensemble d’utilisateurs dans la communauté qui va valider la solution. Contactez ces utilisateurs et établissez un accord sur le moment et la raison pour laquelle ils doivent valider ce contenu. Veillez ensuite à leur fournir l’accès au contenu et ajoutez-les aux rôles de sécurité appropriés. Partagez des liens vers le contenu ou l’application test avec les utilisateurs afin qu’ils puissent commencer les tests.
  • Configurer une actualisation planifiée : la validation utilisateur s’étend normalement sur une période plus longue. Il est utile de configurer une actualisation planifiée des éléments de données dans l’espace de travail de test afin que les utilisateurs effectuent des tests avec les données les plus récentes.

Important

Quand vous déployez du contenu dans un espace de travail de test, vous devez mettre à jour manuellement l’application avant que les utilisateurs puissent afficher les modifications apportées aux rapports et tableaux de bord.

Remarque

Vous ne pouvez pas déployer ou copier des applications d’un espace de travail dans un autre. Vous devez apporter manuellement des modifications à l’application dans la configuration de cet espace de travail.

Avant de commencer la validation utilisateur, vous devez effectuer les préparations nécessaires.

  • Planifiez le moment où la validation utilisateur doit se produire.
  • Spécifiez si la validation utilisateur se limite à une période spécifique ou fait partie d’un processus itératif.
  • Créez une méthode pour recueillir des commentaires, par exemple en tirant parti de Microsoft Forms.
  • Communiquez la planification et les attentes aux utilisateurs impliqués dans la validation.
  • Organisez un lancement de la validation utilisateur afin de guider les utilisateurs et gérer les attentes.
  • Animez une formation des utilisateurs pour expliquer la validation et le processus des commentaires.

Il existe différentes façons d’encourager la validation utilisateur du contenu.

  • Tests observatoires : les tests observatoires sont des sessions courtes où les créateurs de contenu regardent un ou plusieurs utilisateurs faire usage du contenu sans conseils ou instructions. Lors de ces sessions, les créateurs de contenu utilisent leurs observations pour identifier des défauts, problèmes éventuels ou des améliorations à apporter à la solution. Ces tests peuvent être de grande valeur, car leur organisation nécessite peu de temps et d’efforts et ils sont limités à des fonctionnalités spécifiques ou à des éléments d’une solution. Les tests observatoires sont plus avantageux pour obtenir des commentaires anticipés sur une conception ou une approche, comme avec une preuve de concept (POC).
  • Tests de groupes de discussion : les tests de groupes de discussion sont des sessions limitées organisées avec un petit groupe d’utilisateurs qui passe en revue le contenu ensemble. Ces groupes de discussion sont organisés de manière à sélectionner des parties prenantes clés et des experts techniques qui peuvent fournir les meilleurs commentaires sur certaines caractéristiques ou fonctionnalités. Les tests de groupes de discussion peuvent se produire au cours de plusieurs sessions interactives. Les tests de groupes de discussion nécessitent davantage de temps et d’efforts que les tests observatoires, mails ils fournissent des commentaires plus détaillés sur une solution.
  • Tests d’acceptation utilisateur :les tests d’acceptation utilisateur (UAT) constituent un processus formel où un groupe plus important d’individus de la communauté des utilisateurs valide et fournit des commentaires asynchrones sur une solution. L’organisation des UAT exige le plus de temps et d’efforts, mais il s’agit de la façon la plus approfondie d’effectuer un test utilisateur. Une fois que les utilisateurs test acceptent la solution et que les problèmes liés aux commentaires sont résolus, le contenu peut être déployé dans l’espace de travail de production.

Après avoir pris votre décision sur la procédure de validation du contenu, vous pouvez planifier la façon de le déployer sur et entre les espaces de travail.

Liste de vérification : voici les décisions et actions clés pour planifier la validation de contenu :

  • Concevoir et documenter les conditions de test : décrivez les tests que vous allez effectuer, ce qu’ils vont tester et la manière dont vous allez les réaliser.
  • Choisir un processus d’évaluation par un confrère : décrivez la ou les autres personnes qui vont valider le contenu, hormis vous.
  • Choisir une approche pour les tests manuels : déterminez les outils et fonctionnalités que vous allez utiliser pour valider le contenu que vous créez.
  • Déterminer si vous allez utiliser des tests automatisés : identifiez si la mise à l’échelle et l’étendue de votre contenu justifient votre configuration de tests automatisés. Dans l’affirmative, veillez à planifier le temps et les ressources nécessaires pour concevoir et implémenter ces tests afin qu’ils valident ce que vous prévoyez.
  • Déployer du contenu à partir de l’espace de développement vers l’espace de travail de test : déployez les modifications de l’espace de travail de développement vers l’espace de travail de test afin que les utilisateurs puissent voir les modifications. Vérifiez que vous avez effectué les activités postérieures au déploiement nécessaires dans l’espace de travail de test, telles que la configuration et la mise à jour d’une application test.
  • Déterminer une approche pour le test utilisateur : choisissez la façon dont les utilisateurs vont valider le contenu.
  • Identifier les utilisateurs test : déterminez la ou les personnes au sein la communauté des utilisateurs qui vont effectuer la validation du contenu. Parvenez à un accord avec ces individus sur l’étendue de leurs attentes et de leur participation.
  • Collecter les commentaires des utilisateurs : configurez des outils et des processus afin de recueillir automatiquement des commentaires. Par exemple, vous pouvez utiliser Tâches et Planificateur dans Microsoft Teams ou Microsoft Forms.
  • Documenter les résultats de test : documentez les résultats de la totalité de la validation de contenu et toute modification apportée du fait des résultats de test. Veillez à ce que cette documentation soit facile à trouver.
  • Planifier votre déploiement en production : une fois que le test utilisateur se termine, préparez le déploiement du contenu de l’espace de travail test vers l’espace de travail de production.

Dans l’article suivant de cette série, découvrez comment déployer du contenu dans le cadre de la gestion de cycle de vie du contenu.