Recommandations pour optimiser les coûts de mise à l’échelle

S’applique à cette recommandation de liste de contrôle d’optimisation des coûts d’Azure Well-Architected Framework :

CO :12 Optimiser les coûts de mise à l’échelle. Évaluez une mise à l’échelle alternative au sein de vos unités d’échelle. Envisagez d’autres configurations de mise à l’échelle et alignez-vous sur le modèle de coût. Les considérations doivent inclure l’utilisation par rapport aux limites héritées de chaque limite de instance, de ressource et d’unité d’échelle. Utilisez des stratégies pour contrôler la demande et l’offre.

Ce guide fournit des recommandations pour optimiser les coûts de mise à l’échelle. L’optimisation des coûts de mise à l’échelle est le processus de suppression des inefficacités dans la mise à l’échelle de la charge de travail. L’objectif est de réduire les coûts de mise à l’échelle tout en répondant à toutes les exigences non fonctionnelles. Dépensez moins pour obtenir le même résultat. L’optimisation de la mise à l’échelle vous permet d’éviter les dépenses inutiles, le surapprovisionnement et le gaspillage. Il permet également d’éviter des pics de coûts inattendus en contrôlant la demande et en limitant l’offre. Les pratiques de mise à l’échelle inefficaces peuvent entraîner une augmentation de la charge de travail et des coûts opérationnels et affecter négativement l’intégrité financière globale de la charge de travail.

Définitions

Terme Définition
Mise à l’échelle automatique Approche de mise à l’échelle qui ajoute ou supprime automatiquement des ressources lorsqu’un ensemble de conditions est rempli.
Métriques de coût Données numériques liées au coût de la charge de travail.
Effectuer un scale-down Stratégie de mise à l’échelle verticale qui passe à une référence SKU inférieure pour fournir moins de ressources à la charge de travail.
Diminuer le nombre d’instances Stratégie de mise à l’échelle horizontale qui supprime les instances pour fournir moins de ressources à la charge de travail.
Scale-out Stratégie de mise à l’échelle horizontale qui ajoute des instances pour fournir plus de ressources à la charge de travail.
Unité d'échelle Groupe de ressources qui sont mises à l’échelle proportionnellement ensemble.
Monter en puissance Stratégie de mise à l’échelle verticale qui passe à une référence SKU plus élevée pour fournir plus de ressources à la charge de travail.
Référence SKU (Stock Keeping Unit) Un niveau de service pour un service Azure.
Données d’utilisation Les données d’utilisation sont des informations directes (réelles) ou indirectes/représentatives (proxy) sur la quantité d’une tâche, d’un service ou d’une application utilisée.

Stratégies de conception

L’objectif de l’optimisation des coûts de mise à l’échelle est d’effectuer un scale-up et d’effectuer un scale-out au dernier moment responsable et d’effectuer un scale-down et un scale-in dès que cela est pratique. Pour optimiser la mise à l’échelle de votre charge de travail, vous pouvez évaluer d’autres options de mise à l’échelle dans les unités d’échelle et les aligner sur le modèle de coût. Une unité d’échelle représente un regroupement spécifique de ressources qui peuvent être mises à l’échelle indépendamment ou ensemble. Vous devez concevoir des unités d’échelle pour gérer une quantité spécifique de charge, et elles peuvent comprendre plusieurs instances, serveurs ou autres ressources. Vous devez évaluer la rentabilité de vos unités d’échelle de charge de travail et des alternatives de modèle.

Si vous n’utilisez pas la mise à l’échelle, consultez conseils sur la mise à l’échelle de la charge de travail. Vous devez déterminer si votre application peut être mise à l’échelle. Les applications sans état sont plus faciles à mettre à l’échelle, car elles peuvent gérer plusieurs demandes en même temps. Évaluez également si l’application est générée à l’aide des principes des systèmes distribués. Les systèmes distribués peuvent gérer une charge accrue en répartissant la charge de travail sur plusieurs nœuds. Toutefois, une application singleton est conçue pour n’avoir qu’un seul instance en cours d’exécution à un moment donné. Par conséquent, la mise à l’échelle peut ne pas convenir à toutes les charges de travail.

Évaluer le scale-out et le scale-up

L’évaluation du scale-out par rapport au scale-up implique de déterminer l’approche la plus rentable entre l’augmentation des ressources dans un système existant (scale-up) ou l’ajout d’instances de ce système (scale-out) en fonction de différents facteurs tels que la tarification, les exigences de charge de travail et les temps d’arrêt acceptables. Le choix de la bonne approche de mise à l’échelle peut entraîner des économies importantes, ce qui vous permet de payer uniquement pour ce dont vous avez besoin tout en respectant les normes de performance et de fiabilité.

L’objectif est de déterminer le choix le plus rentable en fonction de la tarification du niveau de service, des caractéristiques de charge de travail, des temps d’arrêt acceptables et du modèle de coût. Pour certains, il peut être plus économique d’opter pour des instances plus coûteuses en moins de nombres. À l’inverse, pour d’autres, un niveau moins cher avec plus d’instances peut être préférable. Pour prendre une décision éclairée, vous devez analyser les données réelles ou représentatives de votre configuration et évaluer les avantages relatifs des coûts de chaque stratégie. Pour évaluer l’approche la plus rentable, tenez compte des recommandations suivantes :

  • Collecter des données d’utilisation : collectez des données de production réelles ou des données proxy qui représentent les modèles d’utilisation de la charge de travail et l’utilisation des ressources. Ces données doivent inclure des métriques telles que l’utilisation du processeur, l’utilisation de la mémoire, le trafic réseau et toutes les autres métriques pertinentes qui affectent le coût de la mise à l’échelle.

  • Définir des métriques de coût : identifiez les métriques de coût pertinentes pour votre charge de travail, telles que le coût par heure, le coût par transaction ou le coût par unité d’utilisation des ressources. Ces métriques vous aident à comparer la rentabilité de différentes options de mise à l’échelle.

  • Collecter des données d’utilisation : collectez des données de production réelles ou des données proxy qui représentent les modèles d’utilisation de la charge de travail et l’utilisation des ressources. Ces données doivent inclure des métriques telles que l’utilisation du processeur, l’utilisation de la mémoire, le trafic réseau et toutes les autres métriques pertinentes qui affectent le coût de la mise à l’échelle

  • Définir des métriques de coût : identifiez les métriques de coût pertinentes pour votre charge de travail, telles que le coût par heure, le coût par transaction ou le coût par unité d’utilisation des ressources. Ces métriques vous aident à comparer la rentabilité des différentes options de mise à l’échelle.

  • Reportez-vous aux exigences : lorsque vous décidez entre les stratégies de scale-out et de scale-up, tenez compte des exigences de fiabilité, de performances et de mise à l’échelle de votre charge de travail. Le scale-out peut améliorer la fiabilité grâce à la redondance. Le scale-up augmente la capacité d’une ressource, mais il peut y avoir des limites à ce que vous pouvez augmenter.

  • Tenez compte des limites de ressources : lors de l’évaluation des options de mise à l’échelle, il est important de prendre en compte les limites inhérentes de chaque instance, ressource et limite d’unité d’échelle. Tenez compte des limites de mise à l’échelle supérieures pour chaque ressource et planifiez en conséquence. En outre, gardez à l’esprit les limites de votre abonnement et d’autres ressources.

  • Mise à l’échelle des tests : créez des tests pour différents scénarios de mise à l’échelle, notamment des options de scale-out et de scale-up. En appliquant les données d’utilisation, simulez le comportement de la charge de travail sous différentes configurations de mise à l’échelle. Effectuez des tests réels à l’aide des scénarios de mise à l’échelle modélisés.

  • Calculer les coûts : utilisez les données collectées et les métriques de coût pour calculer les coûts associés à chaque configuration de mise à l’échelle. Tenez compte de facteurs tels que la tarification instance, l’utilisation des ressources et les coûts supplémentaires liés à la mise à l’échelle.

Optimiser la mise à l’échelle automatique

L’optimisation de la stratégie de mise à l’échelle automatique implique d’affiner la mise à l’échelle automatique pour réagir aux modifications de charge en fonction des exigences non fonctionnelles de la charge de travail. Vous pouvez limiter les activités de mise à l’échelle excessives en ajustant les seuils et en utilisant la période de refroidissement appropriée. Pour optimiser la mise à l’échelle automatique, tenez compte des recommandations suivantes :

  • Analyser la stratégie de mise à l’échelle automatique actuelle : comprendre la stratégie existante et son comportement en réponse aux différents niveaux de charge.

  • Reportez-vous aux exigences non fonctionnelles : identifiez les exigences non fonctionnelles spécifiques que vous devez prendre en compte, telles que le temps de réponse, l’utilisation des ressources ou le coût.

  • Ajuster les seuils de mise à l’échelle : ajustez les seuils de mise à l’échelle en fonction des caractéristiques de la charge de travail et des exigences non fonctionnelles. Définissez des seuils pour le scale-up ou le scale-down en fonction de facteurs tels que l’utilisation du processeur dans le temps, le trafic réseau ou la longueur de la file d’attente.

  • Ajuster une période de refroidissement : ajustez la période de refroidissement pour éviter les activités de mise à l’échelle excessives déclenchées par des pics de charge temporaires. Une période de refroidissement introduit un délai entre les événements de mise à l’échelle, ce qui permet au système de se stabiliser avant d’autres actions de mise à l’échelle.

  • Surveiller et affiner : surveillez en continu le comportement et les performances du système. Analysez les activités de mise à l’échelle et ajustez la stratégie en fonction des besoins pour optimiser les coûts et répondre aux exigences non fonctionnelles souhaitées.

Compromis : la réduction du nombre d’événements de mise à l’échelle augmente les risques de rencontrer des problèmes liés à la mise à l’échelle. Cela signifie que vous éliminez le coussin ou la mémoire tampon supplémentaire qui pourrait aider à gérer les problèmes potentiels ou les retards de mise à l’échelle.

Envisager la mise à l’échelle basée sur les événements

La mise à l’échelle automatique basée sur les événements permet à l’application d’ajuster dynamiquement les ressources en fonction d’événements ou de déclencheurs spécifiques plutôt que des métriques traditionnelles telles que l’utilisation du processeur ou de la mémoire. Par exemple, la mise à l’échelle automatique basée sur les événements Kubernetes (KEDA) peut mettre à l’échelle des applications en fonction de scalers tels que la longueur d’une rubrique Kafka. La précision permet d’éviter les fluctuations de mise à l’échelle inutiles et le gaspillage de ressources. Un niveau élevé de précision optimise finalement les coûts. Pour utiliser la mise à l’échelle basée sur les événements, procédez comme suit :

  • Choisir une source d’événement : déterminez la source d’événement qui déclenche la mise à l’échelle de votre unité d’échelle. Une source peut être une file d’attente de messages, une plateforme de streaming ou tout autre système piloté par les événements.

  • Configurer l’ingestion d’événements : configurez votre application pour qu’elle consomme des événements à partir de la source d’événement choisie. Cela implique généralement l’établissement d’une connexion, l’abonnement aux rubriques ou files d’attente pertinentes et le traitement des événements entrants.

  • Implémenter la logique de mise à l’échelle : écrivez la logique qui détermine quand et comment votre unité d’échelle doit être mise à l’échelle en fonction des événements entrants. Cette logique doit prendre en compte des facteurs tels que le nombre d’événements, le taux d’événements entrants ou toute autre métrique pertinente.

  • Intégrer aux mécanismes de mise à l’échelle : selon l’environnement d’exécution de votre application, vous pouvez utiliser différents mécanismes de mise à l’échelle pour ajuster les ressources allouées à l’application.

  • Configurer des règles de mise à l’échelle : définissez les règles de mise à l’échelle qui spécifient la façon dont votre unité d’échelle doit être mise à l’échelle en réponse aux événements. Ces règles peuvent être basées sur des seuils, des modèles ou tout autre critère qui s’aligne sur les exigences de votre application. Les seuils de mise à l’échelle doivent être liés aux métriques métier. Par exemple, si vous ajoutez deux instances supplémentaires, vous pouvez prendre en charge 50 utilisateurs supplémentaires dans le traitement du panier d’achat.

  • Tester et surveiller : validez le comportement de votre implémentation de mise à l’échelle basée sur les événements en la testant avec différents scénarios d’événements. Surveillez les actions de mise à l’échelle et assurez-vous que les actions correspondent à vos attentes.

Compromis La configuration et le réglage précis de la mise à l’échelle automatique basée sur les événements peuvent être complexes, et une configuration incorrecte peut entraîner un sur-approvisionnement ou un sous-approvisionnement des ressources.

Optimiser la demande et l’offre

Contrôlez la demande par rapport à votre offre. Sur les charges de travail où l’utilisation détermine la mise à l’échelle, le coût est en corrélation avec la mise à l’échelle. Pour optimiser les coûts de mise à l’échelle, vous pouvez réduire les dépenses de mise à l’échelle. Vous pouvez décharger la demande en distribuant la demande à d’autres ressources, ou vous pouvez réduire la demande en implémentant des files d’attente prioritaires, le déchargement de passerelle, la mise en mémoire tampon et la limitation du débit. Les deux stratégies peuvent éviter des coûts indésirables en raison de la mise à l’échelle et de la consommation de ressources. Vous pouvez également contrôler l’approvisionnement en plafonnant les limites de mise à l’échelle. Pour optimiser l’offre et la demande de charge de travail, tenez compte des recommandations suivantes.

Demande de déchargement

Le déchargement de la demande fait référence à la pratique de distribution ou de transfert de la demande de ressources vers d’autres ressources ou services. Vous pouvez utiliser différentes technologies ou stratégies :

  • Mise en cache : utilisez la mise en cache pour stocker les données ou le contenu fréquemment consultés, ce qui réduit la charge sur votre infrastructure back-end. Par exemple, utilisez des réseaux de distribution de contenu (CDN) pour mettre en cache et distribuer du contenu statique, ce qui réduit la nécessité de mettre à l’échelle le back-end. Toutefois, toutes les charges de travail ne peuvent pas mettre en cache les données. Les charges de travail qui nécessitent des données à jour et en temps réel, telles que les charges de travail de trading ou de jeu, ne doivent pas utiliser de cache. Les données mises en cache seraient anciennes et non pertinentes pour l’utilisateur.

    Compromis. La mise en cache peut présenter des défis en termes d’invalidation du cache, de cohérence et de gestion de l’expiration du cache. Il est important de concevoir et d’implémenter avec soin des stratégies de mise en cache pour éviter les compromis potentiels.

  • Déchargement de contenu : déchargez le contenu vers des services ou plateformes externes pour réduire la charge de travail sur votre infrastructure. Par exemple, au lieu de stocker des fichiers vidéo sur votre serveur principal, vous pouvez héberger ces fichiers dans un service de stockage distinct indépendant de votre serveur principal. Vous pouvez charger ces fichiers volumineux directement à partir du service de stockage. Cette approche libère des ressources sur vos serveurs, ce qui vous permet d’utiliser un serveur plus petit. Il peut être moins cher de stocker des fichiers volumineux dans un magasin de données distinct. Vous pouvez utiliser un CDN pour améliorer les performances.

  • Équilibrage de charge : distribuez les requêtes entrantes sur plusieurs serveurs à l’aide de l’équilibrage de charge. L’équilibrage de charge répartit uniformément la charge de travail et empêche tout serveur unique de se surcharger. Les équilibreurs de charge optimisent l’utilisation des ressources et améliorent l’efficacité de votre infrastructure.

  • Déchargement de base de données : réduisez la charge sur votre serveur d’applications main en déchargeant les opérations de base de données vers un serveur de base de données distinct ou un service spécialisé. Par exemple, utilisez un CDN pour la mise en cache de contenu statique et un cache Redis pour la mise en cache de contenu dynamique (données de base de données). Des techniques telles que le partitionnement de base de données, les réplicas en lecture ou l’utilisation de services de base de données managés peuvent également réduire la charge.

    Compromis: Le déchargement de tâches spécifiques vers d’autres ressources permet de réduire ou d’éviter une mise à l’échelle et des coûts supplémentaires associés à la mise à l’échelle. Toutefois, il est important de prendre en compte les défis opérationnels et de maintenance qui peuvent résulter du déchargement. La réalisation d’une analyse complète des coûts et des avantages est cruciale lors de la sélection des techniques de déchargement les plus appropriées pour votre charge de travail. Cette analyse garantit que la méthode choisie est à la fois efficace et réalisable par rapport aux économies prévues et à la complexité opérationnelle.

Réduire la demande

La réduction de la demande de ressources implique d’implémenter des stratégies qui permettent de réduire l’utilisation des ressources dans une charge de travail. Le déchargement de la demande déplace la demande vers d’autres ressources. La réduction de la demande diminue la demande sur la charge de travail. La réduction de la demande vous permet d’éviter de suravisionner les ressources et de payer la capacité inutilisée ou sous-utilisée. Vous devez utiliser des modèles de conception au niveau du code pour réduire la demande de ressources de charge de travail. Pour réduire la demande par le biais de modèles de conception, procédez comme suit :

  • Comprendre les modèles de conception : familiarisez-vous avec les différents modèles de conception qui favorisent l’optimisation des ressources.

  • Analyser les exigences de charge de travail : évaluez les exigences spécifiques de votre charge de travail, notamment ses modèles de demande attendus, ses charges de pointe et ses besoins en ressources.

  • Sélectionner les modèles de conception appropriés : choisissez les modèles de conception qui s’alignent sur les exigences et les objectifs de votre charge de travail. Par exemple, si votre charge de travail rencontre une demande fluctuante, des modèles de mise à l’échelle et de limitation pilotés par les événements peuvent aider à gérer la charge de travail en allouant dynamiquement des ressources. Appliquez les modèles de conception sélectionnés à votre architecture de charge de travail. Vous devrez peut-être séparer les composants de charge de travail, conteneuriser des applications, optimiser l’utilisation du stockage, etc.

  • Surveiller et optimiser en continu : évaluez régulièrement l’efficacité des modèles de conception implémentés et ajustez en fonction des besoins. Surveillez l’utilisation des ressources, les métriques de performances et les opportunités d’optimisation des coûts.

En suivant ces étapes et en utilisant des modèles de conception appropriés, vous pouvez réduire la demande de ressources, optimiser les coûts et garantir le fonctionnement efficace de leurs charges de travail.

Utilisez ces modèles de conception pour réduire la demande :

  • Cache de côté : le modèle vérifie le cache pour voir si les données sont déjà stockées en mémoire. Si les données se trouvent dans le cache, l’application peut récupérer et retourner rapidement les données, ce qui réduit la nécessité d’interroger le magasin de données persistant.

  • Revendication case activée : en séparant les données du flux de messagerie, ce modèle réduit la taille des messages et prend en charge une solution de messagerie plus économique.

  • Consommateurs concurrents : ce modèle gère efficacement les éléments d’une file d’attente en appliquant un traitement distribué et simultané. Ce modèle de conception optimise les coûts en mettant à l’échelle en fonction de la profondeur de la file d’attente et en définissant des limites sur le nombre maximal d’instances de consommateur simultanées.

  • Consolidation des ressources de calcul : ce modèle augmente la densité et consolide les ressources de calcul en combinant plusieurs applications ou composants sur l’infrastructure partagée. Il optimise l’utilisation des ressources, en évitant la capacité provisionnée inutilisée et en réduisant les coûts.

  • Empreintes de déploiement : l’utilisation de tampons de déploiement offre plusieurs avantages, tels que la géo-distribution de groupes d’appareils, le déploiement de nouvelles fonctionnalités sur des empreintes spécifiques et l’observation du coût par appareil. Les tampons de déploiement permettent une meilleure scalabilité, une tolérance de panne et une utilisation efficace des ressources.

  • Déchargement de passerelle : ce modèle décharge le traitement des demandes dans un appareil de passerelle, redirigeant les coûts des ressources par nœud vers l’implémentation de la passerelle. L’utilisation de ce modèle de conception peut entraîner un coût de possession inférieur dans un modèle de traitement centralisé.

  • Serveur de publication/abonné : ce modèle dissocie les composants d’une architecture, en remplaçant la communication directe par un répartiteur de messages intermédiaire ou un bus d’événements. Il permet une approche pilotée par les événements et une facturation basée sur la consommation, en évitant le surapprovisionnement.

  • Nivellement de charge basé sur la file d’attente : le modèle met en mémoire tampon les requêtes ou tâches entrantes dans une file d’attente. La mise en mémoire tampon lisse la charge de travail et réduit la nécessité d’un surapprovisionnement des ressources pour gérer les pics de charge. Les demandes entrantes sont traitées de manière asynchrone pour réduire les coûts.

  • Partitionnement : ce modèle dirige des requêtes spécifiques vers une destination logique, ce qui permet des optimisations avec la colocalisation des données. Le partitionnement peut entraîner des économies en utilisant plusieurs instances de ressources de calcul ou de stockage de spécifications inférieures.

  • Hébergement de contenu statique : ce modèle fournit du contenu statique efficacement à l’aide d’une plateforme d’hébergement conçue à cet effet. Il évite l’utilisation d’hôtes d’applications dynamiques plus coûteux, ce qui optimise l’utilisation des ressources.

  • Limitation : ce modèle limite le débit (limitation du débit) ou le débit des demandes entrantes à une ressource ou à un composant. Il permet d’informer la modélisation des coûts et peut être lié directement au modèle d’entreprise de l’application.

  • Clé de valet : ce modèle accorde un accès sécurisé et exclusif à une ressource sans impliquer davantage de composants, ce qui réduit le besoin de ressources intermédiaires et améliore l’efficacité.

Contrôler l’approvisionnement

La définition d’une limite supérieure sur la quantité que vous êtes prêt à dépenser pour une ressource ou un service particulier est un moyen de contrôler l’approvisionnement. Il s’agit d’une stratégie importante pour contrôler les coûts et s’assurer que les dépenses ne dépassent pas un certain niveau. Établissez un budget et surveillez les dépenses pour vous assurer qu’elles restent dans le montant défini. Vous pouvez utiliser des plateformes de gestion des coûts, des alertes budgétaires ou le suivi des modèles d’utilisation et de dépense. Certains services vous permettent de limiter l’offre et de limiter les taux, et vous devez utiliser ces fonctionnalités lorsque cela est utile.

Le contrôle de l’offre fait référence à la définition d’une limite supérieure sur le montant que vous êtes prêt à dépenser pour une ressource ou un service particulier. Il s’agit d’une stratégie importante, car elle permet de contrôler les coûts et de garantir que les dépenses ne dépassent pas un certain niveau. Établissez un budget et surveillez les dépenses pour vous assurer qu’elles restent dans le seuil défini. Vous pouvez utiliser des plateformes de gestion des coûts, des alertes budgétaires ou le suivi des modèles d’utilisation et de dépense. Certains services vous permettent de limiter l’offre et de limiter les taux, et vous devez utiliser ces fonctionnalités lorsque cela est utile.

Compromis : Des limites plus strictes peuvent entraîner des opportunités de mise à l’échelle manquées lorsque la demande augmente, ce qui peut avoir un impact sur l’expérience utilisateur. Cela peut entraîner des arrêts ou ne pas pouvoir répondre à la charge. Il est important de trouver un équilibre entre l’optimisation des coûts et la garantie que vous disposez de ressources suffisantes pour répondre aux besoins de votre entreprise.

Facilitation Azure

Évaluation du scale-out par rapport au scale-up : Azure fournit un environnement de test dans lequel vous pouvez déployer et tester différentes configurations de mise à l’échelle. En utilisant les données de charge de travail réelles ou les données proxy, vous pouvez simuler des scénarios réels et mesurer les effets sur les coûts. Azure offre des outils et des services pour le test des performances, le test de charge et la surveillance, qui peuvent vous aider à évaluer la rentabilité des options de scale-out par rapport aux options de scale-up.

Azure fournit des recommandations de gestion des coûts par le biais de différents outils et services, tels que Azure Advisor. Ces recommandations analysent vos modèles d’utilisation, l’utilisation des ressources et les configurations de mise à l’échelle pour fournir des insights et des suggestions pour optimiser les coûts.

Test de charge Azure est un service de test de charge complètement managé qui génère une charge à grande échelle. Il simule un trafic pour vos applications, quel que soit l’endroit où elles sont hébergées. Les développeurs, les testeurs et les ingénieurs de l’assurance qualité (QA) peuvent utiliser le test de charge pour optimiser les performances, l’extensibilité ou la capacité des applications.

Optimisation de la mise à l’échelle automatique : de nombreux services de calcul Azure prennent en charge le déploiement de plusieurs instances identiques et le réglage rapide des seuils et des stratégies de mise à l’échelle. Azure fournit des fonctionnalités de mise à l’échelle automatique qui vous permettent d’ajuster automatiquement le nombre d’instances ou de ressources en fonction de la demande de charge de travail. Vous pouvez définir des règles de mise à l’échelle et des seuils pour déclencher des actions de scale-out ou de scale-in. En utilisant la mise à l’échelle automatique, vous pouvez optimiser l’allocation des ressources et la rentabilité en mettant à l’échelle dynamiquement les ressources en fonction de la demande réelle.

Azure gère une liste de limites d’abonnement et de service. Il existe une limite générale au nombre d’instances d’une ressource que vous pouvez déployer dans chaque groupe de ressources, à quelques exceptions près. Pour plus d’informations, consultez Limites de instance de ressources par groupe de ressources.

Optimisation de l’offre et de la demande : Azure Monitor fournit des informations sur les performances et l’intégrité de vos applications et de votre infrastructure. Vous pouvez utiliser Azure Monitor pour surveiller la charge sur vos ressources et analyser les tendances au fil du temps. En utilisant des métriques et des journaux collectés par Azure Monitor, vous pouvez identifier les zones où des ajustements de mise à l’échelle peuvent être nécessaires. Ces informations peuvent guider l’affinement de votre stratégie de mise à l’échelle automatique pour s’assurer qu’elle s’aligne sur les exigences non fonctionnelles et les objectifs d’optimisation des coûts.

  • Déchargement de l’approvisionnement : Azure dispose d’un réseau de distribution de contenu (CDN) cloud moderne appelé Azure Front Door et de services de mise en cache (Azure Cache pour Redis et Azure HPC Cache). Le CDN met en cache le contenu au plus près des utilisateurs finaux, ce qui réduit la latence du réseau et améliore les temps de réponse. La mise en cache stocke une copie des données devant le magasin de données main, ce qui réduit le besoin de requêtes répétées pour le back-end. En utilisant cdn et les services de mise en cache, vous pouvez optimiser les performances et réduire la charge sur les serveurs pour des économies potentielles.

  • Contrôle de l’approvisionnement : Azure vous permet également de définir des limites de ressources pour votre charge de travail cloud. En définissant des limites de ressources, vous pouvez vous assurer que votre charge de travail reste dans les ressources allouées et éviter des coûts inutiles. Azure fournit différents mécanismes pour définir des limites de ressources, tels que les quotas, les stratégies et les alertes budgétaires. Ces mécanismes vous aident à surveiller et à contrôler l’utilisation des ressources.

    Gestion des API pouvez évaluer la limite et limiter les demandes. La possibilité de limiter les requêtes entrantes est un rôle clé du service Gestion des API Azure. En contrôlant la fréquence des requêtes ou le nombre total de requêtes/données transférées, Gestion des API permet aux fournisseurs d’API de protéger leurs API contre les abus et de créer de la valeur pour différents niveaux de produits API.

Liste de contrôle d’optimisation des coûts

Reportez-vous à l’ensemble complet de recommandations.