Scénario de streaming de donnéesData Streaming scenario

Idée de solution Solution Idea

Si vous souhaitez nous voir développer cet article avec d’autres informations, les détails de l’implémentation, le guide de tarification ou des exemples de code, faites-le-nous savoir avec les Commentaires de GitHub !If you'd like to see us expand this article with more information, implementation details, pricing guidance, or code examples, let us know with GitHub Feedback!

Utilisez AKS pour ingérer et traiter facilement un flux de données en temps réel avec des millions de points de données collectés via des capteurs.Use AKS to easily ingest & process a real-time data stream with millions of data points collected via sensors. Effectuez une analyse et des calculs rapides pour développer rapidement des insights dans des scénarios complexes.Perform fast analysis and computations to develop insights into complex scenarios quickly.

ArchitectureArchitecture

Diagramme d’architecture Télécharger une SVG de cette architecture.Architecture Diagram Download an SVG of this architecture.

Data FlowData Flow

  1. Les données de capteur sont générées puis transmises au service Gestion des API Azure.Sensor data is generated and streamed to Azure API Management.
  2. Le cluster AKS exécute les microservices déployés en tant que conteneurs derrière un maillage de service.AKS cluster runs microservice that are deployed as containers behind a service mesh. Des conteneurs sont générés à l’aide d’un processus de DevOps et stockés dans Azure Container Registry.Containers are built using a DevOps process and stored in Azure Container Registry.
  3. Le service d’ingestion stocke les données dans une base de données Azure Cosmos DB.Ingest service stores data in a Azure Cosmos DB
  4. Le service d’analyse reçoit les données de manière asynchrone et les diffuse vers Apache Kafka et Azure HDInsight.Asynchronously, the Analysis service receives the data and streams it to Apache Kafka and Azure HDInsight.
  5. Les scientifiques des données peuvent analyser le Big Data pour une utilisation dans les modèles Machine Learning à l’aide de Splunk.Data scientists can analyze the large big data for use in machine learning models using Splunk.
  6. Les données sont traitées par le service de traitement, qui stocke le résultat dans Azure Database pour PostgreSQL et met en cache les données dans un Azure Cache pour Redis.Data is processed by the processing service which stores the result in Azure Database for PostgreSQL and caches the data in an Azure Cache for Redis.
  7. Une application web s’exécutant dans Azure App Service est utilisée pour visualiser les résultats.A web app running in Azure App Service is used to visualize the results.