Tactile et mouvements dans Xamarin.Android

Les écrans tactiles sur de nombreux appareils d’aujourd’hui permettent aux utilisateurs d’interagir rapidement et efficacement avec les appareils de manière naturelle et intuitive. Cette interaction ne se limite pas à la simple détection tactile : il est également possible d’utiliser des mouvements. Par exemple, le mouvement de pincement pour zoomer en est un exemple très courant en pinçant une partie de l’écran avec deux doigts que l’utilisateur peut effectuer un zoom avant ou arrière. Ce guide examine le toucher et les mouvements dans Android.

Vue d’ensemble de l’interaction

iOS et Android sont similaires dans la façon dont ils gèrent le toucher. Les deux peuvent prendre en charge le multipoint (de nombreux points de contact à l’écran) et les mouvements complexes. Ce guide présente certaines similitudes dans les concepts, ainsi que les particularités de l’implémentation du toucher et des mouvements sur les deux plateformes.

Android utilise un MotionEvent objet pour encapsuler des données tactiles et des méthodes sur l’objet View pour écouter les touches.

En plus de capturer des données tactiles, iOS et Android fournissent des moyens d’interpréter des modèles de touches en mouvements. Ces générateurs de reconnaissance de mouvements peuvent à leur tour être utilisés pour interpréter des commandes spécifiques à l’application, telles qu’une rotation d’une image ou un tour d’une page. Android fournit une poignée de mouvements pris en charge, ainsi que des ressources pour faciliter l’ajout de mouvements personnalisés complexes.

Que vous travailliez sur Android ou iOS, le choix entre les touches et les reconnaissances de mouvements peut être déroutant. Ce guide recommande en général d’accorder la préférence aux générateurs de reconnaissance de mouvements. Les reconnaissances de mouvements sont implémentées en tant que classes discrètes, qui permettent une séparation plus grande des préoccupations et une meilleure encapsulation. Cela facilite le partage de la logique entre différentes vues, ce qui réduit la quantité de code écrit.

Ce guide suit un format similaire pour chaque système d’exploitation : tout d’abord, les API tactiles de la plateforme sont introduites et expliquées, car elles constituent la base sur laquelle les interactions tactiles sont générées. Ensuite, nous plongeons dans le monde des reconnaissances de mouvements , d’abord en explorant certains mouvements courants et en terminant par la création de mouvements personnalisés pour les applications. Enfin, vous verrez comment suivre les doigts individuels à l’aide du suivi tactile de bas niveau pour créer un programme de peinture des doigts.

Sections

Résumé

Dans ce guide, nous avons examiné la touche dans Android. Pour les deux systèmes d’exploitation, nous avons appris à activer le tactile et à répondre aux événements tactiles. Ensuite, nous avons découvert les mouvements et certains des éléments de reconnaissance de mouvements fournis par Android et iOS pour gérer certains des scénarios les plus courants. Nous avons examiné comment créer des mouvements personnalisés et les implémenter dans les applications. Une procédure pas à pas a montré les concepts et les API pour chaque système d’exploitation en action, et vous avez également vu comment suivre les doigts individuels.