Interaktionsmodelle

Abgeschlossen

Mithilfe des Mixed Reality Toolkits können Sie eine Vielzahl von Eingabequellen wie etwa Bewegungen nach dem 6DoF-Prinzip (sechs Freiheitsgrade), Handgesten oder Spracheingaben nutzen. Denken Sie über die Ziele Ihrer Benutzer*innen nach, und berücksichtigen Sie alle Umgebungsfaktoren, die sich auf ihre Nutzung auswirken können, um das beste Interaktionsmodell für Ihre App zu ermitteln.

Es gibt drei primäre Interaktionsmodelle, die sich für den Großteil der Mixed-Reality-Umgebungen eignen. Obwohl Sie Teile verschiedener Interaktionsmodelle in Ihrer App kombinieren können, sollten Sie dies zuvor sorgfältig überdenken. Dadurch entsteht das Risiko konkurrierender Benutzereingaben wie gleichzeitige Handstrahlen und Kopf-Anvisier-Cursor, was Benutzer*innen überfordern und verwirren kann.

Hand- und Bewegungscontroller-Modell

Für das Hand- und Bewegungscontroller-Modell muss der Benutzer eine oder beide Hände verwenden, um mit der holografischen Welt zu interagieren. Bei diesem Modell wird die Grenze zwischen der virtuellen und der physischen Realität aufgehoben.

Zu den spezifischen Szenarien gehören:

  • Bereitstellen von virtuellen 2D-Bildschirmen für Information Worker mit Angeboten auf der Benutzeroberfläche zum Anzeigen und Steuern der Inhalte
  • Bereitstellen von Tutorials und Anleitungen für First Line-Mitarbeiter am Fließband
  • Entwickeln von professionellen Werkzeugen für die Unterstützung und Ausbildung von Medizinern
  • Verwenden von virtuellen 3D-Objekten zum Schmücken der Realwelt oder zum Erstellen einer anderen Welt
  • Erstellen von standortbezogenen Diensten und Spielen mit der Natur als Hintergrund

Es gibt drei Modi für Hand- und Bewegungscontroller:

  • Direkte Manipulation mit den Händen
  • Zeigen und Bestätigen mit den Händen
  • Bewegungscontroller

Freihändiges Modell

Wie der Name schon sagt, ermöglicht das freihändige Modell Benutzer*innen die Interaktion mit holografischen Inhalten ohne die Verwendung ihrer Hände. Stattdessen können sie Spracheingaben verwenden oder Objekte anvisieren und im Blick behalten.

Zu den spezifischen Szenarien gehören:

  • Geleiten durch eine Aufgabe, während Benutzer*innen ihre Hände für etwas anderes benötigen
  • Nachschlagen in der Dokumentation, während die Hände des Benutzers beschäftigt sind
  • Ermüden der Hände
  • Handschuhe, die nicht nachverfolgt werden können
  • Tragen von Gegenständen in den Händen
  • Wenn große Handgesten in einer sozialen Situation unangemessen sind
  • Beengte Raumverhältnisse

Anvisieren und Bestätigen

Das Anvisieren und Bestätigen eignet sich vor allem für die Interaktion mit holografischen Inhalten außerhalb ihrer Reichweite. Benutzer visieren ein Objekt oder Benutzeroberflächenelement an und wählen es mithilfe einer sekundären Eingabe aus („bestätigen“). Zu den Bestätigungsmethoden gehören Sprachbefehle, ein Tastendruck oder eine Handbewegung.

Es gibt zwei Arten von Eingabe per Anvisieren (Anvisieren per Kopf und Anvisieren per Auge) und verschiedene Bestätigungsaktionen.