Interaktionsfähiges Objekt

Interaktivierbare Objekte

Eine Schaltfläche ist seit langem eine Metapher zum Auslösen eines Ereignisses in der abstrakten 2D-Welt. In der dreidimensionalen Mixed Reality-Welt müssen wir uns nicht mehr auf diese Abstraktionswelt beschränken. Alles kann ein interaktionsfähiges Objekt sein, das ein Ereignis auslöst. Ein interaktives Objekt kann alles sein, von einer Kaffeetasse auf einem Tisch bis hin zu einem Luftballon in der Luft. Wir verwenden weiterhin herkömmliche Schaltflächen in bestimmten Situationen, z. B. in der Benutzeroberfläche des Dialogs. Die visuelle Darstellung der Schaltfläche hängt vom Kontext ab.



Wichtige Eigenschaften des interaktivierbaren Objekts

Visuelle Hinweise

Visuelle Hinweise sind sensorische Hinweise von Licht, die vom Auge empfangen und während der visuellen Wahrnehmung vom visuellen System verarbeitet werden. Da das visuelle System bei vielen Arten, insbesondere menschen, vorherrschend ist, sind visuelle Hinweise eine große Informationsquelle für die Wahrnehmung der Welt.

Da die holografischen Objekte mit der realen Umgebung in Mixed Reality kombiniert werden, kann es schwierig sein, zu verstehen, mit welchen Objekten Sie interagieren können. Für alle interaktiven Objekte in Ihrer Benutzeroberfläche ist es wichtig, für jeden Eingabezustand differenzierte visuelle Hinweise bereitzustellen. Dies hilft dem Benutzer zu verstehen, welcher Teil Ihrer Benutzeroberfläche interagierbar ist, und macht den Benutzer mithilfe einer konsistenten Interaktionsmethode sicher.



Far-Interaktionen

Für alle Objekte, die Der Benutzer mit Anvieren, Handstrahl und Dem Strahl des Bewegungscontrollers interagieren kann, empfiehlt es sich, unterschiedliche visuelle Hinweise für diese drei Eingabezustände zu verwenden:

Interaktivierbares Objekt mit Standardzustand
Standardzustand (Beobachtung)
Standardzustand des Objekts im Leerlauf. Der Cursor befindet sich nicht im -Objekt. Hand wird nicht erkannt.

Interaktivierbares Objekt mit Ziel- und Mauszeigerzustand
Zielzustand (Hover)
Wenn das Objekt mit dem Anvisierten cursor, finger proximity oder motion controller es pointer (Zeiger des Bewegungscontrollers) als Ziel verwendet wird. Der Cursor befindet sich im -Objekt. Hand wird erkannt, bereit.

Interaktivierbares Objekt mit gedrücktem Zustand
Gedrückter Zustand
Wenn das Objekt mit einer Geste zum Tippen in die Luft gedrückt wird, drücken Sie den Finger oder die Auswahlschaltfläche des Bewegungscontrollers. Der Cursor befindet sich im -Objekt. Die Hand wird erkannt, die Luft wird angetippt.



Sie können Techniken wie Hervorhebung oder Skalierung verwenden, um visuelle Hinweise für den Eingabezustand des Benutzers bereitzustellen. In Mixed Reality finden Sie Beispiele für die Visualisierung verschiedener Eingabezustände auf dem Startmenü und mit Schaltflächen auf der App-Leiste.

Diese Zustände sehen auf einer holografischen Schaltfläche wie folgt aus:

Holografische Schaltfläche im Standardzustand
Standardzustand (Beobachtung)

Holografische Schaltfläche im Ziel- und Mauszeigerzustand
Zielzustand (Hover)

Holografische Schaltfläche im gedrückten Zustand
Gedrückter Zustand



Nahinteraktionen (direkt)

HoloLens 2 unterstützt artikulierte Eingaben für die Handnachverfolgung, mit denen Sie mit Objekten interagieren können. Ohne haptisches Feedback und perfekte Tiefenerkennung kann es schwierig sein, zu erkennen, wie weit Ihre Hand von einem Objekt entfernt ist oder ob Sie es berühren. Es ist wichtig, genügend visuelle Hinweise bereitzustellen, um den Zustand des Objekts zu kommunizieren, insbesondere den Zustand Ihrer Hände basierend auf diesem Objekt.

Verwenden Sie visuelles Feedback, um die folgenden Zustände zu kommunizieren:

  • Standard (Beobachtung): Standard-Leerlaufzustand des Objekts.
  • Zeigen Sie auf : Wenn sich eine Hand in der Nähe eines Hologramms befindet, ändern Sie visuals, um zu kommunizieren, dass die Hand hologrammzielt.
  • Abstand und Interaktionspunkt: Wenn sich die Hand einem Hologramm nähert, entwerfen Sie Feedback, um den projizierten Interaktionspunkt zu kommunizieren und wie weit der Finger vom Objekt entfernt ist.
  • Kontakt beginnt: Ändern von Visuals (Hell, Farbe), um zu kommunizieren, dass eine Berührung aufgetreten ist
  • Erfasst: Ändern von Visuals (Hell, Farbe), wenn das Objekt erfasst wird
  • Kontakt endet: Visuals ändern (Hell, Farbe), wenn die Berührung beendet wurde


Zeigen mit dem Mauszeiger (weit)
Zeigen mit dem Mauszeiger (weit)
Hervorhebung basierend auf der Nähe der Hand.

Zeigen mit dem Mauszeiger (nah)
Bewegen des Mauszeigers (nah)
Heben Sie Größenänderungen basierend auf dem Abstand zur Hand hervor.

Toucheingabe/Drücken
Toucheingabe/Drücken
Visuelles und Audiofeedback.

Begreifen
Begreifen
Visuelles und Audiofeedback.




Eine Schaltfläche auf HoloLens 2 ist ein Beispiel dafür, wie die verschiedenen Eingabeinteraktionszustände visualisiert werden:

Standard
Standard

Darauf zeigen (Hover)
Darauf zeigen (Hover)
Zeigen Sie einen näherungsbasierten Beleuchtungseffekt an.

Toucheingabe
Toucheingabe
Show effect (Effekt "Welleneffekt anzeigen").

Tastenkombination
Tastenkombination
Verschieben Sie die Vorderseite.



Der visuelle Hinweis "Ring" auf HoloLens 2

Auf HoloLens 2 gibt es einen zusätzlichen visuellen Hinweis, der dem Benutzer bei der Wahrnehmung der Tiefe helfen kann. Ein Ring in der Nähe der Fingerspitze wird nach oben angezeigt und herunterskaliert, wenn sich die Fingerspitze dem Objekt nähert. Der Ring konvergiert schließlich zu einem Punkt, wenn der gedrückte Zustand erreicht wird. Dieses visuelle Erscheinungsbild hilft dem Benutzer zu verstehen, wie weit er vom Objekt entfernt ist.

Videoschleife: Beispiel für visuelles Feedback basierend auf der Nähe zu einem Begrenzungsfeld

space
Visuelles Feedback zur Handnähe



Audiohinweise

Bei direkten Handinteraktionen kann das richtige Audiofeedback die Benutzerfreundlichkeit erheblich verbessern. Verwenden Sie Audiofeedback, um die folgenden Hinweise zu kommunizieren:

  • Kontakt beginnt: Sound wiedergeben, wenn die Berührung beginnt
  • Kontakt endet: Sound auf Touch-Ende wiedergeben
  • Greifen beginnt: Sound wiedergeben, wenn der Grabbing gestartet wird
  • Ende der Nahme: Sound wiedergeben, wenn die Grabbing-Klammer endet


Sprachbefehle

Für alle interaktivierbaren Objekte ist es wichtig, alternative Interaktionsoptionen zu unterstützen. Standardmäßig wird empfohlen, sprachgesteuerte Befehle für alle Objekte zu unterstützen, die interaktiv sind. Um die Auffindbarkeit zu verbessern, können Sie auch während des Mauszeigerzustands eine QuickInfo bereitstellen.

Bild: QuickInfo für den Sprachbefehl

Sprachbefehle



Größenempfehlungen

Um sicherzustellen, dass alle interagierbaren Objekte problemlos berührt werden können, empfiehlt es sich, sicherzustellen, dass das interaktionsfähige Objekt basierend auf der Entfernung, die er vom Benutzer platziert wird, eine Mindestgröße erfüllt. Der visuelle Winkel wird häufig in Grad des visuellen Bogens gemessen. Der visuelle Winkel basiert auf dem Abstand zwischen den Augen des Benutzers und dem Objekt und bleibt konstant, während sich die physische Größe des Ziels ändern kann, wenn sich der Abstand zum Benutzer ändert. Um die erforderliche physische Größe eines Objekts basierend auf der Entfernung vom Benutzer zu bestimmen, versuchen Sie, einen visuellen Winkelrechner wie diesen zu verwenden.

Im Folgenden finden Sie die Empfehlungen für die Mindestgröße von interaktionsfähigem Inhalt.

Zielgröße für direkte Handinteraktion

Distance Betrachtungswinkel Size
45 cm nicht kleiner als 2° 1,6 x 1,6 cm

Zielgröße für direkte Handinteraktion
Zielgröße für direkte Handinteraktion


Zielgröße für Handstrahl- oder Anvizeinteraktion

Distance Betrachtungswinkel Size
2 m nicht kleiner als 1° 3,5 x 3,5 cm

Zielgröße für Handstrahl- oder Anvizeinteraktion
Zielgröße für Handstrahl- oder Anvizeinteraktion



Interagierbares Objekt im MRTK (Mixed Reality Toolkit) für Unity

In MRTK können Sie das Skript Interactable verwenden, um Objekte auf verschiedene Typen von Eingabeinteraktionszuständen reagieren zu lassen. Es unterstützt verschiedene Arten von Designs, mit denen Sie visuelle Zustände definieren können, indem Sie Objekteigenschaften wie Farbe, Größe, Material und Shader steuern.

Der Standard-Shader von MixedRealityToolkit bietet verschiedene Optionen, z. B. näherungslicht, das Ihnen hilft, visuelle und Audio-Hinweise zu erstellen.



Siehe auch