「相互作用モデルの概要」で説明されているように、ユーザーとその目的を特定したら、作業を遂行するために機能する際に直面する可能性がある環境や状況の課題を自分で確認します。As outlined in the Interaction model overview, once you have identified the users and their goals, ask yourself what environmental or situational challenges they might face as they work to accomplish their tasks. たとえば、多くのユーザーは、実際の目標を達成するためにユーザーを使用する必要があり、ハンズオンベースのインターフェイスとの対話が困難になります。For example, many users need to use their hands to accomplish their real-world goals, and will have difficulty interacting with a hands-and-controllers based interface.

次のようなシナリオが考えられます。Some specific scenarios might be:

  • タスクのガイドを示していますが、ハンドがビジー状態ですBeing guided through a task, while hands are busy
  • 自分の手が混み合っている間の資料の参照Referencing materials while your hands are busy
  • ハンド疲労Hand fatigue
  • 追跡できない手袋Gloves that can't be tracked
  • 何かを行うCarrying something

ハンズフリーの感覚様相Hands-free modalities

音声コマンドVoice commanding

音声を使用してコマンドを実行し、インターフェイスを制御するには、ユーザーが handsfree を操作できるだけでなく、複数の手順をスキップすることもできません。Using your voice to command and control an interface can not only allow the user to operate handsfree, but also skip multiple steps. このモダリティの使用方法は、ユーザーが任意のボタンの名前を読み取り専用にしてアクティブ化できるようにすること、つまり、会話のように、タスクを実行できるエージェントとの対話を可能にすることです。The usage of this modality can range from allowing the user to simply read any button's name out loud to activate it, as in See-it-say-it, to conversing with an agent who can accomplish tasks for you.

ヘッド視線入力とドウェルHead-gaze and dwell

実際には、音声を使用するのは理想的ではなく、可能な場合もあります。In some hands-free situations, using your voice is not ideal or even possible. 出荷時の環境、プライバシー、またはソーシャル規範はすべて制約となります。Loud factory environments, privacy, or social norms can all be constraints. Head の熟考モデルを使用すると、ユーザーはヘッドベクターをポイントすることによってアプリ内を移動できます。一方、ボタンの残留または dwelling では、一定の時間 (通常は1秒程度) 後にアクティブ化されます。The head gaze + dwell model allows the user to navigate the app by using their head vector to point, while lingering, or dwelling on a button will activate it after a certain amount of time, typically around 1 second or so.

ハンドフリーに移行するTransitioning in and out of hands-free

これらのシナリオでは、コマンドの実行とナビゲーションのために、ホログラムを使用してハンドを解放することは、アプリケーションをエンドツーエンドで操作するための絶対的な要件から、ユーザーが自由に切り替えることができるようになります。ごと.For these scenarios, freeing your hands from interacting with holograms for commanding and navigation can range from being an absolute requirement to operating the application, end-to-end, to an added convenience that the user can transition in and out of at any time.

アプリケーションの要件によって、熟考、音声コマンド、または単一の音声コマンドを使用するかどうかにかかわらず、常にハンドフリーで使用する必要がある場合は、UI に適切な accomodations を作成してください。If the requirement of the application is that it will always be used hands-free, whether by using dwell, voice commands, or the single voice command, "select", then make sure to make the appropriate accomodations in your UI.

対象ユーザーが自由に自由に切り替えられるようにする必要がある場合は、次の原則を考慮することが重要です。If your target user needs to be able to switch from hands to hands-free at their discretion, then it is important to take the following principles into account.

ユーザーが既に切り替え先のモードになっているとします。Assume the user is already in the mode that they want to switch to

たとえば、ユーザーが工場のフロアにいて、Hololens のビデオ参照を見ているときに、レンチを選択して作業を開始した場合、彼女は、レンチを押してボタンを押すことなく、handsfree で作業を開始する可能性が高くなります。For instance, if the user is on the factory floor, watching a video reference on her Hololens, and decides to pick up a wrench to start working, she most likely would start working in handsfree without having to put down the wrench to press a button. 彼女は、音声コマンドを使用して音声セッションを呼び出し、熟考を開始するために既に表示されている UI で熟考、"select" という単語を言い出すことができるはずです。She should be able to invoke a voice session with a voice command, dwell on an already-visible UI to begin dwell, or say the word "select".

ユーザーは次のことを行うことができます。The user should have the ability to:

  • ハンズフリーのまま、ハンドフリーに切り替えるSwitch to hands-free while hands-free
  • 手で手に切り替えるSwitch to hands with your hands
  • コントローラーを使用してコントローラーに切り替えるSwitch to the controller using a controller

モードを切り替えるための冗長な方法を作成するCreate redundant ways to switch modes

最初の原則はアクセスに関するものですが、2番目の原則は可用性です。While the first principle is about access, the second one is about availability. モードを切り替える方法は1つだけではありません。There should not just be a single way to transition in and out of a mode.

次に例を示します。Some examples would be:

  • 音声操作を開始するボタンA button to begin voice interactions
  • 見つめ + 熟考を使用してに切り替えるための音声コマンドA voice command to transition to using gaze + dwell

ドラマのダッシュを追加するAdd a dash of drama

モードの切り替えは大きな問題です。このような切り替えが行われたときに、ユーザーが何が起こったかをユーザーに知らせるために、これらの遷移が明示的でも劇的なスイッチであることが重要です。A mode switch is a big deal--it is important that when these transitions happen that they be an explicit, even dramatic switch, to let the user know what happened.

使いやすさのチェックリストUsability checklist

エンドツーエンドであらゆることをユーザーが自由に実行できますか。Can the user do everything and anything hands-free, end-to-end?

  • すべての interactible に自由にアクセスできますEvery interactible should be accessible hands-free
  • サイズ変更、配置、スワイプ、タップなどのすべてのカスタムジェスチャに代わるものがあることを確認します。Ensure that there is a replacement for all custom gestures, such as resizing, placing, swipes, taps, etc.
  • UI のプレゼンス、配置、および詳細度を常にユーザーが確実に制御できるようにするEnsure that the user has confident control of UI presence, placement, and verbosity at all times
    • UI の取得方法Getting UI out of the way
    • ビューの外にある UI のアドレス指定 (視界)Addressing UI that is out of field of view (FOV)
    • 表示する量 (How much I see, where, when

相互作用のしくみは、適切な affordances を使用して学習し、補強するのでしょうか。Are the mechanics of the interaction being taught and reinforced with the right affordances?

ユーザーが理解している...Does the user understand ...

  • [...]どのモードであるか。... What mode they are in?
  • [...]このモードでできること... What they can do in this mode?
  • [...]現在の状態を確認できます。... What is the current state?
  • [...]どのように移行できますか。... How they can transition out?

UI はハンドフリーに最適化されていますか。Is the UI optimized for hands-free?

  • 例:熟考 affordances は、一般的な2D パターンに組み込まれていません。Example: Dwell affordances are not built-in to typical 2D patterns
  • 例:オブジェクトの強調表示により、音声を対象とすることが適切です。Example: Voice targeting is better with object highlighting
  • 例:音声通話は、有効にする必要があるキャプションに適しています。Example: Voice interactions are better with captions that have to be turned on

関連項目See also