6. 詳細な入力オプションを調査する6. Exploring advanced input options

このチュートリアルでは、音声コマンド、パンジェスチャ、および視線追跡の使用を含む、HoloLens 2 の高度な入力オプションをいくつか紹介します。In this tutorial, several advanced input options for HoloLens 2 are explored, including the use of voice commands, panning gesture, and eye tracking.

目標Objectives

  • 音声コマンドとキーワードを使用してイベントをトリガーするTrigger events using voice commands and keywords
  • 追跡したハンドを使用して、追跡したハンドでテクスチャと3D オブジェクトをパンするUse tracked hands to pan textures and 3D objects with tracked hands
  • HoloLens 2 の監視機能を活用してオブジェクトを選択するLeverage HoloLens 2 eye tracking capabilities to select objects

手順Instructions

音声コマンドの有効化Enabling Voice Commands

このセクションでは、2つの音声コマンドが実装されています。In this section, two voice commands are implemented. まず、[診断の切り替え] を表示することによって、フレームレート診断パネルを切り替える機能が導入されました。First, the ability to toggle the frame rate diagnostics panel is introduced by saying "toggle diagnostics". 次に、音声コマンドでサウンドを再生する機能について説明します。Second, the ability to play a sound with a voice command is explored. まず、音声コマンドの構成を担当する MRTK プロファイルと設定を確認します。The MRTK profiles and settings responsible for configuring voice commands is reviewed first.

  1. [BaseScene] 階層で、[MixedRealityToolkit] を選択します。In the BaseScene hierarchy, select MixedRealityToolkit. 次に、[インスペクター] パネルで [入力] を選択し、DefaultMixedRealityInputSystemProfile の左側にある小さい [複製] ボタンをクリックして、[複製プロファイル] ポップアップを開きます。Then, in the Inspector panel, select Input and click the small Clone button to the left of the DefaultMixedRealityInputSystemProfile to open the Clone Profile popup. ポップアップで [複製] をクリックして、新しいプロファイル MixedRealityInputSystemProfile を作成します。In the popup click Clone to create a new profile MixedRealityInputSystemProfile.

    mrlearning-base-ch5-1-step1a

    これにより、新しく作成された MixedRealityInputSystemProfile で MixedRealityToolkitConfigurationProfile が自動的に設定されます。This will also auto-populate the MixedRealityToolkitConfigurationProfile with the newly created MixedRealityInputSystemProfile.

    mrlearning-base-ch5-1-step1b

  2. 入力システムプロファイルには、さまざまな設定があります。In the input system profile, there are a variety of settings. 音声コマンドの場合は、[音声] セクションを展開し、前の手順と同じ手順を実行して DefaultMixedRealitySpeechCommandsProfile を複製し、独自の編集可能なコピーに置き換えます。For voice commands, expand the Speech section and follow the same process as in the previous step to clone the DefaultMixedRealitySpeechCommandsProfile and replace it with your own editable copy.

    mrlearning-base-ch5-1-step2

    Speech コマンドプロファイルでは、さまざまな設定がわかります。In the speech command profile, you’ll notice a range of settings. これらの設定の詳細については、 Mrtk speech のドキュメントを参照してください。For a full description of these settings, refer to the MRTK speech documentation.

    既定では、一般の動作は [Auto Start] (自動で開始) です。By default, the general behavior is auto-start. 必要に応じて、これを手動で開始するように変更できます。This can be changed to manual-start, if desired. ただし、この例では、[自動開始] のままにしておきます。But for this example, keep it on auto-start. MRTK には、メニュー、診断の切り替え、プロファイラーの切り替えなど、いくつかの既定の音声コマンドが付属しています。The MRTK comes with several default voice commands, such as menu, toggle diagnostics and toggle profiler. 診断フレームカウントカウンターをオンまたはオフにするために、キーワード "診断の切り替え" を使用します。We will use the keyword “toggle diagnostics,” in order to turn on and off the diagnostics framerate counter. また、以下のステップで新しい音声コマンドを追加します。We will also add a new voice command in the steps below.

  3. 新しい音声コマンドを追加します。Add a new voice command. これを行うには、[+ 新しい音声の追加] コマンドボタンをクリックします。To do this, click the + Add a New Speech Command button. 既存の音声コマンドの一覧の下に新しい行が表示されます。You'll see a new line that appears below the list of existing voice commands. 使用する音声コマンドを入力します。Type the voice command you want to use. この例では、"play music" コマンドを使用します。In this example, use the command “play music".

    mrlearning-base-ch5-1-step3

    注意

    また、音声認識コマンドのキーコードを設定することもできます。You can also set a keycode for speech commands. これにより、音声コマンドを使用して、キーボードキーを押したときにイベントをトリガーできます。This allows for voice commands to trigger events upon the press of a keyboard key.

  4. 音声コマンドに応答する機能を追加します。Add the ability to respond to voice commands. MixedRealityPlayspace game オブジェクトなど、他の入力スクリプトがアタッチされていない BaseScene 階層内のオブジェクトを選択します。Select any object in the BaseScene hierarchy that does not have any other input scripts attached to it, for example, the MixedRealityPlayspace game object. [インスペクター] パネルで [コンポーネントの追加] をクリックし、[音声] を検索して、[音声入力ハンドラー] スクリプトを選択します。In the Inspector panel, click Add Component, search for "speech", and select the Speech Input Handler script.

    mrlearning-base-ch5-1-step4

    既定では、2つのチェックボックスが表示されます。By default, you will see two checkboxes. 1つは [フォーカスが必要] チェックボックスです。One is the Is Focus Required checkbox. そのため、光を見つめ、ヘッドを見つめ、コントローラーを見つめ、または手動でオブジェクトをポイントしている限り、音声コマンドがトリガーされます。So, as long as you are pointing at the object with a ray-eye-gaze, head-gaze, controller-gaze, or hand-gaze, the voice command will be triggered. ユーザーが音声コマンドを使用するためにオブジェクトを確認する必要がないように、このチェックボックスをオフにします。Uncheck this checkbox so that the user does not have to look at the object to use the voice command.

  5. 音声コマンドに応答する機能を追加します。Add the ability to respond to a voice command. これを行うには、音声入力ハンドラーにある [+] ボタンをクリックします。To do this, click the + button that’s in the Speech Input Handler.

    mrlearning-base-ch5-1-step5

  6. [キーワード] の横に、ドロップダウンメニューが表示されます。Next to Keyword, you'll see a dropdown menu. [診断の切り替え] を選択すると、ユーザーが "診断の切り替え" という語句が表示されるたびに、アクションがトリガーされます。Select Toggle Diagnostics so that whenever the user says the phrase “toggle diagnostics”, it triggers an action. 要素0を展開するには、その横にある矢印を押す必要があることに注意してください。Note that you might need to expand Element 0 by pressing the arrow next to it.

    mrlearning-base-ch5-1-step6

    注意

    これらのキーワードは、手順 3. で編集したプロファイルに基づいて設定されます。These keywords are populated, based on the profile you edited in the step 3.

  7. 診断システムの音声制御スクリプトを追加して、フレームレートカウンターの診断のオンとオフを切り替えます。Add the Diagnostics System Voice Controls script to toggle the framerate counter diagnostic on and off. これを行うには、[コンポーネントの追加] をクリックし、[Diagnostics System Voice Controls script] を検索して、メニューから追加します。To do this, press Add Component, search for Diagnostics System Voice Controls script and add it from the menu. このスクリプトは任意のオブジェクトに追加できますが、わかりやすさのため、[Speech Input Handler] (音声入力ハンドラー) と同じオブジェクトに追加します。This script can be added to any object, but for simplicity, we will add it to the same object as the speech input handler.

    mrlearning-base-ch5-1-step7

  8. 音声入力ハンドラーに新しい応答を追加します。Add a new response in the speech input handler. これを行うには、[+] アイコンをクリックして、応答の一覧に新しい応答を追加します。To do this, click the "+" icon to add a new response to the response list.

    mrlearning-base-ch5-1-step8

  9. Diagnostics System Voice Controls スクリプトを含むオブジェクトを、前の手順で作成した新しい応答にドラッグします。Drag the object that has the Diagnostics System Voice Controls script to the new response you just created in the previous step.

    mrlearning-base-ch5-1-step9

  10. 関数のドロップダウンをクリックし ([関数なし] と表示されます)、診断システムの音声コントロールを選択し、診断をオンまたはオフに切り替える ToggleDiagnostics () 関数を選択します。Click the function dropdown (where it says No Function), then Diagnostics System Voice Controls, and select the ToggleDiagnostics () function which toggles your diagnostics on and off.

    mrlearning-base-ch5-1-step10

    重要

    デバイスにビルドする前に、mic 設定を有効にする必要があります。Before building to your device, you need to enable mic settings. これを行うには、[ファイル] をクリックし、[ビルドの設定]、[プレーヤーの設定] の順にクリックし、マイクの機能が設定されていることを確認しますTo do this, click File and go to Build Settings, Player Settings and ensure that the microphone capability is set.

    次に、Octa オブジェクトを使用して音声コマンドからオーディオファイルを再生する機能を追加します。Next, add the ability to play an audio file from voice command using the Octa object. レッスン 4から、オーディオクリップを再生して、octa オブジェクトにタッチする機能が追加されたことを思い出してください。Recall from lesson 4 that the ability to play an audio clip from touching the Octa object was added. この同じオーディオ ソースを、ミュージック音声コマンドでも活用します。We will leverage this same audio source for our music voice command.

  11. BaseScene 階層内の Octa オブジェクトを選択します。Select the Octa object in the BaseScene hierarchy.

  12. 別の音声入力ハンドラーを追加します (手順4と5を繰り返します)。ただし、octa オブジェクトを使用します。Add another speech input handler (repeat Steps 4 and 5), but with the octa object.

  13. 手順6の [診断の切り替え] コマンドを追加するのではなく、次の図に示すように、[音楽音声の再生] コマンドを追加します。Instead of adding the Toggle Diagnostics voice command from step 6, add the Play Music voice command as shown in the image below.

    mrlearning-base-ch5-1-step13

  14. 手順 8. と 9. と同様に、新しい応答を追加し、診断システムの音声制御スクリプトを持つオブジェクトである Octa オブジェクトを空の応答スロットにドラッグします。As with Steps 8 and 9, add a new response and drag the Octa object, the object that has the Diagnostics System Voice Controls script on it, to the empty response slot.

  15. [関数なし] というドロップダウンメニューを選択します。Select the dropdown menu that says No Function. 次に、[オーディオソース]、[PlayOneShot (AudioClip)] の順に選択します。Then select Audio Source, followed by PlayOneShot (AudioClip).

    Lesson5 Chapter1 Step15im

  16. この例では、レッスン 4と同じオーディオクリップを使用します。For this example, we are going to use the same audio clip from Lesson 4. プロジェクトパネルに移動し、"MRTK_Gem" オーディオクリップを検索して、次の図に示すようにオーディオソーススロットにドラッグします。Go into your Project panel, search for “MRTK_Gem” audio clip and drag it into the audio source slot as shown in the image below. これで、アプリケーションは音声コマンド "トグル診断" に応答して、フレームレートカウンターパネルを切り替え、音楽を再生して MRTK_Gem 楽曲を再生します。Now your application will respond to the voice commands “toggle diagnostics” to toggle the Frame Rate Counter panel and Play Music to play the MRTK_Gem song.

    Lesson5 Chapter1.txt Step16im

パン ジェスチャThe Pan Gesture

このセクションでは、パンジェスチャの使用方法について説明します。In this section, you will learn how to use the pan gesture. これは、指またはハンドを使用してコンテンツをスクロールすることでスクロールする場合に便利です。This is useful for scrolling by using your finger or hand to scroll through content. また、パンジェスチャを使用して、オブジェクトの回転、3D オブジェクトのコレクションの反復処理、または 2D UI のスクロールを行うこともできます。You can also use the pan gesture to rotate objects, cycle through a collection of 3D objects, or even to scroll a 2D UI.

  1. quad を作成します。Create a quad. BaseScene 階層で、右クリックし、[3D オブジェクト] を選択し、次にクワッドを選択します。In your BaseScene hierarchy, right-click, select "3D Object" followed by Quad.

    Lesson5 Chapter2 Step2im

  2. 必要に応じて、クワッドの位置を変更します。Reposition the quad, as appropriate. この例では、HoloLens 2 から快適に使用できるように、x = 0、y = 0、z = 1.5 をカメラから離れた位置に設定します。For our example, we set the x = 0, the y = 0 and the z = 1.5 away from the camera for a comfortable position from HoloLens 2.

    注意

    4つのブロックまたは前のレッスンの内容の前にある場合は、他のオブジェクトをブロックしないように注意してください。If the quad blocks or is in front of any content from the previous lessons, be sure to move it so that it doesn’t block any of the other objects.

  3. 素材を quad に適用します。Apply a material to the quad. この資料では、パンジェスチャを使用してスクロールします。This material will be what we will be scrolling through with the pan gesture.

    Lesson5 Chapter2 Step3im

  4. [プロジェクト] パネルで、検索ボックスに「コンテンツのパン」と入力します。In your Projects panel, type “pan content” in the Search box. その素材をシーンのクワッドにドラッグします。Drag that material onto the quad in your scene.

    注意

    PanContent マテリアルは MRTK には含まれませんが、前のレッスンでインポートした BaseModuleAssets 資産に含まれています。The PanContent material is not part of MRTK but included with the BaseModuleAssets asset imported in the previous lesson.

    パン ジェスチャを使用するには、オブジェクト上のコライダーが必要です。To use the pan gesture, you will need a collider on your object. 場合によっては、quad には既にメッシュ コライダーがあります。You may see the quad already has a mesh collider. ただし、メッシュ コライダーは極めて薄く、選択するのが容易ではないため理想的ではありません。However, the mesh collider is not ideal, because it is extremely thin and difficult to select. メッシュ コライダーをボックス コライダーに置き換えることをお勧めします。We suggest replacing the mesh collider with a box collider.

  5. [インスペクター] パネルから、クワッド上のメッシュ collider を右クリックします。Right-click the mesh collider that’s on the quad from the Inspector panel. 次に、[コンポーネントの削除] をクリックして削除します。Then remove it by clicking Remove Component.

    Lesson5 Chapter2 Step5im

  6. 次に、[コンポーネントの追加] をクリックして box collider を追加し、"box collider" を検索します。Now add the box collider by clicking Add Component and searching “box collider”. 既定で追加された box collider はまだ薄くなっているため、[Collider の編集] ボタンをクリックして編集します。The default added box collider is still too thin, so click the Edit Collider button to edit. ボタンを押すと、x、y、z の値を使用して、またはシーン エディターの要素を使用してサイズを調整できます。When it’s pressed in, you can adjust the size using the x, y and z values or the elements in the scene editor. この例では、ボックス コライダーを quad の少し後ろまで拡張します。For our example, we want to extend the box collider a little behind the quad. シーン エディターで、ボックス コライダーを後ろから外側にドラッグします (下の図を参照してください)。In the scene editor, drag the box collider from the back, outwards (see the image below). これにより、ユーザーは指を使用するだけでなく、スクロールすることもできます。This lets the user not only use their finger, but their entire hand to scroll.

    Lesson5 Chapter2 Step6im

  7. 操作ができるようにします。Make it interactive. このモジュールを直接操作する必要があるので、ここではレッスン4で、Octa オブジェクトから音楽を再生するために使用した Near インタラクション Touchable コンポーネントを使用します。Since we want to interact with the quad directly, we want to use the Near Interaction Touchable component that we used this in Lesson 4 for playing music from the Octa object. [コンポーネントの追加] をクリックし、次の図に示すように "near インタラクション touchable" を検索して選択します。Click Add Component, search for “near interaction touchable” and select it as shown in the images below.

    mrlearning-base-ch5-2-step7a

    境界や中心が BoxCollider のサイズや中心に一致しないという警告が黄色で表示されている場合は、[境界の修正] ボタンまたは [修正センター] ボタンをクリックして、中心と境界の値を更新します。If you see a yellow warning about bounds and/or center not matching the BoxCollider's size and/or center, click the Fix Bounds and/or Fix Center buttons to update the center and bounds values.

    mrlearning-base-ch5-2-step7b

  8. パン ジェスチャを認識する機能を追加します。Add the ability to recognize the pan gesture. [コンポーネントの追加] をクリックし、検索フィールドに「手動での相互作用」と入力して、ハンドインタラクションのパンズームスクリプトコンポーネントを追加します。Click Add Component, type “hand interaction” in the search field and add the Hand Interaction Pan Zoom script component.

    mrlearning-base-ch5-2-step8a

    これにより、パン対応のクワッドが用意されています。And with that, you have a pan-enabled quad.

    ご覧のように、ハンドインタラクションのパンズームスクリプトコンポーネントにはさまざまな設定があり、オプションの演習として自由に再生できます。As you can see, the Hand Interaction Pan Zoom script component has various settings, as an optional exercise, feel free to play around with them.

    mrlearning-base-ch5-2-step8b

  9. 次に、3D オブジェクトをパンする方法を学びます。Next, we will learn how to pan 3D objects.

    階層で、Quad オブジェクトを右クリックしてコンテキストポップアップメニューを開き、[ 3D オブジェクト > キューブ] を選択してシーンにキューブを追加します。In the Hierarchy, right-click the Quad object, to open the contextual popup menu, then select 3D Object > Cube to add a cube to your scene.

    キューブの位置が_0、0、0_に設定されていることを確認してください。Ensure the Cube's Position is set to 0, 0, 0 so it's positioned neatly within the Quad. キューブを_0.1、0.1、0.1_のスケールにスケールダウンします。Scale the Cube down to a Scale of 0.1, 0.1, 0.1.

    mrlearning-base-ch5-2-step9

    キューブを右クリックして、キューブを3回複製し、コンテキストポップアップメニューを開き、 [複製] を選択します。Duplicate the Cube three times by right-clicking the Cube, to open the contextual popup menu, and selecting Duplicate.

    キューブが均等になるようにします。Space the cubes out evenly. シーンは次の図のようになります。Your scene should look similar to the image below.

  10. CTRL キーを押しながら [階層] パネルで各キューブオブジェクトを選択して、すべてのキューブに MoveWithPan スクリプトを追加します。Add the MoveWithPan script to all the cubes by holding down the CTRL key while selecting each Cube object in the Hierarchy panel. インスペクター パネルで コンポーネントの追加 をクリックし、移動 をクリックして、すべてのキューブに追加します。In the Inspector panel, click Add Component, and search for and select the Move With Pan script to add it to all the cubes.

    mrlearning-base-ch5-2-step10a

    注意

    MoveWithPan スクリプトは MRTK には含まれていませんが、前のレッスンでインポートした BaseModuleAssets 資産に含まれています。The MoveWithPan script is not part of MRTK but included with the BaseModuleAssets asset imported in the previous lesson.

    キューブが選択された状態で、階層 パネルから パンの移動 スクリプトコンポーネントの パン入力ソース フィールドにQuadオブジェクトをドラッグします。With the cubes still selected, drag the Quad object from the Hierarchy panel into the Pan Input Source field of the Move With Pan script component.

    mrlearning-base-ch5-2-step10b

    これで、キューブはパンジェスチャで移動します。Now, the cubes will move with your pan gesture.

    ヒント

    各キューブの MoveWithPan インスタンスは、4つのオブジェクトに対して、各キューブの [Pan Input Source] (パン入力ソース) フィールドに追加し、それぞれのキューブオブジェクトの位置をそれに応じて更新する、イベントを監視します。The MoveWithPan instance on each cube listens for the PanUpdated event sent from the HandInteractionPanZoom instance on the Quad object, that we added to the Pan Input Source field on each of the cubes, and updates the respective cube object's position accordingly.

    キューブが選択された状態で、Z 軸に沿って前方に移動します。これにより、各キューブのメッシュは、Z 値を_0.7_に変更することで、クワッドBox の Collider内に配置されます。With the cubes still selected, move them forward along their Z axis so each cube's mesh is inside the Quad's Box Collider by changing their Position Z values to 0.7.

    mrlearning-base-ch5-2-step10c

    これで、[インスペクター] パネルでチェックを解除して、クワッドメッシュレンダラーコンポーネントを無効にした場合、非表示の四角形が表示され、3d オブジェクトの一覧を通じてパンできます。Now, if you disable the Quad's Mesh Renderer component by un-checking it in the Inspector panel, you will have an invisible quad where you can pan through a list of 3D objects.

    mrlearning-base-ch5-2-step10d

視線追跡Eye Tracking

このセクションでは、デモで目の追跡を有効にする方法について説明します。In this section, we will explore how to enable eye tracking in our demo. 3D メニュー項目が目の gazed になったときに、その項目をゆっくりと回転させます。We will slowly spin our 3D menu items when they are being gazed upon with your eye gaze. また、見つめられた項目が選択されると、楽しい効果がトリガーされるようにします。We will also trigger a fun effect when the gazed-upon item is selected.

  1. MRTK プロファイルが視線追跡用に適切に構成されていることを確認します。Ensure the MRTK profiles are properly configured for eye tracking. これを行うには、「 MRTK での目の追跡の概要」の手順に進み、「視線追跡ステップバイステップの設定」セクションの手順を確認して、目の追跡が適切に構成されていることを確認します。To do this, go to the Getting started with eye tracking in MRTK instructions and verify that eye tracking is properly configured by reviewing the steps in the Setting up eye tracking step-by-step section. ドキュメントの残りの手順をすべて完了します。Complete any remaining steps in the documentation.

    注意

    Mixed Reality Toolkit の構成」のレッスンで説明されているように、DefaultHoloLens2InputSystemProfile を使用してカスタム MRTK 構成プロファイルを複製する場合、unity プロジェクトではアイ tracking が既定で有効になりますが、unity エディターの視線追跡シミュレーションを設定し、ビルドの目の追跡を許可するように Visual Studio を構成する必要があります。If you used the DefaultHoloLens2InputSystemProfile, as instructed in the Configure the Mixed Reality Toolkit lesson, to clone your custom MRTK configuration profile, eye tracking is enabled by default in the Unity project but you will still have to set up eye tracking simulation for the Unity editor and configure Visual Studio to allow eye tracking for the build.

    上記のリンクでは、以下の点についての簡潔な指示があります。The link above provides brief instructions for:

    • MRTK プロファイルで使用するために Windows Mixed Reality の視線 Data Provider を作成するCreating the Windows Mixed Reality Eye Gaze Data Provider for use in the MRTK profile
    • カメラに接続されている宝石プロバイダーの目の追跡を有効にするEnabling eye tracking in the Gaze Provider attached to the camera
    • Unity エディターでの目の追跡シミュレーションの設定Setting up an eye tracking simulation in the Unity editor
    • Visual Studio ソリューションの機能を編集して、ビルド済みアプリケーションで視線追跡できるようにするEditing the Visual Studio solution's capabilities to allow eye tracking in the built application
  2. [Eye Tracking Target] (視線追跡ターゲット) コンポーネントをターゲット オブジェクトに追加します。Add the Eye Tracking Target component to target objects. オブジェクトが視線イベントに応答できるようにするには、視線を使用して操作する各オブジェクトに EyeTrackingTarget コンポーネントを追加する必要があります。To allow an object to respond to eye gaze events, we'll need to add the EyeTrackingTarget component on each object that we want to interact with by using eye gaze. このコンポーネントを、グリッド コレクションの一部である 9 つの 3D オブジェクトそれぞれに追加します。Add this component to each of the nine 3D objects that are part of the grid collection.

    ヒント

    Shift キーまたは CRTL キーを使用して階層内の複数の項目を選択し、EyeTrackingTarget コンポーネントを一括して追加することができます。You can use the Shift and/or CRTL keys to select multiple items in the Hierarchy and then bulk-add the EyeTrackingTarget component.

    Lesson5 Chapter3 のステップごとのステップ

  3. 次に、いくつかの魅力的な対話用に EyeTrackingTutorialDemo スクリプトを追加します。Next, we will add the EyeTrackingTutorialDemo script for some exciting interactions. Grid コレクション内の3D オブジェクトごとに、[コンポーネントの追加] メニューでコンポーネントを検索して、EyeTrackingTutorialDemo スクリプトを追加します。For each 3D object in the grid collection, add the EyeTrackingTutorialDemo script by searching for the component in the Add Component menu.

    Lesson5 Chapter3 手順3

    注意

    EyeTrackingTutorialDemo スクリプトマテリアルは MRTK の一部ではありませんが、前のレッスンでインポートした BaseModuleAssets 資産に含まれています。The EyeTrackingTutorialDemo script material is not part of MRTK but included with the BaseModuleAssets asset imported in the previous lesson.

  4. ターゲットを見つめている間、オブジェクトを回転させます。Spin the object while looking at the target. 3D オブジェクトを見ながらスピンするように構成したいと考えています。We want to configure our 3D objects to spin while we are looking at them. これを行うには、次の図に示すように、EyeTrackingTarget コンポーネントの Target () セクションを参照しながら、に新しいフィールドを挿入します。To do this, insert a new field in the While Looking At Target() section of the EyeTrackingTarget component, as shown in the image below.

    Lesson5 Chapter3 Step4a

    新しく作成されたフィールドで、次の図に示すように、現在の Game オブジェクトを空のフィールドに追加し、EyeTrackingTutorialDemo > RotateTarget () を選択します。In the newly-created field, add the current Game Object to the empty field, and select EyeTrackingTutorialDemo>RotateTarget(), as shown in the image below. これで、視線追跡により、3D オブジェクトを見つめると回転するように構成できました。Now the 3D object is configured to spin when it is being gazed upon with eye tracking.

    Lesson5 Chapter3 Step4b

  5. エアタップによって、または "select" と言ったときに、選択時に gazed される "ブリップが発生 target" の機能を追加します。Add in the ability to “blip target” that is being gazed at upon select by air-tap or saying “select”. 手順4と同様に、次の図に示すように、EyeTrackingTarget コンポーネントの game オブジェクトの Select () フィールドに割り当てることによって、EyeTrackingTutorialDemo > をトリガーします。Similar to Step 4, we want to trigger EyeTrackingTutorialDemo>BlipTarget() by assigning it to the game object’s Select() field of the EyeTrackingTarget component, as shown in the figure below. これで構成が完了すると、エアタップや音声コマンドの "select" などの選択アクションをトリガーするたびに、game オブジェクトにわずかなブリップが発生が見られます。With this now configured, you will notice a slight blip in the game object whenever you trigger a select action, such as air-tap or the voice command “select”.

    Lesson5 Chapter3 手順5

  6. HoloLens 2 向けにビルドする前に、視線追跡機能が適切に構成されていることを確かめます。Ensure eye tracking capabilities are properly configured before building to HoloLens 2. このドキュメントの執筆時点では、Unity には、視線追跡機能に対して、宝石入力を設定する機能がまだありません。As of this writing, Unity does not yet have the ability to set the gaze input for eye tracking capabilities. この機能の設定は、監視が HoloLens 2 で動作するために必要です。Setting this capability is required for eye tracking to work in HoloLens 2. HoloLens 2 での Unity アプリのテスト」の手順に従って、宝石入力機能を有効にします。Follow the Testing your Unity app on a HoloLens 2 instructions to enable the gaze input capability.

結論Congratulations

アプリケーションに基本的な監視機能が正常に追加されました。You’ve successfully added basic eye tracking capabilities to your application. これらの操作は、視線追跡が持つ可能性のほんの一部にすぎません。These actions are only the beginning of a world of possibilities with eye tracking. また、レッスン5では、音声コマンド、パンジェスチャ、視線追跡などの高度な入力機能について学習しました。This chapter also concludes Lesson 5, where we learned about advanced input functionality, such as voice commands, panning gestures, and eye tracking.

次のレッスン: 7. 旧暦モジュールサンプルアプリケーションの作成Next Lesson: 7. Creating a Lunar Module sample application