入力を高度な MR Learning ベース モジュールMR Learning Base Module - Advanced Input

このレッスンでは、HoloLens 2 は、音声コマンド、パン ジェスチャ、および視線の使用などのいくつかの高度な入力オプションについて説明します。In this lesson, we will explore several advanced input options for the HoloLens 2, including the use of voice commands, the panning gesture, and eye tracking.

目標Objectives

  • 音声コマンドやキーワードを使用してイベントをトリガーする方法について説明しますLearn how to trigger events using voice commands and keywords
  • 追跡対象の手を使用してテクスチャと 3D オブジェクトに移動Use tracked hands to pan textures and 3D objects
  • HoloLens 2 の視線のオブジェクトを選択する機能を活用します。Leverage the HoloLens 2's eye tracking capabilities to select objects

手順Instructions

音声コマンドを有効にします。Enabling Voice Commands

このセクションでを実装する 2 つの音声コマンド。In this section, we will be implementing two voice commands. 最初に、「トグルの診断」を言うことにより、フレーム レート診断パネルを切り替える機能First, the ability to toggle the frame rate diagnostics panel by saying "toggle diagnostics." 2 つ目は、音声コマンドを使用してサウンドを再生する機能。Second, the ability to play a sound with a voice command. まず学びます MRTK プロファイルと設定の音声コマンドを構成する責任を負います。We will first explore the MRTK profiles and settings responsible for configuring voice commands.

  1. 基本のシーンの階層構造では、"MixedRealityToolkit。"を選択します。In the Base Scene hierarchy select "MixedRealityToolkit." Inspector パネルで、入力システム設定までスクロールします。In the inspector panel, scroll down to the input system settings. ダブルクリックして、入力システム プロファイルを開きます。Double click to open up the input system profile. 学んだことで、編集可能なことに、入力システム プロファイルを複製レッスン 1Clone the input system profile to make it editable, as we learned in Lesson 1

入力システム プロファイルでは、さまざまな設定が表示されます。In the input system profile, you will see a variety of settings. 音声コマンドには書かれている場所、「音声コマンドの設定」にダウンします。For voice commands, go down to where it says, “Speech Command Settings.”

Lesson5 第 1 章 Step2im

  1. 複製を学んだことで、編集するに音声コマンド プロファイルレッスン 1します。Clone the speech commands profile to make it editable, as we learned in Lesson 1. さまざまな設定が表示されます、音声コマンド プロファイルをダブルクリックします。Double click on the speech command profile, where you’ll notice a range of settings. これらの設定の詳細については、参照、 MRTK speech のドキュメントします。For a full description on these settings, refer the MRTK speech documentation.

注:既定では、全般的な動作は自動開始です。Note: By default, the general behavior is auto-start. 手動で起動が必要な場合に変更できますが、この例ではここでは自動的に開始します。That can be changed to manual-start if desired, but for this example we are going to keep it on auto-start. MRTK、いくつかの既定の音声コマンド (メニューの切り替えの診断、および切り替えプロファイラー) などが付属します。The MRTK comes with several default voice commands (such as menu, toggle diagnostics, and toggle profiler). 使用するキーワード「トグル診断」オン/オフ、診断のフレーム レート カウンターを有効にするためにします。We will be using the keyword “toggle diagnostics” in order to turn on and off the diagnostics framerate counter. 次の手順で新しい音声コマンドも追加します。We will also add a new voice command in the steps below.

Lesson5 第 1 章 Noteim

  1. 新しい音声コマンドを追加します。Add a new voice command. 新しい音声コマンドを追加するには、[+ 新しい音声コマンドの追加] ボタンをクリックしてし、を既存の音声コマンドの一覧の下に表示される新しい行が表示されます。To add a new voice command, click on the “+ add a new speech command” button and you will see a new line that appears down below the list of existing voice commands. 使用する音声コマンドを入力します。Type in the voice command you want to use. この musicample ex「音楽を再生します」コマンドを使用するつもりはIn this ex musicample we are going to use the command “play music.”

ヒント:音声認識コマンドについての keycode を設定することもできます。Tip: You can also set a keycode for speech commands. これにより、キーボードのキーの押下時にトリガーする音声コマンド。This allows for voice commands to trigger upon press of a keyboard key.

  1. 音声コマンドに応答する機能を追加します。Add the ability to respond to voice commands. (例: も操作ハンドラー。) に接続されているその他の入力スクリプトがない基本シーンの階層構造で任意のオブジェクトを選択します。Inspector パネルで、「コンポーネントを追加します」をクリックします。Select any object in the base scene hierarchy that does not have any other input scripts attached to it (e.g., no manipulation handler.) In the inspector panel, click “add component.” 入力"音声入力の handler"Type in “speech input handler.” これを選択します。Select it. Lesson5 第 1 章 Step4imLesson5 Chapter1 Step4im

既定では、2 つのチェック ボックスが表示されます、1 つは、「が必要なフォーカス」チェック ボックスをオンします。By default, you will see 2 checkboxes, one is the “is focus required” checkbox. つまり注視レイ、(目視線入力、head 視線入力、コント ローラー-視線入力、または手視線の先) オブジェクトを指している限り、音声コマンドがトリガーされます。What this means is as long as you are pointing to the object with a gaze ray, (eye-gaze, head-gaze, controller-gaze, or hand-gaze) the voice command will be triggered. ユーザーが音声コマンドを使用するオブジェクトを確認する必要があるないようにするには、このチェック ボックスをオフにします。Uncheck this checkbox to make it so that the user does not have to look at the object to use the voice command.

  1. 音声コマンドに応答する機能を追加します。Add the ability to respond to a voice command. これを行うには、音声入力の handler 内にある「+」ボタンをクリックしに応答するには、キーワードを選択します。To do this, click the “+” button that’s in the speech input handler and select the keyword you would like to respond to.

    注:これらのキーワードでは、前の手順で編集したプロファイルに基づいて設定されます。Note: These keywords are populated based on the profile you edited in the previous step.

Lesson5 第 1 章 Step5im

  1. 「キーワード」の横にあるドロップダウン メニューが表示されます。Next to “Keyword” you will see a dropdown menu. 「診断の切り替え」を選択します。Select “Toggle Diagnostics.” これにより、アクションをトリガーする、ユーザーが「切り替え診断」という語句が話すたびにできるようにします。This will make it so that whenever the user says the phrase, “toggle diagnostics” it will trigger an action. その横にある方向キーを押して「要素 0」を展開する必要がありますに注意してください。Note that you may need to expand "element 0" by pressing the arrow next to it.

Lesson5 第 1 章 Step6im

  1. "診断デモ コントロールするスクリプトを追加"フレーム レート カウンターの診断をオンとオフを切り替えます。Add the “diagnostics demo control script” to toggle the framerate counter diagnostic on and off. これを行うには、"コンポーネントの追加 ボタンを押して、「診断デモ コントロール スクリプト」を検索し、メニューから追加します。To do this, press the “add component” button and search for “diagnostics demo control script” then add it from the menu. このスクリプトは、任意のオブジェクトに追加することができますが、わかりやすくするため、ここに追加して音声入力の handler と同じオブジェクト。This script can be added to any object, but for simplicity, we will add it to the same object as the speech input handler.

    注: このスクリプトはのみこれらのモジュールに含まれているし、は、元の MRTK 含まれていません。Note: this script is only included with these modules and is not included with the original MRTK.

Lesson5 第 1 章 Step7im

  1. 音声入力のハンドラーでは、新しい応答を追加します。Add a new response in the Speech Input Handler. 行うには、「応答 ()」(上の図の緑色の矢印でマークされている) が書かれている場所の下に「+」ボタンをクリックします。To do this click the “+” button underneath where it says “response ()” (marked by green arrow in the picture above).

Lesson5 第 1 章 Step7im

  1. 手順 8. で作成した新しい応答を診断デモ コントロールのスクリプトを持つオブジェクトをドラッグします。Drag the object that has the Diagnostics Demo Controls script to the new response you just created in step 8. Lesson5 第 1 章 Step9imLesson5 Chapter1 Step9im

  2. ようになりました「機能はありません」のドロップダウン リストを選択して、診断デモのコントロールを選択し、「診断 () の切り替えを」。Now select the “no function” dropdown list, select diagnostic demo controls, then “on toggle diagnostics ().” この関数は、オンとオフの診断を切り替えます。This function toggles your diagnostics on and off. Lesson5 第 1 章 Step10im

デバイスにビルドする前にする必要がある mic の設定を有効にするに注意してください。Note that before building to your device you need to enable mic settings. ファイルでボタンをクリックするには、ビルド、player の設定からの設定に移動し、マイク機能が設定されていることを確認します。To do that click on file, go to build settings, from there, player settings, and ensure the microphone capability is set.

次に、"octa"オブジェクトを使用して音声コマンドからのオーディオ ファイルを再生する機能が追加されます。Next, we are adding the ability to play an audio file from voice command using the "octa" object. メッセージの取り消しレッスン 4、octa オブジェクトからオーディオ クリップを再生する機能を追加しました。Recall from lesson 4, we added the ability to play an audio clip from touching the octa object. ここでは、この同じのオーディオ ソースを音楽音声コマンドを活用します。We will leverage this same audio source for our music voice command.

  1. 基本のシーンの階層構造で octa オブジェクトを選択します。Select the octa object in the base scene hierarchy.

  2. もう 1 つの音声入力の handler (手順 4 と 5)、追加しますが、octa オブジェクトを使用します。Add another speech input handler (repeat steps 4 and 5), but with the octa object.

  3. 手順 6 から「トグル診断」の音声コマンドを追加する代わりに次の図に示すように「再生」の音声コマンドを追加します。Instead of adding the “Toggle Diagnostics” voice command from step 6, add the “play music” voice command, as shown in the image below.

    Lesson5 第 1 章 Step13im

  4. 手順 8. と 9. と同様、新しい応答を追加し、応答で、octa を空のスロットにドラッグします。As with steps 8 and 9, add a new response, and drag the octa to the empty slot on response.

  5. 「機能はありません、」「オーディオ ソースの選択、」し、"PlayOneShot (AudioClip)。"ことを示すドロップダウン メニューを選択します。Select the dropdown menu that says “no function," select “Audio Source,” then select “PlayOneShot (AudioClip).”

Lesson5 第 1 章 Step15im

  1. オーディオのクリップでこの例ではここから同じのオーディオ クリップを使用して、レッスン 4します。For the audio clip, for this example we are going to use the same audio clip from Lesson 4. [プロジェクト] パネルに移動し、"MRTK_Gem"オーディオ クリップを検索および次の図に示すように、オーディオ ソース スロットにドラッグします。Go into your project panel, search for “MRTK_Gem” audio clip and drag it into the audio source slot, as shown in the image below. アプリケーションは、音声コマンド"切り替え診断"に応答できる必要がありますので、フレーム レート カウンター パネルの切り替えを「音楽の再生」MRTK_Gem 曲を再生します。Now your application should be able to respond to the voice commands “toggle diagnostics” to toggle the frame rate counter panel and “play music” to play the MRTK_Gem song. Lesson5 第 1 章 Step16imLesson5 Chapter1 Step16im

パン ジェスチャThe Pan Gesture

この章では、パン ジェスチャを使用する方法を学びます。In this chapter, we will learn how to use the pan gesture. スクロール (コンテンツをスクロールする本の指、手のひらを使用)。 便利です。3 D オブジェクトまたはでもスクロール 2D UI のコレクションを順番に、オブジェクトを回転するのにパン ジェスチャを使用することもできます。It’s useful for scrolling (using your finger or hand to scroll through content.) You can also use the pan gesture to rotate objects, to cycle through a collection of 3D objects, or even scroll a 2D UI. 私たちは、テクスチャをワープ パン ジェスチャを使用する方法学習は。We will be learning how to use the pan gesture to warp a texture. 3D オブジェクトのコレクションを移動する方法についても学びます。We will also explore how to move a collection of 3D objects.

  1. クワッドを作成します。Create a quad. 基本のシーン階層内を右クリックして、"3 D Object"を選択し、「クアッド」を選択しますIn your base scene hierarchy, right click, select “3D Object,” then select “Quad.”

Lesson5 第 2 章 Step2im

  1. 適切な 4 つの位置を変更します。Reposition the quad as appropriate. この例で、x を設定します = 0、y = 0 と z はカメラの位置から、HoloLens 2 から離れる 1.5 を = です。For our example, we set the x = 0, the y = 0 and the z = 1.5 away from the camera for a comfortable position from the HoloLens 2.

    注:場合、クアッド要素 (はの前面ではありません) から前のレッスンでは、任意のコンテンツが他のオブジェクトのいずれかをブロックしないように移動することを確認します。Note: If the quad blocks (is infront of) any content from the previous lessons, be sure to move it such that it doesn’t block any of the other objects.

  2. クワッドに素材を適用されます。Apply a material to the quad. この資料はパン ジェスチャでスクロール私たちは材料になります。This material will be the material we will be scrolling through with the pan gesture.

Lesson5 第 2 章 Step3im

  1. [プロジェクト] パネルで「コンテンツをパンします。」の検索ボックスに入力します。In your projects panel, type in the search box “pan content.” シーンにクアッドにマテリアルをドラッグします。Drag that material on to the quad in your scene.

注:「コンテンツをパン」資料は、MRTK に含まれませんが、インポート前のレッスンでは、このモジュールの資産のパッケージの資産。Note: The "Pan content" material is not included in the MRTK, but it is an asset in this module's asset package, as imported in previous lessons.

注:パンのコンテンツを追加する場合は、ストレッチが見えます。Note: When you add the pan content, it may look stretched. これは、外観に満足するまでは、x、y、z の値、四角形のサイズの値を調整することによって修正できます。You can fix this by adjusting the values x, y and z values of the size of the quad until you are satisfied with the way it looks.

パン ジェスチャを使用するには、オブジェクトにコライダーを必要があります。To use the pan gesture, you will need a collider on your object. クワッドが既に mesh collider コライダーを表示があります。You may see the quad already has a mesh collider. ただし、非常に薄いおよび選択が困難であるため mesh collider コライダーは、適していません。However, the mesh collider is not ideal, because it is extremely thin and difficult to select. Mesh collider コライダーを置き換えて、box collider をお勧めします。We suggest replacing the mesh collider with a box collider.

  1. パネルの inspector) クアッド上にある mesh collider コライダーを右クリックし、コンポーネントを削除する をクリックして、削除Right click the mesh collider that’s on the quad (in the inspector panel) then remove it by clicking “remove component.” Lesson5 第 2 章 Step5imLesson5 Chapter2 Step5im

  2. "コンポーネントの追加] をクリックして [box collider"を検索、足場に box collider を追加するようになりましたNow add the box collider by clicking “add component” and searching “box collider.” 既定値は、シンすぎますが足場に box collider を追加、ため編集"コライダーを編集 ボタンをクリックします。The default added box collider is still too thin, so click the “edit collider” button to edit it. 押したときに、シーンのエディターで、x、y、z 値または要素を使用してサイズを調整できます。When it’s pressed in, you can adjust the size using the x, y and z values or the elements in the scene editor. たとえば、クアッドの背後にある、足場に box collider を少し拡張します。For our example, we want to extend the box collider a little behind the quad. シーンのエディターでは、外側の (下図を参照してください)、背面から、足場に box collider をドラッグします。In the scene editor, drag the box collider from the back, outwards (see the image below). これでは、指が知り尽くして全体をスクロールするだけでなく使用するユーザーを許可します。What this will do is allow the user to not only use their finger, but their entire hand to scroll. Lesson5 第 2 章 Step6imLesson5 Chapter2 Step6im

  3. 対話型こと。Make it interactive. クワッドと直接対話するので、相互作用押せる"近く"コンポーネント (も使いましたこれでレッスン 4、octa から音楽を再生する) を使用する必要です。Since we want to interact with the quad directly, we want to use the “near interaction touchable” component (we also used this in Lesson 4 for playing music from the octa). "コンポーネントの追加 をクリックします。「近くの相互作用押せる」検索し、選択し、次の図のようにします。Click “add component” and search for “near interaction touchable” and select it, as shown in the images below.

  4. パン ジェスチャを認識する機能を追加します。Add the ability to recognize the pan gesture. "コンポーネントの追加 をクリックし、「相互作用のパンを渡します」を入力Click “add component” and type “hand interaction pan.” (距離から方向へパンすることができます) 手射線と人差し指を切り替える必要があります。You will have a choice between hand ray (allowing you to pan from a distance) and index finger. この例では、人差し指をそのままにします。For this example, leave it at index finger. Lesson5 第 2 章 Step7 8ImLesson5 Chapter2 Step7 8Im

Lesson5 第 2 章 Step8im

  1. 手の形の相互作用パン スクリプト"lock 水平"および"lock 垂直"のチェック ボックスにロックされます移動、それぞれします。In the hand interaction pan script, the “lock horizontal” and “lock vertical” checkboxes will lock the movements, respectively. 折り返しのテクスチャの設定とテクスチャ (テクスチャ マッピング)、ユーザーのパンの動きに従います。The wrap texture settings will make the texture (texture mapping) follow the user's pan movements. この例では、チェック ボックスをオンにいきます。For this example, we are going to check that box. 「速度 active」、パン ジェスチャは機能しません、オフにした場合もあります。There is also “velocity active” which, if unchecked, the pan gesture will not work. 同様に、このボックスを確認します。Check this box as well. これでパンが有効な quad が必要です。Now you should have a pan-enabled quad.

    次に、3 D オブジェクトをパンする方法について説明します。Next, we will learn how to pan 3D objects.

  2. クアッド オブジェクトを右クリックし、3 D オブジェクトを選択し、「キューブです」をクリックしてくださいRight click the quad object, select 3D object then click “cube.” X はほぼキューブを拡大縮小 = 0.1、y = 0.1、z = 0.1 です。Scale the cube so that it’s roughly x = 0.1, y = 0.1 and z = 0.1. (キューブを右クリックして、重複するキーを押しますまたはコントロール/コマンド D キーを押してによって) 3 回そのキューブをコピーします。Copy that cube 3 times (by right clicking the cube and pressing duplicate, or by pressing control/command D). それらを均等スペースします。Space them out evenly. シーンは、次の図のようになります。Your scene should look similar to the picture below.

Lesson5 第 2 章 Step10im

  1. 再度、クアッドを選択し、手の形の相互作用パン スクリプトで各キューブのパン操作を設定する必要です。Select the quad again, and under the hand interaction pan script, we want to set the pan actions to each of the cubes. 「パン イベント レシーバー」で、イベントを受信しているオブジェクトの数を指定します。Under “pan event receivers” we want to specify the number of objects that are receiving the event. 4 つのキューブがあるので「4」の種類とキーを押してを入力します。Since there are 4 cubes, type “4” and press enter. 4 つの空のフィールドが表示されます。4 empty fields should appear.

Lesson5 第 2 章 Step11im

  1. 各要素が空のスロットには、内のキューブの各をドラッグします。Drag each of the cubes in to each of the empty element slots. Lesson5 第 2 章 Step12imLesson5 Chapter2 Step12im

  2. すべてのキューブに「移動 pan の」スクリプトを追加します。Add the “move with pan” script to all of the cubes. これを行うには、キーを押しますコントロール/コマンドの保持し、各オブジェクトを選択します。To do this, press and hold control/command and select each object. Inspector パネルで、"コンポーネントの追加 をクリックし、「パンと共に移動します」を検索します。Then, in the inspector panel, click “add component” and search for “move with pan.” スクリプトをクリックし、各キューブに追加されます。Click the script and it will be added to each cube. ここで 3D オブジェクトは、パン ジェスチャと共に移動!Now the 3D objects will move with your pan gesture! 削除すると、メッシュをレンダリングしてクワドが四角形が非表示であることを 3D オブジェクトのリストをパンすることができます。If you remove the mesh render on your quad, you should now have an invisible quad where you can pan through a list of 3D objects.

視線Eye Tracking

この章では、このデモで目の追跡を有効にする方法について説明します。In this chapter, we will explore how to enable eye tracking in our demo. 目視線の先にすると gazed されているが、3 D のメニュー項目が回転私たちが緩やかに変化します。We will slowly spin our 3D menu items when they are being gazed upon with eye gaze. 楽しいもトリガー gazed 時に項目が選択されている場合に影響します。We will also trigger a fun effect when the gazed-upon item is selected.

  1. Mixed Reality Toolkit プロファイルが正しく構成されていることを確認します。Ensure the Mixed Reality Toolkit profiles are properly configured. この執筆時点で、複合現実 toolkit プロファイルの構成に目が既定で追跡機能は含まれません。As of this writing, the mixed reality toolkit profile configuration does not include eye tracking capabilities by default. 目の追跡機能を追加するには、「目の追跡に必要な MRTK プロファイルの設定」セクションの手順に従って」の説明に従って、 Mixed Reality Toolkit のドキュメントします。To add eye tracking capabilities, follow the instructions in the “Setting up the MRTK profiles required for Eye Tracking” section as outlined in the Mixed Reality Toolkit Documentation. GazeProvider (カメラに接続されているコンポーネント) で追跡を目と Unity エディターの視線のシミュレーションを有効化を有効にするなど、上記リンクのドキュメントの残りの手順に従ってその視線を適切に構成を確認します。Ensure that eye tracking is properly configured by following any remaining steps in the documentation link above, including enabling eye tracking in GazeProvider (component attached to camera) and enabling simulation of eye tracking in the Unity editor. 注、MRTK の将来のバージョンは、既定では目の追跡を含めることができます。Note that future version of the MRTK may include eye tracking by default.

    上記のリンクの簡単な指示を提供します。The link above provides brief instructions for:

    • MRTK プロファイルで使用するための目視線データ プロバイダーを作成します。Creating the Eye Gaze Data Provider for use in the MRTK Profile
    • 視線のプロバイダーの目の追跡を有効にします。Enabling eye tracking in the Gaze Provider
    • エディターでの視線をシミュレートするための設定します。Set up for simulating eye tracking in the editor
    • 編集、ビルド済みアプリケーションの監視追跡できるように、Visual Studio ソリューションの機能Editing the Visual Studio solution's capabilities to allow eye tracking in the built application
  2. ターゲット オブジェクトに目を追跡対象のコンポーネントを追加します。Add the Eye Tracking Target component to target objects. 目の視線入力イベントに応答するオブジェクトを許可するのには、目視線の先を使用して対話する各オブジェクトに対して EyeTrackingTarget コンポーネントを追加する必要があります。To allow an object to respond to eye gaze events, we will need to add the EyeTrackingTarget component on each object that we wish to interact with using eye gaze. 各グリッド コレクションの一部である 9 つの 3D オブジェクトには、このコンポーネントを追加します。Add this component to each of the nine 3D objects that are part of the grid collection. ヒント: EyeTrackingTarget コンポーネントの一括追加する階層の複数の項目を選択します。Tip: select multiple items in the hierarchy to bulk-add the EyeTrackingTarget component. Lesson5 第 3 章の手順 2Lesson5 Chapter3 Step2

  3. 次にいくつかの魅力的な対話の EyeTrackingTutorialDemo スクリプトを追加します。Next we will add the EyeTrackingTutorialDemo script for some exciting interactions. EyeTrackingTutorialDemo スクリプトでは、このチュートリアル シリーズのリポジトリの一部として含まれてし、Mixed Reality Toolkit では既定では含まれません。The EyeTrackingTutorialDemo script is included as part of this tutorial series’ repository and is not included by default with the Mixed Reality Toolkit. グリッドのコレクション内の各 3D オブジェクトを"コンポーネントの追加 メニューで、コンポーネントを検索して EyeTrackingTutorialDemo スクリプトを追加します。For each 3D object in the grid collection, add the EyeTrackingTutorialDemo script by searching for the component in the “Add Component” menu. Lesson5 第 3 章の手順 3Lesson5 Chapter3 Step3

    1. オブジェクトをターゲットしている間にスピンします。Spin the object while looking at the target. 今回はで対象にしているときに迅速に作成する、3 D オブジェクトを構成します。We would like to configure our 3D object to spin while we are looking at it. これを行うには、次の図に示すように、EyeTrackingTarget コンポーネントの「中に検索でターゲット」セクションでは、新しいフィールドを挿入します。To do this, insert a new field in the “While Looking At Target” section of the EyeTrackingTarget component, as shown in the image below.

Lesson5 第 3 章 Step4a Lesson5 第 3 章 Step4bLesson5 Chapter3 Step4a Lesson5 Chapter3 Step4b

新しく作成されたフィールドに、空のフィールドを現在のゲーム オブジェクトを追加し、EyeTrackingTutorialDemo を選択 > RotateTarget() 次の図に示すようにします。In newly created field, add the current Game Object to the empty field, and select EyeTrackingTutorialDemo > RotateTarget() as shown in the image below. 今すぐ、3 D オブジェクトは、目の追跡時に gazed 中は、回転に構成されます。Now the 3D object is configured to spin when it is being gazed upon with eye tracking.

  1. (エア タップ、または"select"という) を選択するで gazed 中は、"ブリップ target"を機能に追加します。Add in ability to “blip target” that is being gazed at upon select (air-tap, or saying “select”). EyeTrackingTutorialDemo をトリガーする手順 4 と同様に、> 次の図に示すように、EyeTrackingTarget コンポーネントのゲーム オブジェクトの"Select()"フィールドに割り当てる BlipTarget() します。Similar to Step 4, we want to trigger EyeTrackingTutorialDemo > BlipTarget() by assigning it to the Game Object’s “Select()” field of the EyeTrackingTarget component, as shown in the figure below. ここで構成されているこのわかりますエア タップや音声コマンドなどの選択アクションをトリガーするたびに、ゲーム オブジェクトにわずかなブリップ「を選択します。」With this now configured, you will notice a slight blip in the game object whenever you trigger a select action, such as air-tap or the voice command “select.” Lesson5 第 3 章の手順 5Lesson5 Chapter3 Step5
  2. HoloLens 2 にビルドする前に目の追跡機能が適切に構成を確認します。Ensure eye tracking capabilities are properly configured before building to HoloLens 2. 本稿執筆、Unity はまだありません視線の先 (監視追跡) の入力機能を設定する機能。As of this writing, Unity does not yet have the ability to set the gaze input (for eye tracking) capability. この機能の設定は、目の追跡、HoloLens 2 で動作する必要があります。Setting this capability is required for eye tracking to work on the HoloLens 2. 視線入力機能を有効にする複合現実 toolkit のドキュメントでこれらの手順に従います。 https://microsoft.github.io/MixedRealityToolkit-Unity/Documentation/EyeTracking/EyeTracking_BasicSetup.html#testing-your-unity-app-on-a-hololens-2Follow these instructions on the mixed reality toolkit documentation to enable the gaze input capability: https://microsoft.github.io/MixedRealityToolkit-Unity/Documentation/EyeTracking/EyeTracking_BasicSetup.html#testing-your-unity-app-on-a-hololens-2

これで終了です。Congratulations!

追跡機能をアプリケーションに基本的な監視が追加されました。You’ve successfully added basic eye tracking capabilities to the application. これらのアクションは、視線で可能性の世界の先頭のみです。These actions are only the beginning of a world of possibilities with eye tracking. この章では、レッスン 5、場所の学習、音声コマンドなどの高度な入力機能パン ジェスチャ、および監視の追跡も終了します。This chapter also concludes lesson 5, where we learned about advanced input functionality such as voice commands, panning gestures, and eye tracking.

次のレッスン:旧暦モジュール アセンブリ サンプル エクスペリエンスNext Lesson: Lunar Module Assembly Sample Experience