Novembre 2016

Volume 31, numéro 11

Cet article a fait l'objet d'une traduction automatique.

HoloLens : présentation d’HoloLens

Par Adam Tuliper | Novembre 2016

Il s’agit d’une année excitante pour les nouveaux périphériques novateur. Il a dit l’année de réalité virtuelle (VR) et complété la réalité (AR) et certains périphériques très importants et très attendues ont commencé à son expédition, y compris HoloLens, HTC les Oculus Rift CV1. John Riccitiello, le PDG de Technologies Unity, dit de AR/VR : « Il est une technologie unique de génération et intéressantes qu’il modifie littéralement tout, » et je suis entièrement d’accord. HoloLens, le nouveau périphérique passionnant de Microsoft, est capable de fusion du monde réel et virtuel.

Nouveautés HoloLens

HoloLens est un ordinateur Windows 10 illimité, entièrement autonome se positionne confortablement sur votre tête. Il est ce que l'on appelle un périphérique réalité mixte, qui tente de fusionner le monde réel et numérique. Les objets placés dans le monde qui ressemblent et, dans une mesure, agir comme ils le sont dans le monde réel. En revanche, VR vous plonge dans un environnement et généralement que rien n’autour de vous, mais ce monde virtuel. Vous ne sont généralement pas visuellement prenant en charge du monde réel à l’extérieur de votre affichage lunettes (HMD).  Cette expérience qui circulent dans l’espace alors que vous asseoir dans votre fauteuil office peut accéder. Et AR essaie d’améliorer le monde avec des données supplémentaires, telles que marques ou profondes appartenant à votre emplacement. Certains casques AR lèvent simplement texte et des images sur un écran qui se chevauchent tout ce que vous examinez.

Avec la HoloLens, vous pouvez intégrer des applications et des objets dans le monde de comprendre votre environnement. Si vous voulez qu’une application épinglée au mur ou en l’air comme un écran numérique, comme indiqué dans Figure 1, aucun problème. Ces applications élégants, même lorsque vous laissez votre salle et revenez le jour suivant. Je constamment laisse windows virtuels ouvrir dans d’autres pièces, à être surpris lorsque je reviens jours plus tard, et elles sont toujours là. Et ce n'est pas tout. Supposons que vous vouliez un squelette permanent devant vous dans votre salon que vous pouvez parcourir et inspecter (y compris d’escalade dans votre canapé pour analyser le haut de la tête). Là encore, aucun problème. Suppression d’un objet 3D virtuel, par exemple, une balle, appelé un hologramme, dans le monde et il entrent et atteint votre table réelle et s’arrête. Déplacer la table et la balle sera appartiennent et atteint votre plancher réel. Le HoloLens comprend le monde et la plupart sont absolument surprises la première fois qu’ils l’essayez (bien que je suis en attente pour être en mesure de télécharger les arts martiaux dans mon cerveau).

Application sur un mur
Application de la figure 1 sur le mur

Dans cet article, je traiterai les trois piliers d’entrée et de l’environnement de développement HoloLens : regard, de mouvement et de voix, qui représentent les principaux moyens d’interagir avec les HoloLens. Davantage de fonctionnalités HoloLens comme mappage spatiaux, spatial audio et les systèmes de coordonnées seront abordées dans mon prochain article.

Les outils et le Kit de développement Logiciel

Il n’est pas un kit de développement Logiciel distinct pour les HoloLens, il est simplement une partie du Kit de Développement Windows 10. Vous venez Visual Studio 2015 avec Update 3 + installé et que vous avez vérifiées « Outils et Windows 10 SDK » lors de l’installation. Vous pouvez revenir en arrière et exécutez le programme d’installation de Visual Studio pour sélectionner ces options, bien sûr, juste exécuter à nouveau le programme d’installation mise à jour 3 (ou version ultérieure le cas échéant).

Le HoloLens, une plate-forme de Windows universelle (UWP) car il s’agit d’un appareil Windows 10, exécute les applications UWP. C’est ça, n’importe quelle application Windows 10 permettre potentiellement s’exécuter sur le bureau, phone et Xbox, mais également sur le HoloLens. Vous trouverez les instructions publiées sur prendre vos applications non UWP Windows Phone et Windows Store et en les convertissant en bit.ly/2c3Hkit. Pour vous assurer qu’une application UWP s’afficheront dans le Windows Store, assurez-vous que vous avez autorisé la famille de périphériques HoloLens dans le centre de développement Windows lorsque votre application est publiée, comme indiqué dans Figure 2. Comme c’est le cas avec n’importe quelle application sur n’importe quelle plateforme, vous devez vous assurer de votre application se présentera correctement sur les périphériques spécifiques que vous ciblez, comme des périphériques différents ont des résolutions différentes et des capacités de mémoire.

Garantie de l’envoi du centre de développement Windows prend en charge le HoloLens
Figure 2 garantissant la soumission du centre de développement Windows prend en charge la HoloLens

Les deux options pour le développement d’applications HOLOGRAPHIQUES, le type qui peut tirer pleinement parti de la fonction HoloLens définie, DirectX et Unity. Vous pouvez également créer une simple application UWP à l’aide de c# et XAML, mais il s’exécutera comme une application 2D sur les HoloLens et vous n’obtenez pas permet de supprimer les hologrammes autour de l’espace. Il existe des modèles de projet dans Visual Studio pour applications HOLOGRAPHIQUES qui peuvent afficher des hologrammes, comme indiqué dans Figure 3. Vérifiez les conditions préalables sont remplies ou que vous ne voyez pas les modèles disponibles. Unity (Mon environnement de développement par défaut pour les HoloLens) prend en charge dès le départ dans les builds HoloLens Technical Preview (HTTP) disponibles sur son site Web à l’adresse bit.ly/2bBZsNn.

Modèles de HoloLens DirectX
Figure 3 HoloLens DirectX modèles

Dans certains cas, toutefois, vous devez sélectionner un Visual Studio, même si vous utilisez Unity, bien que l’expérience de développement est très différente de l’utilisation de DirectX pure. Déploiement vers le HoloLens s’effectue via Visual Studio et peut être effectuée via une connexion USB locale, une connexion à distance ou l’émulateur, comme indiqué dans Figure 4.

Différentes façons de déployer vers le HoloLens
Figure 4 les différentes façons de déployer à l’HoloLens

Qu’en est-il de documentation ? MSDN a longtemps été une base pour les développeurs, mais les années d’ajouts apportés à la plus difficile à trouver ce que vous avez besoin. Maintenant documentation est entièrement restaurée à docs.microsoft.com. L’équipe HoloLens a l’intention de sa documentation pour être une excellente et vous devez être en mesure de trouver la plupart des éléments dans un seul endroit à bit.ly/1rb7i5C. Si vous trouvez un élément manquant, informer l’équipe HoloLens. Nous sommes dans une nouvelle ère de l’améliorer de nombreuses choses chez Microsoft, et l’équipe HoloLens contribue à montrer le chemin sur une bonne documentation solide.

Le matériel HoloLens l’affiche à 60 FPS, il est extrêmement important de vérifier que vos expériences exécutent cette fréquence. Vous allez également vérifier que vous restez dans les besoins en mémoire du périphérique (comme j’écris cet article, cela signifie 900 Mo de RAM disponible pour votre application). Si vous êtes novice au développement d’expériences de graphiques, il est tentant de récupérer n’importe quel élément de la bibliothèque et le placer dans la scène. Vous pouvez penser, « Je peux saisir un modèle 3D de ma ville et déposez-le dans mon scène et Explorer ! » Mais ceci serait susceptible de provoquer des problèmes sur n’importe quelle plateforme. N’oubliez pas la plupart des implémentent jeux dessiner de nombreuses astuces afin de réduire les appels, occlude geometry, afficher des modèles de faible résolution plus loin (appelé niveau de détail, ou LOD) et bien plus encore, et le HoloLens ne fait pas exception. Recommandations relatives aux performances sont répertoriées en bit.ly/2besJxQ. Quelques exemples d’optimisation peuvent être consultés dans le module « Optimisation de vos jeux » au bit.ly/2dBqMxw.

L’émulateur HoloLens l’émulateur peut vous aider à assez loin dans le processus de développement. Techniquement, vous n’avez pas besoin un HoloLens tout pour développer une expérience, comme vous n’avez pas besoin d’un téléphone pour développer un téléphone. Dans certains cas, toutefois, vous évidemment voudrez tester sur un périphérique. L’émulateur peut émuler des gestes, position de tête et la voix, mais il présente certaines limitations. Premièrement, lorsque vous êtes dans un émulateur, vous ne verrez pas le monde réel autour de votre hologrammes, en tant que Figure 5 présente, bien que vous pouvez affecter un nuanceur à votre maillage spatiale qui est abordée dans l’article suivant.

À l’aide de l’émulateur HoloLens
Figure 5 Utilisation de l’émulateur HoloLens

Il existe quatre modèles de salle prédéfinis que vous pouvez sélectionner dans l’émulateur. Étant donné que vous n’avez un HoloLens sur votre tête, l’émulateur doit savoir sur quoi elle ressemble du point de vue 3D et de la salle. Je suis passer directement à l’article suivant un peu, mais le HoloLens comprend l’espace autour de vous et constamment à jour sa compréhension de cet espace, comme dans Figure 6. Cette vue « en coulisses » de ce que voit l’HoloLens est un espace qui est chargé par défaut dans l’émulateur et n’est visible dans le portail de périphérique Windows, auquel vous pouvez accéder pour l’émulateur ou votre périphérique HoloLens réel. Vous pouvez enregistrer un modèle de salle vous avez analysé avec le HoloLens et que chargez dans l’émulateur, ce qui signifie que vous peut également développer des expériences utilisateurs multiples à l’aide d’un HoloLens et l’émulateur ou plusieurs instances de l’émulateur et charger dans vos propres locaux personnalisé à tester.

le modèle d’espace par défaut est chargé dans l’émulateur s’affiche
Figure 6 le modèle d’espace par défaut est chargé dans l’émulateur s’affiche

Windows HOLOGRAPHIQUE

Windows 10 contient les API de PC de bureau, portables et Xbox pour la plate-forme Windows HOLOGRAPHIQUE. Il est à ces API que vous pouvez interagir avec non seulement le HoloLens mais les autres périphériques du futur, ainsi, y compris les initiatives d’autres fournisseurs, tels que Intel nouveau casque habité projet Alloy, HTC, Qualcomm et beaucoup d’autres. Parmi les API pour Windows HOLOGRAPHIQUE figurent dans les espaces de noms suivants (je vous recommande de consulter ces informations pour avoir une idée de certaines structures et classes sous-jacentes) :

Il existe trois piliers de l’entrée sur le HoloLens : regard, de mouvement et vocale et ces sont ce que je me concentrerai sur maintenant. Si vous avez lu mes articles précédente sur le développement de jeux ou un de Mes vidéos en ligne surveillés pour Microsoft Virtual Academy, vous savez que j’aime très le moteur de jeu Unity, donc les exemples de code qui suivent sont basés sur l’unité C#.

Regard est essentiellement où le HoloLens, bien qu’il soit plus facile de prendre en compte lorsqu’il se trouve sur votre tête. Pour comprendre le regard représente, examinons l’espace de noms Windows.Perception.People la classe HeadPose, qui contient trois types Vector3 (une structure Vector3 contient simplement x, y, les valeurs z unique) :

  • ForwardDirection : Obtient la direction avant du HoloLens.
  • Position : Obtient la position de la HoloLens.
  • UpDirection : Obtient la direction est sa prise en charge la HoloLens.

Ces informations vous permettent de déterminer l’endroit où l’utilisateur est dans le sens dans lequel ils cherchent. Lorsqu’une application démarre sur le HoloLens, la position de départ est à 0,0,0. À partir de cet emplacement, il est alors facile de déterminer où et dans le sens dans lequel l’utilisateur se déplace. Voyons d’abord comment détecter l’objet vers lequel l’utilisateur est dirigée. La configuration requise est que cet objet comporte un composant collider dessus pour détecter, qui est très facile à ajouter à n’importe quel objet dans Unity. Dans Unity, au lieu de la HeadPose, vous utilisez simplement les informations Camera.main, qui correspond à la HeadPose (en arrière-plan). Si vous êtes habitué à travailler dans Unity avec l’appareil photo, rien n’est différente. Avec ces informations, vous pouvez tirer une flèche invisible out et savoir qu’il atteint (une technique courante en 3D ray appelée programmation cast). J’ai besoin d’un objet de jeu comme un cube avec le script Interactible (Figure 7) et un autre objet de jeu vide distinct avec l’InteractibleManager (Figure 8) sur celui-ci.

Figure 7 la classe Interactible

public class Interactible : MonoBehaviour
{
  // The materials we’ll set to highlight.
  private Material[] defaultMaterials;
  void Awake()
  {
    // Get the materials from our renderer.
    // A material contains a shader which lights/colors object.
    defaultMaterials = GetComponent<Renderer>().materials;
  }
  void GazeEntered()
  {
    for (int i = 0; i < defaultMaterials.Length; i++)
    {
      // This assumed we're using a shader that has a Highlight
      // property, as does the Custom/SpecularHighlight one
      // from Holograms 210. This adds lighting color to it
      // to "highlight" it.
      defaultMaterials[i].SetFloat("_Highlight", .25f);
    }
  }
  void GazeExited()
  {
    for (int i = 0; i < defaultMaterials.Length; i++)
    {
      defaultMaterials[i].SetFloat("_Highlight", 0f);
    }
  }
}

Figure 8 la classe InteractibleManager

public class InteractibleManager : MonoBehaviour
{
  private GameObject lastHit;
  // Every frame see if we are looking at a HoloGram (i.e. a game object).
  void Update()
  {
    RaycastHit hitInfo;
    if (Physics.Raycast(
      Camera.main.transform.position,
      Camera.main.transform.forward,
      out hitInfo,
      10.0f,
      Physics.DefaultRaycastLayers))
    {   
      // The game object we've hit.
      var tempGO = hitInfo.collider.gameObject;
      // See if this object contains our Interactible class.
      if(tempGO.GetComponent<Interactible>() != null)
      {
        lastHit = tempGO;
        // Loosely coupled way to call a method in Unity on our g.o.
        lastHit.SendMessage("GazeEntered");
      }
  }
  else
  {
    // No object detected in Gaze, lets deselect the last one.
    if(lastHit!=null)
    {
      lastHit.SendMessage("GazeExited");
      lastHit = null;
    }
  }
  }
}

Je présente simplement une vue d’ensemble des idées principales ici. Vous trouverez plus de détails dans hologrammes 210, au cours de l’Académie HOLOGRAPHIQUE sur regard concepts, y compris la position pour éviter les mouvements saccadés lors de la sélection des objets principal de stabilisation (bit.ly/2b9TWlR). En bref, Camera.main est la position de HoloLens. Tournage votre rayon invisible à partir de cette position dans la direction Camera.main.forward pour rechercher le premier collider que vous avez atteint. Si vous recherchez quelque chose, tout ce dont a besoin consiste à mettre en surbrillance en définissant une variable que le nuanceur utilisera. Par exemple, dans Figure 7, j’utilisé le nuanceur de hologrammes 210 et simplement la valeur _Surligner à.25 lorsque sélectionné. Vous pouvez utiliser le nuanceur de Unity standard, également et définir la luminosité de la couleur d’émission à la place, comme suit :

defaultMaterials[i].SetFloat("_EmissionColor", Color(0,0,0,.2f);

Vous devez être conscient de l’effet des nuanceurs sur les performances de la HoloLens. Ce périphérique, tout en étonnants, est limité par sa taille, comme c’est souvent le cas avec le matériel. Presque chaque jeu effectuées dès aujourd'hui et la méthode ait le temps alloué pour l’optimisation et la HoloLens n’est pas différente. Lorsque vous développez pour le HoloLens avec Unity, la première chose que vous souhaiterez faire est permutez les nuanceurs pour les variantes optimisés situés dans le HoloToolkit à bit.ly/2bO6cH2

La HoloToolkit contient de nombreuses fonctions d’assistance et les objets qui peuvent considérablement aider au développement de HoloLens, y compris les curseurs, remplacez stabilisants, de mouvements et transmettre aux responsables, détecteurs de plan, procédez comme-me scripts, les exemples de partage entre plusieurs HoloLens et bien plus encore. La majorité de cette fonctionnalité est dans l’unité-HoloToolkit à bit.ly/2bO8XrT, veillez donc à vous regardez dans le référentiel approprié et pas seulement à la base HoloToolkit à bit.ly/2bPCbas, qui, toutefois, est utile à part entière et contient plusieurs exemples de projets autonomes et tout autre code de bibliothèque qui utilise l’unité de HoloToolkit.

 Lorsque vous avez des objets qui ne sont pas dans la zone visible, que ce soit un jeu sur l’écran, VR, AR ou réalité mixte, il est utile de fournir un petit indicateur pour indiquer à l’utilisateur dans quel sens qu’ils doivent recherche d’un objet si elles commencent à être absent, comme indiqué dans Figure 9. Il s’agit d’une technique très courante dans de nombreux jeux vidéo, et il est incroyablement utile dans le monde en réalité mixte.

Afficher un indicateur de direction
Figure 9 affichant un indicateur de direction

Le code dans Figure 10 peut être utilisé pour déterminer si un hologramme particulier est visible.

Figure 10 déterminant si un hologramme est Visible

[Tooltip("Allowable percentage (to 30%) inside the holographic frame to continue to show a directional indicator.")]
[Range(-0.3f, 0.3f)]
public float TitleSafeFactor = 0.1f;
// Determine if sgame object is visible within a certain percentage.
// The Viewport is 0,0 to 1,1 (bottom left of screen to top right).
private bool IsTargetVisible()
{
  // This will return true if the target's mesh is within the Main
  // Camera's view frustums.
  Vector3 targetViewportPosition =
    Camera.main.WorldToViewportPoint(gameObject.transform.position);
      return (targetViewportPosition.x > TitleSafeFactor &&
      targetViewportPosition.x < 1 - TitleSafeFactor &&
      targetViewportPosition.y > TitleSafeFactor &&
      targetViewportPosition.y < 1 - TitleSafeFactor &&
      targetViewportPosition.z > 0);
}

Une fois que vous savez si un objet n’est pas visible (ou est à peine visible), vous pouvez évaluer dans quelle direction pour afficher un indicateur de direction. Étant donné que vous avez accès à la position de la caméra et de n’importe quelle position de l’objet de jeu, il est facile de déterminer où un hologramme est comparé par recherche où l’utilisateur. Pour obtenir un vecteur directionnel représentant une flèche provenant de la caméra à un objet de jeu particulier est une question de soustraire un emplacement de l’autre et de normalisation pour rendre la base (il est plus facile d’utiliser un vecteur normalisé dans de nombreux calculs), comme suit :

Vector3 camToObjectDirection =
  gameObject.transform.position - Camera.main.transform.position; 
  camToObjectDirection.Normalize();

Affichant les indicateurs de directionnelles nécessite quelques autres points à configurer, mais c’est l’idée des fonctionnalités. Une fois que vous connaissez la direction à partir de la HoloLens (autrement dit, la caméra) l’hologramme, vous pouvez afficher un indicateur à l’écran. Vous pouvez consulter cette fonctionnalité en détail à bit.ly/2bh0Hz7.

Mouvement est la manière de traiter une entrée pour le HoloLens suivante. Les gestes sont effectuées avec la main, le contrôleur ou des commandes vocales. Les mouvements de stock sont analysés pour via une des caméras à l’avant, dans ce qu’on appelle le frame de mouvement, qui étend la zone d’affichage de tous les côtés de l’hologramme, ce qui vous permet de conserver votre main plus près votre corps plutôt que maintient un immensité échappatoire à chaque fois. Vous en général n’appuyez sur hologrammes, mais appuyez sur et déterminer ce que l’utilisateur recherche via le regard.

Le HoloLens prend en charge deux catégories de mouvements. Le premier comprend des gestes discrètes, telles que d’une seule action rapide comme le drainage air indiqué dans Figure 11, un clic avec le cliqueur Bluetooth inclus, indiquant que la commande « Select », ou même un double clic. Le deuxième type implique les mouvements en continu, qui se produisent au fil du temps et sont généralement déclenchées lorsque vous maintenez et déplacez vos mains. Mouvements continues prennent en charge la navigation et la manipulation. Mouvements de navigation vous donnent une position de départ de 0,0,0 — c'est-à-dire partout où vous démarrez le mouvement et puis sont limitées à un cube virtuel dans l’espace qui vous permet de déplacer de -1 à 1 sur un axe du cube pour fournir (parmi d’autres cas d’utilisation) lisser la rotation autour d’un ou plusieurs axes ou défilement régulier. Autorise les mouvements de manipulation, plutôt que de contraindre à un cube virtuel, un mouvement de 1:1 entre les mains et hologrammes, pensez à peindre pratiquement ou bien mouvements fluide pour positionner hologrammes autour de votre environnement. vous obtenez des informations de positionnement relatif à world dans x, y, z.

Un clic de l’Air
Figure 11 un drainage de l’Air

Un développeur, vous pouvez, bien sûr, raccordement dans les gestes, comme l’air tap, maintenez, navigation et la manipulation. Il n’existe actuellement aucune prise en charge des mouvements personnalisés, mais vous n’avez pas accès à un peu plus de données via les mouvements mentionnées précédemment. Vous pouvez également suivre la main positionner (en l’état prêt ou l’état enfoncé), x, y, z et savoir quand les mains se trouvent dans ou en laissant le frame de mouvement, qui peut fournir des commentaires utiles à l’utilisateur lorsque les mains sont sur le point de quitter le frame de mouvement.

Figure 12 la classe GestureManager

public class GestureManager : MonoBehaviour
{
  private GestureRecognizer gestureRecognizer;
  void Start()
  {
    gestureRecognizer = new GestureRecognizer();
    // We can register here for more than just tap (ex Navigation).
    gestureRecognizer.SetRecognizableGestures(GestureSettings.Tap);
    gestureRecognizer.TappedEvent += (source, tapCount, ray) =>
    {
      // A tap has been detected.
      // Raycast using the provided ray and get the hit game
      // object and perform some action on it as was done previously.
    };
    gestureRecognizer.StartCapturingGestures();
  }
  void OnDestroy()
  {
    gestureRecognizer.StopCapturingGestures();
  }
}

Vous pouvez ajouter une classe GestureManager comme celui de la Figure 12 pour vous inscrire pour l’événement drainée, qui vous permet de savoir, par exemple, lorsque l’utilisateur a effectué un mouvement drainage via la commande Select vocale, un contrôleur ou une main (quel que soit l’où ils cliqué). Vous devez ensuite déterminer ce qui a été recherché lorsque l’utilisateur a cliqué, tout comme les opérations effectuées précédemment. Il est important de noter que le TappedEvent dans Figure 12 est transmis dans un rayon qui représente où la tête s’est produite lors de l’événement s’est produit. Dans le cas de mouvement de la tête rapide, vous souhaitez vous assurer raycast d’où le regard existait lorsque l’utilisateur appuie, où il est lorsque l’événement arrive, ce qui peut être légèrement sur l’emplacement d’origine.

Commandes vocales sur le HoloLens sont pris en charge au niveau du système via Cortana, mais également de partager le même moteur de reconnaissance vocale en tant que toutes les autres applications UWP et nécessitent donc pas de la fonctionnalité Microphone du périphérique dans le fichier du projet package.appxmanifest. Le traitement audio est accéléré par le matériel et fournit des flux audio 24 bits de voix de l’utilisateur et environnement ambiant 16khz à 48khz. Les commandes Cortana intégrées incluent « Select », « Hé Cortana < commande >, » et les commandes dans l’application contiennent « Select » (au lieu d’air-clic) et « Place ».

Répond aux commandes vocales personnalisées est possible et facile. Simplement ajouter des mots-clés et déléguer le code à exécuter et démarrer l’écoute, comme indiqué dans Figure 13.

Figure 13. Ajout de mots clés et Code de délégué

public class SpeechManager : MonoBehaviour
{
  KeywordRecognizer keywordRecognizer;
  Dictionary<string, System.Action> keywords =
    new Dictionary<string, System.Action>();
  void Start()
  {
    keywords.Add("Reset level", () =>
    {
      // Call the OnReset method on every descendant object to reset their state.
      this.BroadcastMessage("OnReset");
      // We could also do a full-level reload via
      // SceneManager.LoadScene(SceneManager.GetActiveScene().buildIndex);
    });
    // Tell the KeywordRecognizer about our keywords.
    keywordRecognizer = new KeywordRecognizer(keywords.Keys.ToArray());
    // Register a callback for the KeywordRecognizer and start recognizing!
    keywordRecognizer.OnPhraseRecognized += KeywordRecognizer_OnPhraseRecognized;
    keywordRecognizer.Start();
  }
  private void KeywordRecognizer_
    OnPhraseRecognized(PhraseRecognizedEventArgs args)
  {
    System.Action keywordAction;
    if (keywords.TryGetValue(args.text, out keywordAction))
    {
      keywordAction.Invoke();
    }
  }
}

Pour ceux qui souhaitent pour effectuer la parole en texte, dictée est disponible, ainsi, à l’aide de la classe DictationManager pour obtenir les événements DictationHypothesis, DictationResult, DictationComplete et DictationError. Notez que ceci nécessite une connectivité de Wi-Fi. Mon collègue Jared Bienz a ajouté un support intéressant pour la synthèse, ainsi, que vous trouverez dans le HoloToolkit pour Unity.

Pour résumer

Le HoloLens ouvre une nouvelle ère dans la façon dont vous pouvez rencontrer le monde, mélange réalité et le monde virtuel. Prise en main à HoloLens.com et gardez un œil il les annonces. Restez connecté pour mon prochain article, qui abordera ma fonction favorite HoloLens, spatiale de mappage.


Adam Tuliper est un développeur technique senior chez Microsoft dans ensoleillée SoCal.  Il est un développeur de développement/jeu Web Pluralsight.com auteur et les amoureux de tech ultra-rapide. Le trouver sur Twitter : @AdamTuliper ou channel9.msdn.com/Blogs/AdamsGarage.

Merci à l'expert technique Microsoft suivant d'avoir relu cet article : Champs Jackson
Les champs Jackson est ingénieur logiciel chez Microsoft