HoloLens (prima generazione) e Azure 310: Rilevamento oggetti

Nota

Le esercitazioni di Mixed Reality Academy sono state progettate in base a HoloLens (prima generazione) e ai visori VR immersive di realtà mista. Pertanto, riteniamo importante lasciarle a disposizione degli sviluppatori a cui serve ancora materiale sussidiario per lo sviluppo di questi dispositivi. Queste esercitazioni non verranno aggiornate con i set di strumenti o le interazioni più recenti usati per HoloLens 2. Rimarranno invariate per consentire di continuare a lavorare sui dispositivi supportati. Ci sarà una nuova serie di esercitazioni che verranno pubblicate in futuro che dimostreranno come sviluppare per HoloLens 2. Questo avviso verrà aggiornato con un collegamento a tali esercitazioni quando vengono pubblicate.


In questo corso si apprenderà come riconoscere il contenuto visivo personalizzato e la relativa posizione spaziale all'interno di un'immagine fornita, usando Azure Visione personalizzata funzionalità "Rilevamento oggetti" in un'applicazione di realtà mista.

Questo servizio consentirà di eseguire il training di un modello di Machine Learning usando le immagini degli oggetti. Si userà quindi il modello sottoposto a training per riconoscere oggetti simili e approssimarne la posizione nel mondo reale, come fornito dall'acquisizione della fotocamera di Microsoft HoloLens o una fotocamera si connettono a un PC per visori VR immersive.

risultato del corso

Azure Visione personalizzata, Rilevamento oggetti è un servizio Microsoft che consente agli sviluppatori di creare classificatori di immagini personalizzati. Questi classificatori possono quindi essere usati con nuove immagini per rilevare gli oggetti all'interno di tale nuova immagine, fornendo limiti box all'interno dell'immagine stessa. Il servizio offre un portale online semplice e facile da usare per semplificare questo processo. Per altre informazioni, visitare i collegamenti seguenti:

Al termine di questo corso, si avrà un'applicazione di realtà mista che sarà in grado di eseguire le operazioni seguenti:

  1. L'utente sarà in grado di guardare un oggetto, che ha eseguito il training usando il servizio azure Visione personalizzata, rilevamento oggetti.
  2. L'utente userà il movimento Tap per acquisire un'immagine di ciò che sta guardando.
  3. L'app invierà l'immagine al servizio azure Visione personalizzata.
  4. Verrà visualizzata una risposta dal servizio che visualizzerà il risultato del riconoscimento come testo dello spazio globale. Questa operazione verrà eseguita usando il rilevamento spaziale del Microsoft HoloLens, come modo per comprendere la posizione globale dell'oggetto riconosciuto e quindi usando il tag associato a ciò che viene rilevato nell'immagine, per fornire il testo dell'etichetta.

Il corso illustra anche il caricamento manuale di immagini, la creazione di tag e il training del servizio per riconoscere oggetti diversi (nell'esempio fornito, una tazza) impostando la casella limite all'interno dell'immagine che invii.

Importante

Dopo la creazione e l'uso dell'app, lo sviluppatore deve tornare al servizio di Visione personalizzata di Azure e identificare le stime effettuate dal servizio e determinare se sono stati corretti o meno (tramite l'assegnazione di tag a qualsiasi elemento mancante del servizio e la modifica dei rettangoli di selezione). Il servizio può quindi essere sottoposto nuovamente a training, che aumenterà la probabilità di riconoscere oggetti reali.

Questo corso illustra come ottenere i risultati dal servizio azure Visione personalizzata, rilevamento oggetti, in un'applicazione di esempio basata su Unity. Sarà necessario applicare questi concetti a un'applicazione personalizzata che si potrebbe creare.

Supporto di dispositivi

Corso HoloLens Visori VR immersive
MR e Azure 310: Rilevamento di oggetti ✔️

Prerequisiti

Nota

Questa esercitazione è progettata per gli sviluppatori che hanno esperienza di base con Unity e C#. Tenere presente anche che i prerequisiti e le istruzioni scritte all'interno di questo documento rappresentano ciò che è stato testato e verificato al momento della stesura del documento (luglio 2018). Si è liberi di usare il software più recente, come elencato all'interno dell'articolo installare gli strumenti , anche se non dovrebbe essere considerato che le informazioni in questo corso corrisponderanno perfettamente a ciò che troverete nel software più recente rispetto a quello elencato di seguito.

Per questo corso è consigliabile usare l'hardware e il software seguenti:

Prima di iniziare

  1. Per evitare di riscontrare problemi durante la compilazione di questo progetto, è consigliabile creare il progetto menzionato in questa esercitazione in una cartella radice o quasi radice (i percorsi di cartelle lunghi possono causare problemi in fase di compilazione).
  2. Configurare e testare HoloLens. Per assistenza, visitare l'articolo configurazione di HoloLens.
  3. È consigliabile eseguire la calibrazione e l'ottimizzazione dei sensori quando si inizia a sviluppare una nuova app HoloLens (talvolta può essere utile per eseguire tali attività per ogni utente).

Per informazioni sulla calibrazione, seguire questo collegamento all'articolo Calibrazione di HoloLens.

Per informazioni sull'ottimizzazione dei sensori, seguire questo collegamento all'articolo Ottimizzazione del sensore HoloLens.

Capitolo 1 - Portale di Visione personalizzata

Per usare il servizio azure Visione personalizzata, è necessario configurare un'istanza di per renderla disponibile per l'applicazione.

  1. Passare alla pagina principale del servizio Visione personalizzata.

  2. Fare clic su Introduzione.

    Screenshot che evidenzia il pulsante Introduzione.

  3. Accedere al portale di Visione personalizzata.

    Screenshot che mostra il pulsante Accedi.

  4. Se non si ha già un account Azure, è necessario crearne uno. Se si segue questa esercitazione in una classe o in una situazione di laboratorio, chiedere all'insegnante o a uno dei proctor di assistenza per configurare il nuovo account.

  5. Dopo aver effettuato l'accesso per la prima volta, verrà visualizzato il pannello Condizioni per l'utilizzo del servizio . Fare clic sulla casella di controllo per accettare le condizioni. Fare clic su Accetto.

    Screenshot che mostra il pannello Condizioni per il servizio.

  6. Dopo aver accettato le condizioni, si è ora nella sezione Progetti personali . Fare clic su Nuovo progetto.

    Screenshot che mostra dove selezionare Nuovo progetto.

  7. Verrà visualizzata una scheda sul lato destro, che richiederà di specificare alcuni campi per il progetto.

    1. Inserire un nome per il progetto

    2. Inserire una descrizione per il progetto (facoltativo)

    3. Scegliere un gruppo di risorse o crearne uno nuovo. Un gruppo di risorse consente di monitorare, controllare l'accesso, effettuare il provisioning e gestire la fatturazione per una raccolta di asset di Azure. È consigliabile mantenere tutti i servizi di Azure associati a un singolo progetto ,ad esempio questi corsi, in un gruppo di risorse comune.

      Screenshot che mostra dove aggiungere i dettagli per il nuovo progetto.

    4. Impostare i tipi di progetto come Rilevamento oggetti (anteprima) .

  8. Al termine, fare clic su Crea progetto e si verrà reindirizzati alla pagina Visione personalizzata progetto di servizio.

Capitolo 2 - Formazione del progetto Visione personalizzata

Una volta nel portale di Visione personalizzata, l'obiettivo principale consiste nel eseguire il training del progetto per riconoscere oggetti specifici nelle immagini.

Sono necessarie almeno quindici immagini (15) per ogni oggetto che si vuole riconoscere dall'applicazione. È possibile usare le immagini fornite con questo corso (una serie di tazze).

Per eseguire il training del progetto Visione personalizzata:

  1. Fare clic sul + pulsante accanto a Tag.

    Screenshot che mostra il pulsante + accanto a Tag.

  2. Aggiungere un nome per il tag che verrà usato per associare le immagini. In questo esempio si usano immagini di tazze per il riconoscimento, quindi è stato denominato il tag per questo , Cup. Al termine, fare clic su Salva .

    Screenshot che mostra dove aggiungere un nome per il tag.

  3. Si noterà che il tag è stato aggiunto (potrebbe essere necessario ricaricare la pagina per visualizzarla).

    Screenshot che mostra dove viene aggiunto il tag.

  4. Fare clic su Aggiungi immagini al centro della pagina.

    Screenshot che mostra dove aggiungere immagini.

  5. Fare clic su Sfoglia file locali e passare alle immagini che si desidera caricare per un oggetto, con il valore minimo di quindici (15).

    Suggerimento

    È possibile selezionare diverse immagini alla volta per caricare.

    Screenshot che mostra le immagini che è possibile caricare.

  6. Premere Carica file dopo aver selezionato tutte le immagini con cui si vuole eseguire il training del progetto. I file inizieranno a caricare. Dopo aver confermato il caricamento, fare clic su Fine.

    Screenshot che mostra lo stato di avanzamento delle immagini caricate.

  7. A questo punto le immagini vengono caricate, ma non contrassegnate.

    Screenshot che mostra un'immagine non contrassegnata.

  8. Per contrassegnare le immagini, usare il mouse. Quando si passa il puntatore del mouse sull'immagine, un'evidenziazione della selezione ti aiuterà a disegnare automaticamente una selezione intorno all'oggetto. Se non è accurato, è possibile disegnare il proprio. Questa operazione viene eseguita tenendo premuto il pulsante sinistro del mouse e trascinando l'area di selezione per includere l'oggetto.

    Screenshot che mostra come contrassegnare un'immagine.

  9. Dopo aver selezionato l'oggetto all'interno dell'immagine, verrà chiesto di aggiungere tag area. Selezionare il tag creato in precedenza ('Cup', nell'esempio precedente) o se si aggiungono altri tag, digitare e fare clic sul pulsante + (più).

    Screenshot che mostra il tag aggiunto all'immagine.

  10. Per contrassegnare l'immagine successiva, è possibile fare clic sulla freccia a destra del pannello oppure chiudere il pannello tag (facendo clic su X nell'angolo superiore destro del pannello) e quindi fare clic sull'immagine successiva. Dopo aver pronto l'immagine successiva, ripetere la stessa procedura. Eseguire questa operazione per tutte le immagini caricate, finché non vengono contrassegnate tutte.

    Nota

    È possibile selezionare diversi oggetti nella stessa immagine, ad esempio l'immagine seguente:

    Screenshot che mostra più oggetti in un'immagine.

  11. Dopo averli contrassegnati tutti, fare clic sul pulsante contrassegnato, a sinistra della schermata, per visualizzare le immagini contrassegnate.

    Screenshot che evidenzia il pulsante Tag.

  12. È ora possibile eseguire il training del servizio. Fare clic sul pulsante Train (Train ) e la prima iterazione di training inizierà.

    Screenshot che evidenzia il pulsante Training.

    Screenshot che mostra la prima iterazione di training.

  13. Una volta compilata, sarà possibile visualizzare due pulsanti denominati Make default and Prediction URL (Rendi URL predefinito e stima). Fare clic su Crea impostazione predefinita , quindi fare clic su URL di stima.

    Screenshot che evidenzia il pulsante Crea impostazione predefinita.

    Nota

    L'endpoint fornito da questo, è impostato su quale iterazione è stata contrassegnata come predefinita. Di conseguenza, se successivamente si effettua una nuova iterazione e la si aggiorna come impostazione predefinita, non sarà necessario modificare il codice.

  14. Dopo aver fatto clic su URL di stima, aprire Blocco note e copiare e incollare l'URL (chiamato anche l'endpoint di previsione) e la chiave di stima del servizio, in modo che sia possibile recuperarla quando è necessaria più avanti nel codice.

    Screenshot che mostra l'endpoint di stima e la chiave di predizione.

Capitolo 3 - Configurare il progetto Unity

Di seguito è riportata una configurazione tipica per lo sviluppo con realtà mista e, di conseguenza, è un modello valido per altri progetti.

  1. Aprire Unity e fare clic su Nuovo.

    Screenshot che evidenzia il pulsante Nuovo.

  2. Sarà ora necessario specificare un nome di progetto Unity. Inserisci CustomVisionObjDetection. Assicurarsi che il tipo di progetto sia impostato su 3D e impostare Il percorso su un punto appropriato per l'utente (ricordarsi, più vicino alle directory radice è meglio). Fare quindi clic su Crea progetto.

    Screenshot che mostra i dettagli del progetto e dove selezionare Crea progetto.

  3. Con Unity aperto, vale la pena verificare che l'editor di script predefinito sia impostato su Visual Studio. Passare a Modifica>preferenze e quindi dalla nuova finestra passare a Strumenti esterni. Modificare l'editor script esterno in Visual Studio. Chiudere la finestra Preferenze .

    Screenshot che mostra dove modificare l'editor script esterno in Visual Studio.

  4. Passare quindi a Impostazioni di compilazione file > e passare alla piattaforma in piattaforma UWP (Universal Windows Platform) e quindi fare clic sul pulsante Cambia piattaforma.

    Screenshot che evidenzia il pulsante Switch Platform.

  5. Nella stessa finestra Impostazioni di compilazione verificare che siano impostate le operazioni seguenti:

    1. Dispositivo di destinazione è impostato su HoloLens

    2. Il tipo di compilazione è impostato su D3D

    3. SDK è impostato su Più recente installato

    4. La versione di Visual Studio è impostata su Più recente installata

    5. Compilare ed eseguire è impostato su Computer locale

    6. Le impostazioni rimanenti, in Impostazioni di compilazione, devono essere lasciate come predefinite per il momento.

      Screenshot che mostra le opzioni di configurazione dell'impostazione di compilazione.

  6. Nella stessa finestra Impostazioni di compilazione fare clic sul pulsante Impostazioni lettore , verrà aperto il pannello correlato nello spazio in cui si trova il controllo .

  7. In questo pannello è necessario verificare alcune impostazioni:

    1. Nella scheda Altre impostazioni :

      1. La versione del runtime di script deve essere sperimentale (equivalente.NET 4.6), che attiverà una necessità di riavviare l'editor.

      2. Il back-end di script deve essere .NET.

      3. Il livello di compatibilità api deve essere .NET 4.6.

        Screenshot che mostra l'opzione Livello compatibilità API impostata su .NET 4.6.

    2. Nella scheda Impostazioni di pubblicazione , in Funzionalità selezionare:

      1. InternetClient

      2. Webcam

      3. SpatialPerception

        Screenshot che mostra la metà superiore delle opzioni di configurazione delle funzionalità.Screenshot che mostra la metà inferiore delle opzioni di configurazione delle funzionalità.

    3. Più avanti nel pannello, in Impostazioni XR (trovate sotto Impostazioni di pubblicazione), selezionare Virtual Reality Supportato, quindi assicurarsi che l'SDK di Windows Mixed Reality venga aggiunto.

      Screenshot che mostra che viene aggiunto Windows Mixed Reality SDK.

  8. Tornare in Impostazioni di compilazione, i progetti Unity C# non sono più disattivati: selezionare la casella di controllo accanto a questa.

  9. Chiudere la finestra Build Settings (Impostazioni compilazione).

  10. Nell'editor fare clic su Modifica>graficaimpostazioni> progetto.

    Screenshot che mostra l'opzione di menu Grafica selezionata.

  11. Nel pannello di controllo verranno aperte le impostazioni grafiche . Scorrere verso il basso fino a visualizzare una matrice denominata Always Include Shader. Aggiungere uno slot aumentando la variabile Size per uno (in questo esempio è stato 8 in modo che sia stato 9). Verrà visualizzato un nuovo slot, nell'ultima posizione della matrice, come illustrato di seguito:

    Screenshot che evidenzia la matrice Always Included Shader.

  12. Nello slot fare clic sul cerchio di destinazione piccolo accanto allo slot per aprire un elenco di shader. Cercare lo shader legacy/Transparent/Diffuse shader e fare doppio clic su di esso.

    Screenshot che evidenzia lo shader legacy/Transparent/Diffuse shader.

Capitolo 4 - Importazione del pacchetto CustomVisionObjDetection Unity

Per questo corso viene fornito un pacchetto asset unity denominato Azure-MR-310.unitypackage.

[TIP] Tutti gli oggetti supportati da Unity, inclusi gli interi scene, possono essere inseriti in un file con estensione unitypackage ed esportati/importati in altri progetti. È il modo più sicuro e più efficiente per spostare gli asset tra progetti Unity diversi.

È possibile trovare il pacchetto Azure-MR-310 che è necessario scaricare qui.

  1. Con il dashboard unity davanti a te, fai clic su Asset nel menu nella parte superiore della schermata, quindi fai clic su Importa pacchetto > personalizzato.

    Screenshot che evidenzia l'opzione di menu Pacchetto personalizzato.

  2. Usare la selezione file per selezionare il pacchetto Azure-MR-310.unitypackage e fare clic su Apri. Verrà visualizzato un elenco di componenti per questo asset. Confermare l'importazione facendo clic sul pulsante Importa .

    Screenshot che mostra l'elenco di componenti asset da importare.

  3. Al termine dell'importazione, si noterà che le cartelle del pacchetto sono state aggiunte alla cartella Asset . Questo tipo di struttura di cartelle è tipico per un progetto Unity.

    Screenshot che mostra il contenuto della cartella Asset.

    1. La cartella Material contiene il materiale utilizzato dal cursore di sguardo.

    2. La cartella Plugins contiene la DLL Newtonsoft usata dal codice per deserializzare la risposta Web del servizio. Le due versioni diverse (2) contenute nella cartella e nella sottocartella sono necessarie per consentire l'uso e la compilazione della libreria da parte dell'Editor Unity e della compilazione UWP.

    3. La cartella Prefabs contiene i prefab contenuti nella scena. Essi sono:

      1. GazeCursor, cursore usato nell'applicazione. Lavorerà insieme al prefab SpatialMapping per poter essere posizionato nella scena sopra gli oggetti fisici.
      2. Etichetta, che è l'oggetto dell'interfaccia utente usato per visualizzare il tag dell'oggetto nella scena quando necessario.
      3. SpatialMapping, che è l'oggetto che consente all'applicazione di usare la creazione di una mappa virtuale, usando il rilevamento spaziale del Microsoft HoloLens.
    4. Cartella Scene che attualmente contiene la scena predefinita per questo corso.

  4. Aprire la cartella Scene , nel pannello di progetto e fare doppio clic su ObjDetectionScene per caricare la scena che si userà per questo corso.

    Screenshot che mostra ObjDetectionScene nella cartella Scene.

    Nota

    Nessun codice è incluso, si scriverà il codice seguendo questo corso.

Capitolo 5 : Creare la classe CustomVisionAnalyser.

A questo punto si è pronti per scrivere un codice. Si inizierà con la classe CustomVisionAnalyser .

Nota

Le chiamate al servizio Visione personalizzata, effettuate nel codice riportato di seguito, vengono eseguite usando l'API REST Visione personalizzata. Tramite questa operazione, si vedrà come implementare e usare questa API (utile per comprendere come implementare qualcosa di simile a proprio). Tenere presente che Microsoft offre un SDK Visione personalizzata che può essere usato anche per effettuare chiamate al servizio. Per altre informazioni, vedere l'articolo Visione personalizzata SDK.

Questa classe è responsabile di:

  • Caricamento dell'immagine più recente acquisita come matrice di byte.

  • Invio della matrice di byte all'istanza del servizio di Visione personalizzata di Azure per l'analisi.

  • Ricezione della risposta come stringa JSON.

  • Deserializzare la risposta e passare la stima risultante alla classe SceneOrganiser , che si occupa della modalità di visualizzazione della risposta.

Per creare questa classe:

  1. Fare clic con il pulsante destro del mouse sulla cartella asset, disponibile nel pannello di progetto, quindi scegliere Crea>cartella. Chiamare script della cartella.

    Screenshot che mostra come creare la cartella Script.

  2. Fare doppio clic sulla cartella appena creata per aprirla.

  3. Fare clic con il pulsante destro del mouse all'interno della cartella, quindi scegliere Crea>script C#. Assegnare un nome allo script CustomVisionAnalyser.

  4. Fare doppio clic sul nuovo script CustomVisionAnalyser per aprirlo con Visual Studio.

  5. Assicurarsi di avere gli spazi dei nomi seguenti a cui si fa riferimento nella parte superiore del file:

    using Newtonsoft.Json;
    using System.Collections;
    using System.IO;
    using UnityEngine;
    using UnityEngine.Networking;
    
  6. Nella classe CustomVisionAnalyser aggiungere le variabili seguenti:

        /// <summary>
        /// Unique instance of this class
        /// </summary>
        public static CustomVisionAnalyser Instance;
    
        /// <summary>
        /// Insert your prediction key here
        /// </summary>
        private string predictionKey = "- Insert your key here -";
    
        /// <summary>
        /// Insert your prediction endpoint here
        /// </summary>
        private string predictionEndpoint = "Insert your prediction endpoint here";
    
        /// <summary>
        /// Bite array of the image to submit for analysis
        /// </summary>
        [HideInInspector] public byte[] imageBytes;
    

    Nota

    Assicurarsi di inserire la chiave di stima del servizio nella variabile predictionKey e nell'endpoint di previsione nella variabile predictionEndpoint . Questi elementi sono stati copiati in precedenza nel Blocco note, nel capitolo 2, passaggio 14.

  7. Il codice per Awake() deve ora essere aggiunto per inizializzare la variabile di istanza:

        /// <summary>
        /// Initializes this class
        /// </summary>
        private void Awake()
        {
            // Allows this instance to behave like a singleton
            Instance = this;
        }
    
  8. Aggiungere la coroutine (con il metodo GetImageAsByteArray() statico, che otterrà i risultati dell'analisi dell'immagine, acquisita dalla classe ImageCapture .

    Nota

    Nella coroutine AnalyzeImageCapture è presente una chiamata alla classe SceneOrganiser ancora da creare. Pertanto, lasciare queste righe commentate per ora.

        /// <summary>
        /// Call the Computer Vision Service to submit the image.
        /// </summary>
        public IEnumerator AnalyseLastImageCaptured(string imagePath)
        {
            Debug.Log("Analyzing...");
    
            WWWForm webForm = new WWWForm();
    
            using (UnityWebRequest unityWebRequest = UnityWebRequest.Post(predictionEndpoint, webForm))
            {
                // Gets a byte array out of the saved image
                imageBytes = GetImageAsByteArray(imagePath);
    
                unityWebRequest.SetRequestHeader("Content-Type", "application/octet-stream");
                unityWebRequest.SetRequestHeader("Prediction-Key", predictionKey);
    
                // The upload handler will help uploading the byte array with the request
                unityWebRequest.uploadHandler = new UploadHandlerRaw(imageBytes);
                unityWebRequest.uploadHandler.contentType = "application/octet-stream";
    
                // The download handler will help receiving the analysis from Azure
                unityWebRequest.downloadHandler = new DownloadHandlerBuffer();
    
                // Send the request
                yield return unityWebRequest.SendWebRequest();
    
                string jsonResponse = unityWebRequest.downloadHandler.text;
    
                Debug.Log("response: " + jsonResponse);
    
                // Create a texture. Texture size does not matter, since
                // LoadImage will replace with the incoming image size.
                //Texture2D tex = new Texture2D(1, 1);
                //tex.LoadImage(imageBytes);
                //SceneOrganiser.Instance.quadRenderer.material.SetTexture("_MainTex", tex);
    
                // The response will be in JSON format, therefore it needs to be deserialized
                //AnalysisRootObject analysisRootObject = new AnalysisRootObject();
                //analysisRootObject = JsonConvert.DeserializeObject<AnalysisRootObject>(jsonResponse);
    
                //SceneOrganiser.Instance.FinaliseLabel(analysisRootObject);
            }
        }
    
        /// <summary>
        /// Returns the contents of the specified image file as a byte array.
        /// </summary>
        static byte[] GetImageAsByteArray(string imageFilePath)
        {
            FileStream fileStream = new FileStream(imageFilePath, FileMode.Open, FileAccess.Read);
    
            BinaryReader binaryReader = new BinaryReader(fileStream);
    
            return binaryReader.ReadBytes((int)fileStream.Length);
        }
    
  9. Eliminare i metodi Start() e Update(), perché non verranno usati.

  10. Assicurarsi di salvare le modifiche in Visual Studio, prima di tornare a Unity.

Importante

Come accennato in precedenza, non preoccuparsi del codice che potrebbe sembrare di avere un errore, perché verranno fornite ulteriori classi, che verranno risolte presto.

Capitolo 6 - Creare la classe CustomVisionObjects

La classe creata ora è la classe CustomVisionObjects .

Questo script contiene un numero di oggetti usati da altre classi per serializzare e deserializzare le chiamate effettuate al servizio Visione personalizzata.

Per creare questa classe:

  1. Fare clic con il pulsante destro del mouse all'interno della cartella Script , quindi fare clic su Crea>script C#. Chiamare lo script CustomVisionObjects.

  2. Fare doppio clic sul nuovo script CustomVisionObjects per aprirlo con Visual Studio.

  3. Assicurarsi di avere gli spazi dei nomi seguenti a cui si fa riferimento nella parte superiore del file:

    using System;
    using System.Collections.Generic;
    using UnityEngine;
    using UnityEngine.Networking;
    
  4. Eliminare i metodi Start() e Update() all'interno della classe CustomVisionObjects , questa classe deve ora essere vuota.

    Avviso

    È importante seguire attentamente le istruzioni successive. Se si inseriscono le nuove dichiarazioni di classe all'interno della classe CustomVisionObjects , si otterranno errori di compilazione nel capitolo 10, indicando che AnalysisRootObject e BoundingBox non vengono trovati.

  5. Aggiungere le classi seguenti all'esterno della classe CustomVisionObjects . Questi oggetti vengono usati dalla libreria Newtonsoft per serializzare e deserializzare i dati di risposta:

    // The objects contained in this script represent the deserialized version
    // of the objects used by this application 
    
    /// <summary>
    /// Web request object for image data
    /// </summary>
    class MultipartObject : IMultipartFormSection
    {
        public string sectionName { get; set; }
    
        public byte[] sectionData { get; set; }
    
        public string fileName { get; set; }
    
        public string contentType { get; set; }
    }
    
    /// <summary>
    /// JSON of all Tags existing within the project
    /// contains the list of Tags
    /// </summary> 
    public class Tags_RootObject
    {
        public List<TagOfProject> Tags { get; set; }
        public int TotalTaggedImages { get; set; }
        public int TotalUntaggedImages { get; set; }
    }
    
    public class TagOfProject
    {
        public string Id { get; set; }
        public string Name { get; set; }
        public string Description { get; set; }
        public int ImageCount { get; set; }
    }
    
    /// <summary>
    /// JSON of Tag to associate to an image
    /// Contains a list of hosting the tags,
    /// since multiple tags can be associated with one image
    /// </summary> 
    public class Tag_RootObject
    {
        public List<Tag> Tags { get; set; }
    }
    
    public class Tag
    {
        public string ImageId { get; set; }
        public string TagId { get; set; }
    }
    
    /// <summary>
    /// JSON of images submitted
    /// Contains objects that host detailed information about one or more images
    /// </summary> 
    public class ImageRootObject
    {
        public bool IsBatchSuccessful { get; set; }
        public List<SubmittedImage> Images { get; set; }
    }
    
    public class SubmittedImage
    {
        public string SourceUrl { get; set; }
        public string Status { get; set; }
        public ImageObject Image { get; set; }
    }
    
    public class ImageObject
    {
        public string Id { get; set; }
        public DateTime Created { get; set; }
        public int Width { get; set; }
        public int Height { get; set; }
        public string ImageUri { get; set; }
        public string ThumbnailUri { get; set; }
    }
    
    /// <summary>
    /// JSON of Service Iteration
    /// </summary> 
    public class Iteration
    {
        public string Id { get; set; }
        public string Name { get; set; }
        public bool IsDefault { get; set; }
        public string Status { get; set; }
        public string Created { get; set; }
        public string LastModified { get; set; }
        public string TrainedAt { get; set; }
        public string ProjectId { get; set; }
        public bool Exportable { get; set; }
        public string DomainId { get; set; }
    }
    
    /// <summary>
    /// Predictions received by the Service
    /// after submitting an image for analysis
    /// Includes Bounding Box
    /// </summary>
    public class AnalysisRootObject
    {
        public string id { get; set; }
        public string project { get; set; }
        public string iteration { get; set; }
        public DateTime created { get; set; }
        public List<Prediction> predictions { get; set; }
    }
    
    public class BoundingBox
    {
        public double left { get; set; }
        public double top { get; set; }
        public double width { get; set; }
        public double height { get; set; }
    }
    
    public class Prediction
    {
        public double probability { get; set; }
        public string tagId { get; set; }
        public string tagName { get; set; }
        public BoundingBox boundingBox { get; set; }
    }
    
  6. Assicurarsi di salvare le modifiche in Visual Studio, prima di tornare a Unity.

Capitolo 7 - Creare la classe SpatialMapping

Questa classe imposta il collider mapping spaziale nella scena in modo da poter rilevare collisioni tra oggetti virtuali e oggetti reali.

Per creare questa classe:

  1. Fare clic con il pulsante destro del mouse all'interno della cartella Script , quindi fare clic su Crea>script C#. Chiamare lo script SpatialMapping.

  2. Fare doppio clic sul nuovo script SpatialMapping per aprirlo con Visual Studio.

  3. Assicurarsi di avere i seguenti spazi dei nomi a cui si fa riferimento sopra la classe SpatialMapping :

    using UnityEngine;
    using UnityEngine.XR.WSA;
    
  4. Aggiungere quindi le variabili seguenti all'interno della classe SpatialMapping, sopra il metodo Start():

        /// <summary>
        /// Allows this class to behave like a singleton
        /// </summary>
        public static SpatialMapping Instance;
    
        /// <summary>
        /// Used by the GazeCursor as a property with the Raycast call
        /// </summary>
        internal static int PhysicsRaycastMask;
    
        /// <summary>
        /// The layer to use for spatial mapping collisions
        /// </summary>
        internal int physicsLayer = 31;
    
        /// <summary>
        /// Creates environment colliders to work with physics
        /// </summary>
        private SpatialMappingCollider spatialMappingCollider;
    
  5. Aggiungere l'elemento Awake() e Start():

        /// <summary>
        /// Initializes this class
        /// </summary>
        private void Awake()
        {
            // Allows this instance to behave like a singleton
            Instance = this;
        }
    
        /// <summary>
        /// Runs at initialization right after Awake method
        /// </summary>
        void Start()
        {
            // Initialize and configure the collider
            spatialMappingCollider = gameObject.GetComponent<SpatialMappingCollider>();
            spatialMappingCollider.surfaceParent = this.gameObject;
            spatialMappingCollider.freezeUpdates = false;
            spatialMappingCollider.layer = physicsLayer;
    
            // define the mask
            PhysicsRaycastMask = 1 << physicsLayer;
    
            // set the object as active one
            gameObject.SetActive(true);
        }
    
  6. Eliminare il metodo Update().

  7. Assicurarsi di salvare le modifiche in Visual Studio, prima di tornare a Unity.

Capitolo 8 - Creare la classe GazeCursor

Questa classe è responsabile della configurazione del cursore nella posizione corretta nello spazio reale, facendo uso di SpatialMappingCollider, creato nel capitolo precedente.

Per creare questa classe:

  1. Fare clic con il pulsante destro del mouse all'interno della cartella Script , quindi fare clic su Crea>script C#. Chiamare lo script GazeCursor

  2. Fare doppio clic sul nuovo script GazeCursor per aprirlo con Visual Studio.

  3. Assicurarsi di avere lo spazio dei nomi seguente a cui si fa riferimento sopra la classe GazeCursor :

    using UnityEngine;
    
  4. Aggiungere quindi la variabile seguente all'interno della classe GazeCursor, sopra il metodo Start().

        /// <summary>
        /// The cursor (this object) mesh renderer
        /// </summary>
        private MeshRenderer meshRenderer;
    
  5. Aggiornare il metodo Start() con il codice seguente:

        /// <summary>
        /// Runs at initialization right after the Awake method
        /// </summary>
        void Start()
        {
            // Grab the mesh renderer that is on the same object as this script.
            meshRenderer = gameObject.GetComponent<MeshRenderer>();
    
            // Set the cursor reference
            SceneOrganiser.Instance.cursor = gameObject;
            gameObject.GetComponent<Renderer>().material.color = Color.green;
    
            // If you wish to change the size of the cursor you can do so here
            gameObject.transform.localScale = new Vector3(0.01f, 0.01f, 0.01f);
        }
    
  6. Aggiornare il metodo Update() con il codice seguente:

        /// <summary>
        /// Update is called once per frame
        /// </summary>
        void Update()
        {
            // Do a raycast into the world based on the user's head position and orientation.
            Vector3 headPosition = Camera.main.transform.position;
            Vector3 gazeDirection = Camera.main.transform.forward;
    
            RaycastHit gazeHitInfo;
            if (Physics.Raycast(headPosition, gazeDirection, out gazeHitInfo, 30.0f, SpatialMapping.PhysicsRaycastMask))
            {
                // If the raycast hit a hologram, display the cursor mesh.
                meshRenderer.enabled = true;
                // Move the cursor to the point where the raycast hit.
                transform.position = gazeHitInfo.point;
                // Rotate the cursor to hug the surface of the hologram.
                transform.rotation = Quaternion.FromToRotation(Vector3.up, gazeHitInfo.normal);
            }
            else
            {
                // If the raycast did not hit a hologram, hide the cursor mesh.
                meshRenderer.enabled = false;
            }
        }
    

    Nota

    Non preoccuparti dell'errore per la classe SceneOrganiser non trovata, lo creerai nel capitolo successivo.

  7. Assicurarsi di salvare le modifiche in Visual Studio, prima di tornare a Unity.

Capitolo 9 - Creare la classe SceneOrganiser

Questa classe:

  • Configurare la fotocamera principale associando i componenti appropriati a esso.

  • Quando viene rilevato un oggetto, sarà responsabile del calcolo della sua posizione nel mondo reale e posizionare un'etichetta tag vicino a essa con il nome tag appropriato.

Per creare questa classe:

  1. Fare clic con il pulsante destro del mouse all'interno della cartella Script , quindi fare clic su Crea>script C#. Assegnare allo script SceneOrganiser.

  2. Fare doppio clic sul nuovo script SceneOrganiser per aprirlo con Visual Studio.

  3. Assicurarsi di avere i seguenti spazi dei nomi a cui si fa riferimento sopra la classe SceneOrganiser :

    using System.Collections.Generic;
    using System.Linq;
    using UnityEngine;
    
  4. Aggiungere quindi le variabili seguenti all'interno della classe SceneOrganiser, sopra il metodo Start():

        /// <summary>
        /// Allows this class to behave like a singleton
        /// </summary>
        public static SceneOrganiser Instance;
    
        /// <summary>
        /// The cursor object attached to the Main Camera
        /// </summary>
        internal GameObject cursor;
    
        /// <summary>
        /// The label used to display the analysis on the objects in the real world
        /// </summary>
        public GameObject label;
    
        /// <summary>
        /// Reference to the last Label positioned
        /// </summary>
        internal Transform lastLabelPlaced;
    
        /// <summary>
        /// Reference to the last Label positioned
        /// </summary>
        internal TextMesh lastLabelPlacedText;
    
        /// <summary>
        /// Current threshold accepted for displaying the label
        /// Reduce this value to display the recognition more often
        /// </summary>
        internal float probabilityThreshold = 0.8f;
    
        /// <summary>
        /// The quad object hosting the imposed image captured
        /// </summary>
        private GameObject quad;
    
        /// <summary>
        /// Renderer of the quad object
        /// </summary>
        internal Renderer quadRenderer;
    
  5. Eliminare i metodi Start() e Update().

  6. Sotto le variabili aggiungere il metodo Awake(), che inizializzerà la classe e imposta la scena.

        /// <summary>
        /// Called on initialization
        /// </summary>
        private void Awake()
        {
            // Use this class instance as singleton
            Instance = this;
    
            // Add the ImageCapture class to this Gameobject
            gameObject.AddComponent<ImageCapture>();
    
            // Add the CustomVisionAnalyser class to this Gameobject
            gameObject.AddComponent<CustomVisionAnalyser>();
    
            // Add the CustomVisionObjects class to this Gameobject
            gameObject.AddComponent<CustomVisionObjects>();
        }
    
  7. Aggiungere il metodo PlaceAnalysisLabel()che creerà un'istanza dell'etichetta nella scena (che a questo punto è invisibile all'utente). Posiziona anche il quad (anche invisibile) in cui l'immagine è posizionata e si sovrappone al mondo reale. Questo è importante perché le coordinate della casella recuperate dal servizio dopo l'analisi vengono tracciate in questo quad per determinare la posizione approssimativa dell'oggetto nel mondo reale.

        /// <summary>
        /// Instantiate a Label in the appropriate location relative to the Main Camera.
        /// </summary>
        public void PlaceAnalysisLabel()
        {
            lastLabelPlaced = Instantiate(label.transform, cursor.transform.position, transform.rotation);
            lastLabelPlacedText = lastLabelPlaced.GetComponent<TextMesh>();
            lastLabelPlacedText.text = "";
            lastLabelPlaced.transform.localScale = new Vector3(0.005f,0.005f,0.005f);
    
            // Create a GameObject to which the texture can be applied
            quad = GameObject.CreatePrimitive(PrimitiveType.Quad);
            quadRenderer = quad.GetComponent<Renderer>() as Renderer;
            Material m = new Material(Shader.Find("Legacy Shaders/Transparent/Diffuse"));
            quadRenderer.material = m;
    
            // Here you can set the transparency of the quad. Useful for debugging
            float transparency = 0f;
            quadRenderer.material.color = new Color(1, 1, 1, transparency);
    
            // Set the position and scale of the quad depending on user position
            quad.transform.parent = transform;
            quad.transform.rotation = transform.rotation;
    
            // The quad is positioned slightly forward in font of the user
            quad.transform.localPosition = new Vector3(0.0f, 0.0f, 3.0f);
    
            // The quad scale as been set with the following value following experimentation,  
            // to allow the image on the quad to be as precisely imposed to the real world as possible
            quad.transform.localScale = new Vector3(3f, 1.65f, 1f);
            quad.transform.parent = null;
        }
    
  8. Aggiungere il metodo FinaliseLabel(). È responsabile di:

    • Impostazione del testo Etichetta con il tag della stima con la massima attendibilità.
    • Chiamata al calcolo della casella di selezione sull'oggetto quad, posizionata in precedenza e posizionando l'etichetta nella scena.
    • Regolando la profondità dell'etichetta usando un Raycast verso il riquadro di selezione, che dovrebbe essere battato contro l'oggetto nel mondo reale.
    • Reimpostazione del processo di acquisizione per consentire all'utente di acquisire un'altra immagine.
        /// <summary>
        /// Set the Tags as Text of the last label created. 
        /// </summary>
        public void FinaliseLabel(AnalysisRootObject analysisObject)
        {
            if (analysisObject.predictions != null)
            {
                lastLabelPlacedText = lastLabelPlaced.GetComponent<TextMesh>();
                // Sort the predictions to locate the highest one
                List<Prediction> sortedPredictions = new List<Prediction>();
                sortedPredictions = analysisObject.predictions.OrderBy(p => p.probability).ToList();
                Prediction bestPrediction = new Prediction();
                bestPrediction = sortedPredictions[sortedPredictions.Count - 1];
    
                if (bestPrediction.probability > probabilityThreshold)
                {
                    quadRenderer = quad.GetComponent<Renderer>() as Renderer;
                    Bounds quadBounds = quadRenderer.bounds;
    
                    // Position the label as close as possible to the Bounding Box of the prediction 
                    // At this point it will not consider depth
                    lastLabelPlaced.transform.parent = quad.transform;
                    lastLabelPlaced.transform.localPosition = CalculateBoundingBoxPosition(quadBounds, bestPrediction.boundingBox);
    
                    // Set the tag text
                    lastLabelPlacedText.text = bestPrediction.tagName;
    
                    // Cast a ray from the user's head to the currently placed label, it should hit the object detected by the Service.
                    // At that point it will reposition the label where the ray HL sensor collides with the object,
                    // (using the HL spatial tracking)
                    Debug.Log("Repositioning Label");
                    Vector3 headPosition = Camera.main.transform.position;
                    RaycastHit objHitInfo;
                    Vector3 objDirection = lastLabelPlaced.position;
                    if (Physics.Raycast(headPosition, objDirection, out objHitInfo, 30.0f,   SpatialMapping.PhysicsRaycastMask))
                    {
                        lastLabelPlaced.position = objHitInfo.point;
                    }
                }
            }
            // Reset the color of the cursor
            cursor.GetComponent<Renderer>().material.color = Color.green;
    
            // Stop the analysis process
            ImageCapture.Instance.ResetImageCapture();        
        }
    
  9. Aggiungere il metodo CalculateBoundingBoxPosition() che ospita un numero di calcoli necessari per tradurre le coordinate di Bounding Box recuperate dal servizio e ricrearle in modo proporzionale sul quad.

        /// <summary>
        /// This method hosts a series of calculations to determine the position 
        /// of the Bounding Box on the quad created in the real world
        /// by using the Bounding Box received back alongside the Best Prediction
        /// </summary>
        public Vector3 CalculateBoundingBoxPosition(Bounds b, BoundingBox boundingBox)
        {
            Debug.Log($"BB: left {boundingBox.left}, top {boundingBox.top}, width {boundingBox.width}, height {boundingBox.height}");
    
            double centerFromLeft = boundingBox.left + (boundingBox.width / 2);
            double centerFromTop = boundingBox.top + (boundingBox.height / 2);
            Debug.Log($"BB CenterFromLeft {centerFromLeft}, CenterFromTop {centerFromTop}");
    
            double quadWidth = b.size.normalized.x;
            double quadHeight = b.size.normalized.y;
            Debug.Log($"Quad Width {b.size.normalized.x}, Quad Height {b.size.normalized.y}");
    
            double normalisedPos_X = (quadWidth * centerFromLeft) - (quadWidth/2);
            double normalisedPos_Y = (quadHeight * centerFromTop) - (quadHeight/2);
    
            return new Vector3((float)normalisedPos_X, (float)normalisedPos_Y, 0);
        }
    
  10. Assicurarsi di salvare le modifiche in Visual Studio, prima di tornare a Unity.

    Importante

    Prima di continuare, aprire la classe CustomVisionAnalyser e all'interno del metodo AnalyzeLastImageCaptured()annullare ilcommento delle righe seguenti:

    // Create a texture. Texture size does not matter, since 
    // LoadImage will replace with the incoming image size.
    Texture2D tex = new Texture2D(1, 1);
    tex.LoadImage(imageBytes);
    SceneOrganiser.Instance.quadRenderer.material.SetTexture("_MainTex", tex);
    
    // The response will be in JSON format, therefore it needs to be deserialized
    AnalysisRootObject analysisRootObject = new AnalysisRootObject();
    analysisRootObject = JsonConvert.DeserializeObject<AnalysisRootObject>(jsonResponse);
    
    SceneOrganiser.Instance.FinaliseLabel(analysisRootObject);
    

Nota

Non preoccuparti del messaggio "Impossibile trovare" della classe ImageCapture , lo creerai nel capitolo successivo.

Capitolo 10 - Creare la classe ImageCapture

La classe successiva che si intende creare è la classe ImageCapture .

Questa classe è responsabile di:

  • Acquisizione di un'immagine usando la fotocamera HoloLens e archiviarla nella cartella App .
  • Gestione dei movimenti di tocco dall'utente.

Per creare questa classe:

  1. Passare alla cartella Script creata in precedenza.

  2. Fare clic con il pulsante destro del mouse all'interno della cartella, quindi scegliere Crea>script C#. Assegnare un nome allo script ImageCapture.

  3. Fare doppio clic sul nuovo script ImageCapture per aprirlo con Visual Studio.

  4. Sostituire gli spazi dei nomi nella parte superiore del file con quanto segue:

    using System;
    using System.IO;
    using System.Linq;
    using UnityEngine;
    using UnityEngine.XR.WSA.Input;
    using UnityEngine.XR.WSA.WebCam;
    
  5. Aggiungere quindi le variabili seguenti all'interno della classe ImageCapture, sopra il metodo Start():

        /// <summary>
        /// Allows this class to behave like a singleton
        /// </summary>
        public static ImageCapture Instance;
    
        /// <summary>
        /// Keep counts of the taps for image renaming
        /// </summary>
        private int captureCount = 0;
    
        /// <summary>
        /// Photo Capture object
        /// </summary>
        private PhotoCapture photoCaptureObject = null;
    
        /// <summary>
        /// Allows gestures recognition in HoloLens
        /// </summary>
        private GestureRecognizer recognizer;
    
        /// <summary>
        /// Flagging if the capture loop is running
        /// </summary>
        internal bool captureIsActive;
    
        /// <summary>
        /// File path of current analysed photo
        /// </summary>
        internal string filePath = string.Empty;
    
  6. Il codice per i metodi Awake() e Start() deve ora essere aggiunto:

        /// <summary>
        /// Called on initialization
        /// </summary>
        private void Awake()
        {
            Instance = this;
        }
    
        /// <summary>
        /// Runs at initialization right after Awake method
        /// </summary>
        void Start()
        {
            // Clean up the LocalState folder of this application from all photos stored
            DirectoryInfo info = new DirectoryInfo(Application.persistentDataPath);
            var fileInfo = info.GetFiles();
            foreach (var file in fileInfo)
            {
                try
                {
                    file.Delete();
                }
                catch (Exception)
                {
                    Debug.LogFormat("Cannot delete file: ", file.Name);
                }
            } 
    
            // Subscribing to the Microsoft HoloLens API gesture recognizer to track user gestures
            recognizer = new GestureRecognizer();
            recognizer.SetRecognizableGestures(GestureSettings.Tap);
            recognizer.Tapped += TapHandler;
            recognizer.StartCapturingGestures();
        }
    
  7. Implementare un gestore che verrà chiamato quando si verifica un movimento Tap:

        /// <summary>
        /// Respond to Tap Input.
        /// </summary>
        private void TapHandler(TappedEventArgs obj)
        {
            if (!captureIsActive)
            {
                captureIsActive = true;
    
                // Set the cursor color to red
                SceneOrganiser.Instance.cursor.GetComponent<Renderer>().material.color = Color.red;
    
                // Begin the capture loop
                Invoke("ExecuteImageCaptureAndAnalysis", 0);
            }
        }
    

    Importante

    Quando il cursore è verde, significa che la fotocamera è disponibile per acquisire l'immagine. Quando il cursore è rosso, significa che la fotocamera è occupato.

  8. Aggiungere il metodo usato dall'applicazione per avviare il processo di acquisizione delle immagini e archiviare l'immagine:

        /// <summary>
        /// Begin process of image capturing and send to Azure Custom Vision Service.
        /// </summary>
        private void ExecuteImageCaptureAndAnalysis()
        {
            // Create a label in world space using the ResultsLabel class 
            // Invisible at this point but correctly positioned where the image was taken
            SceneOrganiser.Instance.PlaceAnalysisLabel();
    
            // Set the camera resolution to be the highest possible
            Resolution cameraResolution = PhotoCapture.SupportedResolutions.OrderByDescending
                ((res) => res.width * res.height).First();
            Texture2D targetTexture = new Texture2D(cameraResolution.width, cameraResolution.height);
    
            // Begin capture process, set the image format
            PhotoCapture.CreateAsync(true, delegate (PhotoCapture captureObject)
            {
                photoCaptureObject = captureObject;
    
                CameraParameters camParameters = new CameraParameters
                {
                    hologramOpacity = 1.0f,
                    cameraResolutionWidth = targetTexture.width,
                    cameraResolutionHeight = targetTexture.height,
                    pixelFormat = CapturePixelFormat.BGRA32
                };
    
                // Capture the image from the camera and save it in the App internal folder
                captureObject.StartPhotoModeAsync(camParameters, delegate (PhotoCapture.PhotoCaptureResult result)
                {
                    string filename = string.Format(@"CapturedImage{0}.jpg", captureCount);
                    filePath = Path.Combine(Application.persistentDataPath, filename);          
                    captureCount++;              
                    photoCaptureObject.TakePhotoAsync(filePath, PhotoCaptureFileOutputFormat.JPG, OnCapturedPhotoToDisk);              
                });
            });
        }
    
  9. Aggiungere i gestori che verranno chiamati quando la foto è stata acquisita e per quando è pronta per essere analizzata. Il risultato viene quindi passato all'oggetto CustomVisionAnalyser per l'analisi.

        /// <summary>
        /// Register the full execution of the Photo Capture. 
        /// </summary>
        void OnCapturedPhotoToDisk(PhotoCapture.PhotoCaptureResult result)
        {
            try
            {
                // Call StopPhotoMode once the image has successfully captured
                photoCaptureObject.StopPhotoModeAsync(OnStoppedPhotoMode);
            }
            catch (Exception e)
            {
                Debug.LogFormat("Exception capturing photo to disk: {0}", e.Message);
            }
        }
    
        /// <summary>
        /// The camera photo mode has stopped after the capture.
        /// Begin the image analysis process.
        /// </summary>
        void OnStoppedPhotoMode(PhotoCapture.PhotoCaptureResult result)
        {
            Debug.LogFormat("Stopped Photo Mode");
    
            // Dispose from the object in memory and request the image analysis 
            photoCaptureObject.Dispose();
            photoCaptureObject = null;
    
            // Call the image analysis
            StartCoroutine(CustomVisionAnalyser.Instance.AnalyseLastImageCaptured(filePath)); 
        }
    
        /// <summary>
        /// Stops all capture pending actions
        /// </summary>
        internal void ResetImageCapture()
        {
            captureIsActive = false;
    
            // Set the cursor color to green
            SceneOrganiser.Instance.cursor.GetComponent<Renderer>().material.color = Color.green;
    
            // Stop the capture loop if active
            CancelInvoke();
        }
    
  10. Assicurarsi di salvare le modifiche in Visual Studio, prima di tornare a Unity.

Capitolo 11 - Configurazione degli script nella scena

Dopo aver scritto tutto il codice necessario per questo progetto, è ora di configurare gli script nella scena e nei prefab, per il comportamento corretto.

  1. All'interno dell'editor di Unity, nel pannello gerarchia selezionare la fotocamera principale.

  2. Nel pannello di controllo, con la fotocamera principale selezionata, fare clic su Aggiungi componente, quindi cercare lo script SceneOrganiser e fare doppio clic su per aggiungerlo.

    Screenshot che mostra lo script SceneOrganizer.

  3. Nel pannello di progetto aprire la cartella Prefabs, trascinare il prefab Etichetta nell'area di input di riferimento vuota Etichetta , nello script SceneOrganiser appena aggiunto alla fotocamera principale, come illustrato nell'immagine seguente:

    Screenshot che mostra lo script aggiunto alla fotocamera principale.

  4. Nel pannello gerarchia selezionare il figlio GazeCursor della fotocamera principale.

  5. Nel pannello di controllo, con l'opzione GazeCursor selezionata, fare clic su Aggiungi componente, quindi cercare lo script GazeCursor e fare doppio clic su per aggiungerlo.

    Screenshot che mostra dove si aggiunge lo script GazeCursor.

  6. Di nuovo, nel pannello gerarchia selezionare il figlio SpatialMapping della fotocamera principale.

  7. Nel pannello di controllo, con l'opzione SpatialMapping selezionata, fare clic su Aggiungi componente, quindi cercare lo script SpatialMapping e fare doppio clic su per aggiungerlo.

    Screenshot che mostra dove si aggiunge lo script SpatialMapping.

Gli script rimanenti che non sono stati impostati verranno aggiunti dal codice nello script SceneOrganiser durante il runtime.

Capitolo 12 - Prima dell'edificio

Per eseguire un test approfondito dell'applicazione, sarà necessario caricarlo sul Microsoft HoloLens.

Prima di eseguire, assicurarsi che:

  • Tutte le impostazioni indicate nel capitolo 3 vengono impostate correttamente.

  • Lo script SceneOrganiser è collegato all'oggetto Main Camera .

  • Lo script GazeCursor è collegato all'oggetto GazeCursor .

  • Lo script SpatialMapping è collegato all'oggetto SpatialMapping .

  • Nel capitolo 5, passaggio 6:

    • Assicurarsi di inserire la chiave di stima del servizio nella variabile predictionKey .
    • È stato inserito l'endpoint di stima nella classe predictionEndpoint .

Capitolo 13 - Compilare la soluzione UWP e scaricare sideload dell'applicazione

È ora possibile compilare l'applicazione come soluzione UWP che sarà possibile distribuire nel Microsoft HoloLens. Per avviare il processo di compilazione:

  1. Passare a Impostazioni di compilazione file>.

  2. Selezionare Progetti Unity C#.

  3. Fare clic su Aggiungi scene aperte. Verrà aggiunta la scena attualmente aperta alla compilazione.

    Screenshot che evidenzia il pulsante Aggiungi scene aperte.

  4. Fare clic su Compila. Unity avvierà una finestra Esplora file, in cui è necessario creare e quindi selezionare una cartella in cui compilare l'app. Creare la cartella ora e denominarla App. Quindi, con la cartella App selezionata, fare clic su Seleziona cartella.

  5. Unity inizierà a creare il progetto nella cartella App .

  6. Dopo aver completato la compilazione di Unity (potrebbe richiedere qualche tempo), aprirà una finestra Esplora file nella posizione della compilazione (controllare la barra delle applicazioni, perché potrebbe non essere sempre visualizzata sopra le finestre, ma vi notifica l'aggiunta di una nuova finestra).

  7. Per eseguire la distribuzione in Microsoft HoloLens, è necessario l'indirizzo IP del dispositivo (per distribuzione remota) e assicurarsi che sia impostato anche la modalità sviluppatore. Per eseguire questa operazione:

    1. Mentre indossa il tuo HoloLens, apri le impostazioni.

    2. Passare a Rete &Opzioni avanzateWi-Fi> Internet >

    3. Si noti l'indirizzo IPv4 .

    4. Tornare quindi a Impostazioni e quindi aggiornare & sicurezza>per sviluppatori

    5. Impostare la modalità sviluppatoresu.

  8. Passare alla nuova compilazione di Unity (cartella App ) e aprire il file di soluzione con Visual Studio.

  9. Nella configurazione della soluzione selezionare Debug.

  10. Nella piattaforma della soluzione selezionare x86, Remote Machine. Verrà richiesto di inserire l'indirizzo IP di un dispositivo remoto (la Microsoft HoloLens, in questo caso, annotata).

    Screenshot che mostra dove inserire l'indirizzo IP.

  11. Passare al menu Compila e fare clic su Distribuisci soluzione per caricare sideload dell'applicazione in HoloLens.

  12. L'app dovrebbe ora essere visualizzata nell'elenco delle app installate nel Microsoft HoloLens, pronto per l'avvio.

Per usare l'applicazione:

  • Esaminare un oggetto, sottoposto a training con il servizio di Visione personalizzata di Azure, rilevamento oggetti e usare il movimento Tap.
  • Se l'oggetto viene rilevato correttamente, verrà visualizzato un testo etichetta dello spazio mondiale con il nome del tag.

Importante

Ogni volta che si acquisisce una foto e la si invia al servizio, è possibile tornare alla pagina Servizio e ripetere il training del servizio con le immagini appena acquisite. All'inizio, probabilmente sarà necessario correggere anche i rettangoli di selezione per essere più accurati e ripetere il training del servizio.

Nota

Il testo etichetta posizionato potrebbe non apparire vicino all'oggetto quando i sensori Microsoft HoloLens e/o SpatialTrackingComponent in Unity non riescono a posizionare i collisori appropriati, rispetto agli oggetti reali. Provare a usare l'applicazione in una superficie diversa, se questo è il caso.

Applicazione di rilevamento oggetti Visione personalizzata

È stata creata un'app di realtà mista che usa l'API Rilevamento oggetti di Azure Visione personalizzata, che può riconoscere un oggetto da un'immagine e quindi fornire una posizione approssimativa per tale oggetto nello spazio 3D.

Screenshot che mostra un'app di realtà mista che sfrutta l'API Rilevamento oggetti di Azure Visione personalizzata.

Esercizi aggiuntivi

Esercizio 1

Aggiungendo all'etichetta di testo, usare un cubo semitrasparente per eseguire il wrapping dell'oggetto reale in un rettangolo di selezione 3D.

Esercizio 2

Eseguire il training del servizio Visione personalizzata per riconoscere più oggetti.

Esercizio 3

Riprodurre un suono quando viene riconosciuto un oggetto.

Esercizio 4

Usare l'API per eseguire di nuovo il training del servizio con le stesse immagini analizzate dall'app, in modo da rendere il servizio più accurato (eseguire contemporaneamente stime e training).