Visuellt innehåll-program för Mixed Reality headset

Organiserat tillsammans med CVPR 2019

Long Beach (CA)

17 juni 2019 (eftersen) – Hyatt Regency F

Arrangörer

  • Marc Pollefeys
  • Federica Bugo
  • Så här ser det ut när du gör det
  • Osman Ulusoy

Översikt

Teserbild

Headset för mixad verklighet som Microsoft HoloLens håller på att bli kraftfulla plattformar för att utveckla program för datorseende. HoloLens Forskningsläge möjliggör forskning om datorseende på enheten genom att ge åtkomst till alla råa bildsensorströmmar , inklusive djup och IR. Eftersom forskningsläget nu är tillgängligt sedan maj 2018 börjar vi se flera intressanta demonstrationer och program som utvecklas för HoloLens.

Målet med den här workshoppen är att sammanför studenter och forskare som är intresserade av datorseende för program med mixad verklighet. I workshopen får du en plats där du kan dela demonstrationer och program och lära av varandra för att skapa eller porta program till mixad verklighet.

Vi rekommenderar att du skickar in bidrag om ämnena objektigenkänning (enkelcentrerad), hand- och användarspårning, aktivitetsigenkänning, SLAM, 3D-rekonstruering, scenförståelse, sensorbaserad lokalisering, navigering med mera.

Inskickade dokument

  • Tidsgräns för pappersinlämning: 17 maj
  • Meddelande till författare: 24 maj

Inskickade dokument bör använda CVPR-mallen och är begränsade till 4 sidor plus referenser. Dessutom uppmuntrar vi författarna att skicka in en video som visar programmet. Observera att bidrag av tidigare publicerat arbete tillåts (inklusive arbete som accepterats till den huvudsakliga CVPR 2019-konferensen).

Bidrag kan överföras till CMT: https://cmt3.research.microsoft.com/CVFORMR2019

En delmängd av dokumenten väljs ut för presentation i workshopen. Vi rekommenderar dock starkt att alla författare presenterar sitt arbete under demosessionen.

Schema

  • 13:30-13:45: Välkommen och öppna kommentarer.
  • 13:45-14:15: Keynote talk: Prof. Marc Pollefeys, ETHEj/Microsoft. Rubrik: Visuellt innehåll på HoloLens.
  • 14:15-14:45: Keynote talk: Prof. Kris Kitani, Carnegie Mellon University. Rubrik: Prognostiserade aktiviteter och attitydprognoser.
  • 14:45-15:15: Keynote talk: Dr. Yang Liu, California Institute of Technology. Rubrik: Skapa en kognitiv assistent för blinda med förhöjd verklighet.
  • 15:15-16:15: Kaffepaus och demonstrationer.
  • 16:15-16:45: Keynote talk: Prof. Accent Grauman, University of Texas at Texas at Texas/Facebook AI Research. Rubrik: Interaktion mellan människor och objekt i video med första person.
  • 16:45-17:15: Presentationspresentationer:
    • Enkel registrering – fristående ortopedisk navigering med HoloLens. F. Liebmann, S. Roner, M. fran Atzigen, F. Wanivenhaus, C. Mockhaus, J. Mockrig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstjj.
    • Learning stereo genom att gå runt med en HoloLens. H. Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30: Slutkommentarer.