Vision par ordinateur des applications pour les casques de réalité mixteComputer Vision Applications for Mixed Reality Headsets

Organisée conjointement avec CVPR 2019Organized in conjunction with CVPR 2019

Long Beach (CA)Long Beach (CA)

17 juin 2019 (après-midi)-Hyatt Regency FJune 17, 2019 (Afternoon) - Hyatt Regency F

OrganisateurOrganizers

  • Marc PollefeysMarc Pollefeys
  • Federica BogoFederica Bogo
  • Johannes SchönbergerJohannes Schönberger
  • Osman UlusoyOsman Ulusoy

Vue d’ensembleOverview

Image de l’tease

Les casques de réalité mixte, tels que Microsoft HoloLens, deviennent de puissantes plateformes pour développer des applications de vision informatique.Mixed reality headsets such as the Microsoft HoloLens are becoming powerful platforms to develop computer vision applications. Le mode de recherche HoloLens permet à Computer Vision Research sur l’appareil en fournissant un accès à tous les flux de capteur d’images brutes, y compris la profondeur et l’IR.HoloLens Research Mode enables computer vision research on device by providing access to all raw image sensor streams -- including depth and IR. Étant donné que le mode de recherche est désormais disponible depuis le 2018 mai, nous commençons à voir plusieurs démonstrations et applications intéressantes développées pour HoloLens.As Research Mode is now available since May 2018, we are starting to see several interesting demos and applications being developed for HoloLens.

L’objectif de cet atelier est de réunir les étudiants et les chercheurs intéressés par la vision informatique pour les applications de réalité mixte.The goal of this workshop is to bring together students and researchers interested in computer vision for mixed reality applications. L’atelier vous permettra de partager des démonstrations et des applications, et d’apprendre les uns avec les autres pour créer ou porter des applications à la réalité mixte.The workshop will provide a venue to share demos and applications, and learn from each other to build or port applications to mixed reality.

Nous encourageons les soumissions de la reconnaissance des objets (centrés sur ego), de la main et des utilisateurs, de la reconnaissance des activités, de la reconstruction 3D, de la présentation des scènes, de la localisation basée sur les capteurs, de la navigation et bien plus encore.We encourage submissions on the topics of (ego-centric) object recognition, hand and user tracking, activity recognition, SLAM, 3D reconstruction, scene understanding, sensor-based localization, navigation and more.

Envoi de documentsPaper Submission

  • Échéance de soumission du document : 17 maiPaper submission deadline: May 17
  • Notification aux auteurs : 24 maiNotification to authors: May 24

Les envois de documents doivent utiliser le modèle CVPR et sont limités à 4 pages plus références.Paper submissions should use the CVPR template and are limited to 4 pages plus references. En outre, nous encourageons les auteurs à envoyer une vidéo présentant leur application.In addition, we encourage the authors to submit a video showcasing their application. Notez que les envois de travaux précédemment publiés sont autorisés (y compris le travail accepté pour la Conférence principale CVPR 2019).Note that submissions of previously published work are allowed (including work accepted to the main CVPR 2019 conference).

Les envois peuvent être téléchargés vers le CMT : https://cmt3.research.microsoft.com/CVFORMR2019Submissions can be uploaded to the CMT: https://cmt3.research.microsoft.com/CVFORMR2019

Un sous-ensemble de documents sera sélectionné pour une présentation orale au cours de l’atelier.A subset of papers will be selected for oral presentation at the workshop. Toutefois, nous encourageons fortement tous les auteurs à présenter leur travail pendant la session de démonstration.However, we strongly encourage all the authors to present their work during the demo session.

PlanifierSchedule

  • 13:30-13:45 : Remarques relatives à l’accueil et à l’ouverture.13:30-13:45: Welcome and Opening Remarks.
  • 13:45-14:15 : discours parlé : Prof. Marc POLLEFEYS, ETH Zurich/Microsoft.13:45-14:15: Keynote talk : Prof. Marc Pollefeys, ETH Zurich/Microsoft. Titre : egocentric Vision par ordinateur sur HoloLens.Title: Egocentric Computer Vision on HoloLens.
  • 14:15-14:45 : discours parlé : Prof. Kris Kitani, Carnegie Mellon University.14:15-14:45: Keynote talk : Prof. Kris Kitani, Carnegie Mellon University. Titre : activité egocentric et les prévisions de pose.Title: Egocentric Activity and Pose Forecasting.
  • 14:45-15:15 : discours parlé : Dr. Yang Liu, Californie Institute of Technology.14:45-15:15: Keynote talk : Dr. Yang Liu, California Institute of Technology. Titre : alimenter un Assistant cognitif pour aveugle avec une réalité augmentée.Title: Powering a Cognitive Assistant for the Blind with Augmented Reality.
  • 15:15-16:15 : les démonstrations et les pauses café.15:15-16:15: Coffee break and demos.
  • 16:15-16:45 : discours de la Conférence : Prof. Kristen Grau, Université du Texas à Austin/Facebook ai Research.16:15-16:45: Keynote talk : Prof. Kristen Grauman, University of Texas at Austin/Facebook AI Research. Titre : interaction de l’objet humain dans la vidéo de première personne.Title: Human-object interaction in first-person video.
  • 16:45-17:15 : présentations orales :16:45-17:15: Oral presentations:
    • L’inscription a fait une navigation orthopédique simple et autonome avec HoloLens.Registration made easy - standalone orthopedic navigation with HoloLens. F.F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • Apprentissage de la stéréo en parcourant un HoloLens.Learning stereo by walking around with a HoloLens. H.H. Zhan, Y. Pekelny, O. Ulusoy.Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30 : notes finales.17:15-17:30: Final Remarks.