Computer Vision aplicaciones para auriculares de realidad mixtaComputer Vision Applications for Mixed Reality Headsets

Organizado junto con CVPR 2019Organized in conjunction with CVPR 2019

Larga playa (CA)Long Beach (CA)

17 de junio de 2019 (tarde)-Hyatt Regency FJune 17, 2019 (Afternoon) - Hyatt Regency F

Los organizadoresOrganizers

  • Marc PollefeysMarc Pollefeys
  • Federica BogoFederica Bogo
  • Johannes SchönbergerJohannes Schönberger
  • Osman UlusoyOsman Ulusoy

Información generalOverview

Imagen de rompecabezas

Los auriculares de realidad mixta, como Microsoft HoloLens, están convirtiéndose en plataformas eficaces para desarrollar aplicaciones para equipos.Mixed reality headsets such as the Microsoft HoloLens are becoming powerful platforms to develop computer vision applications. El modo de investigación de HoloLens habilita la investigación de Computer Vision en el dispositivo proporcionando acceso a todas las secuencias de sensor de imagen sin procesar, incluida la profundidad y el IR.HoloLens Research Mode enables computer vision research on device by providing access to all raw image sensor streams -- including depth and IR. Dado que el modo de investigación ahora está disponible desde el 2018 de mayo, comenzamos a ver varias demostraciones interesantes y aplicaciones que se desarrollan para HoloLens.As Research Mode is now available since May 2018, we are starting to see several interesting demos and applications being developed for HoloLens.

El objetivo de este taller es reunir a los estudiantes e investigadores interesados en Computer Vision para aplicaciones de realidad mixta.The goal of this workshop is to bring together students and researchers interested in computer vision for mixed reality applications. El taller proporcionará un lugar para compartir demostraciones y aplicaciones y aprenderá entre sí para compilar o migrar aplicaciones a la realidad mixta.The workshop will provide a venue to share demos and applications, and learn from each other to build or port applications to mixed reality.

Se recomiendan los envíos de los temas de reconocimiento de objetos (centrados en ego), seguimiento de usuarios y mano, reconocimiento de actividades, ABRIREMOS, reconstrucción 3D, comprensión de escenas, localización basada en sensores, navegación, etc.We encourage submissions on the topics of (ego-centric) object recognition, hand and user tracking, activity recognition, SLAM, 3D reconstruction, scene understanding, sensor-based localization, navigation and more.

Envío de papelPaper Submission

  • Fecha límite de envío de papel: 17 de mayoPaper submission deadline: May 17
  • Notificación a los autores: 24 de mayoNotification to authors: May 24

Los envíos de papel deben usar la plantilla CVPR y están limitados a 4 páginas más referencias.Paper submissions should use the CVPR template and are limited to 4 pages plus references. Además, se recomienda a los autores que envíen un vídeo en el que se muestre su aplicación.In addition, we encourage the authors to submit a video showcasing their application. Tenga en cuenta que se permiten los envíos de trabajos publicados anteriormente (incluido el trabajo aceptado en la Conferencia principal de CVPR 2019).Note that submissions of previously published work are allowed (including work accepted to the main CVPR 2019 conference).

Los envíos se pueden cargar en el CMT: https://cmt3.research.microsoft.com/CVFORMR2019Submissions can be uploaded to the CMT: https://cmt3.research.microsoft.com/CVFORMR2019

Se seleccionará un subconjunto de papeles para la presentación oral en el taller.A subset of papers will be selected for oral presentation at the workshop. Sin embargo, se recomienda encarecidamente a todos los autores que presenten su trabajo durante la sesión de demostración.However, we strongly encourage all the authors to present their work during the demo session.

ProgramaciónSchedule

  • 13:30-13:45: bienvenida y apertura de comentarios.13:30-13:45: Welcome and Opening Remarks.
  • 13:45-14:15: discurso de habla : Prof. Marc POLLEFEYS, ETH Zurich/Microsoft.13:45-14:15: Keynote talk : Prof. Marc Pollefeys, ETH Zurich/Microsoft. Title: Egocentric Computer Vision en HoloLens.Title: Egocentric Computer Vision on HoloLens.
  • 14:15-14:45: discurso de habla : Prof. Kris Kitani, Carnegie Mellon University.14:15-14:45: Keynote talk : Prof. Kris Kitani, Carnegie Mellon University. Title: actividad Egocentric y presentar previsión.Title: Egocentric Activity and Pose Forecasting.
  • 14:45-15:15: charla : Dr. Yang Liu, California Institute of Technology.14:45-15:15: Keynote talk : Dr. Yang Liu, California Institute of Technology. Título: potenciación de un asistente cognitivo para ciego con realidad aumentada.Title: Powering a Cognitive Assistant for the Blind with Augmented Reality.
  • 15:15-16:15: pausa de café y demostraciones.15:15-16:15: Coffee break and demos.
  • 16:15-16:45: discurso de la ponencia: Prof. Kristen Grauman, Universidad de Texas en investigación de Austin/Facebook para Ia.16:15-16:45: Keynote talk : Prof. Kristen Grauman, University of Texas at Austin/Facebook AI Research. Title: interacción del objeto humano en el vídeo de la primera persona.Title: Human-object interaction in first-person video.
  • 16:45-17:15: presentaciones orales:16:45-17:15: Oral presentations:
    • Registro simplificado: navegación Orthopedic independiente con HoloLens.Registration made easy - standalone orthopedic navigation with HoloLens. F.F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • Aprender estéreo con un HoloLens.Learning stereo by walking around with a HoloLens. H.H. Zhan, Y. Pekelny, O. Ulusoy.Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30: Notas finales.17:15-17:30: Final Remarks.