Aplicaciones de Computer Vision para cascos de Mixed Reality

Organizado junto con CVPR 2019

Long Beach (CA)

17 de junio de 2019 (tarde) - Hyatt Regency F

Organizadores

  • Marc Pollefeys
  • Federica Bogo
  • Johannes Schönberger
  • Osman Ulusoy

Información general

Imagen de Teaser

Los cascos de realidad mixta, como el Microsoft HoloLens, se están convirtiendo en plataformas eficaces para desarrollar aplicaciones de Computer Vision. El modo de investigación de HoloLens permite la investigación de visión artificial en el dispositivo al proporcionar acceso a todos los flujos de sensor de imagen sin procesar, incluida la profundidad y el IR. Como el modo de investigación ya está disponible desde mayo de 2018, estamos empezando a ver varias demostraciones y aplicaciones interesantes que se desarrollan para HoloLens.

El objetivo de este taller es reunir a estudiantes e investigadores interesados en computer vision para aplicaciones de realidad mixta. El taller proporcionará un lugar para compartir demostraciones y aplicaciones, y aprender entre sí para compilar o portar aplicaciones a realidad mixta.

Animamos envíos sobre los temas de reconocimiento de objetos (centrados en el ego), seguimiento de manos y usuarios, reconocimiento de actividades, SLAM, reconstrucción 3D, comprensión de escenas, localización basada en sensores, navegación y mucho más.

Envío de papel

  • Fecha límite de envío de documentos: 17 de mayo
  • Notificación a los autores: 24 de mayo

Los envíos de papel deben usar la plantilla CVPR y están limitados a 4 páginas más referencias. Además, animamos a los autores a enviar un vídeo que muestre su aplicación. Tenga en cuenta que se permiten envíos de trabajos publicados previamente (incluido el trabajo aceptado en la conferencia principal de CVPR 2019).

Los envíos se pueden cargar en cmT: https://cmt3.research.microsoft.com/CVFORMR2019

Se seleccionará un subconjunto de documentos para su presentación oral en el taller. Sin embargo, animamos encarecidamente a todos los autores a presentar su trabajo durante la sesión de demostración.

Programación

  • 13:30-13:45: Comentarios de bienvenida y apertura.
  • 13:45-14:15: Charla principal: Prof. Marc Pollefeys, ETH Zurich/Microsoft. Título: Egocéntrico Computer Vision en HoloLens.
  • 14:15-14:45: Charla principal: Prof. Kris Kitani, Carnegie Mellon University. Título: Actividad egocéntrica y previsión de posturas.
  • 14:45-15:15: Charla principal: Dr. Yang Liu, Instituto tecnológico de California. Título: Powering a Cognitive Assistant for the Blind with Augmented Reality.
  • 15:15-16:15: Pausa de café y demostraciones.
  • 16:15-16:45: Charla principal: Prof. Kristen Frameworkman, Universidad de Texas en Austin/Facebook AI Research. Título: Interacción de objetos humanos en vídeo de primera persona.
  • 16:45-17:15: Presentaciones orales:
    • Registro fácil: navegación ortopédica independiente con HoloLens. F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • Aprendiendo estéreo caminando con un HoloLens. H. Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30: Comentarios finales.