Pesquisa Visual Computacional aplicativos para headsets de realidade misturadaComputer Vision Applications for Mixed Reality Headsets

Organizado em conjunto com CVPR 2019Organized in conjunction with CVPR 2019

Praia (AC) longaLong Beach (CA)

17 de junho de 2019 (à tarde) – Hyatt Regency FJune 17, 2019 (Afternoon) - Hyatt Regency F

OrganizadoresOrganizers

  • Pollefeys de hipermarcaMarc Pollefeys
  • Federica BogoFederica Bogo
  • Johannes SchönbergerJohannes Schönberger
  • Osman UlusoyOsman Ulusoy

Visão geralOverview

Imagem do separador

Os headsets de realidade misturada, como o Microsoft HoloLens, estão se tornando plataformas poderosas para desenvolver aplicativos de pesquisa Visual computacional.Mixed reality headsets such as the Microsoft HoloLens are becoming powerful platforms to develop computer vision applications. O modo de pesquisa do HoloLens permite a pesquisa visual do computador no dispositivo, fornecendo acesso a todos os fluxos do sensor de imagem bruta, incluindo profundidade e IR.HoloLens Research Mode enables computer vision research on device by providing access to all raw image sensor streams -- including depth and IR. Como o modo de pesquisa agora está disponível desde 2018 de maio, estamos começando a ver várias demonstrações e aplicativos interessantes que estão sendo desenvolvidos para o HoloLens.As Research Mode is now available since May 2018, we are starting to see several interesting demos and applications being developed for HoloLens.

O objetivo deste workshop é reunir alunos e pesquisadores interessados na visão computacional de aplicativos de realidade misturada.The goal of this workshop is to bring together students and researchers interested in computer vision for mixed reality applications. O workshop fornecerá um local para compartilhar demonstrações e aplicativos e aprenderá uns com os outros para criar ou portar aplicativos para a realidade misturada.The workshop will provide a venue to share demos and applications, and learn from each other to build or port applications to mixed reality.

Incentivamos envios sobre os tópicos de reconhecimento de objetos (ego), mão e rastreamento de usuários, reconhecimento de atividades, térrea, reconstrução de 3D, compreensão de cena, localização baseada em sensor, navegação e muito mais.We encourage submissions on the topics of (ego-centric) object recognition, hand and user tracking, activity recognition, SLAM, 3D reconstruction, scene understanding, sensor-based localization, navigation and more.

Envio de papelPaper Submission

  • Prazo de envio de papel: 17 de maioPaper submission deadline: May 17
  • Notificação aos autores: 24 de maioNotification to authors: May 24

Os envios de papel devem usar o modelo CVPR e são limitados a 4 páginas mais referências.Paper submissions should use the CVPR template and are limited to 4 pages plus references. Além disso, incentivamos os autores a enviar um vídeo mostrando seus aplicativos.In addition, we encourage the authors to submit a video showcasing their application. Observe que os envios de trabalhos publicados anteriormente são permitidos (incluindo o trabalho aceito para a conferência principal do CVPR 2019).Note that submissions of previously published work are allowed (including work accepted to the main CVPR 2019 conference).

Os envios podem ser carregados para o CMT: https://cmt3.research.microsoft.com/CVFORMR2019Submissions can be uploaded to the CMT: https://cmt3.research.microsoft.com/CVFORMR2019

Um subconjunto de documentos será selecionado para apresentação oral no workshop.A subset of papers will be selected for oral presentation at the workshop. No entanto, recomendamos enfaticamente que todos os autores apresentem seu trabalho durante a sessão de demonstração.However, we strongly encourage all the authors to present their work during the demo session.

AgendamentoSchedule

  • 13:30-13:45: Bem-vindo e abrindo comentários.13:30-13:45: Welcome and Opening Remarks.
  • 13:45-14:15: palestras: Prof. Marc POLLEFEYS, ETH Zurique/Microsoft.13:45-14:15: Keynote talk: Prof. Marc Pollefeys, ETH Zurich/Microsoft. Título: egocentric Pesquisa Visual Computacional no HoloLens.Title: Egocentric Computer Vision on HoloLens.
  • 14:15-14:45: palestras: Prof. Kris Kitani, Carnegie Mellon University.14:15-14:45: Keynote talk: Prof. Kris Kitani, Carnegie Mellon University. Título: atividade egocentric e gerar previsão.Title: Egocentric Activity and Pose Forecasting.
  • 14:45-15:15: palestras: Dr. Yang Liu, Instituto de tecnologia da Califórnia.14:45-15:15: Keynote talk: Dr. Yang Liu, California Institute of Technology. Título: Powering a Cognitive Assistant for the Blind with Augmented Reality.Title: Powering a Cognitive Assistant for the Blind with Augmented Reality.
  • 15:15-16:15: intervalo de café e demonstrações.15:15-16:15: Coffee break and demos.
  • 16:15-16:45: palestras: Prof. Kristen Grauman, Universidade do Texas em Austin/Facebook ai Research.16:15-16:45: Keynote talk: Prof. Kristen Grauman, University of Texas at Austin/Facebook AI Research. Título: interação do objeto humano no vídeo da primeira pessoa.Title: Human-object interaction in first-person video.
  • 16:45-17:15: apresentações verbais:16:45-17:15: Oral presentations:
    • O registro fez navegação orthopedic fácil e autônoma com o HoloLens.Registration made easy - standalone orthopedic navigation with HoloLens. fixo.F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • Aprendendo o estéreo ao percorrer um HoloLens.Learning stereo by walking around with a HoloLens. t.H. Zhan, Y. Pekelny, O. Ulusoy.Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30: comentários finais.17:15-17:30: Final Remarks.