aplicativos Pesquisa Visual Computacional para headsets Realidade Misturada

Organizado em conjunto com CVPR 2019

Long Beach (AC)

17 de junho de 2019 (tarde) - Hyatt Regency F

Organizadores

  • Marc Pollefeys
  • Federica Bogo
  • Johannes Schönberger
  • Osman Ulusoy

Visão geral

Imagem do teaser

Headsets de realidade misturada, como o Microsoft HoloLens estão se tornando plataformas poderosas para desenvolver aplicativos de pesquisa visual computacional. O Modo de Pesquisa do HoloLens permite a pesquisa de pesquisa visual computacional no dispositivo, fornecendo acesso a todos os fluxos brutos do sensor de imagem, incluindo profundidade e IR. Como o Modo de Pesquisa está disponível desde maio de 2018, estamos começando a ver várias demonstrações e aplicativos interessantes sendo desenvolvidos para o HoloLens.

O objetivo deste workshop é reunir alunos e pesquisadores interessados em pesquisa visual computacional para aplicativos de realidade misturada. O workshop fornecerá um local para compartilhar demonstrações e aplicativos e aprender uns com os outros para criar ou portar aplicativos para a realidade misturada.

Incentivamos envios nos tópicos de reconhecimento de objetos (centrado no ego), acompanhamento manual e de usuário, reconhecimento de atividades, SLAM, reconstrução 3D, compreensão de cena, localização baseada em sensor, navegação e muito mais.

Envio de Papel

  • Prazo de envio de papel: 17 de maio
  • Notificação aos autores: 24 de maio

Os envios de papel devem usar o modelo CVPR e são limitados a 4 páginas mais referências. Além disso, incentivamos os autores a enviar um vídeo mostrando seu aplicativo. Observe que envios de trabalhos publicados anteriormente são permitidos (incluindo o trabalho aceito na conferência main CVPR 2019).

Os envios podem ser carregados no CMT: https://cmt3.research.microsoft.com/CVFORMR2019

Um subconjunto de trabalhos será selecionado para apresentação oral no workshop. No entanto, incentivamos fortemente todos os autores a apresentarem seu trabalho durante a sessão de demonstração.

Agenda

  • 13:30-13:45: Comentários bem-vindos e de abertura.
  • 13:45-14:15: Palestra: Prof. Marc Pollefeys, ETH Zurique/Microsoft. Título: Egocentric Pesquisa Visual Computacional no HoloLens.
  • 14:15-14:45: Palestra: Prof. Kris Kitani, Universidade Carnegie Mellon. Título: Atividade egocêntrica e Previsão de Pose.
  • 14:45-15:15: Palestra: Dr. Yang Liu, Instituto de Tecnologia da Califórnia. Título: Alimentando um Assistente Cognitivo para Cegos com Realidade Aumentada.
  • 15:15-16:15: Pausa para café e demonstrações.
  • 16:15-16:45: Palestra: Prof. Kristen Grauman, Universidade do Texas em Austin/Facebook AI Research. Título: Interação entre objetos humanos no vídeo em primeira pessoa.
  • 16:45-17:15: Apresentações orais:
    • Registro facilitado – navegação ortopédica autônoma com o HoloLens. F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • Aprendendo estéreo andando por aí com um HoloLens. H. Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30: Comentários Finais.