aplicativos Pesquisa Visual Computacional para headsets Realidade Misturada
Organizado em conjunto com CVPR 2019
Long Beach (AC)
17 de junho de 2019 (tarde) - Hyatt Regency F
Organizadores
- Marc Pollefeys
- Federica Bogo
- Johannes Schönberger
- Osman Ulusoy
Visão geral
Headsets de realidade misturada, como o Microsoft HoloLens estão se tornando plataformas poderosas para desenvolver aplicativos de pesquisa visual computacional. O Modo de Pesquisa do HoloLens permite a pesquisa de pesquisa visual computacional no dispositivo, fornecendo acesso a todos os fluxos brutos do sensor de imagem, incluindo profundidade e IR. Como o Modo de Pesquisa está disponível desde maio de 2018, estamos começando a ver várias demonstrações e aplicativos interessantes sendo desenvolvidos para o HoloLens.
O objetivo deste workshop é reunir alunos e pesquisadores interessados em pesquisa visual computacional para aplicativos de realidade misturada. O workshop fornecerá um local para compartilhar demonstrações e aplicativos e aprender uns com os outros para criar ou portar aplicativos para a realidade misturada.
Incentivamos envios nos tópicos de reconhecimento de objetos (centrado no ego), acompanhamento manual e de usuário, reconhecimento de atividades, SLAM, reconstrução 3D, compreensão de cena, localização baseada em sensor, navegação e muito mais.
Envio de Papel
- Prazo de envio de papel: 17 de maio
- Notificação aos autores: 24 de maio
Os envios de papel devem usar o modelo CVPR e são limitados a 4 páginas mais referências. Além disso, incentivamos os autores a enviar um vídeo mostrando seu aplicativo. Observe que envios de trabalhos publicados anteriormente são permitidos (incluindo o trabalho aceito na conferência main CVPR 2019).
Os envios podem ser carregados no CMT: https://cmt3.research.microsoft.com/CVFORMR2019
Um subconjunto de trabalhos será selecionado para apresentação oral no workshop. No entanto, incentivamos fortemente todos os autores a apresentarem seu trabalho durante a sessão de demonstração.
Agenda
- 13:30-13:45: Comentários bem-vindos e de abertura.
- 13:45-14:15: Palestra: Prof. Marc Pollefeys, ETH Zurique/Microsoft. Título: Egocentric Pesquisa Visual Computacional no HoloLens.
- 14:15-14:45: Palestra: Prof. Kris Kitani, Universidade Carnegie Mellon. Título: Atividade egocêntrica e Previsão de Pose.
- 14:45-15:15: Palestra: Dr. Yang Liu, Instituto de Tecnologia da Califórnia. Título: Alimentando um Assistente Cognitivo para Cegos com Realidade Aumentada.
- 15:15-16:15: Pausa para café e demonstrações.
- 16:15-16:45: Palestra: Prof. Kristen Grauman, Universidade do Texas em Austin/Facebook AI Research. Título: Interação entre objetos humanos no vídeo em primeira pessoa.
- 16:45-17:15: Apresentações orais:
- Registro facilitado – navegação ortopédica autônoma com o HoloLens. F. Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
- Aprendendo estéreo andando por aí com um HoloLens. H. Zhan, Y. Pekelny, O. Ulusoy.
- 17:15-17:30: Comentários Finais.