Mixed Reality ヘッドセットのコンピューター ビジョン アプリケーションComputer Vision Applications for Mixed Reality Headsets

組み合わせて編成CVPR 2019Organized in conjunction with CVPR 2019

時間の長いビーチ (CA)Long Beach (CA)

6 月 17 日 2019 午後) - Hyatt Regency FJune 17, 2019 (Afternoon) - Hyatt Regency F


  • Marc PollefeysMarc Pollefeys
  • Federica BogoFederica Bogo
  • Johannes SchönbergerJohannes Schönberger
  • Osman UlusoyOsman Ulusoy



Microsoft HoloLens などの複合現実ヘッドセットは、コンピューター ビジョン アプリケーションの開発に強力なプラットフォームになっています。Mixed reality headsets such as the Microsoft HoloLens are becoming powerful platforms to develop computer vision applications. HoloLens 研究モードにより、深度など、赤外線--すべての画像をセンサー ストリームへのアクセスを提供することでデバイス上のコンピューター ビジョン研究HoloLens Research Mode enables computer vision research on device by providing access to all raw image sensor streams -- including depth and IR. 2018 年 5 月以降は研究モードを使用できるようになりました、興味深いデモと HoloLens の開発中のアプリケーションがいくつかが開始します。As Research Mode is now available since May 2018, we are starting to see several interesting demos and applications being developed for HoloLens.

このワーク ショップの目的は、一緒に学生と研究者のコンピューター ビジョンで目的の複合現実のアプリケーションです。The goal of this workshop is to bring together students and researchers interested in computer vision for mixed reality applications. ワーク ショップでは、デモ、およびアプリケーションを共有し、ビルドを互いから学び、会場を提供します。 または、複合現実のアプリケーションを移植します。The workshop will provide a venue to share demos and applications, and learn from each other to build or port applications to mixed reality.

(エゴ中心) のオブジェクト認識、手の形とユーザーの追跡、アクティビティ認識、酷評、3 D 再構成、シーンの理解、センサー ベースのローカライズ、ナビゲーションなどのトピックに送信することをお勧めします。We encourage submissions on the topics of (ego-centric) object recognition, hand and user tracking, activity recognition, SLAM, 3D reconstruction, scene understanding, sensor-based localization, navigation and more.

用紙の送信Paper Submission

  • 用紙の提出期限:月 17 日Paper submission deadline: May 17
  • 作成者に通知します。5 月 24Notification to authors: May 24

用紙の送信を実行すると、CVPR テンプレートを使用して、4 つのページとの参照に制限されています。Paper submissions should use the CVPR template and are limited to 4 pages plus references. さらに、そのアプリケーションを示すビデオを送信する作成者お勧めします。In addition, we encourage the authors to submit a video showcasing their application. (メイン CVPR 2019 会議に受け入れられる作業を含む) 前に発行された作業の送信を許可することに注意してください。Note that submissions of previously published work are allowed (including work accepted to the main CVPR 2019 conference).

CMT サブミッションをアップロードします。 https://cmt3.research.microsoft.com/CVFORMR2019Submissions can be uploaded to the CMT: https://cmt3.research.microsoft.com/CVFORMR2019

ワーク ショップで口頭でのプレゼンテーションのペーパーのサブセットが選択されます。A subset of papers will be selected for oral presentation at the workshop. ただし、私たちのデモ セッション中に作業を提示するすべての著者強くお勧めします。However, we strongly encourage all the authors to present their work during the demo session.


  • 13:30-13:45:[ようこそ] と開き解説します。13:30-13:45: Welcome and Opening Remarks.
  • 13:45-14:15:基調講演:教授 Marc Pollefeys、ETH チューリッヒ/microsoft します。13:45-14:15: Keynote talk: Prof. Marc Pollefeys, ETH Zurich/Microsoft. [タイトル]:HoloLens で egocentric Computer Vision します。Title: Egocentric Computer Vision on HoloLens.
  • 14:15-14:45:基調講演:教授 Kris Kitani、カーネギー メロン大学です。14:15-14:45: Keynote talk: Prof. Kris Kitani, Carnegie Mellon University. [タイトル]:Egocentric アクティビティと姿勢を予測します。Title: Egocentric Activity and Pose Forecasting.
  • 14:45-15:15:基調講演:災害復旧します。Yang Liu、カリフォルニア州 Institute of Technology します。14:45-15:15: Keynote talk: Dr. Yang Liu, California Institute of Technology. [タイトル]:For the Blind Cognitive アシスタント Augmented Reality で強化していきます。Title: Powering a Cognitive Assistant for the Blind with Augmented Reality.
  • 15:15-16:15:休憩とデモします。15:15-16:15: Coffee break and demos.
  • 16:15-16:45:基調講演:教授 Kristen Grauman のテキサス大学では、オースティンにある Facebook/AI 研究します。16:15-16:45: Keynote talk: Prof. Kristen Grauman, University of Texas at Austin/Facebook AI Research. [タイトル]:最初のユーザーのビデオでは人事オブジェクトの相互作用します。Title: Human-object interaction in first-person video.
  • 16:45-17:15:口頭プレゼンテーション:16:45-17:15: Oral presentations:
    • 登録が簡単に HoloLens で整形ナビゲーションをスタンドアロンです。Registration made easy - standalone orthopedic navigation with HoloLens. F.F. Liebmann、S. Roner、M. von Atzigen、F. Wanivenhaus、C. Neuhaus、J. Spirig、D. Scaramuzza、R. Sutter、J. Snedeker、M. Farshad、P. Furnstahl します。Liebmann, S. Roner, M. von Atzigen, F. Wanivenhaus, C. Neuhaus, J. Spirig, D. Scaramuzza, R. Sutter, J. Snedeker, M. Farshad, P. Furnstahl.
    • によって、HoloLens を歩き回るステレオを学習します。Learning stereo by walking around with a HoloLens. H.H. Zhan、Y. Pekelny、O. Ulusoy します。Zhan, Y. Pekelny, O. Ulusoy.
  • 17:15-17:30:最終的な解説します。17:15-17:30: Final Remarks.