Azure 複合現実クラウド サービスの概要

Azure Spatial Anchors の画像

Azure の複合現実サービスを利用して、あらゆる人間が慣れ親しんだ世界、つまり私たちを取り巻く 3 次元の物理世界を解き放ちましょう。 ユーザーの職場や環境のコンテキスト内でデジタル情報を収集、表示することで、開発、学習、共同作業の効率性の向上を支援できます。 モバイル デバイスやヘッドセットなどの非接続式デバイスでの 3D が実現します。 Azure を使用することで、機密性の高い情報を確実に保護できます。

複合現実サービス

Azure Remote RenderingAzure Spatial Anchors などの Mixed Reality クラウド サービスを使用すると、開発者はさまざまなプラットフォームで魅力的なイマーシブ エクスペリエンスを構築することができます。 これらのサービスを使用すると、3D トレーニング、設備の予測メンテナンス、デザイン レビュー用のアプリケーションを作成する際、プロジェクトに空間認識を統合でき、このすべてをユーザーの環境のコンテキストで行うことができます。

Azure Remote Rendering

Azure Remote Rendering (ARR) は、非常に複雑な 3D モデルをリアル タイムでレンダリングし、デバイスにストリーム配信するためのサービスです。 現在、ARR は一般提供されており、HoloLens 2 または Windows デスクトップ PC を対象とした Unity またはネイティブ C++ のプロジェクトに追加できます。


ARR は、レンダリング計算能力が低い非接続式デバイスで実行されるあらゆる Mixed Reality アプリケーションに不可欠なコンポーネントです。 次のエンジンのモデルを比較対照の例として取り上げます。忠実度の高い左側のモデルには 1,800 万を超える三角形がありますが、忠実度の低い右側のモデルには約 20 万しかありません。 トラックのエンジンなどの資産の設計レビューや工業プラント管理、術前の手術計画など、あらゆる細部にこだわらなければならないシナリオでは、3D 視覚化によって、その細部を忠実に再現できます。 これは、デザイナー、エンジニア、医師、学生が複雑な情報をより深く理解し、適切な判断を行うために役立ちます。 しかし、このような簡略化を行うと、ビジネス上および設計上の主要な決定に必要とされる、重要な詳細情報が失われる可能性があります。

Unity ショーケース アプリでの Azure Remote Rendering の例

ARR では、レンダリング ワークロードをクラウド内のハイエンド GPU に移動することで、この問題を解決します。 これにより、クラウドでホストされるグラフィックス エンジンによって画像が引き継がれ、ビデオ ストリームとしてエンコードされ、そのモデルがターゲット デバイスに直接ストリーム配信されます。

  • 1 つのハイエンド GPU では処理しきれない複雑なモデルの場合は、ARR がワークロードを複数の GPU に分散し、その結果を 1 つの画像としてマージするので、ユーザーからはプロセスが完全に透過的になります。

これに加えて、ARR では、アプリで使用できるユーザー インターフェイスの種類が制限されていません。 ローカルでレンダリングされたコンテンツは、次の画像に示されているように、フレームの端で自動的にリモート画像と組み合わされます。

Unity ショーケース アプリでの Azure Remote Rendering の例

Azure Spatial Anchors

Azure Spatial Anchors (ASA) は、空間認識 Mixed Reality アプリケーションを構築するための、クロスプラットフォームのサービスです。 Azure Spatial Anchors を使用すると、複数デバイス間でのホログラフィック コンテンツのマッピング、保持、共有を、現実世界のスケールで実現できます。 AOA は現在、お使いのアプリで試せるよう、パブリック プレビュー中です。

Azure Spatial Anchors は、次のような Mixed Reality の一般的なユースケース向けに独自にカスタマイズされたソリューションです。

  • ウェイファインディング: 2 つ以上の空間アンカーを接続して、ユーザーが操作する必要のあるタスク リストまたは関心のあるポイントを作成できます。
  • マルチユーザー エクスペリエンス: 同じ仮想空間内のオブジェクトを操作することで、ユーザー間で動作のやり取りを行えます。
  • 現実世界での仮想コンテンツの保持: ユーザーは、他のサポートされているデバイスでも表示可能な仮想オブジェクトを現実世界に配置できます。

Azure Spatial Anchors の例

このサービスは多くの環境で開発でき、デバイスとプラットフォームの大規模なグループにデプロイできます。 そのため、利用できるプラットフォームの一覧には次のように多くのものが含まれます。

  • Unity for HoloLens
  • Unity for iOS
  • Unity for Android
  • ネイティブ iOS
  • ネイティブ Android
  • HoloLens 向け C++/WinRT および DirectX
  • Xamarin for iOS
  • Xamarin for Android

Azure Object Anchors

Azure Object Anchors (AOA) は、3D コンテンツを物理オブジェクトと自動的に整合させることによる、リッチなイマーシブ エクスペリエンスの作成に役立つ複合現実サービスです。 マーカーや手動での調整を必要とせずに、オブジェクトのコンテキストを把握できます。 Object Anchors を使用して複合現実アプリケーションを構築することで、実務を大幅に削減し、調整エラーを減らし、ユーザー エクスペリエンスを向上させることができます。

Azure Object Anchors は、以下のような一般的なMixed Reality のユース ケースに特別に合わせて作られています。

  • トレーニング: マーカーを配置したり、ホログラムの配置の手動調整に時間をかけたりすることなく、作業者向けの Mixed Reality トレーニング エクスペリエンスを作成します。
  • タスク ガイダンス: Mixed Reality を使用すると、従業員に一連のタスクを経験させることを大幅に簡略化できます。
  • 資産の検出: 物理空間に何らかの物体の 3D モデルが既にある場合は、Azure Object Anchors を使用して、物理環境でその物体のインスタンスを特定し、追跡できます。

オープン カーのエンジンでの Azure Object Anchors の仮想オーバーレイ

Cognitive Services

Speech

Speech

音声を使用して、音声処理機能を任意のアプリやサービスに統合する方法をご紹介します。 読み上げられた言語をテキストに変換したり、標準の (またはカスタマイズ可能な) 音声フォントを使用してテキストから自然に聞こえる音声を生成したりできます。 お好みのサービスを無料で試用していただけます。次の機能により、音声対応のアプリとサービスをすばやく構築できます。


視覚

Vision

画像、ビデオ、デジタル インク コンテンツを認識および識別し、キャプションの挿入、インデックスの作成、モデレーションを行います。視覚サービスを使用して、アプリやサービスで画像、ビデオ、デジタル インク内のコンテンツを正確に識別および分析する方法について説明します。

スタンドアロンの Unity サービス

以下に一覧表示されているスタンドアロンのサービスは Mixed Reality には該当しませんが、さまざまな開発状況で役に立つ可能性があります。 Unity を使用して開発している場合は、これらの各サービスを新規または既存のプロジェクトに統合することができます。

デバイス サポート

Azure クラウド サービス HoloLens (第 1 世代) イマーシブ ヘッドセット
言語翻訳 ✔️ ✔️
Computer Vision ✔️ ✔️
Custom Vision ✔️ ✔️
クロスデバイス通知 ✔️ ✔️
顔認識 ✔️ ✔️
Functions と Storage ✔️ ✔️
ビデオのストリーム配信 ✔️
Machine Learning ✔️ ✔️
Functions と Storage ✔️ ✔️
Application Insights ✔️ ✔️
物体検出 ✔️ ✔️
Microsoft Graph ✔️ ✔️
ボットの統合 ✔️ ✔️

関連項目