このサイトはダイキン工業が運営するCG業界ニュースサイトです。
お問い合わせ

セミナーレポート 「VR+インタラクティブコンテンツ制作セミナー」2

VRとインタラクティブの世界の現在地を知るセミナー

2017年1月25日、東京・品川のダイキン工業において行われたのは、VR(ヴァーチャルリアリティ)コンテンツや、インタラクティブコンテンツの制作現場に携わるスペシャリストを招いた「VR+インタラクティブコンテンツ制作セミナー」。急速な進化を遂げつつあるVR、インタラクティブコンテンツ作品は、いかにして生まれるのか。また、その世界を支えるソフトウェア、ハードウェア、そして、制作者の技術とは、どんなものなのか。

登壇したのは、3組5名のスピーカーの方々。

音楽と映像が融合したアート作品、エンターテイメント作品を生み出し続ける、TETSUJIN – AUDIO VISUAL(以下、TETSUJIN)からは、高橋哲人氏、モシ村マイコ氏のお二人。Oculus RiftやHTC Viveといったヘッドマウントディスプレイを使ってMayaを制御できるプラグイン「MARUI VR Maya Plugin」を開発した、合同会社MARUI-PlugInのMax Krichenbauer氏。そして、オートデスク株式会社(以下、オートデスク)のメディア&エンターテイメント部門の技術マネージャー、門口 洋一郎氏、加瀬 秀雄氏。

 

セミナーレポート 「VR+インタラクティブコンテンツ制作セミナー」1より続く

VR空間の中で「手作業」するためのプラグイン

「VR+インタラクティブコンテンツ制作セミナー」2組目の登壇者は、合同会社MARUI-PlugInのMax Krichenbauer氏だ。ドイツ出身のKrichenbauer氏は、かつてVisual Effects Artistとして勤務していた映画などのVFX(特殊効果)を手掛ける企業、TRIXTER社時代に、映画やゲームの将来性に興味を持ち、奈良先端科学技術大学院大学に留学。VR(仮想現実)とAR(拡張現実)についての研究に従事した。2016年には研究の成果を活かすために合同会社MARUI-PlugInを創業。そのMARUI-PlugInが販売しているのが、オートデスクのMayaとの連動も可能なプラグイン「MARUI」だ。

 

「デザイナーさんがVRのモデリングやアニメーションの制作をしているかと言えば、それは意外と伝統的な手法。マウスとキーボードを使っていることが多いです。VRの世界に没入し、作品をチェックして、修正したり追加が発生したりしたら、デスクに戻って作業しなくてはなりません。それはちょっと不便な作業に思えました。直接VRの世界の中にいる状態のままで、その修正・追加作業を行うことができたとしたら、それ以上に便利なことはありません。それを可能にするのが、私たちの製品です」(Krichenbauer氏)

MARUIを使えば、デザイナーがヘッドマウントディスプレイ(HMD)を装着することで、ヴァーチャルな世界の中で作業を行うことができるようになる。3次元的な入力装置のメリットは、両手を自由に使ってスピーディーに制作が行えるということ。また、Krichenbauer氏は、MARUIがオートデスクの「Maya」の機能を活用しながらVR空間で作業することができるということを、この製品が持つ最大のメリットのひとつとして挙げている。Krichenbauer氏はデモを交えてMARUIの使用感を公開。Mayaとの連動の具体的なイメージが紹介された。

次に、VR・ARの研究者でもあるKrichenbauer氏らしく、仮想空間利用の歴史を交えつつ、「Oculus Touch」、「HTC Vive」と「Oculus Rift」といったハードウェアの機能や仕組み、特徴、さらに、VR環境においてそれらをどのように用いて制作作業を進めるのか、また、どのようなことができるのか、といった、MARUIの使用によって広がっていく作業環境につながる情報も語られた。各種HMDを装着し、コントローラーを操作することで、直接3Dモデルに触れるような感覚で制作作業をすることができるという革新的な手法の有益性は、CGデザインの既存の手法に一石を投じることになる。VR空間が現実の作業環境とリンクするという新たな概念は、既に実現した。参加者がそれを実感できる、有益なセミナーとなった。

現実世界を自在にコントロールするインターフェイス

門口洋一郎氏(左)と加瀬秀雄氏。

最後に登壇したのは、オートデスクでメディア&エンターテイメント部門の技術マネジメントを担当する門口洋一郎氏、加瀬 秀雄氏。講演のテーマは、「Mayaを使用して現実世界をコントロール」することについて。

冒頭から、門口氏自らが「おもしろいことをやってみようと思いまして」と表現した、いくつかの興味深い事例が紹介されていった。

写真から3Dデータを生成することで「現実世界をキャプチャする」、というプロジェクトの紹介では、スミソニアン博物館に展示されているアポロ11号の現物をキャプチャしたプロジェクトについて語られた。歴史的に価値の高い宇宙船は7種類の異なる方法でスキャンされ、宇宙飛行士が船内に残した落書きまで再現。最終的に3Dモデル化されたという。現在はその成果をウェブサイトなどで確認できる。

参照サイト:http://3d.si.edu/apollo11cm/

また、VRに関するプロジェクトとして語られたのは、遠隔地にいながらにして、VRを活用しながらコミュニケーションを取る方法だ。オートデスクの「VRED」を活用し、離れた拠点にいる複数の人間が、同時に同じVR空間を共有。コミュニケーションを図ることができる。これは、新しいデザインのプロセスを考える上で非常に有益な結果を伴うプロジェクトだ。これまでは、プロダクトのデザインモデルを検証し、調整する際は担当者が同じ場所に集合して、そこにあるモデルにアプローチをする必要があったが、離れた場所にいる各人がVR空間に同時アクセスすることで情報を共有、精査できるようになれば、デザインの現場での作業効率は格段にアップする。それを可能にするプロジェクトは、「革命的」であると言っても過言ではないだろう。

セミナーは、本題とも言うべきデバイスコントロールの話題へと移る。門口氏は、今回のセミナーにロボット、ドローン、ヘッドマウントディスプレイなどの多種多様なデバイスを持ち込んでいる。こういったデバイスを用いて、CGの世界の中でしかできなかったことを、現実世界にインタラクションさせることによって、よりユニークで、面白く、革新的なエンターテイメントが創造できるのではないか。それこそが門口氏が取り組んでいるプロジェクトの本質だ。つまり、アポロ11号の事例で紹介されたキャプチャ技術、自社が持つ「Maya」やゲームエンジンの「Stingray」といったソフトのテクノロジー、さらには、門口氏の目の前に並べられたさまざまな外部デバイスを組み合わせることで、それを可能にしようという試みである。

実例として紹介されたのは、既存の技術を組み合わせて発展させることで、モニタの内側で制作、コントロールされたものが、現実の空間に流れ出し、融合していくという数々の「作品」。これらは単なるエンターテイメントの枠にとどまらず、各種のビジネスや、製造・制作の現場においても活用される技術でもあると言える。

インスタレーション作品のライトアニメーションを、Mayaを使ってコントロール

していくアート、キャプチャした現実空間のモデルの中にMayaで軌跡を描き、その軌跡に沿って正確にドローンを飛ばすというシステム、Mayaをインターフェイスとして用いて、ロボットの動きをコントロールするという試みなど、いずれもデバイスを緻密に制御することによって、想像を超える効果や結果を生み出した事例となっていた。

「我々が持っている技術を上手く組み合わせながら、お客様の『こんなことがしたい』『こんなことができるのではないか』というニーズにお応えしていきたい」という門口氏の言葉からも予兆されるように、今後ますます現存技術の有効活用と、それに伴う技術の進化は進んでいくだろう。その過程は想像以上に進んでいて、ユーザーやカスタマーを驚かせるプロジェクトも次々に発表されている。今回紹介されたMayaを始めとする進化したインターフェイスが、より正確に、効率よく現実世界をコントロールしつつある。その現状が垣間見えるセッションだった。

 

セミナーレポート 「VR+インタラクティブコンテンツ制作セミナー」1