ニュース

世界最大のCGの祭典「SIGGRAPH 2016」開幕

VRは次の世代へ! OculusやNVIDIAなどによる最新VR技術をレポート

7月24日~28日開催(北米太平洋時間)

会場:アナハイムコンベンションセンター

今年の「SIGGRAPH」はアナハイムで開催。2年に一度はロサンゼルス以外の場所で開催されている

 7月24日より、米国アナハイムにおいて世界最大のCGの祭典「SIGGRAPH 2016」が開催されている。「SIGGRAPH」は、ゲーム開発者の祭典「GDC」と同様、カンファレンスと展示会で構成されるが、より学術的な側面の強いCGに関する最新の研究論文が発表されるのが「SIGGRAPH」の特徴と言える。ご承知の通り、CGはゲームにとって画面出力の手段として無くてはならない要素であり、「SIGGRAPH」で発表される論文の内容を応用した技術が、数年のうちにゲームにも実装されていくというのが通例だ。

 そんな「SIGGRAPH」も、近年のトレンドを踏まえ、昨年の「SIGGRAPH 2015」からVRに関する展示が行なわれている。内容的には、まだまだ研究開発中のものも多く、また研究の目的も必ずしも直接的に商品化を目指したものばかりではないが、少し先の未来のVRの可能性が感じられる最先端の技術デモが行なわれていた。本稿では、その中でも特に目を引いたデバイスを紹介したい。

Oculusが研究する新感覚ハンドデバイス

OculusのRavish Mehra氏がブースに張り付いて自ら来訪者の質問に答えていた

 Oculusは、「HapticWave」と名付けられた直径25センチほどの円板状のデバイスを使った実験的なデモを行なっていた。このデモでは、体験者はHMD「Oculus Rift」を装着して「HapticWave」の上に手を乗せる。デモが始まると、体験者は、VR世界の中ではテーブルの上に置かれた「HapticWave」に手を乗せた状態で表示される。現実と異なるのは、テーブル上をボールがバウンドしていることで、体験者がアローキーでボールがバウンドしている位置を前後左右に動かすと、「HapticWave」によって、自分の手から感じられる振動が変化して、ボールが弾んでいる位置の方向が知覚できる。また、ボールの位置が手からどれくらい離れているかということも、振動の強弱や周期から体感できるという趣向になっている。

 「HapticWave」の機構的なメカニズムとしては、内部に16個の電磁石が表面の円盤の外周に沿って配置されていて、この電磁石に流れる電流をオンオフすることで磁力に引き付けられる円盤を振動させるという意外とシンプルな仕組みだ。現時点の「HapticWave」は、16個の電磁石の制御して、振動の方向、周期、強さ、経過時間の4要素を変化させることができる。デモでは、バウンドするボールだけではなく、テーブルに沿ってバチバチと明滅するスパークを移動させるものも体験することができた。振動の発生源の視覚的変化に似つかわしい振動に変化させることで、確かにそれっぽい体感を得ることができるようになっている。

「HapticWave」はかなり大きい。スリムキーボードと比較してほしい

 現時点のものは、あくまで実験的な研究ということだが、今後の構想としでは、デバイスの表面をもっと大きなものにして、片手だけではなく両手や腕などにも接触させることが想定されている。筆者がこのデバイスを最初に見たとき、手の動きを検知して入力を行う機能を持っていると誤認したため、そういった機能を持たせる計画はないのか尋ねたところ、そういったことも十分に考えられるが、現時点では大型化やマルチユーザー環境にフォーカスしているとのことだった。

 また、実際に体験してみた結果の印象としては、ボールとスパークの違いは確かに認識できるものの、距離による強弱の変化や振動が発生している方向の変化は、実感に乏しいものだった。理由のひとつは、現時点の「HapticWave」が発生させることのできる振動は、それほど強いものではなく、発生源を最も手に近づけたときの振動の強さが、機構上最大であるのだと言う。ゲームの場合、現実の体感よりオーバーで変化の度合いも極端な方がわかりやすい。そういった感覚を考慮して作られているバイブレーション機能を内蔵した既存のゲームコントローラーの振動をイメージして体験すると、「HapticWave」のバイブレーションはかなり弱くて拍子抜けしてしまう。

「HapticWave」の分解パーツもケースの中にディスプレイされていた。16個の電磁石でバイブレーションを駆動する

 もうひとつ考えられるのは、現在の「HapticWave」では、振動の強弱の体感が被験者の手の大きさに依存するのではないかということだ。筆者は比較的手が小さい方なので、「HapticWave」が一般的な外国人の手の大きさに合わせて作られているとすると、筆者が手のひらで知覚した振動は、開発者の想定と異なる可能性もある。ただ、こういった体験者の体格に依存する部分も、バイブレーションをもっと強く出力できるようになれば、容易にカリブレーションできるようになるだろうから、やはり現状の問題点の解決のためには、振動の強度を上げることが有効に思えた。

 個人的な印象としては、ゲームへの具体的な応用のアイディアは、ちょっと思い当たらない。このデバイスにしかない特有の機能は、振動の発生源の方向が感じられることということになるだろうから、強いて考えると、「HapticWave」が人間ひとりが仰向けに横たわれるくらい大型のデバイスだったとして、自分の背面からチェーンソーで攻撃されるような危機的状況を、背中からの振動で察知して回避するといったスプラッター映画のようなシチュエーションなら興奮するかもしれない。

NVIDIAも取り組むアイトラッキング連動VRレンダリング

NVIDIAによる新しいFoveated Rendering手法のデモブース

 GAME Watchで連載中の佐藤カフジのVR GAMING TODAY!で取り上げたFoveated Renderingの研究を、どうやらNVIDIAも本格的に進めていたようだ。Foveated Renderingとは、ざっくり言うと人間の視野は確かに広いが、その広い視野のうちはっきりと知覚しているのはごく一部で、実は全体を均等に見ているわけではなく注目している部分が限られていることを利用して、注視点には高解像度でレンダリングレンダリングした結果を割り当て、それ以外の部分には低解像度でレンダリングした結果を割り当てて、レンダリングパフォーマンスを稼ぐ手法だ。注視点を判別するハードウェアには、SensoMotoric Instruments(SMI)が開発中の250Hzで駆動するアイトラッキングデバイスを「HTC Vive」に搭載して使用していた。

各Foveated Rendering手法の比較パネルがブース台に設置

 今回の「SIGGRAPH 2016」のデモブースでは、NVIDIAは2種類のFoveated Renderingの違いを体感することができた。ひとつはTemporally Stable Foveationという手法で、もうひとつはContrast-Preserving Foveationという手法だ。いずれも従来のFoveated Renderingで生じていた注視点の外側の低解像度でレンダリングされる周辺部分チラツキやコントラストの低下を軽減して、画面全体のレンダリング品質を向上させるのに非常に有効に機能している。

 実際に体験してみると、従来のFoveated Renderingとの違いは、まさに一目瞭然で、2つの新手法ともに、周囲にチラツキが生じることはない。周辺コントラストの低下に対しては、Contrast-Preserving Foveationの方に分があるように感じられたが、どちらの手法も周辺のコントラスト低下に有効なようで、HMDを通してみると、ややぼんやりと眠い印象に見える部分が生じていない。

 実際、NVIDIAも、人間の体感として、どちらがよりハイクオリティに感じられるかに関心を持っているようで、デモの体験の最後には、どちらがどちらの手法か明かされない状態で、2種類のレンダリング状態を見せられ、クオリティが高いと感じる方を答えるというアンケートを行なっていた。答えた後も、1番目と2番目が何かは教えてくれなかったため、筆者が優位だと感じたContrast-Preserving Foveationの方を正確に言い当てることができたかは分からなかった。2つの手法の違いは、どちらをより多くの人間が好むかという好みの問題に過ぎず、どちらも品質の向上には大きく貢献する技術だということだろう。

同時に3名までと体験ブースはさほど大規模ではない

 新しい優れたレンダリングアルゴリズムにNVIDIAが取り組んでいるということは、近い将来にその結果がSDKとして公開される可能性があることを意味する。資料によると、HMDそのものは「HTC Vive」のみならず、既存の「Oculus Rift」やその他HMDでも動作するとのことで、アイトラッキングさえ高頻度に更新できるデバイスがあれば、NVIDIAのFoveated Renderingは有効に動作しそうだ。アイトラッカーの方も現時点では、SensoMotoric Instrumentsのデバイスを前提に研究開発が行なわれているが、同程度のスペックを有するアイトラッカーなら対応できる可能性はある。

 今後さらに広い視野角をサポートするようになり、画素ピッチも小さくなって高解像度化することが予想されるHMDにとって、レンダリング品質を維持向上させるには、Foveated Renderingのように“どこかでレンダリングの手を抜く”ソリューションは不可欠になるだろう。如何にGPUの計算パワーが向上するとしても、表示側のHMDの方に伸び代があるのは明らかだからだ。こういったソリューションがGPUメーカーから提示されるのは非常に心強い。最終的に、現在の「Multi-Res Shading」のようにハードウェア側にも何らかの機能を実装してGPUと協調した実装となるのか、あるいはドライバやゲームにインクルードされるライブラリといったソフトウェア的な実装になるのかは分からないが、VRを嗜好するエンドユーザーがNVIDIAのGPUを選択するアドバンテージのひとつとなるだろう。

アカデミックからも次世代のVR発明品が出展

「Phyxel」の解説パネルと解説デモ映像

 昨年に引き続いてアカデミックの分野から、とりわけ日本の大学の研究室からの出展が数多く見受けられた。そのうちでも一見地味な展示ながら、最も目を引いた展示が東京大学の石川渡辺研究室による「Phyxel」だ。「Phyxel」は、1,000FPSものリフレッシュレートを持つプロジェクターから照射された映像を、円板状に多層に積層されたスクリーンに相当する物体に映写して立体像を結ぶという技術だ。スクリーンとなる円盤には一定間隔で高低差が付けられているが、高低差がなければ宝くじの抽選用のルーレットのような印象だ。

1000FPSもの高サイクルで映写できるプロジェクター。一巻地味だが他にない高機能

 会場のデモでは、立体的に見えることを分かりやすく表現するためか、スクリーンとなる円盤には、5ミリ程度の厚みで2階層のものが用意されていたが、プロジェクターの性能的には、スクリーン側の積層の厚みは1ミリやそれ以下でもよく、また積層自体もたった2階層ではなく、それこそ1000階調でも構わないそうだ。仮に高さ1ミリで、角度1度ごとにプロジェクターに向かって階段状に積層していくとすると、36センチの奥行きを持った物体まで立体的に表示できるということになる。階段状の円盤が、平面ディスプレイにおける”ドット”の役割を果たすからだ。

 回転により位置を変えるスクリーンに対して1000FPSもの超高速で明滅する光が当たると、階段状の円盤に自由な形状の像を結んだまま目に残るというのは、現実に具体例がないだけに言葉ではなんとも説明がしにくいが、舞台演出等でスポットライトを点滅させると舞台上の俳優の動きがコマ送りのように見えることから、なんとなく想像できるかもしれない。さらに、人間の目は、蛍光灯のような50Hzや60Hz程度の周波数の光の明滅でさえ知覚することができないから、なんとも不思議に感じるが、こういった装置で立体を浮かび上がらせることが可能になるのだ。

2層構造になっている「Phyxel」のスクリーン側。一般的に想像するスクリーンとは随分と離れた印象だ

 研究室を共同で主宰する渡辺義浩氏によると、「Phyxel」の具体的なユースケースとして、例えば新しい自動車のデザイン案があって、その試作をする場合などを想定していると言う。現在でも、いちいち金型から作らなくても3Dプリンタで試作品を作ることで時間を節約できるようになってきてはいるが、「Phyxel」が実用のものとなれば、試作品を作るための時間は必要なくなり、費用をゼロにすることもできる。たとえデザインに変更が生じたとしても、「Phyxel」なら改めて3Dプリントをしなさなくても、空間中にすぐに修正したデザインの車を浮かび上がらせることができるというメリットもある。

スクリーン側を異なる反射率を持つマテリアルに変更することで、映像ソースには特定の質感を含めずスクリーン側でマテリアルを切り替えることもできる

 金型、3Dプリント、「Phyxel」のどの方法を取っても、デザインそのものを考案するのに必要な時間が変わることはないが、試作によって適切かどうか検証したり、立体として具現化したものを意思決定者と共有して合意形成を行う際に、時間的ロスがないというのは大きなアドバンテージになるだろう。ゲームを始めとするエンターテイメントの世界では、VRディスプレイといえばHMDの話題で持ちきりだが、現実には目の前にないものを、あたかも現実に目の前にあるかのように見せる装置だとVRディスプレイを定義すれば、「Phyxel」は紛れもなくVRディスプレイだ。しかもホログラム映像とは、また完全に異なったアプローチであることが興味深い。こういった大学の研究室でないとできないような研究が、日本のものづくりに役立つことを期待したい。

石川渡辺研究室のもうひとつの出展「ZoeMatrope」の発想の根底にあるものは「Phyxel」と同じだ。ただし、こちらはライトが照射されている時間をコントロールすることでカラーのブレンドができるというデモ

 「SIGGRAPH 2016」のVR展示は、昨年にも増して盛りだくさんで、非常に数が多い。ひとつひとつのブースの規模は小さいが、本稿で紹介したようなハードウェアベンダーの研究開発部門からの出展や、大学等のアカデミックな研究室からの出展は、昨年より増えている印象だ。また、インタラクティブな度合いはコンテンツによってさまざまだが、CGの祭典ということでストーリーテリングを主眼に置いた360度映像コンテンツの出展も多く見受けられた。VRがゲームのみの盛り上がりではなく、CG一般で考えても、かなり関心が高まっているということであろう。

 来場者の方も、まだまだVRコンテンツを見慣れていないといった感があり、どのブースにも少なくとも何人かは列を作っている状態であった。VRを一時の盛り上がりにしないためには、ハードとソフトの両方が、共に進化し続けることが重要だ。せっかく高まったVR熱が冷めないように、今後も継続して、あっと驚くような新技術の登場を望みたい。

【その他のVR出展ブース】
台湾大学の出展。球状のハンドデバイスをHTC Viveで位置をトラッキングさせるだけではなく、火水土風の4属性を球体の温度を変化させて表現
仏教の瞑想をモチーフにしたVR映像。彼らの考える仏教の曼荼羅は、どちらかというとマヤ文明のソルの印象だった
プロダクションIGによる攻殻機動隊のVR映像コンテンツ出展
慶応義塾大学を中心としたメンバーによる出展。遠隔地間の映像をHMDを装着して左右に首を振ることでブレンド比率を変える。会議やパーティに遠隔地からのVR参加する際の臨場感を高める
FinGARは電通大による出展。体験者は指先に装着したフィードバックデバイスからVR空間中で触っている物体の感覚を、モーターの回転滑りとデバイスからの電気刺激で体感できる