ニュース
「SIGGRAPH」にリアルタイムグラフィクスが集結
本年の「Real-Time Live! 」アワード発表会が開催
2016年7月28日 15:49
「SIGGRAPH 2016」も3日目となる7月26日、「Real-Time Live!」と銘打ったアワードイベントが行なわれた。アワードの評価基準は、“リアルタイムで処理されるグラフィクス”であること、“新しい技術を採用したインタラクティブなアプリケーション”であることが軸で、業界内のトップタレントによって最優秀作品が選出される。なお、昨年の最優秀作品には、Epic Gamesの「A Boy and His Kite」が選ばれている。
本イベントは、ノミネートされた作品の開発者自身によって、“リアルタイム”にデモが行なわれるのが醍醐味だ。“リアルタイム”なコンテンツを、あらかじめ完璧に準備したムービーやスライドで見せてしまっては、作品のアドバンテージが伝わらないということだろう。普段の環境と異なり、特設のイベント会場ということで、実際、いくつもハプニングが起こってデモが中断することもしばしばで、登壇者が困惑する場面も見受けられたが、やはりライブで見られるというのは大きい。
本稿では、イベントでデモを行なった13のノミネート作品の中から、ゲームに関連しており特に目を引いた作品のデモ内容を紹介する。
コンテンツの魅力とリンクしたビジュアルで魅せるゲームタイトル
「Real-Time Technologies of FINAL FANTASY XV Battles」と題してデモが行なわれたのは、「ファイナルファンタジーXV」だ。登壇したスクウェア・エニックスの三宅陽一郎氏がスピーチを、長谷川勇氏はPCに向かってオペレーションを行なうという役割分担で、実際に「ファイナルファンタジーXV」の画面を見せながらプレゼンテーションを行なった。まず、ファンタジー世界の中で変化する天候、コンバットでのモンスターAI、アニメーション制御、魔法効果のフィールドへの波及といった、最新世代のゲームならではの状況に応じてリアルタイムに変化する要素を次々と見せていった。
「ファイナルファンタジーXV」はリニアワークフローを採用しており、エフェクトとフィールド環境は、どんな時も天候の変化の影響を受けるようになっている。三宅氏によると、「ファイナルファンタジーXV」は、単純に“ゲーム”を作っているだけではなく、あたかもそこに実在するようなファンタジー“ワールド”を作っているとのことだった。ゲームは、ワールドのの土台の上に成立しており、AIとエフェクトが仕込まれた世界の中のあらゆる要素は、相互に作用するように構成されている。
「ファイナルファンタジーXV」の最終ゴールは、より幅広くより深い世界にしていくことだとし、会場に詰めかけた聴衆に「ファイナルファンタジーXV」世界への参加を呼びかけて、デモの最後を締めくくった。
「Character Shading of Uncharted 4」と題したデモを行なったのは、Naughty DogのYibing Jiang氏とFrank Tzeng氏の両名だ。カットシーンのシェーディングオリティがテーマで、プレーヤーが操作できるゲームプレイから、そのままシームレスにカメラがキャラクターに寄ると、皮膚の質感やヘアといったディティールがダイナミックに増加する様子を見ることができた。「Uncharted 4」では、カットシーンを含めて間違いなく全編リアルタイムでシェーディングされていることがわかる。
純粋にビジュアルとしてのクオリティのみを追求するなら、必ずしもリアルタイムにこだわる必要は無い。Jiang氏は、このことについて、プレーヤーのゲーム体験を阻害しないように、ゲームプレイとカットシーンをシームレスにつなげることを優先していると説明した。
このほかにも、キャラクターのジャケットの肩の部分に雪が降り積もっている状態の表現を見せてくれた。積もっている雪の量は、ブレンド比率を変化させるパラメータを操作するとダイナミックに変化していく。細かい方法論については言及がなかったため具体的にどういう手法で実現しているかはわからなかったが、どのパラメータ階調でも適切に表現できているように感じられたことから、シェーダーが参照するデータを、十分に調整しているように見受けられた。
PlasticのMichal Staniszewski氏は、PlayStation VRの開発実機を用いて、現在開発中の「Bound」のデモを行なった。プロシージャルなゲーム内の空間が幻想的に崩壊する様や、プレーヤーキャラクターを操作して吊り橋状の高所をバランスを取りながら進んでいく様子を見ることができた。ビジュアル的な評価は、好みが分かれるところだろうが、PS4のみならずプレイステーションVR対応となったことは、本作にとってプラスだろう。VR HMD向きのゲームデザインだと感じられた。
ただし、ゲームプレイはファーストパーソン視点とはならないようで、プレイヤー自身の周囲を見渡すヘッドトラッキング動作と、ゲーム内のプレイヤーキャラクターやゲームカメラとの関係がどうなっているのかをプレゼンテーションから掴むことはできなかった。その辺りは、機会があれば実際に体験して確認してみたい。
進化を続ける新世代のゲームエンジン
Digital Legends EntertainmentのUnai Landa氏とSergi Royo氏は、「The Afterpulse: State-of-the-Art Rendering on Mobile GPUs」と題して、スマートフォン向けFPS「Afterpulse」の「Karisma engine」のデモンストレーションを行なった。
Karisma engineは、Digital Legends Entertainmentが外部のソリューションを一切用いずに、完全にインハウスで作成した3Dグラフィクス描画エンジンだ。「Karisma engine」の機能は非常に素晴らしく、モダンな他のプラットフォーム用3Dエンジンと比較しても遜色がない。Royo氏がiPhoneをひたすら集中して操作して、直接光、間接光のライトの状態や、ノーマル、アンビエントオクルージョン、デプスといった要素をデバッグモードで次々と切り替えながら、一通りのモダンな機能を見せてくれた。
AMDの“CAPSAICIN”イベントでも披露されていたUnity Technologysのデモ映像「Adam」もノミネートされていた。登壇したVeselin Efremov氏とZdravko Pavlov氏は、もうすっかりおなじみとなっている突然機械の姿となってしまう物語を披露した。3月の「GDC」での初披露を経て6月の「Unite Europe」でフルバーションを披露したものだ。
この技術デモは、「Unity 5.4」が高速にリッチな物理ベースのグラフィクスを描画できることをアピールするために作成されたもので、序盤にメインキャラクター(作中で語られることはないが彼が「Adam」だと推測される)を拘束していた装置のチューブのアニメーションにはNext LimitのCaronteFXが使用されている。アニメーションは、モーションキャプチャしたアクターの演技を使っているが、外界へと出た後の無数の機械人間たちの群衆シーンでは、機械人間たちのアニメーションは自動的に生成されている。
この「Unity」の技術デモ映像は、この「Adam」が最新のものとなる。少し古いものとなるが、「Unity5」世代のデモには「Adam」の他にも「THE BLACKSMITH」や「Courtyard」がある。いずれも「Unity」公式サイトから視聴可能だ。
「From Previs to Final in Five minutes: A Breakthrough in Live Performance Capture」と題したデモを行なったのは、Ninja TheoryのTameem Antoniades氏とEpic GamesのMichael F. Gay氏らによる「Hellblade」のカットシーン製作チームだ。今回の「SIGGRAPH」では、「GDC」のときとは、また別のシークェンスでライブパフォーマンスを行ってくれた。
今回のシークェンスは、女戦士セヌアは、鏡に映し出された“自分自身の姿”と対峙する。鏡の中の彼女は、本物の彼女を行く手を阻み、鏡から抜け出して、セヌアの前進を思いとどまらせようとするが、本物の彼女は果敢に鏡の中に進んで行く、といったプロットで進行する。
前回のパフォーマンスでは、センサー式のボディモーションキャプチャとフェイシャルキャプチャで、アクトレスの演技のみをライブキャプチャしていたのに対して、今回のパフォーマンスでは、光学式のキャプチャシステムを利用して、アクトレスのみならずカメラもキャプチャして反映させていた。また「Unreal Engine」の新しいカットシーン作成環境であるシーケンサーを活用して、あらかじめキャプチャしておいた“鏡の中の姿“の演技を、アクトレスの前に設置されたモニタに再生して、演技のタイミング取りを行っていたことも興味深かった。
本編は、Ninja Theoryによって、メイキングと共に編集された状態で、すでに動画がアップロードされているので、ぜひご覧いただきたい。
本イベントにノミネートされた作品は、ビジュアル表現として、どの作品もそれぞれのプラットフォームで一歩も二歩も抜きん出ている。そんな中で本年の最優秀作品には、Ninja TheoryとEpic Gamesのライブパフォーマンスキャプチャが選ばれた。描画のみならずライブキャプチャというコンテンツ製作過程の一部ですらリアルタイムにしてしまったところが、他の作品よりアワードの主旨に合致していると評価されたのだろう。事実、本年3月のGDCのEpic Gamesのセッションで本作品を初めて見たとき、強烈なサプライズを受けたものだ。
実際のところは、ゲームのカットシーンの場合、あらかじめ記録した状態にしておくことができるため、リアルタイムキャプチャにする意義はないのだが、将来的に、例えばユーザー自身のアクションをキャプチャしてマルチプレーヤーゲームにリアルタイム反映させたり、劇場で上演される演劇や仮想キャラクターのライブパフォーマンスといった分野に採用されたりすると、また新たな体験となるだろう。リアルタイム技術の開発が、そういった新しいエンターテイメント体験につながっていくことを期待したい。