ニュース

ゲームエンジンの枠を越えて円熟期を迎えた「UE4」

バーチャルヒューマンはリアルタイム時代に突入!!

3月19日~24日開催

会場:YBCA Theater

Epic GamesのCEO、Tim Sweeney氏

 GDC3日目の21日、Epic Gamesは「State of Unreal」と題して同社の基調講演を行なった。本講演は毎年恒例で、GDC期間中を通じて数多く開催される同社のセッションのさわりをまとめて紹介するものだ。ここ数年、「UE4」へのメジャーバージョンアップ、ライセンスモデルの変更、ライブパフォーマンス、新機能の公開、新作ゲームタイトルのサービス開始といった注目の発表がなされてきた。

 本年は、新情報の発表こそなかったが、Epic Games、そして「UE4」らしい新たなビジュアル表現に関するトピックが紹介されていたので、ここにお伝えする。

 冒頭に登壇した同社CEO、Tim Sweeney氏のスピーチは、例年と比較してかなり短いもので、「Lineage 2: Revolution」や「PUBG Mobile」の好調が伝えられた他には、特にめぼしい話題はなく、早々にスピーカーが次々と入れ替わり立ち替わり登壇するいつものスタイルで進行していった。

 全体的には目新しい情報に乏しいなか、見応えのあるビジュアルで目を引いたトピックが2つある。ひとつは、e-Sportsの「League of Legends World Championship 2017」の北京でのオープニングセレモニーの模様で、次の動画の9分30秒あたりから、「UE4」で描画されたドラゴンと、実際の現場で撮影されている映像がリアルタイムで合成されて会場の大スクリーンに上映されるというものだ。

【Opening Ceremony Finals 2017 World Championship】

 実写とCGの合成は珍しくないと思うかもしれないが、これがリアルタイムに行なわれているというのだから驚きだ。しかもなかなか芸が細かくて、スタジアムの外縁部にとどまっている時や、スタジアムの観客席に沿って飛翔している際に、ちゃんと光源方向を意識した影を落としている。

 実際、現場スタジアムの環境があらかじめ考慮されており、北京ならではのスモッグや雲の状況、予定スケジュールの変更による光量の変化、スタジアムのライトや、それら光源による影色等を織り込んで製作されている。撮影カメラともしっかりと同期が取られており、不自然な印象はない。大観衆を巻き込んでのARもしくはMRということになるのだろうが、イベントの高揚感もあって、会場のボルテージが一挙に上昇している様がうかがえた。

【「League of Legends World Championship 2017」ドラゴン】

 もうひとつは、こちらも同じく中国のバーチャルヒューマンSIRENで、そのフォトリアルさに思わず息を飲んでしまう。こちらもリアルタイムで、女優Bingjie Jiangの外見に、動きはAlexa Leeのパフォーマンスキャプチャによる。

【Siren Real-Time Performance】
【Siren Behind The Scenes】

 バーチャルヒューマンそのものは、何も今に始まった事ではない。2015年公開の「ターミネーター:新起動/ジェニシス」に登場する若い姿のT-800は、残されていたかつてのシュワルツェネッガーの写真と現在の3Dスキャン、ボディ役のスキャンデータから製作されたバーチャルヒューマンが多くのカットで使用されている。また、2011年公開の「猿の惑星: 創世記」からのリブート2作品では、俳優の顔立ちに似せた猿のモデルが製作され、フェイシャルアニメーションも含めて演技はすべてパフォーマンスキャプチャだ。これもバーチャルヒューマンの一種と言えるだろう。これらの作品以外にも、金属質なアンドロイドや特徴的なコスチュームを全身にまとったキャラクターまで含めると、今やバーチャルヒューマンが登場しないSFハリウッド映画は存在しないのではないかと思える。

【SIGGRAPH2017公開のMIKE】

 では、MIKEやSIRENといった「UE4」のバーチャルヒューマンは何が新しいのか。ここまで来たかと思うのは、それが自然な人間の姿でありながら、リアルタイムで出力されることの1点だ。もはや、フォトリアルな出力を得るために長時間レンダリングする必要はないし、大げさなキャプチャ環境も必須ではない。「UE4」でレンダリングされた「ローグ・ワン/スター・ウォーズ・ストーリー」のK-2SOの事例ように、実写との絡みがあるなら、コンポジットすればいいだけで、ことの本質はそこにはない。フォトリアルを得るためには、計算コストが大きい代わりに、より真面目にシミュレートするアルゴリズムでレンダリングしたほうが良好な結果が得られるという常識が、完全に覆された格好だ。

【ミスiD 2018 saya 050-2 /132】

 SIRENと対比する好例に、日本で製作されたバーチャルヒューマンSAYAが存在する。ここ2年の間、いわゆる不気味の谷を越えたとして話題になったキャラクターだが、ゴールを「現実の人間と見まごうほどにフォトリアルなCGキャラクター」の具現化だとすると、残念なからSIRENのほうが出来がいい。アニメーションは、どちらもパフォーマンスキャプチャだから、両者の違いは、モデルとレンダリングの違いということになる。

 レンダリングに関しては、SAYAはV-RAYをレンダラーとして使用している。もちろんV-RAYもGIやPBRをサポートしており、フォトリアルな質感を得るために、SAYAもPBRに則ってマテリアル設定や各種マップが適用されている。

 人間のフォトリアルな表現といえば、皮下に透過した光の拡散や、ヘアの表現に目がいく。このあたりはどちらも秀逸だが、データの作りを見るとSIRENのほうがずっと単純で、ツールやUE4のフェイクの機能を有効に活用している。アーティスティックな手法で手を加えられたSAYAに対して、SIRENは、UE4がサポートする機能の効果を最大化するため、アーティスティックな手法を極力排し、コントロール用のマップに至るまで徹底的に成分を分解している。

【SIRENのディティール】

 マテリアルやマップとして落としこまれる部分を含め、大きくモデルの造形に影響を与えているのは、そもそものデータソースだ。SIRENがフォトグラメトリを最大限活用して、マイクロジオメトリに至るまで現実の人間を高い解像度でスキャンしているのに対し、SAYAは伝統的な手作りだ。

 フォトリアルな人間がゴールにあるのなら、仮想のキャラクターだからといって、手作りしなければならないという法はない。事実、手描きによるキャラクターデザインありき、プロトタイプモデル製作先行の「ファイナルファンタジーXV」でも、顔の造形については、リアリティを向上させるために、キャラクターに似たアクターをオーディションで選抜して、後付けでスキャンしている。

【Next-Gen Digital Human Performance by Andy Serkis】

 筆者は、MIKEやANDYのような西洋人男性の濃い顔立ちはともかく、SIRENを見るまで東アジア人女性の薄い顔立ちはスキャンに向かないと決めつけていた。だから「龍が如く」シリーズのように濃い顔立ちのキャラクターが登場するコンテンツでないとダメなんだろうな、と深く信じ込んでいたが、実際そんなことはなかった。テイスト云々は関係なく、フォトリアルという基準は明確なゴールになる。そこに向かう方法論に正邪はなく、最も効果的な手法を取るのがいいに決まっている。

 筆者は、SAYAを否定しているのではない。むしろ超が5つ付くほどリアルな造形だと思う。ただし、手作りだからといって尊ぶことはしない。それは伝統工芸の評価基準であって、モダンなエンターテイメントのそれではない。消費する側の大衆にとって、長い期間をかけて努力して作ったかどうかはどうでもいいことで、別の技術と技能でより良い結果が生まれるなら、そのほうがいいに決まっている。

【3Lateral’s Osiris Black Performed by Andy Serkis】

 さて、近い将来、このリアルタイムなバチャールヒューマンは、何を置き換えていくだろうか。さっと思いつくところでは、テレビの局アナが考えられる。アナウンサーがプロフェッショナルであればあるほど、報道性の強い硬派な番組であればあるほど、むしろ原稿読みに、ある種の定型化と没個性化が認められる。本人による事前音読データの取得には事欠かないのだから、大量にサンプリングした音素を用いて、ライブでは原稿データを入力して音声合成で読み上げさせ、パフォーマンスを行なう代役が音に合わせて演技してもいいし、その反対に代役の音声を認識して本人の音素に置き換えて出力してもいいだろう。後者のほうがより自然な結果が得られるように思えるが、若干の遅延が予想される。もっとも、厳密にリアルタイムである必要はないだろうから、ミリ秒から秒単位であっても、わずかな遅延は許容されるだろう。

 そこまでするなら、代役によるライブパフォーマンスなしで、ライブラリ化したモーションとリップシンクでいいじゃないか、という話もあるだろうが、これはライブ感との兼ね合いだと思う。アナウンサーが自分のコメントを差し挟まない、純粋なニュースの読み上げだけで構成される番組であれば、ライブラリ化されたアニメーションであっても、フェイシャルの不自然さが目立たないかもしれない。

 このように、ひとたびバーチャル化してしまえば、怪我や病気、出産や育児、そして究極的には死去という不意の事態が起こっても、バーチャルヒューマンとパフォーマーが無事に代役を務めてくれる期待がある。本人に肖像の利用料は支払うとしても、夜間に待機させておく必要はなくなるから、働き方の改善とコストダウンに繋がるだろう。

 さらに一歩進んで、芸能タレントをキャラクターとして捉えれば、彼らの出演をバーチャルヒューマンに置き換えることも可能だろう。もっとも、キャラクター性のうち、声の抑揚や仕草のクセ、本人ならではの受け答えの妙味といった部分を含めると、原稿の読み上げとは異なり、代役では文字通り役者不足だ。現実的なところでは、過密スケジュールの関係で出演できないケースでもバーチャルが出演可能になる、といったところだろう。ロケ隊を出して多元中継をする必要もない。衣装もメイクもいらない。実際にはジャージ姿でいたって構わない。それでも番組は無事進行する。可能性としては、そんなところだろう。

【The Making of Next-Gen Digital Humans with Andy Serkis】

 では、バーチャルヒューマン級の品質のキャラクターは、ゲームには登場しないのだろうか。残念ながら、このクオリティレベルのキャラクターの登場を近い将来に期待するのは無理だろう。単純にコンピューティングパワーが足りないのだ。リアルタイム実行しているハードウェアのスペックは明確にされなかったが、「スター・ウォーズ」のリアルタイムレイトレーシングのデモと同様、NVIDIAのDGX STATIONやDGX-1クラスのハードウェアが必要ではないかと思われる。ネットワークを介して、サーバー側でレンダリング後に映像ストリームを返すストリーミングゲームなら実現性はあると思うが、低レイテンシが重視されるようなアクション性の高いジャンルのゲームには不適当だろう。近い将来で、最も可能性が高いのは、「サマーレッスン」のようなVRゲームだろうか。

 本年のGDCのEpic Gamesは、UEがバージョン4世代に移行して以来、最もトピックに乏しかったように思える。それだけ「UE4」が枯れて、円熟期に入ったということなのだろう。とはいえ、最近のトレンドに乗った、いくつかのトピックの現況について知ることができた。GDCで大きな発表がなされないということは、今夏のSIGGRAPHやGamescomにずれ込んだという可能性もある。だとすると、ちょっとお預けを食らった格好だが、引き続き2018年の動向に注目していきたい。