【Watch記事検索】
最新ニュース
【11月30日】
【11月29日】
【11月28日】
【11月27日】
【11月26日】

アビッドテクノロジー、「SOFTIMAGE/XSI」ユーザカンファレンスを開催
「ハウルの動く城」と「Half-Life 2」のリアルタイム演技システムの秘密とは!?

12月13日開催

会場:時事会館ホール

 アビッドテクノロジー株式会社は、12月13日、3Dグラフィックスオーサリングソフト「SOFTIMAGE/XSI」のユーザーカンファレンスを開催した。

 SOFTIMAGE/XSIは、個人からプロフェッショナルまでが映像制作現場やゲーム開発現場で、幅広い活用がなされているソフトウェアだ。例えば最近のゲーム作品では「鬼武者3」や「Half-Life2」、映像作品では「アップルシード」や「ハウルの動く城」の制作現場で導入事例がある。

 今回のカンファレンスでは、SOFTIMAGE/XSIの具体的な活用事例としてスタジオジブリが「ハウルの動く城」を、VALVE SOFTWAREが「Half-Life2」を題材に講演を行なった。

 ゲーム作品、映像作品、それぞれにおいて最も話題となっている作品に関連した講演だっただけに、会場となった時事会館ホールは満席状態となり、最終的には立ち見も出る状況となった。


■ スタジオジブリ「いかにして、ハウルの城は動いたか」

スタジオジブリ、CG部次長片塰満則氏。「うちはSOFTIMAGE/XSI一筋。浮気はしないと決めた」という発言に会場は大爆笑。冗談とはいえ、業界に与える影響は少なくないだろう
 今回もっとも注目されたスタジオジブリの講演ではCG部次長片塰満則氏が壇上に立ち、今話題のアニメ映画作品「ハウルの動く城」をCG技術を使ってどのように制作していったかのプロセスを語った。まず、最初に語られたのは、劇中で最も印象的なキャラクタ(建造物)である、足の付いた動き回る城、「ハウルの城」をどのように動かしたかについて。

 ジブリが目指したのは、「ダイナミックな映像美」と「CGらしさが出しゃばってこないセルアニメらしさ」という相反する要素だったそうで、その実験には半年ほどが費やされたという。

 テストの第一段階は、宮崎駿監督の描いたラフスケッチを動かすことから始まった。最初のステップは、紙に描かれた二次元の監督の城のスケッチを、城の各パーツ別に切り出していき、これをテクスチャとしてスプライト的な、2DCGベースでパーツ別に動きを加えるというものであった。これに好感触を得たスタッフは、スケッチから切り出したパーツを複数個の球体を連結したようなモデルにマッピングし、3D化した動きに挑戦していったという。

 最終的な作品ではほぼ完全な3D的なジオメトリ構造を持った城も作られたが、その場合でも、視点から見えていない部分は作られていない。また、城のテクスチャやディテール部分の陰影処理は特別なシェーダーでもなんでもなく、基本的にはデザイナの手描きによるものだそうで、基本コンセプト的には、最初の実験の時から変わっていない。

 片塰氏は、この手法は、基本的にはかつてのジブリ作品である「風の谷のナウシカ」の巨大な昆虫型生物「王蟲」で用いた多間接な節表現と似ていると表現した。なるほど、ジブリの場合、CGの活用はあくまで動きを付けるための支援ツールと言う位置付けなのだ。

 そして、一見、フルCGにも思える足の複雑な動きは、確かにモデリングした3D-CGを動かしたものをベースにはしているが、これに関しては後からデザイナーがこのCGベースの動きをトレースして手描きらしくてアニメらしい、やや大げさな動きに描き直しているのだという。

 この他、風に吹かれる旗の動き、骨組みのみでできた地球儀の回転などについての実現方法についても語られた。

 旗の動きについてはSOFTIMAGE/XSIのクロスシミュレーション(布の動きを物理的にシミュレーションする機能)を活用したそうだが、その布の明暗の出方の陰影処理についてはちょっとした独自の工夫が加えられた。それは、通常のセルシェーダー(トゥーンシェイダー)にプラスして、籏を構成する面の法線ベクトルを、陰影処理の際に強制的に均一化する処理を与え、結果としてワザといい加減な明暗に塗り分けられるようなカスタムシェーダーが用いられた。つまり、手塗りらしい大ざっぱな塗り分けが出るセルシェーダーを作ったのだ。

 地球儀については、完全に3Dモデリングした球体を回転させているだけではなく、モデルに手描き風の微細な歪みをわざと与え、その回転アニメーションにもアニメ的な誇張が加えられるように動的なモデル変形的な処理が行なわれていることを明らかにした。

 表現はあくまで手描きにこだわり、動きについてもセルアニメ的手法にこだわったことで、背景や人物などのその他の手描きのセルアニメブロックとの融合がうまくいったというわけだ。

 ジブリ側の意向により、ここでは講演で紹介された一切の映像素材を見せることができないが、興味を持たれた方は、ぜひとも劇場に足を運んでここまで記した点について意識してみてほしい。一見、手描きにしか見えない部分にはCGが活用され、CGっぽく見えるところが、実は完全に手描きだったりする…。そうした「ハウル」の映像の秘密を自分なりに探しながら見れば一層楽しく鑑賞できるはずだ。


■ Valve Software「『Half-Life 2』インタラクティヴ環境への挑戦」

Valve SoftwareのコンテンツリードデザイナーのBill Van Buren氏
講演の途中、同一シーンにてプレーヤーにどんな動きをさせても、そのシーンに登場する各キャラクタの演技が相対的に成り立っている様をデモンストレーションしてみせた
 続く「Half-Life 2」の講演では、開発元Valve SoftwareのコンテンツリードデザイナーのBill Van Buren氏が、「Half-Life 2」におけるインタラクティヴムービーシーン実現のテクニックの解説と、モーションキャプチャーしたデータを用いないフェイシャルアニメーションの可能性について言及した。具体的なゲームグラフィックスの実装の話やGPU活用における技術的な解説がなかったのは、講演者がリードデザイナーであったこと、そして聴講者の多くがプログラマではなく映像制作に携わるデザイナーが多くなることに配慮した結果だと思われる。

 さて、「Half-Life 2」では、ゲーム中に挿入される全てのカットシーン(イベントシーン)が、リアルタイムグラフィックスで実現されるだけでなく、その中をプレーヤーが自分の意志で動き回れるという特徴がある。

 一般的なゲームのように、カットシーンのたびに視界の自由権がシステムに奪われるのは、没入感の強くなる一人称シューティング(FPS)においては適さないと判断したVALVEは、プレーヤーの操作権がいついかなる時も奪われないコンセプトの採用を決意したのだそうだ。

 このコンセプトを実現するためには、プレーヤーがカメラマンとなって視界をどんなにわがままに動かしても常に高いクオリティでキャラクタ達の演技が続行されるようにする必要がある。そこで、Valveは、通常のゲームのカットシーンのような決めうちの演技をさせるのではなく、プレーヤーが行なう動作に対して柔軟にインタラクティヴな反応ができるシステムの開発に乗り出した。

 そして様々な試行錯誤の結果、ムービーシーンにおいても全てのキャラクタが基本的なAIに従って演技をするシステムの採用を決める。まず、プレーヤーとの位置関係を見て柔軟な移動が出来るAIナビゲーションシステムを実装。これに続き、演技に必要な多彩なアクションをライブラリ化して、実際の演技では、このAIナビゲーションと各アクションを組み合わせて行なわせるようにした。

 ただし、それぞれのアクションからアクションへの移行、あるいは複数のアクションのオーバーラップは、一連の動きが滑らかかつ自然に繋がって見えるようにアクションのブレンディングが行なえるように設計。不自然なカクカクとしたゲームっぽい動きを徹底的に排除した。

 基本的な演技アクションの指定についても、「前後左右どの方向に向く」のではなく、「そのシーンにいる誰に向く」という基準で行ない、その演技が、どこから見ても、そして演技対象のキャラクタ達がそれぞれどこにいようとも不自然にならないようになっている。

皮膚の質感表現には最近流行となりつつあるスキンシェーダ的なものは用いられていない。その代わり、シワの表現には法線マッピング(バンプマッピング)が活用されている 人間が喋る際の動きはライブラリ化されており、それらを組み合わせて演技させている
 フェイシャル(表情)アニメーションについても、「Half-Life 2」では、最近の映画制作におけるCG活用で採用例が多くなっている表情モーションキャプチャは使っておらず、算術的な合成モーションによって行なっている。これについてはカリフォルニア医大の精神医学教授であり、心理学の分野でも著名なPaul Ekman博士の理論を実装することで実現したという。

 理論の詳細は省くが、簡単に言うと人間の表情はある程度限定された顔上の筋肉の動きの組み合わせだけで表現できるという理論だ。ゲーム中のカットシーンでは物語の流れや台詞に込められた意味に適合するように、驚き何%、悦び何%といった微妙な表情付けが各キャラクタに対して行なえるようになっている。それぞれの表情の移り変わりもキーフレームアニメーション的に自動的に滑らかに繋がれる。

【フェイシャルモーション】
台詞をしゃべりながら微妙な表情変化を見せる「Half-Life 2」のキャラクタ達。これらがすべて算術的なフェイシャルモーションというのはなかなか興味深い

 目の動きについても眼球を対象者基準の動きができるようなエンジンによって制御され、プレーヤーを凝視したり、あるいはふっと目をそらしたりと言った微妙な表現がリアルタイム制御されている。なお、眼球に見える「きらめき」は書き割りではなくリアルタイムシェーダーによるもので、シーン内の代表光源をリアルタイムにハイライトとして描き込んでいる。これにより顔の向きや、プレーヤー(カメラ)が移動するのに応じてきらめきの位置が変わるため、見た目にも「生きた目」となって見えるわけだ。

【目の動き】
男性キャラはプレーヤーを凝視し、女性キャラはこの男性を呆れた感じで見つめている あきれ顔の女性。娘であるこの女性を温かく見守る初老の男性。このシステムを活用するだけでリアルタイムレンダリングベースのフルCG映画作品なども実現出来るかもしれない
タイトーAM事業本部AM開発部開発チームディレクターの山路哲由氏(提供:タイトー)
ビデオカードはスライドの右上にあるロゴからもわかるようにATI製のものになるようだ。OSは既に報じられているようにWindows XPの組み込み機器版であるWindows XP Embeddedが採用される
 口の動きは音声ファイルから生成したリップシンク(音声に合わせた口の動きをする)アニメーションによって付けられる。単なるクチパクアニメとは違うリアリティが出てくるのはもちろん、いかなる言語に吹き替えを行なっても、口の動きがその発音に合ったものにできるというメリットもある。

 こうした徹底したリアルタイムな演技システムの実装は簡単なことではなかったそうだが、エンジンとして一度作り込んでしまうと、以降のカットシーンの制作は、演技指導的なものをスクリプト化したものを作成していくだけで実現できるようになり、制作における負荷は大部軽減されたという。

 現在、Valve側は「Valve Source SDK V1.」を、アビッド側は「SoftImage/XSI EXP for HalfLife2」を無償リリースしており、「Half-Life 2」のエンジンを使った作品作りを非常に低コストで行なえる環境が整備されつつある(非商業用途に限るようだが)。ゲームプレイだけでは飽き足らないユーザーはこれを機に挑戦してみるといいだろう。

 さて、講演の最後には、既に報じられてご存じの方も多いと思うが、アーケード版の「Half-Life 2」についての短いアナウンスがタイトーAM事業本部AM開発部開発チーム・ディレクターの山路哲由氏により行なわれた。しかし、残念ながら開発中の映像の公開はなく、タイトーが開発したPCベースのアーケードシステムボード「TYPE-X」上で動作するものになるという説明が行なわれたのみであった。

 なお、Valveとのコラボレーションの企画は意外にも最近立ち上がったようで、2004年、今年のGDCにてプライベートに行なわれたValveとタイトーのミーティングがきっかけとなったとのこと。

□アビッドテクノロジーのホームページ
http://www.avid.co.jp/
□「SOFTIMAGE/XSI」のホームページ
http://www.softimage.jp/
□「XSI ユーザカンファレンス 2004」のページ
http://www.softimage.jp/event/XSI_UC_04/index.htm
□関連情報
【11月1日】タイトー、「Half-Life 2」をアーケードゲーム化
独自基板「Type X」でリアルタイム対戦を実現
http://game.watch.impress.co.jp/docs/20041101/hl2.htm

(2004年12月15日)

[Reported by トライゼット西川善司]


Q&A、ゲームの攻略などに関する質問はお受けしておりません
また、弊誌に掲載された写真、文章の無許諾での転載、使用に関しましては一切お断わりいたします

ウォッチ編集部内GAME Watch担当game-watch@impress.co.jp

Copyright (C) 2004 Impress Corporation, an Impress Group company. All rights reserved.