【特別企画】

【特別連載】プレイステーション 4のゲーム配信で、PC使ってワンランク上のクオリティを目指す!

【連載第4回】意外に簡単? バーチャルYouTuberになるためには??

 前回まででPCを使ったゲームの配信についてご紹介してきたので、PCを使用しての実況配信の基本的な部分についてはおわかりいただけたと思う。

 じゃ、もう後は皆さんのセンスで実況配信を……という話しではなく、ご存じのように、いまは「バーチャルYouTuber」ブーム。キズナアイやミライアカリ、電脳少女シロといった有名どころを初めとして、今年になってからかなり多くのバーチャルYouTuberが登場してきた。このようなブームもあってか、ゲーム配信をしている人の中でも、自分の顔を出さずにアバターを使った配信をしたいという人も多いだろう。実はここのところ、バーチャルYouTuberへのハードルはグッと下がってきたのだ。そこで今回はアバターを使って配信する方法についてご紹介していこう。

【第3回目のおさらい】

・ゲームの実況配信を行なうためにはどんな機器が必要か。

・実況配信に必要なハードとソフトの設定を学ぶ。

□【連載第3回】いよいよPCを使って、より美しい画像クオリティで配信を行なってみる!
https://game.watch.impress.co.jp/docs/kikaku/1156707.html

ちなみに今回の企画で配信のために使用するノートPC「STYLE-14FH054-i7-UHSS [Windows 10 Home]」。基本構成はCPUがCore i7-8550U、GPUがインテル UHD グラフィックス 620、メモリは8GB、SSD 240GB、14型の非光沢カラー液晶(1,920×1,080ドット表示)の液晶を搭載した、価格も94,980円(税別)の手頃なモデルだ。これくらいのPCでもワンランク上の配信を目指すことはできる

アバターを使って配信してみよう

 アバターを使って配信するときには「FaceRig」というアプリを使うと便利だ。「FaceRig」を利用している人もかなり多いのでご存じの方もいるだろう。リアルタイムにトラッキングしたりリップシンクするなんて、マシンパワーが必要そう……と思う人もいるかもしれないが、今回使用しているノートPC「STYLE-14FH054-i7-UHSS [Windows 10 Home]」でもラクラクと動いてくれる。PS4から画像を取り込みリアルタイムで処理を行ない、、「FaceRig」でキャラクターを動かしても、特に問題なく動作していた。

 「FaceRig」だが、Steamで配信されており、ここからダウンロードして購入することになる。価格は1,480円だ。Steamのトップ画面から「FaceRig」と入れて検索しすれば購入ページが表示されるので、ダウンロードしよう。「FaceRig」にはデフォルトでアライグマのアバターなどが用意されているが、アニメチックな絵柄を利用したいなら、2Dキャラクターをアニメーションさせることができる「Live2D」のモジュールを動かせる「Live2D Module」(300円)が必要だ。こちらもSteamの「FaceRig」ページからインストールできるので、合わせてインストールしておこう。

Steamのトップ画面から「FaceRig」を検索してダウンロードする
「FaceRig」のストア画面で「Live2D Module」をインストールする

 Steamから「FaceRig」をインストールしたあと「FaceRig」のアイコンをダブルクリックすると、初回起動時のみさまざまなランタイムをインストールするので起動までに時間がかかる。そして画面が起動したら左カラムにあるメニューから「LAUNCH」を選び、「FaceRig」を起動する。

「FaceRig」のライブラリ画面から起動する
左カラムの「LAUNCH」を選んでスタート

 起動したらメニューなどの表記を日本語に変更する。画面上部にある「UI+」のアイコンをクリックして「Advanced UI(アドバンスUI)」に変更する。続いて右に表示されたメニューの下から2番目、歯車アイコンの「General Options(一般オプション)」を選択する。

 そして表示されるメニューにある「Preferences」から1番右にある「Language」をクリック。「日本語」を選ぶと自動的に再起動してメニューを日本語化できる。

メニュー上部の「UI+」を選んで「Advanced UI」に変更し、右メニューから「General Options」を選択
メニューの「Language」から「日本語」を選ぶ

プリインストールされたアバターを動かしてみる

 「FaceRig」の特徴は、顔のパーツを読み込んでそれと同じようにアバターを動かせるところにある。カメラの前にいる人が目を閉じればアバターも閉じるし、口を開けると同様に動く。頭を左右に振ってみると、アバターも同じ動きをする。用意されているのは、3Dモデルで47種類(その中でカラーを選べる種類もある)、Live2D Moduleを入れた場合は、それに加えてアニメ系のアバターが13種類利用できる。

デフォルトで用意されている3D系のアバター
こちらはLive2Dを使ったアニメ系のアバター

 アバターを決めたら「フェイストラッキング機能」で自分の画像とリンクさせよう。パソコンにWebカメラが付いている場合は、それを使ってのトラッキングが可能だ。Webカメラが付いているのに自分の画像が表示されていない場合は、上部メニューの左から3番目のアイコン「画像を画像モードに切り替え」ボタンをクリックすると表示される。

 今のままだとまだWebカメラの画像が表示されているだけなので、左から5番目の「トラッキングを開始する」ボタンをクリックすると、Webカメラの画像に写されている顔にドットが表示されて、輪郭などの認識が自動的に始まる。

 またこのほか、パソコンにマイクが接続されていれば、マイクと連動して「リップシンク機能」を使うことができる。いまのノートパソコンであれば、たいていの場合はWebカメラとマイクがディスプレイ上部などに取り付けられているだろう。それを利用すればよい。今回は第3回で取り上げたようにマイクなども接続しているので、そこから収録した音声でリップシンクを行なってみた。

Webカメラの画像が「FaceRig」の画面内に表示させる
「トラッキングに切り替え」ボタンをクリックしてトラッキングを開始する

 どうだろうか? 顔を認識して、3Dのアバターが動くようになっただろうか。なおここで注意したいのが、メガネをしていると目の動きをトレースしてくれないということ。完全に認識しないというわけではないのだが、しっかりと再現してくれるためには眼鏡を外した方がよい。目の動きまで同期したいのであれば、眼鏡を外さなければいけないことを頭にとどめてこう。

トラッキングを調整する

 フェイストラッキング機能やリップシンク機能がうまく動いていない、あるいは認識できていない場合は「自動調整機能」で調整することができる。上部のメニュー中央にある「表情の早い自動調整」を選ぼう。同様に頭の位置についても調整が可能なので、合ってないと感じる場合は「頭ポーズの早い自動調整」を選べばよい。

 なおリップシンク機能だが、表情に追従させたり、音に合わせて動かすように設定できる。上部のメニュー中央にある口のアイコン(オーディオベースのリップシンクに切り替え)をクリックすると、白く表示している場合はオーディオ(マイク音声)、表示されていない場合は口の動きに合わせてアバターを操作できる。

画面上部のメニュー中央にあるアイコンで自動調整をする
頭の位置を調整する

キャラクターに表情を付ける

 これまで紹介してきたように「FaceRig」では自分の表情に合わせてアバターを操作できるのだが、このほかに「特殊アクション」をさせることができる。これは特定のキーを押すと舌を出したり、キャラクターに特殊アクションを起こさせることができるというものだ。キャラクターを回転させたり、位置を動かすのもキーで対応できる。

 どのキーを押すとどのようなアクションを起こすかについては、「一般オプション」の「お気に入り設定」にある「キーバインド」タブで設定する。これを有効にするには右メニューの「アバター」アイコンから「カスタム動作を有効にしてください」をオンにする必要があるので、こちらも合わせて設定しておくといいだろう。

キャラクターに特殊な表情をさせるときに使うキーを「キーバインド」で設定する
「アバター」アイコンから「カスタム動作を有効にしてください」をオンにする
「S」キーを押すとキャラクターが舌を出す

ここまでで「FaceRig」の使い方はおわかりいただけただろう。「バーチャルYouTubeは思ったより手軽に実現できるのだ!」。次回はいよいよアバターを使っての配信にチャレンジしてみたい。君はバーチャルYouTuberの夢を見るか?

【ゲーム映像の配信について】

 映像配信に関しては、無制限にゲーム映像の配信を行なって良いというわけではない。ゲーム制作者の権利に配慮する必要があり、YouTube、ニコニコ動画、Twitch、OPENREC.tvは、それぞれゲーム会社などと取り決めを行なっているので、配信前に、事前に確認して配信を行なえるタイトルや範囲などを確認しておくと良いだろう。