もうだいぶ前の話だけど、3月にあったGDCのセッション「Next-Gen Characters:From Facial Scans to Facial Animation」の情報。
スライド資料はこちらからダウンロードできる。
3次元スキャナの性能が向上して、簡単にリアルなモデリングデータを取得できるようになったけど、それにどうリグを入れてアニメーションさせるかが問題。
単に基本的な顔をスキャンして、表情ごとに形状を変化させるだけではダメで、表情それぞれでテクスチャを変える必要もある。顔のデータの変形だけでは、血流量の変化などによる表情の違いまでは表現できない。
スポンサーリンク
GPU Gems 3で解説された「Playable Universal Capture」(Ucap)と、南カリフォルニア大学による「Polynomial Displacement Maps」(PDM)の手法を参考にし、高精度の基本データと低精度だが大量の表情データを組み合わせる手法を採用しているとか。
スポンサーリンク
4Gamer.netの日本語記事が分かりやすいね。
参考:Facial Animation GDC Slides
[GDC 2014]次世代のキャラクターアニメーションはこうなる。フェイシャルキャプチャを用いたプロシージャル処理の実際
スポンサーリンク
コメント