ポリ男をリファインしたので
ポリ男のMeshからこのチュートリアル動画に従ってMetaHumanを作成してみよう↓
作業に入る前に、作業の全体像と各工程で使うツールの関係を整理して把握しておこう。
チュートリアル動画によると、
- 自作の顔Meshを対応付けてMetaHuman Creatorへアップロード
- Web上のMetaHuman Creatorで編集
- 完成したMetaHumanアセットをUnreal Engineにダウンロード
という流れらしい。
WebツールであるMetaHuman CreatorとUnreal Engine 5をつなぐのがMetaHumanプラグインとQuixel Bridgeプラグイン。
概念を理解しやすいように「アップロード」という言葉を使ったけど、厳密には自作Meshそのものをアップロードするわけではなく、自作Meshの形状に合わせてMetaHumanのベースMeshを変形させる情報がMetaHuman Creatorへ送られるんだと思う。
余談ですが、Unreal Engineで何かする時は全体像を概念図にまとめないと理解しづらいですね。
リファインしたポリ男のMeshは、一応Maya上でスケールなどを調整してキレイなFBXファイルにしておく。
MetaHumanの作成
Mesh to MetaHuman
Unreal Engine 5で空のシーンを作成し、MetaHumanプラグインとQuixel Bridgeプラグインを有効にする。
自作した顔Mesh ポリ男をUnreal Engineのシーンにインポート。
テクスチャもマテリアルも用意していないのでこのまま。
MetaHuman Identityアセットを作成し、ポリ男のMeshとMetaHumanのベースMeshを対応づける。(MetaHuman Identityの解決)
画像認識で言うところの顔器官検出(face alignment)みたいな処理で自動的に対応づけられるけど、ちょっと気に入らなかったので手で少し修正した。おそらくこの処理はテクスチャありの方が精度が上がるだろう。
体格なども設定してMetaHuman Identityアセットを保存。
MetaHuman Creatorへアップロード(MeshをMetaHumanに変換)
MetaHumanの編集
Web上のMetaHuman Creatorで形状の微調整や各種テクスチャを設定していく。
最終的にこんな感じになった↓

MetaHumanアセットのダウンロード
完成したMetaHumanアセットをQuixel Bridgeプラグインを使ってUnreal Engineにダウンロード、シーンにインポートする。
アップロードに使ったシーンとは別のシーンにももちろんインポートできる。
Live Link Faceで顔を動かす
せっかくなので、作成したMetaHumanを動かしてみよう。Unreal Engineが配布しているiPhoneアプリLive Link Faceを使ってみる。
Live Link Faceを使えば、iPhoneのカメラで撮影した自分の顔の表情を認識してUnreal Engine上のキャラクターの顔に反映できる。
https://www.unrealengine.com/ja/blog/new-live-link-face-ios-app-now-available-for-real-time-facial-capture-with-unreal-engine
https://docs.unrealengine.com/5.0/ja/recording-face-animation-on-ios-device-in-unreal-engine/
MetaHumanとの連携方法はこちらの記事を参考にした↓
https://zenn.dev/iwaken71/articles/metahumans-livelink
Unreal Engineを起動しているPCとiPhoneを同一ネットワークに接続し、Live Link FaceアプリからUnreal Engineを起動しているPCのIPアドレスを指定するだけで動かせる。
で、Unreal Engineのシーン上で動かしてみたのがこちら↓
表情を反映する影響度が何故か左右で違い、表情が歪んでしまう。。。
現時点ではまだ自作Meshから作ったMetaHumanでは顔のリグに不具合があるらしい。
対処方法もあるにはあるようだ↓
https://mohumohu-tech.com/2022/07/14/metahuman%e3%81%ae%e3%83%95%e3%82%a7%e3%82%a4%e3%82%b7%e3%83%a3%e3%83%ab%e3%81%8c%e3%81%aa%e3%82%93%e3%81%8b%e5%a4%89%e3%81%ab%e3%81%aa%e3%81%a3%e3%81%a6%e3%81%84%e3%82%8b/
追記:↑この記事で配布してくれているファイルを利用して対処してみた↓
制作記事まとめページ↓

人間のCGを作るツールはどんどん進化しますね。

http://www.makehumancommunity.org/
関連記事
書籍『開田裕治 怪獣イラストテクニック』
Maya API Reference
株式会社ヘキサドライブの研究室ページ
ZBrushでアヴァン・ガメラを作ってみる 爪とトゲを追加
『スター・ウォーズ/スカイウォーカーの夜明け』のVFXブレイ...
Pix2Pix:CGANによる画像変換
ZBrushのUV MasterでUV展開
Mitsuba 2:オープンソースの物理ベースレンダラ
Zibra Liquids:Unity向け流体シミュレーショ...
映画『シン・ウルトラマン』 メイキング記事まとめ
MeshroomでPhotogrammetry
ZBrush 4R8 リリース!
Kubric:機械学習用アノテーション付き動画生成パイプライ...
ラクガキの立体化 胴体の追加
bpy-renderer:レンダリング用Pythonパッケー...
ZBrush 4R7
Faceshiftで表情をキャプチャしてBlender上でM...
OpenMayaのPhongShaderクラス
Photogrammetry (写真測量法)
UnityでLight Shaftを表現する
ZBrush 2021.6のMesh from Mask機能...
MPC社によるゴジラ(2014)のVFXブレイクダウン
ZBrushの作業環境を見直す
fSpy:1枚の写真からカメラパラメーターを割り出すツール
PyTorch3D:3Dコンピュータービジョンライブラリ
布のモデリング
ZBrushでアマビエを作る その2
Python for Unity:UnityEditorでP...
BSDF: (Bidirectional scatterin...
Physics Forests:機械学習で流体シミュレーショ...
ZBrushのお勉強
MPFB2:Blenderの人体モデリングアドオン
OpenMesh:オープンソースの3Dメッシュデータライブラ...
Subsurface scatteringの動画
生物の骨格
Kaolin:3Dディープラーニング用のPyTorchライブ...
ZBrushでゴジラ2001を作ってみる 身体のSubToo...
LuxCoreRender:オープンソースの物理ベースレンダ...
UnityでPoint Cloudを表示する方法
『シン・ゴジラ』のコンセプトアニメーションのメイキング動画が...
ZBrushでアヴァン・ガメラを作ってみる おでこ(?)のバ...
CycleGAN:ドメイン関係を学習した画像変換
コメント