サイトアイコン NegativeMindException

ポリ男からMetaHumanを作る

ポリ男をリファインしたので



ポリ男のMeshからこのチュートリアル動画に従ってMetaHumanを作成してみよう↓



作業に入る前に、作業の全体像と各工程で使うツールの関係を整理して把握しておこう。
チュートリアル動画によると、

  1. 自作の顔Meshを対応付けてMetaHuman Creatorへアップロード
  2. Web上のMetaHuman Creatorで編集
  3. 完成したMetaHumanアセットをUnreal Engineにダウンロード

という流れらしい。



WebツールであるMetaHuman CreatorとUnreal Engine 5をつなぐのがMetaHumanプラグインとQuixel Bridgeプラグイン。

概念を理解しやすいように「アップロード」という言葉を使ったけど、厳密には自作Meshそのものをアップロードするわけではなく、自作Meshの形状に合わせてMetaHumanのベースMeshを変形させる情報がMetaHuman Creatorへ送られるんだと思う。

余談ですが、Unreal Engineで何かする時は全体像を概念図にまとめないと理解しづらいですね。





リファインしたポリ男のMeshは、一応Maya上でスケールなどを調整してキレイなFBXファイルにしておく。


MetaHumanの作成

Mesh to MetaHuman

Unreal Engine 5で空のシーンを作成し、MetaHumanプラグインとQuixel Bridgeプラグインを有効にする。
自作した顔Mesh ポリ男をUnreal Engineのシーンにインポート。



テクスチャもマテリアルも用意していないのでこのまま。

MetaHuman Identityアセットを作成し、ポリ男のMeshとMetaHumanのベースMeshを対応づける。(MetaHuman Identityの解決)
画像認識で言うところの顔器官検出(face alignment)みたいな処理で自動的に対応づけられるけど、ちょっと気に入らなかったので手で少し修正した。おそらくこの処理はテクスチャありの方が精度が上がるだろう。



体格なども設定してMetaHuman Identityアセットを保存。



MetaHuman Creatorへアップロード(MeshをMetaHumanに変換)


スポンサーリンク

MetaHumanの編集

Web上のMetaHuman Creatorで形状の微調整や各種テクスチャを設定していく。



最終的にこんな感じになった↓




MetaHumanアセットのダウンロード

完成したMetaHumanアセットをQuixel Bridgeプラグインを使ってUnreal Engineにダウンロード、シーンにインポートする。



アップロードに使ったシーンとは別のシーンにももちろんインポートできる。

Live Link Faceで顔を動かす

せっかくなので、作成したMetaHumanを動かしてみよう。Unreal Engineが配布しているiPhoneアプリLive Link Faceを使ってみる。
Live Link Faceを使えば、iPhoneのカメラで撮影した自分の顔の表情を認識してUnreal Engine上のキャラクターの顔に反映できる。
https://www.unrealengine.com/ja/blog/new-live-link-face-ios-app-now-available-for-real-time-facial-capture-with-unreal-engine
https://docs.unrealengine.com/5.0/ja/recording-face-animation-on-ios-device-in-unreal-engine/

MetaHumanとの連携方法はこちらの記事を参考にした↓
https://zenn.dev/iwaken71/articles/metahumans-livelink

Unreal Engineを起動しているPCとiPhoneを同一ネットワークに接続し、Live Link FaceアプリからUnreal Engineを起動しているPCのIPアドレスを指定するだけで動かせる。

で、Unreal Engineのシーン上で動かしてみたのがこちら↓



表情を反映する影響度が何故か左右で違い、表情が歪んでしまう。。。

現時点ではまだ自作Meshから作ったMetaHumanでは顔のリグに不具合があるらしい。
対処方法もあるにはあるようだ↓
https://mohumohu-tech.com/2022/07/14/metahuman%e3%81%ae%e3%83%95%e3%82%a7%e3%82%a4%e3%82%b7%e3%83%a3%e3%83%ab%e3%81%8c%e3%81%aa%e3%82%93%e3%81%8b%e5%a4%89%e3%81%ab%e3%81%aa%e3%81%a3%e3%81%a6%e3%81%84%e3%82%8b/

追記:↑この記事で配布してくれているファイルを利用して対処してみた↓



制作記事まとめページ↓



人間のCGを作るツールはどんどん進化しますね。
MB-Lab:Blenderの人体モデリングアドオン
MakeHumanの流れをくむ(というか開発者の1人であるManuel Bastioni氏による)Blender用の人体モデリングアドオン「ManuelBastioniLAB」は、資金調達の問題で2018年11月に終了してしまった。 現在は...

http://www.makehumancommunity.org/


スポンサーリンク

関連記事

  • ラクガキの立体化 目標設定
  • ZBrushで仮面ライダー3号を造る 仮面編 Clay Polish
  • Kubric:機械学習用アノテーション付き動画生成パイプライン
  • PolyPaint
  • Point Cloud Libraryに動画フォーマットが追加されるらしい
  • 第20回 文化庁メディア芸術祭『3DCG表現と特撮の時代』
  • UnityユーザーがUnreal Engineの使い方を学ぶには?
  • 3D映画のポストプロダクション 2D-3D変換
  • 『シン・ゴジラ』のコンセプトアニメーションのメイキング動画が公開された
  • 日本でMakersは普及するだろうか?
  • 自前のShaderがおかしい件
  • 『パシフィック・リム: アップライジング』のVFXブレイクダウン まとめ
  • Unreal EngineでARKit 3.0
  • MPC社によるゴジラ(2014)のVFXブレイクダウン
  • Leap MotionでMaya上のオブジェクトを操作できるプラグイン
  • Deep Fluids:流体シミュレーションをディープラーニングで近似する
  • ZBrushでアヴァン・ガメラを作ってみる 甲羅の修正・脚の作り込み
  • ZBrushでアヴァン・ガメラを作ってみる モールドの彫り込み・身体の形出し
  • 『スター・ウォーズ/スカイウォーカーの夜明け』のVFXブレイクダウン
  • ZBrushで仮面ライダーBLACK SUNを作る 頭部~バストの概形
  • 株式会社ヘキサドライブの研究室ページ
  • Physics Forests:機械学習で流体シミュレーションを近似する
  • CycleGAN:ドメイン関係を学習した画像変換
  • オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う
  • ZBrushで基本となるブラシ
  • ZBrushのZmodelerとDynamic Subdivisionを学ぶ
  • Subsurface scatteringの動画
  • オープンソースのネットワーク可視化ソフトウェアプラットフォーム『Cytoscape』
  • ZBrushでUndo Historyを動画に書き出す
  • ZBrushでアヴァン・ガメラを作ってみる 歯を配置
  • 昔Mayaでモデリングしたモデルをリファインしてみようか
  • Blendify:コンピュータービジョン向けBlenderラッパー
  • 顔モデリングのチュートリアル
  • UnityのGameObjectの向きをScriptで制御する
  • Unite 2014の動画
  • Physically Based Rendering
  • Pix2Pix:CGANによる画像変換
  • 『PIXARのひみつ展』に行ってきた
  • 書籍『メイキング・オブ・ピクサー 創造力をつくった人々』を読んだ
  • Zibra Liquids:Unity向け流体シミュレーションプラグイン
  • 映画『ブレードランナー 2049』のVFX
  • ZBrushでアヴァン・ガメラを作ってみる パーツ分割
  • モバイルバージョンを終了