MetaHuman Animatorを試してみた

先日リリースされたMetaHuman Animatorを使って簡単な動画を作成してみました。 i

PhoneでLive Link Face を使用しつつも、従来のフェイシャルキャプチャー方式と同様に、撮影後の記録データを元に作成するタイプとなっている。

 

しかし、私はライブキャプチャーに慣れてしまっているため、リアルタイムに表情を矯正するクセが付いており、実際のモデルをチェックしながらできないのはとても難しかったです・・・。動画でも確認できますが右目(向かって左側)が半開きになることが多く、キャプチャー時にUE上でのモデル適用時にどうなるのかを見越すのはちょっと難しい。

 

ただ、細かな部分まで表情を動かすことができるため、とても表現力が上がった気がします。 使っていて思ったのは「使い込むことで、さらにフェイシャルのクオリティーを上げられるかも」といった予感。 「しばらく頑張ってつかっみよう」 とは思いつつも、ARのライブキャプチャーもクオリティーを底上げしてほしいと強く願ってしまう感じでした。