MetaHuman 是由 Epic Games 旗下的 MetaHuman Creator(MHC)平台提供的一套高保真数字人类创建工具,广泛应用于影视、游戏、虚拟现实和实时数字人等领域。MetaHuman 面部控制器(Facial Controls)是其核心组成部分之一,用于驱动和控制数字角色的面部表情与口型动画。
一、MetaHuman 面部控制器的基本原理
MetaHuman 的面部控制系统基于FACS(Facial Action Coding System,面部动作编码系统)构建,这是一种心理学和计算机图形学中广泛使用的标准,用于描述人类面部肌肉运动产生的表情。MetaHuman 将这些复杂的肌肉运动抽象为一组标准化的面部控制滑块(controls 或 morph targets),允许用户通过调整这些参数来生成逼真的表情。
二、主要特点
- 标准化控制集
所有 MetaHuman 角色共享同一套面部控制命名和结构,这意味着动画数据可以在不同角色之间复用,极大提升了制作效率。
- 高保真细节
控制器不仅影响主要面部区域(如眼睛、嘴巴、眉毛),还能精细控制次要细节,如脸颊鼓起、鼻翼扩张、嘴唇厚度变化等。
- 与 Unreal Engine 深度集成
MetaHuman 角色可直接导入 Unreal Engine,并通过 Control Rig、Live Link Face、ARKit/ARCore 等技术实现:
- 实时面部捕捉(如使用 iPhone 的 Live Link Face App)
- 动画蓝图驱动
- 音频驱动口型同步(Auto Lip-sync)
- 支持多种驱动方式:
- 手动关键帧动画:在 Sequencer 中逐帧调整控制滑块。
- 实时动捕:通过摄像头或深度传感器捕捉演员面部,映射到 MetaHuman 控制器。
- 语音驱动:结合 MetaHuman 的 Audio2Face 插件(需配合 NVIDIA Omniverse),可从音频自动生成口型和表情。
- 模块化与可扩展性
虽然默认提供约 50+ 个标准面部控制,但开发者可通过修改 Control Rig 或添加自定义变形目标(morph targets)来扩展功能。
三、典型应用场景
- 虚拟主播 / VTuber:通过 iPhone 实时驱动 MetaHuman 表情。
- 电影级过场动画:在 Sequencer 中精细制作角色表演。
- AI 数字人交互:结合语音合成与表情生成,打造拟人化客服或虚拟助手。
- 游戏角色:用于高质量 NPC 或主角建模,提升沉浸感。
四、技术栈依赖
- Unreal Engine 5.x
- MetaHuman Creator(在线平台)
- Live Link Face(iOS 应用)
- Control Rig(UE 内置绑定系统)
- Audio2Face(NVIDIA Omniverse 插件,可选)
如果你正在使用 Unreal Engine 开发 MetaHuman 项目,建议从官方文档入手:
💡
ai、设计、本银河星区空间站,是由 Tia 打造,主要分享日志、ai、设计、效率工具和在银河系生活的所思所想,欢迎分享文章