MetaHuman 面部控制器 cover image

MetaHuman 面部控制器

MetaHuman 是由 Epic Games 旗下的 MetaHuman Creator(MHC)平台提供的一套高保真数字人类创建工具,广泛应用于影视、游戏、虚拟现实和实时数字人等领域。MetaHuman 面部控制器(Facial Controls)是其核心组成部分之一,用于驱动和控制数字角色的面部表情与口型动画。

MetaHuman 的面部控制系统基于FACS(Facial Action Coding System,面部动作编码系统)构建,这是一种心理学和计算机图形学中广泛使用的标准,用于描述人类面部肌肉运动产生的表情。MetaHuman 将这些复杂的肌肉运动抽象为一组标准化的面部控制滑块(controls 或 morph targets),允许用户通过调整这些参数来生成逼真的表情。

  1. 标准化控制集

    所有 MetaHuman 角色共享同一套面部控制命名和结构,这意味着动画数据可以在不同角色之间复用,极大提升了制作效率。

  2. 高保真细节

    控制器不仅影响主要面部区域(如眼睛、嘴巴、眉毛),还能精细控制次要细节,如脸颊鼓起、鼻翼扩张、嘴唇厚度变化等。

  3. 与 Unreal Engine 深度集成

    MetaHuman 角色可直接导入 Unreal Engine,并通过 Control Rig、Live Link Face、ARKit/ARCore 等技术实现:

    • 实时面部捕捉(如使用 iPhone 的 Live Link Face App)
    • 动画蓝图驱动
    • 音频驱动口型同步(Auto Lip-sync)
  4. 支持多种驱动方式
    • 手动关键帧动画:在 Sequencer 中逐帧调整控制滑块。
    • 实时动捕:通过摄像头或深度传感器捕捉演员面部,映射到 MetaHuman 控制器。
    • 语音驱动:结合 MetaHuman 的 Audio2Face 插件(需配合 NVIDIA Omniverse),可从音频自动生成口型和表情。
  5. 模块化与可扩展性

    虽然默认提供约 50+ 个标准面部控制,但开发者可通过修改 Control Rig 或添加自定义变形目标(morph targets)来扩展功能。

  • 虚拟主播 / VTuber:通过 iPhone 实时驱动 MetaHuman 表情。
  • 电影级过场动画:在 Sequencer 中精细制作角色表演。
  • AI 数字人交互:结合语音合成与表情生成,打造拟人化客服或虚拟助手。
  • 游戏角色:用于高质量 NPC 或主角建模,提升沉浸感。
  • Unreal Engine 5.x
  • MetaHuman Creator(在线平台)
  • Live Link Face(iOS 应用)
  • Control Rig(UE 内置绑定系统)
  • Audio2Face(NVIDIA Omniverse 插件,可选)

如果你正在使用 Unreal Engine 开发 MetaHuman 项目,建议从官方文档入手:

💡
ai、设计、本银河星区空间站,是由 Tia 打造,主要分享日志、ai、设计、效率工具和在银河系生活的所思所想,欢迎分享文章