机器之心发布

机器之心编辑部

日前,旷视科技发布了一项新的开源 AI 人像视频生成框架 ——MegActor。基于该框架,用户只需输入一张静态的肖像图片,以及一段视频(演讲、表情包、rap)文件,即可生成一段表情丰富、动作一致的 AI 人像视频。MegActor 所生成的视频长度,取决于给定的驱动视频的长度。与阿里 EMO、微软 VASA 等最新涌现的 AI 视频模型不同,旷视 MegActor 将采用开源的方式,提供给开发者社区使用。MegActor 能够呈现出丝毫毕现的效果,面部细节更加丰富自然,画质更出色。

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

为了进一步展示其泛化性,MegActor 甚至可以让 VASA 里面的人物肖像和它们的视频彼此组合生成,得到表情生动的视频生成结果。

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

视频链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650923565&idx=2&sn=e52894d202ab6b19524044a0c73fc6f7&chksm=84e42653b393af455ebee3f2596d218af2d781bd267d6e45224a7853cff8333eca4229c9fa8a&token=924877127&lang=zh_CN#rd

即使是对比阿里 EMO 的官方 Case,MegActor 也能生成近似的结果。

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片
打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

视频链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650923565&idx=2&sn=e52894d202ab6b19524044a0c73fc6f7&chksm=84e42653b393af455ebee3f2596d218af2d781bd267d6e45224a7853cff8333eca4229c9fa8a&token=924877127&lang=zh_CN#rd

总的来说,不管是让肖像开口说话,让肖像进行唱歌 Rap,还是让肖像模仿各种搞怪的表情包,MegActor 都可以得到非常逼真的生成效果。

打开网易新闻 查看更多图片

  • 论文:https://arxiv.org/abs/2405.20851
  • 代码地址:https://github.com/megvii-research/megactor
  • 项目地址:https://megactor.github.io/

MegActor 是旷视研究院的最新研究成果。旷视研究院,是旷视打造的公司级研究机构。旷视研究院旨在通过基础创新突破 AI 技术边界,以工程创新实现技术到产品的快速转化。经过多年发展,旷视研究院已成为全球规模领先的人工智能研究院。

在目前的人像视频生成领域,许多工作通常使用高质量的闭源自采数据进行训练,以追求更好的效果。而旷视研究院始终坚持全面开源,确保实际效果的可复现性。MegActor 的训练数据全部来自公开可获取的开源数据集,配合开源代码,使得感兴趣的从业者可以从头开始完整复现这些令人惊艳的效果。

为了完全复刻原始视频的表情和动作,MegActor 采用了原始图像进行驱动,这与多数厂商使用 sketch、pose、landmark 的中间表示皆然不同,能够捕捉到细致的表情和运动信息。

打开网易新闻 查看更多图片

旷视科技研究总经理范浩强表示,在 AI 视频生成领域,我们发现目前主流的骨骼关键点控制方式不仅要求用户提供难以获取的专业控制信号,同时生成视频相较于原肖像的保真程度也不尽如人意。通过一系列研究发现,使用原视频进行驱动,不仅将帮助用户降低控制信号的门槛,更能生成更加保真且动作一致的视频。

具体来说,MegActor 主要由两个阶段构成:

  • 使用了一个 ReferenceNet 对参考图像进行特征提取,负责得到参考图像的外观和背景等信息;
  • 使用了一个 PoseGuider,对输入的视频进行运动和表情信息提取,负责将运动和表情信息迁移到参考图像上。

尽管相较于使用音频或 landmark 等表示方式,使用原始视频进行驱动能带来更加丰富的表情细节和运动信息。然而,使用原始视频进行驱动依然存在两大核心技术挑战:一是 ID 泄露问题;二是原始视频中的背景和人物皱纹等无关信息会干扰影响合成表现。

为此,MegActor 开创性地采用了条件扩散模型。首先,它引入了一个合成数据生成框架,用于创建具有一致动作和表情但不一致身份 ID 的视频,以减轻身份泄露的问题。其次,MegActor 分割了参考图像的前景和背景,并使用 CLIP 对背景细节进行编码。这些编码的信息随后通过文本嵌入模块集成到网络中,从而确保了背景的稳定性。

在数据训练方面,旷视研究院团队仅使用公开的数据集进行训练,处理了 VFHQ 和 CeleV 数据集进行训练,总时长超过 700 小时。同时,为了避免 ID 泄露问题,MegActor 还使用换脸和风格化方法 1:1 生成合成数据,实现表情和动作一致、但 ID 不一致的数据。此外,为了提高对大范围动作和夸张表情的模仿能力,团队使用注视检测模型对数据进行处理,获取大约 5% 的高质量数据进行 Finetune 训练。

通过采用一系列新的模型框架和训练方法,旷视研究院团队仅使用了不到 200 块 V100 显卡小时的训练时长,最终实现的具体特性包括:

  • 可以根据输入的视频生成任意持续时间的模仿视频,同时保证角色身份的一致性
  • 支持各种驱动视频,如演讲、唱歌、表情包等
  • 支持不同的画风(照片、传统绘画、漫画、AI 数字人等)

与音频生成的方法相比,MegActor 生成的视频,不仅能确保表情和动作一致,更能达到同样的自然程度。

目前,MegActor 已经完全开源,供广大开发者和用户即开即用。