数字人解决方案——阿里EMO音频驱动肖像生成能说话能唱歌的逼真视频

前言

数字可以分为3D数字人和2D数字人。3D数字人以虚幻引擎的MetaHuman为代表,而2D数字人则现有的图像或者视频做为输入,然后生成对口型的数字人,比如有SadTalker和Wav2Lip。

  1. SadTalker:SadTalker是一种2D数字人算法,其输入为图片+音频。这一类算法不仅生成新的口型,还生成头部运动,具有较高的复杂度。SadTalker的主要功能是将静态图像中的人物头部进行运动生成,使其似乎在说话。这种技术对于视频制作、虚拟人物等领域具有广泛的应用。

  2. Wav2Lip:Wav2Lip也是一种2D数字人算法,其输入为视频+音频。与SadTalker不同,Wav2Lip的主要功能是根据音频内容生成视频中人物的口型,使其与音频同步。这种技术在视频配音、语音合成等应用中非常有用。

而最近,阿里发布了一款名为EMO的新音频驱动人物头像说话视频生成模型。EMO具有更高的生成能力和自然度。只需提供一张照片和一段音频,EMO即可生成长达1分30秒的AI视频,其中人物头部能够表现丰富的变化,包括表情、五官、姿势等,呈现出更加自然的效果。

阿里EMO音频驱动图像生成能说话能唱歌的逼真视频

EMO增强说话头像视频生成的方法,旨在提高其真实感和表现力。通过直接将音频转换为视频,而不是依赖中间的3D模型或面部标记,从而绕过了一些传统方法中可能存在的缺陷,如视频帧之间的过渡不连续或身份保护的不一致性。EMO的实验结果表明,它能够生成令人信服的说话视频和唱歌视频,并且在表现力和逼真度方面明显优于现有的方法。

通过这种直接从音频到视频的转换,EMO能够在生成的视频中保持更加连续和一致的动作,同时确保了身份保护的准确性。这使得生成的视频更加自然和真实,增强了用户的观感体验。
在这里插入图片描述

如果对该数字人项目感兴趣或者的企鹅群:787501969,大家一起探讨。

算法简介

本文旨在建立一种创新的说话头框架,旨在捕捉广泛的真实面部表情,包括微妙的微表情,并促进自然的头部运动,从而赋予生成的头部视频无与伦比的表现力。为了实现这一目标,提出了一种利用扩散模型的生成能力的方法,能够直接从给定的图像和音频剪辑合成角色头部视频。为了解决音频与面部表情之间的映射模糊性问题,模型中加入了稳定的控制机制,即速度控制器和面部区域控制器,以增强生成过程中的稳定性。此外,为了确保生成的视频中的角色与输入参考图像保持一致,采用了ReferenceNet的方法,并设计了一个类似的模块,FrameEncoding,旨在在整个视频中保持角色的身份。

EMO能够生成高度自然和表现力强的说话和唱歌视频。为了训练模型,作者构建了一个包含250小时的音视频数据集,涵盖了演讲、电影、电视剧和唱歌表演等多种内容和多种语言。作者在HDTF数据集上进行了广泛的实验和比较,结果表明EMO方法在多个指标上均超过了当前最先进的方法。此外,作者还进行了用户研究和定性评估,证明EMO方法可以生成高度自然和表现力强的说话和唱歌视频,是迄今为止最好的方法之一。

算法原理

音频驱动的说话人生成方法可以分为基于视频和基于单张图片的两种方法。基于视频的方法直接编辑输入视频片段,但存在头部动作固定和只生成口部动作的限制。基于单张图片的方法利用参考照片生成与照片外观相似的视频,但存在3D网格表达能力有限和生成结果表现力不足的问题。相对于其他方法,Dreamtalk进行了改进,但仍然无法实现高度自然的面部视频生成。
EMO基于单张角色肖像图即可生成视频,可以根据输入的语音音频剪辑生成与之同步的视频,保留自然的头部运动和生动的表情,同时与提供的语音音频的音调变化协调一致。该模型可以创建无缝级联的视频序列,生成具有一致身份和连贯动作的长时间说话肖像视频,对于实现逼真的应用非常重要。
在这里插入图片描述
EMO的方法概述如图2所示。骨干网络获取多帧噪声潜在输入,并尝试在每个时间步内对连续的视频帧进行去噪,骨干网络具有与原始SD 1.5相似的UNet结构配置。1)与之前的工作类似,为保证生成帧之间的连续性,骨干网络中嵌入了时序模块。2)为了保持生成的框架中肖像的ID一致性,部署了一个平行于主干的UNet结构ReferenceNet,它输入参考图像以获取参考特征。3)使用音频层对语音特征进行编码,以驱动角色说话动作。4)利用人脸定位器和速度层提供弱条件,使说话人运动可控、稳定。

骨干网络
骨干网络获取多帧噪声潜在输入,并尝试在每个时间步内对连续的视频帧进行去噪。骨干网络具有与原始SD 1.5相似的UNet结构配置。为保证生成帧之间的连续性,在骨干网络中嵌入了时序模块。为了保持生成的框架中肖像的ID一致性,部署了一个平行于主干的UNet结构ReferenceNet,它输入参考图像以获取参考特征。

音频层
通过预训练wav2vec的各个块从输入音频序列中提取的特征被连接起来,以产生第f帧的音频表示嵌入A (f)。然而,动作可能会受到未来/过去音频片段的影响,为解决这个问题,本文通过连接附近帧的特征来定义每个生成帧的语音特征。为了将语音特征注入到生成过程中,在骨干网络的每个ref-attention层之后,在潜代码和gen之间添加音频-注意力层,执行交叉注意力机制。

ReferenceNet
ReferenceNet具有与骨干网络相同的结构,用于从输入图像中提取详细特征。参考网络和骨干网络都继承了原始SD UNet的权重。目标字符的图像输入到ReferenceNet中,以提取自注意力层输出的参考特征图。在主干去噪过程中,对应层的特征与提取的特征图一起经过参考注意力层。

时间模块
在AnimateDiff的架构概念的指导下,将自注意力时间层应用于帧内的特征。将自注意力引导到时间维度f上,以有效捕捉视频的动态内容。时序层插入到骨干网的每个分辨率层。本方法纳入了之前生成的片段的最后n帧,称为"运动帧",以增强跨片段的一致性。将这n个运动帧输入到ReferenceNet以预提取多分辨率运动特征图。在主干网络的去噪过程中,将时序层输入与预先提取的匹配分辨率的运动特征沿帧维度进行融合。

面部定位器和速度层
时间模块可以保证生成帧的连续性和视频片段之间的无缝过渡,但由于生成过程的独立性,时间模块不足以保证生成角色在各个片段之间运动的一致性和稳定性。选择“弱”控制信号方法,利用掩膜M作为人脸区域,其中包含视频剪辑的面部边界框区域。采用了人脸定位器,它由轻量级的卷积层组成,旨在编码边界框掩膜。然后将得到的编码掩码添加到噪声潜表示中,然后将其输入到主干中。通过这种方式,可以使用掩模来控制应该生成字符人脸的位置。

然而,由于在单独的生成过程中头部运动频率的变化,在片段之间创建一致和平滑的运动是具有挑战性的。为解决这个问题,将目标头部运动速度纳入到生成中。通过这样做并指定目标速度,可以在不同剪辑中同步生成角色头部的旋转速度和频率。结合面部定位器提供的面部位置控制,输出结果既稳定又可控。

训练方法

训练过程分为三个阶段:

  1. 第一阶段:图像预训练,包括对骨干网络、ReferenceNet和Face Locator的训练。在此阶段,主要对骨干网络的结构进行预训练,以及对辅助网络(ReferenceNet)和人脸定位器进行训练。

  2. 第二阶段:视频训练,引入了时间模块和音频层。在这个阶段,除了利用图像预训练的模型外,还引入了时间模块和音频层,以更好地处理视频数据的动态特性和语音信息。

  3. 第三阶段:集成速度层,只训练时间模块和速度层,而不训练音频层。这一阶段的目标是通过加入速度层来进一步提高模型的性能,但不再训练音频层,因为同时训练速度和音频层可能会削弱音频对角色动作的驱动能力。

实验与测试

实现细节:

  1. 数据集和训练时长

    • 使用了250小时的讲话视频和HDTF、VFHQ数据集进行训练。
    • HDTF数据集被分为训练集和测试集,其中测试集占10%,训练集占90%。
  2. 人脸检测和姿态提取

    • 使用MediaPipe人脸检测框架获取面部边界框区域。
    • 使用面部标志提取6DoF头部姿态,计算相邻帧之间的旋转度数。
  3. 训练过程

    • 采用了三个阶段的训练,使用了批量大小为48和4的不同参数。
    • 第一阶段对骨干网络、ReferenceNet和Face Locator进行图像预训练。
    • 第二阶段引入了时间模块和音频层,进行视频训练。
    • 第三阶段集成速度层,只训练时间模块和速度层,不训练音频层。
  4. 推理过程

    • 使用DDIM的采样算法生成视频剪辑。
    • 每批次的时间消耗为15秒。
  5. 实验设置和评估指标

    • 使用Diffused Heads方法生成的结果进行了定性比较。
    • 比较了与Wav2Lip、SadTalker和DreamTalk等方法的性能。
    • 使用DreamTalk的说话风格参数。
    • 使用Fréchet Inception Distance (FID)评估生成帧的质量。
    • 使用面部相似度(FSIM)评估生成帧与参考图像之间的身份保持程度。
    • 使用Fréchet Video Distance (FVD)评估视频的质量。
    • 使用SyncNet评估唇部同步质量。
    • 使用Expression-FID评估生成视频中面部表情的表达能力。

结果比对
在这里插入图片描述
在这里插入图片描述

相比于Wav2Lip和DreamTalk,EMO的方法具有以下优势:首先,Wav2Lip合成的嘴部区域模糊,而EMO方法能够生成更清晰的嘴部图像。其次,DreamTalk的样式剪辑可能扭曲原始面部,限制了面部表情和头部动作的动态性,而EMO的方法能够生成更多样的头部动作和更动态的面部表情。值得注意的是,EMO的方法不使用直接信号来控制角色运动,而是直接由音频驱动,这使得在生成过程中能够更好地保持角色的一致性和流畅性。

进一步地,EMO探索了不同肖像风格的说话头像视频的生成。尽管模型只在逼真的视频上进行了训练,但它展示了在各种肖像类型上生成说话头像视频的能力。EMO的方法能够在处理具有明显音调特征的音频时生成更丰富的面部表情和动作。此外,通过利用运动帧,EMO可以延长生成的视频,从而根据输入音频的长度生成持续时间更长的视频。值得一提的是,EMO的方法在大幅运动中仍然能够保持角色的身份,这是生成视频时的一个重要考量因素。
在这里插入图片描述
在这里插入图片描述

项目主页:https://humanaigc.github.io/emote-portrait-alive/

论文地址:https://arxiv.org/pdf/2402.17485.pdf

Github地址:https://github.com/HumanAIGC/EMO

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/722135.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Lichee Pi 4A:RISC-V架构的开源硬件之旅

一、简介 Lichee Pi 4A是一款基于RISC-V指令集的强大Linux开发板,它凭借出色的性能和丰富的接口,吸引了众多开发者和爱好者的关注。这款开发板不仅适用于学习和研究RISC-V架构,还可以作为软路由、小型服务器或物联网设备的核心组件。 目录 一…

Java 反射详解:动态创建实例、调用方法和访问字段

“一般情况下,我们在使用某个类之前已经确定它到底是个什么类了,拿到手就直接可以使用 new 关键字来调用构造方法进行初始化,之后使用这个类的对象来进行操作。” Writer writer new Writer(); writer.setName("少年");像上面这个…

Java生成 word报告

Java生成 word报告 一、方案比较二、Apache POI 生成三、FreeMarker 生成 在网上找了好多天将数据库信息导出到 word 中的解决方案,现在将这几天的总结分享一下。总的来说,Java 导出 word 大致有 5 种。 一、方案比较 1. Jacob Jacob 是 Java-COM Bri…

MATLAB的基础二维绘图

1.plot函数 (1)plot函数的基本用法 plot(x,y)其中,x和y分别用于存储x坐标和y坐标数据,通常x和y为长度相同的向量。 例如: x[2.3,3.3,4.3,1];y[1.3,2,1.8,3]plot(x,y) (2)plot(x,y,选项)其中选项包括颜色…

(C语言)sizeof和strlen的对比(详解)

sizeof和strlen的对⽐(详解) 1. sizeof sizeof是用来计算变量所占内存空间大小的, 单位是字节,如果操作数是类型的话,计算的是用类型创建的变量所占空间的大小。 sizeof 只关注占用内存空间的大小 ,不在乎内…

Linux——网络基础

计算机网络背景 网络发展 独立模式: 计算机之间相互独立 在早期的时候,计算机之间是相互独立的,此时如果多个计算机要协同完成某种业务,那么就只能等一台计算机处理完后再将数据传递给下一台计算机,然后下一台计算机再进行相应…

YOLOv9推理详解及部署实现

目录 前言零、YOLOv9简介一、YOLOv9推理(Python)1. YOLOv9预测2. YOLOv9预处理3. YOLOv9后处理4. YOLOv9推理 二、YOLOv9推理(C)1. ONNX导出2. YOLOv9预处理3. YOLOv9后处理4. YOLOv9推理 三、YOLOv9部署1. 源码下载2. 环境配置2.1 配置CMakeLists.txt2.2 配置Makefile 3. ONNX…

软件设计师9--总线/可靠性/性能指标

软件设计师9--总线/可靠性/性能指标 考点1:总线总线的分类例题: 考点2:可靠性系统可靠性分析--可靠性指标串联系统与并联系统N模混合系统例题: 性能指标例题: 考点1:总线 一条总线同一时刻仅允许一个设备发…

Stable Diffusion 模型分享:CG texture light and shadow(CG纹理光影)

本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里。 文章目录 模型介绍生成案例案例一案例二案例三案例四案例五案例六案例七案例八 下载地址 模型介绍 一个拥有cg质感和光影的融合模型,偏2.5D 条目内容类型大模型基础模型SD 1.5来…

HTML+CSS+BootStrap游乐园官网

一、技术栈 支持pc、pad、手机访问,页面自适应!! html5cssbootstrapjs 二、项目截图 接受项目定制,站内联系博主!!!

【打工日常】使用docker部署轻量的运维监控工具

一、Uptime-Kuma介绍 Uptime-Kuma是一个轻量级的自动化运维监控工具,最为引人注目的特点是其出色的监控Dashboard面板。部署简单,工具轻量又强大。而且,Uptime-Kuma是开源免费的,并支持基于Docker的部署方式。它支持网站、容器、数…

索引下推 INDEX CONDITION PUSHDOWN

索引下推 (INDEX CONDITION PUSHDOWN,简称ICP)是在 MySQL5.6 针对扫描索引下推二级索引的一项优化改进。 用来在范围查询时减少回表的次数。ICP适用于 MYISAM和INNODB.

如何通过抖捧轻松开启AI常态化自动直播间

在如今的互联网时代,短视频和直播已成为大多数企业与实体商家必备的经营技能,不只是全国头部的品牌,他们纷纷加码直播,更有一些已经开启了直播矩阵的体系,包括中小型的商家,他们也在考虑一件事情&#xff0…

ES入门八:Mapping的详细讲解

什么是Mapping?**Mapping定义了索引中的文档有哪些字段及其类型、这些字段是如何存储和索引的。**每个文档都是一个字段的集合,每个字段都有自己的数据类型,例如我们定义的books索引,其中有book_id、name等字段。所以Mapping的作用…

96道前端面试题,前端开发工作内容

HTML、CSS、JS三大部分都起什么作用? HTML内容层,它的作用是表示一个HTML标签在页面里是个什么角色;CSS样式层,它的作用是表示一块内容以什么样的样式(字体、大小、颜色、宽高等)显示;JS行为层…

OJ_子串计算

题干 c实现 #include <stdio.h> #include <string> #include <map>using namespace std;int main() {char strArr[100];while (scanf("%s", strArr) ! EOF) {string str strArr;map<string, int> subCount;for (int i 0; i < str.size…

android开发简历源码,今年Android面试必问的这些技术面

1、拓宽知识面 兴趣来了挡也挡不住&#xff01;从最初开始学习编程&#xff0c;从ASP到ASP.net,JS,Winform,Java,C,PHP,Python,都是自学&#xff01; 不过这里要说一下&#xff0c;如果没有一两门编程语言比较熟悉的情况下&#xff0c;最好还是不要自学&#xff1b;入门是最难…

Preferences为何优先选择Datastore,尽管它速度慢一些...

Preferences为何优先选择Datastore,尽管它速度慢一些… Preferences Datastore 在性能上虽然较慢,但相对于 Shared Preferences,仍应该优先选择它。以下是原因分析: 几年前,Android 引入了一个名为 Preferences Datastore 的新存储库,旨在取代 Shared Preferences 成为默…

Python学习 day07(JSON、format()函数)

JSON 各种编程语言存储数据的容器不尽相同&#xff0c;在Python中有字典dict这样的数据类型&#xff0c;而其他语言可能没有对应的字典&#xff0c;为了让不同的语言都能够相互通用的传递数据&#xff0c;JSON就是一种非常良好的中转数据格式&#xff0c;如下&#xff1a; JSON…

七大 排序算法(一篇文章梳理)

一、引言 排序算法是计算机科学中不可或缺的一部分&#xff0c;它们在数据处理、数据库管理、搜索引擎、数据分析等多个领域都有广泛的应用。排序算法的主要任务是将一组数据元素按照某种特定的顺序&#xff08;如升序或降序&#xff09;进行排列。本文将对一些常见的排序算法…