CVPR 2021 | 任何人都能“不讲武德”,姿态可控的语音驱动说话人脸

周航 将门创投 今天
图片





图片

CVPR 2021 文章专题

第·20·期


图片

本文不使用任何人为定义的结构信息(人脸关键点或者3D人脸模型),成功实现了人头姿态可控的语音驱动任意说话人脸生成。本文的关键在于,隐式地在潜空间(latent space)中定义了一个12维的姿态编码,用于头部运动控制。本文相比于之前的方法,避免了关键点或者3D模型计算不准确带来的烦恼,又保持了自由度和鲁棒性。实现了在语音控制准确嘴型的同时,用另一段视频控制头部运动。在这一框架下,我们可以让任何人说出马老师经典的“不讲武德”发言,彩蛋在我们demo video的最后!

本文由香港中文大学MMLab商汤科技南洋理工大学S-Lab合作完成。
图片
论文链接:

https://arxiv.org/abs/2104.11116.

代码链接:
https://github.com/Hangz-nju-cuhk/Talking-Face_PC-AVS.
Project Page:
https://hangz-nju-cuhk.github.io/projects/PC-AVS.

Demo Video:

https://www.zhihu.com/zvideo/1369387261356908544

图片

一、背景介绍

语音驱动的说话人脸生成 (Talking face, Talking head generation) 这一课题本身有多种不同的实验设置。此方向的综述可以参考Lele Chen的What comprises a good talking-head video generation?: A Survey and Benchmark[1]。在这里本文Focus的方向为基于单张图像(One-shot),面向任意人脸,语音驱动setting下的说话人脸生成问题。具体来说,我们希望基于一张图片,生成与语音同步的说话人脸视频。
这一setting下的工作包括 VGG 组的You said that? [2] ,CUHK(笔者自己)的DAVS [3], 乐乐的ATVG [4] 以及Adobe周洋和李丁博士的MakeitTalk [5]等等。整体来讲,之前的工作[2][3][4]更多的关注于嘴型的准确性和ID的保存上,从而忽略了头部的自然运动。在本文中我们所试图解决的,是之前说话人脸生成中人头pose难以控制这一问题。

图片

ATVG Paper中的对比图

最近的Makeittalk[5]和乐乐的Rhythmic Head[6] 则关注于和个人ID信息有关的自然头部运动。但是他们的方法都依赖于3D的结构化信息。

想独立控制头部运动,就需要对Head pose和facial expression,identity做一个解耦。通过思考我们可以意识到,这种解耦在2D图像和2D landmark的表征中都很难实现。而在我们语音驱动的大前提下,嘴型要和audio对齐,头部运动又要自然,可以说是难上加难。另一方面,3D的人脸表征中,head pose和facial expression可以天然地用不同的参数控制,可以说是最佳选择。因此之前的工作,Makeittalk[5]选择了3D的人脸关键点,而Rhythmic Head[6]则直接依赖于完整地3D重建。但是基于3D的人脸建模,尤其是在极端场景下,开源方法的准确度并无法保证。而基于优化算法的3D fitting还会带来大量的预处理负担。所以本文不使用3D或结构化数据,重新从2D入手解决问题。
二、方法介绍

我们的方法Pose-Controllable Audio-Visual System (PC-AVS) 直接在特征学习和图像重建的框架下,实现了对人头pose的自由控制。我们的核心在于隐式地在潜空间(latent space)中定义了一个12维的姿态编码,而这一设计源于对去年CVPR利用styleGAN实现Face Reenactment[7]的工作(如下图)的参考。

图片

但他们工作中只说明了styleGAN可以使用augmented frame进行图像到图像的控制。而在语音驱动的说话人脸问题中,condition实际来自audio的场景下,直接暴力借用这一框架将难以进行训练,因为语音并不能提供人脸姿态信息。

基于对说话人脸的观察,我们在文中把augmented图像的潜空间,定义为无ID空间(Non-Identity Space)。直观上讲,在此空间中,我们可以重新寻找嘴型与语音关联的说话内容空间(Speech Contant Space),和表示头部运动的姿态空间(Pose Space)。

图片
我们工作的完整pipeline如下图所示,训练数据使用的是大量的含语音视频。我们使用任意的一帧图片作为ID参考输入,变形另一帧图片图片,并将与图片对齐的语音的频谱图片作为condition,试图使用网络恢复图片
图片

使用数据集的ID约束,我们可以通过ID encoder图片得到Identity Space;借助之前的augmentation,我们通过encder图片,得到Non-Identity Space。接下来的问题是如何发挥audio的作用,以及如何让图像只约束Pose而不控制嘴型。

  • Learning Speech Content Space. 我们希望Non-Identity Space的feature经过一个mapping 图片 映射至speech content space中。而这一latent space的学习,主要依赖音频和视频之间天然的对齐、同步信息(alignment)。在之前的工作中这已经被证明是audio-visual领域用处最广泛的自监督之一 。在这里我们使用语音与人脸序列之间的对齐构建contrastive loss进行对齐的约束;对齐的人脸序列和语音特征图片是正样本,非对齐的图片为负样本。定义两个feature之间的cos距离为图片,这一约束可以表达为:

图片
  • Devising Pose Code. 另一方面,我们借助3D表征中的piror knowledge。一个12维度的向量其实已经足以表达人头的姿态,包括一个9维的旋转矩阵,2维的平移和1维的尺度。所以我们使用一个额外的mapping,从Non-Identity Space中映射一个12维的Pose Code。这个维度上的设计非常重要,如何维度过大,这一latent code所表达的就可能超过pose信息,导致嘴型收到影响。
最后我们把 Identity Space,Speech Content Space 和 Pose code 结合起来,送入基于StyleGAN2 改造的Generator。这三者的信息在Generator中通过图像重建训练进行平衡,loss形式使用了pix2pixHD的重建训练loss。在训练中,pose code起作用的原理是,在ID和pose信息都显式地被约束的前提下,Pose Code最容易学到的信息是改变人头的姿态,以减少重建的loss。在这一目标下,因为姿态逐渐与我们的目标贴合,嘴型的重建约束也会反过来帮助audio feature的学习,从而达到平衡。

三、实验结果

我们在数值上和质量上与之前SOTA的任意语音驱动人脸的方法进行了对比。在数值上,我们对比了LRW和VoxCeleb2两个数据集,重点关注于生成图像还原度(SSIM),图像清晰度(CPDB),生成嘴型landmark的准确度(LMD)和生成嘴型与音频的同步性,使用SyncNet 的confidence score评价(图片 )。

图片

我们与之前方法的对比图如下所示:

图片

更多的Ablation和结果可以参考我们的paper和demo video,这边展示了在极端情况(大角度,低分辨率)的生成结果。展示了如果我们把pose code置0,可以实现转正的说话人脸效果。
图片
四、总结
在这个工作中,我们提出了Pose-Controllable Audio-Visual System (PC-AVS),成功在语音任意说话人的setting下,生成了姿态可控的结果。综合来看我们的方法有以下几个特质值得关注:
[1] 我们的方法不借助预定义的结构信息,仅使用一个图像重建的pipeline,成功定义了一个对人脸pose的表征。
[2] 由style-based generator平衡的训练模式让唇形生成收到更契合的重建约束,从而提升了唇形对齐的准确度。
[3] 我们实现了任意说话人脸下的自由人头姿态控制,使生成的结果更加真实。
[4] 我们的模型在极端情况下有很好的鲁棒性,并且实现了转正的说话人脸生成。

参考资料

1. What comprises a good talking-head video generation?: A Survey and Benchmark 

https://arxiv.org/abs/2005.0320

2. Joon Son Chung, Amir Jamaludin, and Andrew Zisserman. You said that? In BMVC, 2017.

https://arxiv.org/abs/1705.02966

3. Hang Zhou, Yu Liu, Ziwei Liu, Ping Luo, and Xiaogang Wang. Talking face generation by adversarially disentangled audio-visual representation. In Proceedings of the AAAI ConConference on Artificial Intelligence (AAAI), 2019. 

https://arxiv.org/abs/1807.07860

4. Lele Chen, Ross K Maddox, Zhiyao Duan, and Chenliang Xu. Hierarchical cross-modal talking face generation with dynamic pixel-wise loss. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2019. 

https://www.cs.rochester.edu/u/lchen63/cvpr2019.pdf

5. Yang Zhou, Xintong Han, Eli Shechtman, Jose Echevarria, Evangelos Kalogerakis, and Dingzeyu Li. Makeittalk: Speaker-aware talking head animation. SIGGRAPH ASIA, 2020. 

https://arxiv.org/abs/2004.12992

6. Lele Chen, Guofeng Cui, Celong Liu, Zhong Li, Ziyi Kou, Yi Xu, and Chenliang Xu. Talking-head generation with rhythmic head motion. European Conference on Computer Vision (ECCV), 2020. 

https://www.cs.rochester.edu/u/lchen63/eccv2020-arxiv.pdf

7. Egor Burkov, Igor Pasechnik, Artur Grigorev, and Victor Lem-pitsky. Neural head reenactment with latent pose descriptors. In Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition (CVPR), 2020. 

https://openaccess.thecvf.com/content_CVPR_2020/papers/Burkov_Neural_Head_Reenactment_with_Latent_Pose_Descriptors_CVPR_2020_paper.pdf

8. Joon Son Chung and Andrew Zisserman. Out of time: auto-mated lip sync in the wild. In ACCV Workshop,2016.

https://www.robots.ox.ac.uk/~vgg/publications/2016/Chung16a/chung16a.pdf

9. Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten,Jaakko Lehtinen, and Timo Aila. Analyzing and improv-ing the image quality of stylegan. InProceedings of theIEEE/CVF Conference on Computer Vision and PatternRecognition (CVPR), 2020. 

https://openaccess.thecvf.com/content_CVPR_2020/papers/Karras_Analyzing_and_Improving_the_Image_Quality_of_StyleGAN_CVPR_2020_paper.pdf
//

 作者介绍 

周航香港中文大学多媒体实验室四年级博士生,师从王晓刚教授。本科毕业于南京大学声学系。目前主要研究方向是音频-视觉的联合学习与人脸生成,曾在ICCV、CVPR、ECCV等会议发表多篇论文。CVPR 2020优秀审稿人,致力于推动视听结合的多模态领域发展。

Illustration by Oleg Shcherba from Icons8

- The End -

CVPR 2021 论文解读 

// 1

 SensatUrban: 城市规模点云数据集

// 2

 上交和国科大提出DCL: 旋转目标检测新方法

// 3

 TPCN 点云就是这么美妙

// 4

 机器学习与传统算法融合的图相似度求解

// 5

 图森未来团队提出LiDAR R-CNN:一种快速、通用的二阶段3D检测

// 6

 动态slimmable网络:高性能的网络轻量化方法!对比slimmable涨点5.9%!

// 7

 VSPW: 首个多场景大规模视频语义分割数据集

// 8

 图森未来与中科院自动化所提出GMTracker:一种基于图匹配的多目标跟踪方法

// 9

 SpinNet: 学习用于3D点云配准的强泛化能力的特征描述子

// 10

 RegDA:针对无监督关键点检测的回归域自适应方法

// 11

 都柏林圣三一大学和字节新工作ACTION-Net:一种高效、即插即用的动作识别模块

// 12

 大连理工大学卢湖川团队提出TransT: Transformer Tracking

// 13

 DisAlign: 面向多种长尾视觉任务的统一框架

// 14

 大幅涨点!孙剑团队提出新激活层ACON和轻量级网络TFNet

// 15

| RMNet:又快又好!基于局部特征记忆网络的视频物体分割

// 16

| 港大、牛津提出PAConv: 一种位置自适应卷积,点云分类、分割任务表现SOTA

// 17

 MotionRNN:针对复杂时空运动的通用视频预测模型

// 18

 RfD-Net: 从点云中重建三维物体实例

// 19

 无需风格图片的图像风格迁移


本周上新!扫码观看~

图片
图片
图片
关于我“
将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务将门技术社群以及将门创投基金

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”: 
bp@thejiangmen.com
图片    
点击右上角,把文章分享到朋友圈