这几天,阿里的对口型视频生成工具EMO火了。根据官方宣传,EMO只需要上传一张图片和一段音频就可以一键生成对口型视频,而且视频中的嘴型还可以与声音匹配。这项技术支持多语言、对话、唱歌以及快速语速的适配,但也可能成为制造虚假视频的利器,因此一些名人可能需要警惕了。(EMO下载地址见文末)
EMO框架的技术原理主要分为两个关键阶段:帧编码和扩散过程。
首先,在帧编码阶段,系统通过ReferenceNet提取特征,这是生成EMO视频的首要步骤。ReferenceNet是一种能够从单张参考图像和运动帧中提取特征的工具,其作用在于对输入的图像进行深度分析,从中提取关键信息。这些特征将作为后续生成过程的基础,有助于系统更好地理解参考图像和动态运动。
接着,在扩散过程中,系统采用预先训练的音频编码器来处理音频嵌入。这个阶段的关键在于利用面部区域掩码和多帧噪声集成生成面部图像。通过这种方式,系统能够根据输入的音频内容,结合已有的面部特征,生成具有丰富表情和多变头部姿势的视频。
在整个生成过程中,Backbone网络内部应用了参考注意力和音频注意力机制,这些机制对于保持角色的身份特征和调节角色的动作至关重要。同时,时间模块用于操纵时间维度和调整运动速度,以确保生成的