EMO (Emote Portrait Alive) – 阿里创新音频驱动型肖像视频生成框架

EMO (Emote Portrait Alive) 是由阿里巴巴集团智能计算研究院的研究团队开发的创新音频驱动型肖像视频生成框架。该系统以音频信号为驱动,生成栩栩如生的肖像视频。用户仅需提供一张参考图片和音频文件,如说话或唱歌的声音,EMO便能根据音频内容生成一段生动的视频。在视频中,人物将展现丰富的面部表情和多样的头部动作,仿佛图片中的人物正在说出或唱出你提供的音频内容。EMO系统的出色之处在于,它不仅能够精准捕捉人类微妙的表情细节和个性化的面部特征风格,生成具有高度真实感和强烈表现力的动态图像,而且可以根据音频长度生成任意时长的视频,同时保持角色身份的一致性。不论是处理不同语言的歌曲、让古代画像栩栩如生,还是生成具有逼真动作和表情的三维或AI内容,EMO都能游刃有余地为其注入生动的动态效果。此外,它还能完美驾驭快节奏,确保快速歌词与角色动画的精准同步,为用户带来极致的视觉享受。

EMO (Emote Portrait Alive) - 阿里创新音频驱动型肖像视频生成框架

官网入口:https://humanaigc.github.io/emote-portrait-alive/

主要功能特点:

  • 音频驱动视频合成:EMO能够根据提供的音频文件,结合静态肖像图片,自动生成与音频内容对应的表情和头部动作的视频,实现了视觉与听觉的高度同步。
  • 精准表情和动作同步:EMO模型细致入微地捕捉音频中的情感细节,确保生成的虚拟角色在视频中展现出与音频情绪相契合的生动表情变化和头部动作。
  • 广泛的多语言支持:不论输入何种语言的音频,都能适应并生成相应语言环境下的口型同步视频,打破了语言的壁垒。
  • 风格适应性强:不受限于特定的艺术风格或媒介,无论是古典油画、现代插画,甚至是3D建模的角色,都可以通过该技术赋予动态的生命力。
  • 角色一致性保持:即使在生成较长的视频序列中,也能确保角色的身份特征得到稳定和一致的保留,不会出现明显的视觉断裂或身份错乱。
  • 灵活的时间轴控制:可以根据实际需要,依据输入音频的长短自适应地生成任意时长的视频内容,大大增强了创作灵活性。
  • 跨文化和多语言应用场景:由于其出色的多语言适应能力,EMO技术可应用于跨文化的艺术创作、影视作品、教育素材制作以及各种场景下的虚拟角色互动,极大地拓宽了其应用领域。

EMO (Emote Portrait Alive) - 阿里创新音频驱动型肖像视频生成框架

EMO 原理:

  • 框架主要由两个阶段组成。在称为帧编码的初始阶段,部署了 ReferenceNet 以从参考图像和运动帧中提取特征。随后,在扩散过程阶段,预训练的音频编码器处理音频嵌入。面部区域蒙版与多帧噪点集成在一起,以控制面部图像的生成。随后,我们采用骨干网络来促进降噪操作。在骨干网络中,应用了两种形式的注意力机制:参考注意力和音频注意力。这些机制分别对于保持角色的身份和调节角色的动作至关重要。此外,时间模块用于操纵时间维度,并调整运动速度。

EMO (Emote Portrait Alive) - 阿里创新音频驱动型肖像视频生成框架

效果展示:

AI大模型

GPT-4 - OpenAI 开发的最新一代大型语言模型

2024-5-24 11:44:08

AI大模型

云雀大模型 - 字节跳动研发基于注意力机制的深度学习语言模型

2024-5-24 14:33:19