华为的EmoTalk3D数字人模型是由华为诺亚方舟实验室、南京大学和复旦大学共同研发的一种先进的三维数字人技术。这项技术的核心在于能够合成具有丰富情感表达的3D会说话头像。
主要特点:
-
情感表达合成:EmoTalk3D可以根据输入的音频信号合成具有相应情感表达的3D头像动画,包括喜悦、悲伤、愤怒等多种情感状态。
-
唇部同步:该技术实现了高度准确的唇部运动与语音同步,确保3D头像在说话时唇部动作与实际发音相匹配。
-
多视角渲染:支持从不同角度渲染3D头像,保证在不同视角下观看时都能保持高质量和一致性。
-
动态细节捕捉:能够捕捉并再现说话时的面部微表情和动态细节,如皱纹、微妙的表情变化等。
-
可控情感渲染:用户可以根据需要控制3D头像的情感表达,实现情感的实时调整和控制。
-
高保真度:通过先进的渲染技术,EmoTalk3D能生成高分辨率、高真实感的3D头像。
技术原理:
-
数据集建立:收集了多视角视频数据,包括情感标注和每帧的3D面部几何信息,构成了EmoTalk3D数据集。
-
音频特征提取:使用预训练的HuBERT模型将输入语音转换为音频特征,并通过情感提取器从音频特征中提取情感标签。
-
Speech-to-Geometry Network (S2GNet):将音频特征和情感标签作为输入,预测动态的3D点云序列。
-
3D几何到外观的映射:基于预测的4D点云,使用Geometry-to-Appearance Network (G2ANet)合成3D头像的外观。
-
4D高斯模型:使用3D高斯Splatting技术来表示3D头像的外观,外观进一步分解为规范高斯(静态外观)和动态高斯(由面部运动引起的皱纹、阴影等)。
EmoTalk3D的推出标志着在3D数字人领域的一个重大进步,特别是在情感表达和唇同步技术上。这一技术有望在虚拟助手、游戏、电影制作等多个领域得到广泛应用12。