VividTalker: A Modular Framework for Expressive 3D Talking Avatars with Controllable Gaze and Blink

📄 VividTalker: A Modular Framework for Expressive 3D Talking Avatars with Controllable Gaze and Blink #语音合成 #音视频 #模块化架构 #扩散模型 #多语言 ✅ 7.5/10 | 前25% | #语音合成 | #模块化架构 | #音视频 #扩散模型 学术质量 6.0/7 | 选题价值 1.5/2 | 复现加成 0 | 置信度 高 👥 作者与机构 第一作者:Hangyu Xiong(丹麦技术大学 (DTU), Denmark) 通讯作者:Qingzheng Hu(INTI International University, Malaysia) 作者列表: Hangyu Xiong(丹麦技术大学 (DTU), Denmark) Jinyi Zhang(加州大学洛杉矶分校 (UCLA), USA) Zheng Wang(清华大学, China) Tianlun Pan(西交利物浦大学, China) Qingzheng Hu(INTI International University, Malaysia) 💡 毒舌点评 亮点:该论文直击3D数字人“死鱼眼”这一让用户体验崩盘的具体痛点,并提出了一套基于生理学原理、可即插即用(无需重训练)的眼部动态增强方案,效果量化显著(眨眼真实度MOS提升2.5分),这种“问题-方案-验证”的链条非常清晰且实用。 短板:作为一篇方法框架论文,其核心的眼部增强模块是建立在现有开源工具(SadTalker, FaceVerse等)之上的“魔改”,更像是一个精巧的工程集成方案,缺乏在底层生成模型或表征上的原始创新;同时,论文对如何获取其构建的评估数据集(40个合成视频)语焉不详,且完全未开源核心代码,使得其宣称的“可复现性”大打折扣。 ...

2026-04-29