SentiPulse携手人大高瓴:开源交互式3D数字人框架SentiAvatar,领跑行业主流模型
3D数字人行业长期陷入“颜值内卷”的怪圈,忽视了自然表达与流畅动作的重要性。尽管建模和渲染技术不断进步,但数字人的肢体动作常与语义脱节,表情与情绪割裂,机械感强烈,难以实现深度交互。
人类沟通中,超70%的信息隐藏在非语言信号中,如耸肩、挑眉等细节。然而,数字人发展面临三大瓶颈:中文高质量数据稀缺、复杂语义下动作漂移、音画节奏错位。这些问题让数字人停留在“预设脚本播放机器”的阶段,无法真正“懂交流”。
为此,SentiPulse联合中国人民大学高瓴人工智能学院推出SentiAvatar,一款面向全球开源的交互式3D数字人框架,旨在打破这些瓶颈。SentiAvatar通过全新动作生成范式,赋予数字人更自然的动作与表情。
在数据层面,团队构建了SuSuInterActs数据集,包含2.1万段多模态对话语料,涵盖语音、文本、全身动作与面部表情,填补了中文高质量数据空白。同时,自研的Motion Foundation Model动作基础模型,在超过200K条异质动作序列上训练,突破对话场景限制。
SentiAvatar创新提出“plan-then-infill”双通道架构,将身体动作与面部表情分开处理,先规划动作,再逐帧填充细节,确保流畅性。实验显示,SentiAvatar在多项核心指标上达到国际最优水平(SOTA),性能全面领先行业主流模型。
基于高质量数据与核心架构,SentiAvatar可在0.3秒内生成6秒动作序列,支持无限轮次流式交互,解决“交互卡顿”问题。目前,该框架已上线GitHub开源平台,开发者可低成本打造专属数字人,并拓展其在游戏、影视、机器人等领域的应用。
当数字人能感知语境、理解情绪并主动表达,它将不再是冰冷的工具,而是具备情感价值的“数字生命”。
-
2026-04-08 19:08:30 -
2026-04-08 19:07:25 -
2026-04-08 19:06:17