‌AI数字人技术取得突破性进展 与爱为舞发布实时语音驱动框架‌-新华网
新华网 > > 正文
2025 09/17 16:42:17
来源:新华网

‌AI数字人技术取得突破性进展 与爱为舞发布实时语音驱动框架‌

字体:

  近日,我国人工智能应用企业“与爱为舞”研发团队在数字人技术领域取得重要突破,自主研发实时音视频同步动画生成系统,并在2025国际人工智能联合会议(简称IJCAI 2025)上发表相关论文,目前已在多类实际场景中实现规模化落地,展现出显著的技术先进性与应用潜力。

  不久前落幕的2025国际人工智能联合会议上,与爱为舞团队发表题为《SyncAnimation: A Real-Time End-to-End Framework for Audio-Driven Human Pose and Talking Head Animation》的学术论文,系统阐释了其在高精度语音驱动数字人姿态生成方面的创新成果。国际人工智能联合会议是人工智能领域公认的最具权威性和影响力的学术会议之一,也被中国计算机学会(CCF)列为A类国际会议,该论文的入选意味着与爱为舞在实时数字人生成技术方面已达到国际前沿水平。

  “AI数字人不仅是技术产品,更是连接现实与虚拟世界的重要媒介。”与爱为舞技术负责人表示,“团队致力于打造真正‘可用、好用、用得起的’数字人系统,推动人工智能技术应用在产业中。”据了解,与爱为舞已组建起一支专业从事数字人技术研发的专家团队,形成从算法设计、系统开发到场景落地的全链条自研能力,推出了一批达到真人级表现、可扩展、可商用的数字人产品,广泛应用于教学互动、内容创作与虚拟交互等领域。

  据主创人员介绍,SyncAnimation框架实现了从音频输入到数字人全身姿态及口型、表情的端到端实时生成,突破了语音与视觉表现之间长期存在的对齐难题。该技术不仅能够做到音画同步毫秒级响应,还可支持多种人物风格和语言环境,在低延迟条件下生成高度自然的数字人动画,显著提升了虚拟形象的真实感和表现力。同时无需推理资产,通过单张图片和噪声即可驱动数字人生成,并且能够区分说话与静默状态,对应生成不同姿态,使姿态更符合真实交流场景。

  目前,该系统已在多个真实商业场景中成功应用,展现出较强的实用性与拓展潜力。例如,数字人教师能够根据讲解内容实时生成精准的口型、自然的表情以及恰当的手势动作,显著提升授课的沉浸感与互动体验。在短视频创作与虚拟直播中,用户可借助该系统快速生成形象逼真、口型精准、表情丰富的虚拟人内容。此外,该技术还具备良好的跨模态扩展能力,能够与语音识别、自然语言理解、动作捕捉等模块结合,实现从语言、视觉到动作的多模态一体化交互,在虚拟客服、数字导览和多模态交互等场景中展现出广阔的应用前景。

AI数字人老师在上课

  有业内专家指出,实时、高拟真度的语音驱动数字人技术,对构建下一代人机交互系统具有重要意义。与爱为舞凭借其全自研技术架构与多场景验证经验,已在该领域形成领先优势,其技术路线和落地成果为AI应用产业化提供了重要实践参考。

  随着人工智能技术不断发展,以数字人为代表的交互型AI应用正迎来快速发展期。与爱为舞未来将继续深化核心算法研发、拓展更多应用场景,推动数字人技术向更低成本、更高效率、更强表现力方向发展,助力我国“人工智能+”产业生态建设。

【纠错】 【责任编辑:周靖杰】