新加坡南洋理工大学研究团队用人工智能创建“会说话的头像”

新加坡南洋理工大学计算机科学与工程学院的Lu Shijian副教授带领的研究团队开发出一种计算机程序,能够根据音频片段和面部照片生成逼真的视频,展示出说话人的面部表情和头部动作。

新加坡南洋理工大学研究团队用人工智能创建“会说话的头像”

这项名为DIverse yet Realistic Facial Animations(简称DIRFA)的程序是基于人工智能技术,通过接收音频和照片生成一个三维视频,展示出与音频同步的逼真且一致的面部动画。

南大开发的这项软件改进了当前现存类似技术中动作变化与情绪控制不能很好匹配的问题。为了实现这一目标,这个开发团队用开放的数据库中获取的6000多人的100多万个音视频片段来训练DIRFA,以预判语音中的线索,并将其与面部表情和头部动作相匹配。    研究人员表示,DIRFA在各个行业和领域中都有可能被应用。例如,在医疗保健领域,它可以实现更复杂、更逼真的虚拟助手和聊天机器人,提升用户体验。此外,它还可以成为语音或面部残障人士的强大工具,帮助他们通过表情或数字化显示来表达自己的思想和情感,增强他们的沟通能力。

来源 | NTU官网
翻译 | Katrina
编辑 | Carey审核 | Otto