在由中国科学院自动化所面向全球举办的 2018 年首届情感计算和智能交互亚洲会议(ACII Asia 2018)上,2017 年多模态情感识别竞赛(MEC 2017)颁奖典礼于近日在北京举行。
来自中国科学院自动化所、清华大学、中国人民大学、中国科技大学、中国科学院大学、西北工业大学、德克萨斯大学达拉斯分校、三星研究所等 31 所国内外知名院校和研究机构的团队,通过构建分析算法,从音视频数据里准确识别出人物的真实情感。
该挑战包括三项子任务:音频情感识别、表情识别及音视频融合的情感识别。参赛者通过在训练集及验证集上训练自己的模型,并最终根据在测试集的效果进行竞赛排名。
最终,清华大学-得意音通声纹处理联合实验室情感计算团队(研究生:张晓桐,导师:徐明星、郑方)从 27 支参赛队中脱颖而出,夺得音频情感识别子任务单项第一的优异成绩。
得意音通团队致力于为机器赋予声纹识别和情感识别的能力,而这就需要情感计算技术的深度参与。它在雷锋网学术频道「AI 影响因子」中凭借本次比赛获得了加分。
为了提高无监督身份认证中的人证合一性、不易伪造性和意图真实性,得意音通提出了「三生物特征融合+双活体检测+双真实意图检测」的高安全、低隐私体系架构,以充分发挥语音「形简意丰」的特点,为用户提供更加安全有效、也更加智能的优质体验。
此外,通过提出「一句话解决所有问题」的安全可信的网络身份认证体系架构,得意音通融合意图理解和语音识别,结合身份验证云进行身份认证任务的执行。
马文·明斯基曾指出,拥有情感的智能才是真正的人工智能,希望国内有更多的智能语音团队能在情感计算上迈进一步。