雷锋网 AI 科技评论按:如今,已渗透到人类生活方方面面的对话 AI ,成为了连接人们的社会生活与 AI 技术最紧密的一根纽带。然而,自然语言对话技术目前存在的难以克服的挑战,也常让对话 AI 在与人类的交互过程中发生一些令人啼笑皆非的故事。目前距离类人智能还差上那么一截的对话 AI,到底该如何寻求发展与突破?
在 7 月 19 日召开的「市北·GMIS 2019 全球数据智能峰会」上,字节跳动人工智能实验室负责人、IEEE 会士、ACM 杰出科学家李航教授在主题为《自然语言对话:未来技术发展的机遇与挑战》的演讲中,基于自然语言对话技术目前面临的挑战,分享了该领域未来技术的发展机遇以及可以寻求突破的发展方向。与此同时,李航教授还特别强调了研发者在设计对话 AI 系统时需要遵循的原则之一:不要让系统假装智能。
我们来看李航教授都说了什么。
语音对话系统按技术来划分,主要有两类较为常用的技术——命令和问答,目前这两种技术相对来说较为成熟,在多个不同的场景中得到了应用。然而,现在开放域对话的实现,整体而言还存在比较大的挑战,即目前聊天机器人还无法做到与人类自由对话。
对此,李航教授指出了自然语言对话主要面临的两大挑战:
其一是自然语言理解问题,由于语言理解涉及到人类智能的所有方面,因而要想让机器真正精通语言理解是非常困难的。
其二是任务完成问题,因为对话实际上一种交互任务,双方彼此需要交换信息、交流情感来完成某个既定目标,而同样以完成交互任务为目标的对话系统在与人交互时,需要人类干预进行设置、终止或恢复,所以目前人工智能技术还无法独自完成整个交互任务。
虽然现在的强化学习、规则方法能够帮助机器做完成某些事情,但机器要想像人类一样去定义、产生并最终自主完成任务,同样也涉及到人类智能的所有方面,同样极具挑战性。
「语言理解和任务完成,其实也是整个人工智能领域最有挑战的问题,因为它们都是「完全人工智能」问题。」
针对以上提出的两点主要挑战,李航教授也从未来 5 到 10 年的维度,为未来寻求自然语言对话的发展突破指出了两条出路:
一方面是要做对话技术的突破。实际上我们人在对话时,不仅有语言上的信息交互,彼此间还有情感的分享,过程中会有一些社会习俗的因素在对话中体现出来,所以我们需要构建的对话系统,不仅要求它能够在不同场景中与人进行信息交流,还需要进行情感方面的交互。
另一方面是实现市场创新(商业化角度)。如果我们要实现真正的创新,核心点还在于思考能给市场用户带来多大的价值。技术的发明其实并不是一个想法的简单实现,而是需要能够帮助用户解决实际问题的,这样的发明创造才是通过市场检验的有价值的创造。
与此同时,李航教授还分享了一个他曾在其他演讲中提到过多次的观点:我们的技术永远在不断进度,但是什么时候能够真正满足用户的需求,还不确定。
在这个观点的阐述中,李航教授提到了两个重要的概念:技术的上界和使用的下界。以对话系统在与人交互时的理解准确率为例,随着对话技术的不断提高,对话系统的理解准确率上界在不断提高;而用户决定是否愿意使用这个对话系统则取决于准确率的下界,即如果准确率达不到某个水平,用户是不愿意使用的。同时,用户使用的下界绝对值不一定非常高,很可能准确率达到 50 % 就够了,但是在某些特殊的场景,技术的准确率可能要求达到 95%。
因此,李航教授认为,该领域的研发人员和从业者在寻求自然语言对话的发展突破时,要综合考量每个技术能达到的上界以及用户使用的下界。
基于前面对于整个对话技术的现状、挑战以及发展的突破方向的分析,李航教授认为自然语言对话目前也存在不错的发展机遇,在这里,他从产品设计的视角出发分享了四个他认为可以重点考虑的机会,包括:
第一,任务驱动的对话机器人。这一类机器人大家现在接触得比较多,现在的语音助手几乎都属于这类机器人。
第二,信息类机器人。人类获取信息的方式主要有两种,一种是搜索,一种是推荐,而信息类机器人则给人类提供了另一种新的信息获取方式——以聊天的方式获得信息。以亚马逊最近组织的 ALEXA 比赛为例,就是让参赛者设计对话机器人从社交媒体上找到各类有意思的信息去与用户对话,以对话的方式去帮助用户获取信息。
第三,情感类机器人。这类机器人并非是一个单纯的对话机器人,而是一种陪伴型机器人。以日本去年推出的一款叫做 LOVOT 的机器人为例,它在智能方面的实现程度并没有那么高,但是能够与用户进行情感上的互动,帮助用户发现自我。比如说它看到人以后会张开双臂让用户去拥抱它,同时用户还能够给它换衣服,所以人类在使用这类机器人时,更多地会将其当做一个宠物,并非常愿意与其进行互动。「未来的机器人应该也能够具备这样的互动和情感交流能力。」
第四,游戏类机器人。以一款叫做 FACEDE 的经典游戏为例,游戏中有一对夫妇住在一个公寓中,他们正在吵架,玩家可以进入公寓,并通过键盘以打字的方式与这对夫妇对话,有可能能帮助他们和好,也有可能让两人分手,同时也有可能同时得罪了他们被赶出公寓。在这个过程中,怎样设计对话技术是比较有发挥余地的地方,有时候你设计出来的对话可能并不能为系统和游戏所理解,但是如果用户觉得很有趣味性,也是值得考虑的方向。
李航教授表示,总体而言,对话机器人未来还有很多可以发挥的场景,该领域的研究者完全可以在不同的场景中做出好的成果。
最后,李航教授也基于自身在华为和字节跳动的研发经验,总结出了一套研发者在设计对话系统时应该遵循的四项原则:
第一,要让对话机器人在某个场景中能够做到「自封闭」。「我之前在做自然语言接口,即将自然语言转化为数据库语句时,当时大家都有一个非常清晰的共识,就是用户非常讨厌限制他在与机器对话时能说什么以及不能说什么,因此,在某个场景中,一定要让对话系统能够比较完整地理解用户的基本句法,从而保持与用户对话的流畅性和完整性。针对这点,我们也有一个 80%、20% 的定律,即系统不可能能够 100% 地理解用户,在某个场景中覆盖用户百分之八九十的基本句法就差不多了。」
第二,「失败的时候也要保持优雅」,即一旦系统无法理解用户,就一定要给用户提示。这样的话,即便系统在某些时候无法很好地理解用户的句法,用户在收到来自系统的提示后,心里上也会相对舒服些。同时,研发者还要为系统设计一个类似于「Home」的功能,即当对话系统没法完成与用户对话,用户可以通过这个功能重新与对话系统建立对话。
第三,要在对话系统中加入情感、文化的因素。对话系统与人类用户进行的不仅仅是语言上的对话,还应该包括情感和文化的因素在里面。因此,如何让系统在对话过程中更加富有情感和文化因素,也是研发人员需要重点关注的地方。
第四,「不要让系统假装智能」。如果将某个对话系统的智能定位得过高,其一旦在与用户的对话中无法做到灵活应变,就会让用户产生更大的心理落差,让人觉得这种智能不过是很傻的智能。
「我们都希望对话系统越来越智能,用户用起来也越来越方便,最终对话系统能像真人一样与人交互。但在此之前,我们还是需要一步步脚踏实地地去朝着这个目标迈进,而不是在系统还没有达到类人水平的时候,硬让系统假装智能,这不是一个正确的做法。」
雷锋网 AI 科技评论报道。 雷锋网