雷锋网AI科技评论按:在 IJCAI 2017的 Early Career Spotlight 环节上,共有15位来自全球各地的杰出青年科学家来到现场分享他们的学术成果,其中有四位华人学者,他们分别是:
新加坡南洋理工大学计算机科学与工程学院南洋助理教授安波;
清华大学交叉信息研究院青年千人助理教授唐平中;
美国伦斯勒理工大学计算机学院助理教授夏立荣;
美国亚利桑那州立大学计算信息和决策系统工程学院助理教授何京芮。
雷锋网AI科技评论将先后放出这四位华人学者的系列专访,夏立荣博士的本篇专访为此系列的第三篇,往期报道可查看:
夏立荣,美国伦斯勒理工学院(RPI)计算机系助理教授,在 2013 年加入 RPI 之前,他是哈佛大学计算与社会研究中心的 CRCS fellow 和 NSF CI Fellow。他博士和硕士分别毕业于杜克大学计算机系和经济系。他的研究主要集中在计算机科学和微观经济学的交叉研究。他是 Mathematical Social Sciences 的副主编和 Artificial Intelligence Journal 的编委会委员,曾任 Journal of Artificial Intelligence Research 的编委会委员。他获得过 NSF CAREER award,Simons-Berkeley Research Fellowship, IEEE Intelligent Systems 的 AI's 10 to watch 之一。
在 IJCAI 2017 的 Early Career Spotlight 上,夏立荣博士发表了题为《Improving Group Decision-Making by Artificial Intelligence》的演讲。从「人机合作」和「以人为本(human-aware)」两个角度,如何理解改善群体决策的研究的?
夏立荣博士认为,群体决策是人类社会中十分常见的问题。大到政治选举,国防,医疗,经济等重要决策,小到企业招聘,朋友聚餐点菜等,都属于群体决策的范畴。「困难之处在于人们的偏好经常不一致,导致经常不存在对所有人都最优的决策。如何在整体效率和公平性之间找到一个平衡,甚至如何定义效率和公平性,是解决问题的关键。关于这个问题,传统的研究主要集中于经济学领域尤其是社会选择理论中(social choice theory)。」
先进的群体决策理论和应用与 AI 的发展方向密不可分。夏立荣博士告诉雷锋网 AI 科技评论,斯坦福大学的 AI 百年研究报告指出(雷锋网 AI 科技评论按:即《Artificial Intelligence and Life in 2030》,报告全文可在「AI 科技评论」微信后台回复「2030」下载),未来 AI 的发展会更多地强调人机合作以及以人为本,而其中,群体决策就是一个典型的例子:智能系统需要从人类获取偏好和信息,而最终决策必须考虑对人类的影响。「比如说,在群体决策这个问题上人机合作包括如何获取人的偏好,如何更好的促进信息共享,如何找到不一致的观点等;了解人类方面包括如何做出公平和鲁棒的决策,如何考虑人类的策略行为等。」(雷锋网 AI 科技评论按:具体的研究内容,可参见新近出版的《Handbook of Computational Social Choice》,出版社提供免费 PDF 下载)
根据我们的认知,在改善群体决策的过程中,AI 所承担的风险与实际应用的场景大小呈正比。越高风险的决策往往更加复杂,人类也会更加谨慎,那么人类如何在 AI 的帮助下,实现应用层面的风险控制及效率提升的平衡呢?根据夏立荣博士的说法,我们首先需要一个人类对于风险和效率的偏好模型。所幸经济学,心理学以及决策论有许多成熟的准则。在 AI 的帮助下,人类可以更好更快的探索风险和效率最好的平衡。但具体应用的时候又是如何知道一个人对于风险和效率的态度呢?这里又回到前面提及的人机合作和以人为本。「智能系统需要知道人类的态度,理解人类的需求,从而设计有效的算法。」
Early career spotlight 是 IJCAI 2016 新增加的项目,报告者需要由 IJCAI 程序委员会成员提名。从夏立荣博士的个人感觉而言,有点像专门为青年学者准备的特邀报告,研究做得越好,被邀请的几率越高。今年能受邀参加 IJCAI 2017的 Early Career Spotlight 环节,夏立荣博士认为于他而言是一个很大的荣幸,希望能借助这个机会,让更多的人了解群体决策(甚至更广义的经济与计算方向)的重要性。
同时,夏立荣博士也非常谦逊地告诉雷锋网 AI 科技评论,除了 Early Career Spotlight 演讲嘉宾以外,还有很多非常值得关注的科学家,「比如 IEEE Intelligent Systems 每两年一度评选的 AI's 10 to watch。其中有不少华人,包括哈佛的陈怡玲老师,RPI 的季姮老师,清华的朱军老师等。偏理论一点的上海财经大学的陆品燕老师的工作也非常值得关注。」
在 Early Career Spotlight 的演讲中,针对统计、计算及经济学三个维度,夏立荣博士向听众详细介绍了自己的三个工作方向。
统计和机器学习方面,夏立荣博士和合作者的贡献主要在于刻画和计算统计意义上最优的群体策略。这个方向最经典的结果是 1785 年的 Condorcet Jury Theorem:在一定的假设下,所有人投票选出的决策优于单个人做出的决策。这个思想和机器学习中的集成学习思想类似。「具体来讲,我们提出了广义随机效用模型的第一个参数估计算法,第一个主动学习算法,以及第一个混合模型的可辨识性定理。我们第一个在群体决策的背景下用社会选择理论中的公平性原则来衡量贝叶斯估计,并证明了第一个关于贝叶斯估计的不可能定理。我们还提出了一个 Mallows 模型下贝叶斯推断的蒙特卡洛算法,并第一个给出了混合时间的理论上界。」
计算方面,夏立荣博士及团队的主要贡献在于研究如何用高计算复杂度防止群体决策中的操控现象(manipulation),即群体中的某些个体通过撒谎而获得对他自己更加有利的结果。通过研究,团队的主要理论结果显示:高计算复杂度在某些群体决策系统里可以比较好的防止操控现象,而在另外一些系统里则不是那么有效。
「在经济学方面,我们的一个主要研究方向是组合域投票(combinatorial voting)。即,人们经常要对若干个相关的问题同时做出决策。」比方说,假设我们要决定下一年度的财政支出计划。对于国防,教育,医疗,养老,工业,金融,基建等问题都要决定是加大投入,减少投入,还是维持不变。由于决策空间过于复杂,如何获取个体的偏好都成为了一个非常具有挑战性的问题。夏立荣博士及合作者通过利用知识表示(knowledge representation)中的方法让个体表达偏好,并在此基础之上设计高效和公平的群体决策机制。
目前,夏立荣博士在计算方面的工作和经济学方面的工作可以在 《Handbook of Computational Social Choice》 的第 6 章和第 9 章找到。而他在统计和机器学习方面的研究被 《Synthesis Lectures on Artificial Intelligence and Machine Learning》 邀请,计划于 2019 年初出版。
而对于这三个工作方向,夏立荣博士向雷锋网 AI 科技评论表示,它们能主要应用在日常生活中的群体决策场景。社会选择理论和机制设计理论的传统做法是对特定的场景单独设计一个机制,经典案例如总统选举或拍卖环节。然而,随着智能群体决策系统更加广泛和深入地进入我们的日常生活,每次群体决策都找专人单独设计一个新的机制并不现实。夏立荣博士的想法是将这个设计过程自动化:决策者可以随意提出这个机制需要满足的公平性原则以及其他要求,随后框架能自动计算出尽量满足决策者要求的机制。这并不是一个简单的优化问题,并且类似的想法在机制设计中已经被提出,但以往的技术并不能用到群体决策问题中。
不过夏立荣博士也提及,其中最大的挑战可能是如何劝说大众使用机器设计出来的群体决策机制。「人们在做决策的时候还是倾向于使用自己能完全理解的机制,而机器设计的机制可能超出了一般人的可接受范围。如何自动设计简单的、可解释的机制是我们正在研究的目标。」
在决策中,不确定条件下决策分析是一个非常成熟的方向。「从建模的角度来讲,我认为不确定条件下决策分析的难度在于,没有一个统一的理论能完全解释人类对于不同决策的偏好。实际应用中,决策论中一些常用的目标经常被用到,比如 maximum expected utility, minimax regret 等。技术上来讲,主要难点在于对应的单目标或多目标规划问题复杂的经常很高。」
夏立荣博士表示,最近 RPI 和 IBM 合作建立了一个新的实验室 Cognitive and Immersive Systems Lab,旨在研发新一代的智能决策系统。实验室主任苏辉教授的愿景是,希望这个系统能从人类参与者之间的自然交流获取信息,搜索并将新的信息整合反馈,最终人机合作达到预设的目标,比如做出一个群体决策。在这个系统中,智能系统通过对人类参与者的语言,动作,表情等进行分析,从而抽象出情感,偏好等相关信息。基于这些信息的极大不确定性和决策空间的复杂性,各种方法都可以在其中发挥应用余地,包括机器学习、多目标规划以及优化等。
而在开源当道的大环境下,夏立荣博士所在的研究小组也做了一些开源的尝试。 这个名为「OPRA」(Online Preference Reporting and Aggregation)的开源系统。这个项目一开始是为了给讨论课上的同学们安排文章和报告文章的日期。同学们对文章和日期的偏好有时候有很大冲突,所以很难找到一个让所有人都满意的日程安排。「这里的情况类似于组合域投票,很多问题都是现有的方法无法解决的。比如如何有效地获取人的偏好,如何有效地找到冲突以及帮助人们解决冲突等等。当时就在想建立一个平台,整合最新的理论结果来帮助人们做群体决策,比如前面所讲的,我们在机器学习方面和组合域投票方面的工作。」
根据夏立荣博士的介绍,OPRA 目前主要用在 RPI 内部帮助学生和老师做决策。除了制定讨论课日程外,OPRA 还用于让 RPI 计算机系学生通过投票选出最佳 poster 奖,在课上让学生决定答疑日期和复习题目,举行课堂小测验等等。而夏博士表示,短期内希望以 RPI 为平台来开展更广泛的应用,比如基于偏好匹配老师和助教,帮助学生寻找兼职等。「我们正在与 RPI 学生会合作,希望将 OPRA 用到一年一度的学生领袖选举中。长期来讲,我们希望 OPRA 能成为最好的在线群体决策平台。」
由于是完全开源的系统,如果任何人想使用部分或者全部代码,或者有任何问题和建议,夏立荣博士表示非常欢迎给他来信。(OPRA地址:http://www.opra.io)
「有趣、有用」,这是夏立荣博士提及人工智能、多智能体及不确定性决策领域的最大感触。他表示,经济学和其他社会科学给传统的 AI 系统优化带来了很多有趣的角度,比如博弈论中考虑的人类参与者的动机以及对整个系统的影响,又比如机器学习算法的公平性等。另一方面,夏立荣博士认为 AI 技术的发展帮助我们解决了许多问题,比如帮助人们更好的做出群体决策。同时又派生出了很多新的研究方向,比如 AI 和道德,AI 和可持续性发展等等。
而研究的下一步,夏立荣博士计划按照斯坦福 AI 百年研究报告所揭示的,以更好的人机合作和以人为本为目标,继续发展群体决策理论和构建群体决策系统(比如 OPRA),特别是从统计、计算、以及经济学的角度来设计并衡量群体决策系统。
夏立荣博士认为,因为新的事物需要花一定的时间才能被人们接受,因此决策机制的实际应用和很多其他 AI 系统一样,直接广泛应用的难度很大。所以,他近期计划将研究重点放在其中相对风险比较低的日常生活场景上,当人们逐渐习惯并接受之后,再扩展到更重要的决策场景。