雷锋网 AI 科技评论按:IJCAI(国际人工智能联合会议,International Joint Conferences on Artificial Intelligence)是人工智能领域历史最为悠久,也是影响力最大的学术会议之一,随着近年来人工智能的热度日益攀升,原本仅在奇数年召开的 IJCAI 自 2015 年开始变成每年召开。今年,万众瞩目的 IJCAI 也将如约而至,将于 8 月 10 日至 16 日在中国澳门隆重召开。
特邀报告(Invited Talks)作为 IJCAI 最受关注的环节之一,随着会议的临近,特邀讲者名单也在相继公布中。机器人作为人工智能领域的一个非常重要的研究方向,本次大会也特别邀请了机器人专家、麻省理工教授 Leslie Kaelbling 做特邀报告。届时,她将带来主题为《Doing for our robots what evolution did for us》的特邀演讲。
Leslie Kaelbling 是麻省理工学院的机器人专家。 她在强化学习、规划、机器人导航等人工智能研究领域获得了引人注目的研究成果,其中包括将运筹学中的部分可观察的马尔可夫决策过程应用到人工智能和机器人中,曾获得 IJCAI「计算机与思想奖」(Computers and Thought Award)等重要奖项,同时她也是人工智能领域颇负盛名的《机器学习研究杂志》的创始人兼主编。
近日,麻省理工学院教授 Lex Fridman 在其播客访谈节目《Artificial Intelligence Podcast》中与 Leslie Kaelbling 进行了对话。对话中,Leslie Kaelbling 不仅分享了她从哲学领域转入计算机科学领域,并与 AI 和机器人结缘的背后的故事,还详细阐述了其对于机器人发展历程以及现状的见解。
雷锋网 AI 科技评论将采访视频整理成文如下,全文进行了不改变原意的删改。
(本文为下篇,上篇阅读请前往:https://www.leiphone.com/news/201904/MCIWUjYZeOXYofuJ.html)
Lex Fridman:您认为感知和规划哪个的难度系数更高?您如何看待通过了解周围的世界来实现感知?
Leslie Kaelbling:我认为一个重要的问题是表示。近来,感知取得了很大的进展,我们可以用来分类图像,玩某些类型的游戏或者将其应用到驾驶汽车等等。我认为,我们对于应该提供怎样的感知还没有很好的思路。
关于模块化,现在有一个很强烈的观点表示,我们不应该创建任何模块化,而应该创建一个巨型神经网络,并对它进行端到端地训练使其完成任务,这才是向前发展的最佳方式。这个观点很难反驳,除非在样本复杂性的基础上,你或许可以说,如果想要在在这个巨型神经网络上实现强化学习,就需要大量的数据以及许多类似损坏的机器人系统等。
对此也仅有唯一一个答案:我们需要在里面构建一些东西(才能降低样本复杂性的需求),比如构建一些结构、构建一些偏倚。从机器学习理论上来看,降低样本复杂性的唯一方法就是以某种方式缩小假设空间——这可以通过内部的偏见来实现。我们有各种各样的理由认为,自然界为人类内置了偏见。而卷积就是一种偏见,一种非常强烈、具有批判性的偏见。
所以我个人认为,我们需要寻找更多像卷积一样,并且还能够解决其他方面的推理问题的东西。在与成像非常相似的空间推理等问题上,卷积给我们带来了很大的帮助。我认为,类似的其他想法,例如向前搜索、抽象概念以及目标等的存在都是非常重要的,但是人们往往不给这些想法萌芽的机会。
Lex Fridman:目标语义、目标空间中的类似于卷积的想法?
Leslie Kaelbling:是的,人们开始研究的图卷积就是与一种关系表征相关的想法。我认为对于感知,研究者们接下来要实现的就是更好地理解感知是如何产生的。之后,我们才能更好地知道要对输出做什么。但我们仅仅试图去创建一个集成智能体,而实际上并不清楚感知的输出应该是什么,也不知道这些输出怎样和其他东西挂上钩。因此,我认为现在迫在眉睫的问题就是,我们能够创建什么样的架构,比如另一个能像卷积网络那样允许我们在上面实现高效学习的真正非常厉害的架构。
Lex Fridman:您对于感知目前的发展现状令人信服的描述,我也赞成。您在教授一门关于智慧的集成的课程,那您认为怎样才能创建拥有人类智能水平的机器人?
Leslie Kaelbling:我不清楚我们到底是否知道该怎样创建这样一个机器人。
Lex Fridman:那您认为机器人需要拥有自我意识、知觉、伦理道德吗?
Leslie Kaelbling:我没怎么考虑过机器人是否需要知觉这一问题,即便是大多数关注这个的哲学家都知道,我们可以拥有行为表现像人类但没有知觉的僵尸机器人。在这个时候,我们会庆幸并不关心这个方面的问题。
Lex Fridman:您是否有从技术角度来思考过自我意识对于机器人的作用?
Leslie Kaelbling:但是自我意识到底意味着什么呢?你需要实现的是让某些系统的部分观察系统的其他部分,然后告知我们是否运行良好,这是很关键的。它们是否具有自我意识,则取决于我们给「拥有自我意识」设定了怎样的标准。但显然,比如说某行代码计算出程序执行的次数,这其实也是一种自我意识。所以这里的边界挺模糊的,可以要求很高、也可以要求很低,我们还在摸索一个合理的标准。
Lex Fridman:您在很多维度上都了解得很长远,但是最吸引该领域研究者的一个研究方向则是让机器人的智能达到人类水平。
Leslie Kaelbling:但是现在对于我来说,最有吸引力的研究方向应该是研究如何选择把哪些东西构建在系统中、把哪些东西交给系统去学习。如果你问我多少年后机器人的智能可以达到人类水平,我甚至都不会参与这一讨论,因为我认为我们错过了很多想法,也不知道到底需要多少年去实现这一目标。
Lex Fridman:我不问您多少年后可以实现,但是我可能需要问,对于我们目前已实现的成就,您印象比较深刻的是哪个?您认为什么才是不错的智能测试?您认为面向机器人自然语言的图灵测试等测试基准怎么样?是否思考过这些问题?
Leslie Kaelbling:我比较反对这些测试基准。我认为我们花了太多的时间在争论哪些事情对于提高机器人的性能更好上。
Lex Fridman:测试基准、数据集或者图灵测试挑战其实可以将研究者们汇聚起来,激励他们创建出表现更好的机器人,因为他们都希望在比赛中获胜,例如自动驾驶领域的 DARPA 挑战赛。您怎样看待它们的价值呢?
Leslie Kaelbling:许多人都认为这些比赛是具有激励性的,是很好的,但是我个人认为它们是反激励性的。不过你们或许能够获得一段有趣的时期——一群聪明的人在比赛中获得了超大的动力,并最大限度地发挥出脑力,有时候可能也会产生很酷的想法,可供我们事后咀嚼。这对我来说并不是一件好事,不过我也并不反对大家这么做。
Lex Fridman:这就跟您之前所说的,某件事以外的所有其他事情都会让它变得更好。下面我们跳过一些问题。您创立了《机器学习研究杂志》(Journal of Machine Learning Research,JMLR)并担任其主编,那出版这一期刊是基于怎样的契机?您如何看待当前机器学习和人工智能领域的出版模式?
Leslie Kaelbling:好的。我之所以会创立《机器学习研究杂志》,故事源自于当时由 Kluwer 创立的叫做《机器学习》的期刊。当时我也是编辑委员会中的一员,我们常常会召开一些会议,向 Kluwer 抱怨,对于图书馆来说杂志太过昂贵并且人们难以在上面发表文章。当时,我们真的希望为这部分人解决这些问题,不过其他人永远只会表示自己的同情而会采取任何行动,所以我们就决定创立一份新杂志。当时也有一份杂志叫做《人工智能研究杂志》,这份杂志也采取同样的出版模型,并且以这一模型存在了 5 年左右的时间,也发展得非常好。
我猜想我们当时都并不知道怎么创立一份杂志,好在这件事情本身并不难。于是,《机器学习》期刊编辑委员会中 75% 的成员都从那里辞职,来共同创立了这份新杂志。
Lex Fridman:所以新创立的这份杂志更加开放?
Leslie Kaelbling:是的,《机器学习研究杂志》是完全开放的。当时我有一个博士后学生 George Kennedy 就想要呼吁这些杂志免费向所有人开放。
由于《机器学习研究杂志》既没有版面费用,也没有访问限制,当时很多人都对这本杂志心存怀疑,认为这是一场欺诈,觉得这是不可能发生的事情。运行这份杂志期间,我在很长一段时间都没有存款,因为需要支付合作律师和 IP 地址的费用,当时杂志一年的运营费用大概为几百美元,现在的花费可能更高些但是也没有高很多。
之所以一切免费,是因为我觉得计算机科学家所具有的能力和自主性,是其他领域的科学家们所不具备的。我们教授们自己很熟悉这些技术,学生也熟悉,我们也认识那些有能力制作和破解网站的人,大家一起动手,一下午时间就能做一个免费开放的学术网站出来。所以基础设施对我们来说不是问题,但对于其他领域的人来说就是比较难实现的事情。
Lex Fridman:所以这一访问开放的期刊不需要声望、也不需要任何其他论文也可以得以出版?
Leslie Kaelbling:事实证明,确实不需要声望。
Lex Fridman:在很早之前,我不记得具体的时间了,当时我评论了一篇您也评论过的论文,记得当时读到您评论说:这篇论文写得非常出色,对您产生了较大的影响,并影响了您未来的评论方式。当时您并不赞成我的观点,但是您将我的评论修改得更好了。这其实可以看出,当时杂志的整个评论过程是存在缺陷的,您认为该怎样才能改进这一过程呢?
Leslie Kaelbling:实际上,这份杂志创立之初,我想要做一些完全不同的事情,但是最终没有实现,这是因为似乎我们更需要的是一份传统的记录杂志,所以基本上,我们把这份杂志打造得跟一般的杂志一样,只不过对外开放访问了。当然了,「出版」什么东西现在越来越变得稀松平常,你随便在哪个学术文本存储网站传一篇文章就算是发表了,并且对于所有的这些内容,我隔天就可以将它们进行出版。因此,将这些内容对外开放是没有任何障碍的,不过我们依旧需要进行策划以及评估,而我没有时间去阅读所有的档案,一般认为出版社会公众所称赞的文章就足够了。
这样的话,你可以说我们不再需要任何期刊了,大家只需要把论文传到学术网站上去,然后人们就可以上传或下载论文,你的简历也就会显示文章获得了多少个称赞。同时我认为期刊在仔细阅读和评注方面也存在其价值。在 Twitter 或者 Reddit 上很难辨别读者对论文是支持、否定还是争议的态度,以及他们是否知道他们在谈论的是什么。所以我认为期刊的第二个目的是,判断我应该重视那些观点。
我不知道如果我有无限的时间,我是否也不会去做这些,因为我希望让机器人来做这部分工作。但如果我觉得我倾向于在出版方向上做更多的事情,我会去实现我最开始想做的另外一件事情,那就是将我重视并且非常清晰的一些人的观点汇聚起来,至于是对外公开还是私人保留,这个我不确定。我们可能不会出版所有的评论,仅仅将为非常出色的论文所写的评论对外开放。
如果一些论文得到 Leslie 的朋友们的评论,并且论文观点得到夸奖,论文作者也可以将其写入简历中:Leslie 的朋友们给了我的论文打了五星好评。这就可以说明论文就跟杂志所收录的论文一样出色。我认为我们应该将很好的评论对外开放,并以某种方式对这些评论进行组织,但当时我真的不知道该怎么做。
Lex Fridman:其实您可以借鉴电影领域的互联网电影资料库(IMDb),那里汇聚了电影评论员,他们会写影评,不过资料库汇中会定期更新非评论员写的影评,这两个部分是分开的。
Leslie Kaelbling:我喜欢公开评论,我认为了解这个过程很有趣。
Lex Fridman:这也许是推进论文评论的一个正确方向,但是可能仍然无法像评论电影或视频游戏那样吸引人。这是我的个人观点,可能听起来有些愚蠢,但是执行评审的趣味和轻松程度取决于用户界面,而作为一位评论家的效率,则意味着向一位优秀的评论家迈进了多远,这些人为因素会起到作用。
Leslie Kaelbling:现在给论文写优秀的评论是一项大投资,现在可以看到的论文数量非常多。每年有 3000 多篇新论文,虽然我不知道每年会新出多少电影,但是现在我认为数量要比每年新出的机器学习论文要少。
我是一个老年人,所以不可避免地会说现在的事情都变化得太快了,像陷在泥巴中一样执着。我认为现在研究者们的眼光变得越来越短视,比如学生们想要发表大量论文,他们认为这样才是令人兴奋、有价值的事情,然后拍拍脑袋写论文,诸如此类。虽然其中的一些工作成果是不错的,但是我担忧的是,这种做法会把那些花两年的时间来思考某个问题的研究者逼走。
在我们那个年代,我们做研究并不发表论文,你可以花数年时间来研究论文,你可以选择研究一个非常难的问题,然后花费大量时间来不断研究、咀嚼这个问题,当你去写作完成论文时,也会经历一段艰巨的时期。我不认为每个人都需要按照这种模式进行研究,但是我认为现在也有一些难度非常高的问题需要研究者以更加长远的眼光来从事这些问题的研究。然而我们现在完全没有激励研究者们采用这种研究方式,这是我所担心的地方。
Lex Fridman:在目前的情况下,对于 AI 未来的发展您有什么期望和担忧?AI 已经经历了多次寒冬、起起伏伏,您认为还会有下一次寒冬到来吗?您是否对于创造出如您所说的机器人更抱有期待?
Leslie Kaelbling:我认为经历这个周期是无法避免的,但是这个起伏的周期曲线实际上是一次比一次高的,就像你用一个有噪声的优化器优化某个函数曲线一样。显而易见,机器学习的出现对于人工智能领域的发展,意义深远且重大,毫无疑问,目前人工智能的发展是比之前更高的。当然,我也认为人们高估了人工智能,吹的牛皮太大,投资者们最终会说,「当初说得那么好听,怎么最后什么都没做到」。这些泡沫未来可能会破灭。但我觉得在实现达到人类水平的人工智能的过程中是不可能一帆风顺地一直向上的。
Lex Fridman:您对于 AI 所存在的威胁是否有短期或者长期的担忧呢?或许短期的担忧会比较少,但是关于将会有更多机器人替代人类工作的担忧呢?
Leslie Kaelbling:我们可以探讨一下效用问题。实际上我之前与一些军事伦理学家有过一次有趣的交流,他们希望跟我探讨自动核武器的问题。他们是非常有趣、聪明并且接受过良好教育的一群人,但是他们对于人工智能和机器学习知之甚少。他们问我的第一个问题就是,你研发的机器人有做过什么你没有预料到的事情吗?我情不自禁地笑出声,因为稍微了解过机器人的人都知道,它们做不出来。而我意识到,他们对于我们怎样对机器人编程的理解是错误的,他们认为我们对机器人编程就像给乐高的 Mindstorm 机器人编程一样,执行前进一米、左转、拍照这些动作。这样的编程方式固然也是对的,但这种机器人如果做一些预料之外的事情,就有点奇怪了。
事实上,我认为这应该成为我一项新的教育任务,如果我需要跟非专业人员交流,我要试图去教给让他们理解:我们控制的其实是机器人中至少一个或多个层次的抽象,同时机器人还存在假设层,可以是规划空间或者分类器空间,此外还有一系列答案和目标函数,然后我们使用一些优化方法,在各个层级优化解决方案,并且我们不知道最终产生的解决方案是什么。我认为沟通这些非常重要,或许其中有一些人了解相关知识,但我还是认为这种沟通这门学科是必不可少的。
现在有很多人在探讨价值对齐的问题,我们可以确定的是,当机器人或者软件系统的能力越来越强时,它们的目标会与人类的目标更加一致,或者说二者间的目标会以某种方式互相兼任,也可以说当它们与我们有不同的目标时,我们也可以用一种很好的方式去进行调和。
因此我认为思考这些术语非常重要,比如说,你无需被机器人世界末日论所吓倒,而是思考价值对齐的目标函数的重要性。每一位从事优化工作的研究者都知道,必须要谨慎考量最终期望得到的东西,比如说研究者们有时候可能获得了最佳的解决方案,然而最终发现目标方向是错误的。
对于我来说,即便在最短时期内,务实也是至关重要的问题,任何一位从算法工程师到目标函数工程师的研究者,这一问题都完全有可能发生,并且会改变我们的思维和方法论。
Lex Fridman:所以可以说,您的研究生涯始于斯坦福的哲学专业,现在又回归到哲学中来。
Leslie Kaelbling:我在上课时也提到过,当机器学习研究者在设计目标函数时,需要「戴上两个帽子」,一个「帽子」是他需要实现的目标是什么;另一个「帽子」则是他的优化器能够将优化实现到什么程度,这都是需要考虑和衡量的要点。
关于机器人会取代人类工作这一担忧,我能理解这件事情非常重要,但我不太了解社会学、经济学,也不是很了解人类,所以我不知道该怎么看待这个问题。
Lex Fridman:确实,这个问题涉及到社会学和经济学的方面,很难去讲清楚。
Leslie Kaelbling:虽然这个问题并不是我的专长,但我还是认为人类思考这个问题很有必要。
Lex Fridman:您认为对于人工智能领域以及您自己而言,短期内哪个领域的研究会是最令人兴奋的?
Leslie Kaelbling:我之前讲述过如何设计智能机器人的事情,智能机器人是我们这个领域中大部分人都想要实现的目标,而大家面临的问题则是,机器人怎样实现最高效的策略?我们可以尝试很多不同的极端方案,其中一个非常极端的方案就是做内省(Introspection),然后编程,这种方法现在的表现还不是很好;另一个极端的方案是我们采用了一大堆神经网络,然后训练它们去完成任务,我同样也认为这个方案无法奏效。
在这个过程中面临的一个问题就是找到中间立场,这个问题同样也不是技术上的问题,仅仅是关于怎样找到最佳实现方法的问题。对于我来说,它很明显是学习和非学习的一种组合,需要考虑的怎样构建这个组合的内容。这也是对我最具有吸引力的一个问题。
Lex Fridman:最后一个问题是,在科幻小说中,您最喜欢的机器人是哪个?比如说《星球大战》中的 R2D2 机器人或是更加现代化的 HAL 机器人。
Leslie Kaelbling:我个人更加关注的是研究机器人的过程。实际上我研究机器人是因为这个研究方向很有趣,而并不在乎我能够研发出怎样的机器人。
Lex Fridman:今天这场美丽的对话就到此结束了,非常感谢您今天的发言。
Leslie Kaelbling:当然,今天的对话很有趣。
(完)
IJCAI 2019 会议召开之前,特邀报告讲者名单将陆续公布,雷锋网 AI 科技评论作为 IJCAI 2019 的媒体特别合作伙伴,也将陆续为大家带来各位特邀讲者的相关报道。届时,雷锋网 AI 科技评论还将奔赴现场为大家带来精彩报道,敬请期待!