资讯 人工智能学术
此为临时链接,仅用于文章预览,将在时失效

对话 IJCAI 2019 特邀讲者 Leslie Kaelbling:与 AI 和机器人结缘背后的故事(上篇)

作者:丛末
2019/04/13 15:40

雷锋网(公众号:雷锋网) AI 科技评论按:IJCAI(国际人工智能联合会议,International Joint Conferences on Artificial Intelligence)是人工智能领域历史最为悠久,也是影响力最大的学术会议之一,随着近年来人工智能的热度日益攀升,原本仅在奇数年召开的 IJCAI 自 2015 年开始变成每年召开。今年,万众瞩目的 IJCAI 也将如约而至,将于 8 月 10 日至 16 日在中国澳门隆重召开。

特邀报告(Invited Talks)作为 IJCAI 最受关注的环节之一,随着会议的临近,特邀讲者名单也在相继公布中。机器人作为人工智能领域的一个非常重要的研究方向,本次大会也特别邀请了机器人专家、麻省理工教授 Leslie Kaelbling 做特邀报告。届时,她将带来主题为《Doing for our robots what evolution did for us》的特邀演讲。

Leslie Kaelbling 是麻省理工学院的机器人专家。 她在强化学习、规划、机器人导航等人工智能研究领域获得了引人注目的研究成果,其中包括将运筹学中的部分可观察的马尔可夫决策过程应用到人工智能和机器人中,曾获得 IJCAI「计算机与思想奖」(Computers and Thought Award)等重要奖项,同时她也是人工智能领域颇负盛名的《机器学习研究杂志》的创始人兼主编。

近日,麻省理工学院教授 Lex Fridman 在其播客访谈节目《Artificial Intelligence Podcast》中与 Leslie Kaelbling 进行了对话。对话中,Leslie Kaelbling 不仅分享了她从哲学领域转入计算机科学领域,并与 AI 和机器人结缘的背后的故事,还详细阐述了其对于机器人发展历程以及现状的见解。

采访视频播放地址:https://www.youtube.com/watch?v=Er7Dy8rvqOc

对话 IJCAI 2019 特邀讲者 Leslie Kaelbling:与 AI 和机器人结缘背后的故事(上篇)

雷锋网 AI 科技评论将采访视频整理成文如下,全文进行了不改变原意的删改。

Leslie Kaelbling:说到是什么让我对 AI 产生了浓厚的兴趣,就不得不提我在高中时期阅读的《哥德尔、艾舍尔、巴赫》(Gödel, Escher, Bach)。这本书对我来说极具塑造性,它让我感受到了原函数和组合函数的另一种趣味性,也让我更加了解怎样将复杂的事情与简单的部分区分出来,并开始思考怎样的 AI 以及程序才能够让机器产生智能行为。

Lex Fridman:因此您最开始喜欢上的其实是 AI 与机器人的推理逻辑。

Leslie Kaelbling:是的,喜欢机器人则是因为我的第一份工作。当时我从斯坦福大学的哲学专业毕业,正打算去读计算机科学的硕士,然后我被 SRI 录用了,进入到他们的 AI 实验室工作。他们当时正在研发一款类似于 Shaky 的后代机器人,但是 Shaky 原来的研发者都不在了,因此我的工作就是尝试让这个机器人拥有做事情的能力。这也是让我真正对机器人产生兴趣的契机。

Lex Fridman:我们先稍微回顾一下您的大学生涯。您在斯坦福大学获得了计算机科学的硕士和博士学位,但是您的大学本科读的是哲学专业,那您认为哲学中有哪些部分是您可以应用到计算机科学的研究中的。

Leslie Kaelbling:哲学与计算机科学是紧密相关的。我在大学本科期间没有读计算机专业是因为斯坦福大学当时还没有开设这个专业,但是实际上,斯坦福大学开设了一些特殊的辅修课程,比如现在称作符号系统(symbolic system)的学科,这门课程教授的内容是逻辑模型理论(logic model theory)以及自然语言的形式语义(formal semantics of natural language)。这对于我之后从事 AI 和计算机科学的研究做了一个完美的铺垫。

Lex Fridman:这非常有意思。当时如果对 AI 感兴趣的话,大家一般会选择上哪些计算机相关课程?您当时对于 AI 的想法深为着迷,除了哲学,还源自于什么其他的原因?

Leslie Kaelbling:当时并没有很多人从事这个方向的研究,甚至也没有什么人探讨它。但是我大学的同班同学倒是都对人工智能挺感兴趣的:我们班有接近一半的人转向计算机科学专业深造,近一半的转向法律专业深造,而只有一两位同学继续留在哲学专业学习。所以哲学专业和计算机科学专业二者间其实是有相当普遍的关联性的。

Lex Fridman:你认为 AI 研究人员是否需要拥有哲学家的另一重身份,还是说他们应该坚持从事「硬」的科学和工程研究,而不需要进行一些哲学思考?也就是说,如果研究者从事于机器人研究,却无法很好地从哲学上的大视角来看待研究问题,又该用什么来驱动他们研究出出色的 AI 呢?

Leslie Kaelbling:我认为哲学专业中与 AI 最紧密相关或者说与 AI 有点关系的,就是信念、知识以及表示这些东西。这些其实都是非常形式化的东西,似乎距离我们所做的常规计算机科学工作只有一步之遥。我认为现在非常重要的问题依旧是,你可以用机器来做什么以及不能做什么。尽管我个人完全是一个唯物主义者,但我认为我们没有理由无法开发出一个行为举止与人类毫无区别的机器人,而判断它与人类是否有区别的关键在于它的内心是否是有直觉或哲学思维。实际上,我并不知道自己是否非常在意这个。

但是我们现在不知道它们获得哲学思维,进行感知和规划,以及在现实世界中顺利运行有多难。毕竟现在的机器人在很多任务上,都还做不到像人类一样。

所以问题实际上就是,现在机器人和人类在哲学上还存在巨大的差距。我们都知道,如果机器人要在现实世界应用这些知识,就需要对这些知识进行扩展,并需要拥有形成常识以及在大部分工作中进行不确定性推理的能力。这些都是开放性的问题,我不知道要怎样去用确定而全面的视角看待这些问题。

对于我来说,这似乎并不是一个哲学差距的问题,而是一个技术上的大难点,除此之外,我并不认为机器人和人类在其他方面存在差距。

Lex Fridman:好的。您是否认为 AI 还存在一些遗憾呢?还记得当您开始对机器人学或机器人产生兴趣的时候,当时对 Shaky 机器人有什么印象?您当时对于机器人的想象是否实现了呢?

Leslie Kaelbling:我最开始研究的机器人是 Shaky,它是 SRI 研究人员开发出来的机器人。当我第一次踏入 SRI 的时候,当时它正站在某个办公室的角落,正在将液压油滴在一个锅中。这个机器人是相当具有标志性的,每个人都应该读到过 Shaky 的技术报道,因为它身上汇聚了许多非常好的想法,比如他们不仅将很好的搜索、符号规划和学习的宏操作符都应用到了机器人身上,还对机器人进行了较初级的空间规划配置,并且为 Shaky 配置上了手臂。他们在很多方面都有了比较清晰的基本思路。

Shaky 是一个移动机器人,它可以推动物体,在它自身搭载的执行器和底座的帮助下,可以将物体移到旁边去。同时,它还能够使用它的视觉去进行自我定位、探测物体,并基于它所看到的东西进行规划,并推理是否要探视和拍照。我觉得,当时它对我们现在所能想到的很多事情都有了基本的认知。

Lex Fridman:您认为它是怎样表示周围的环境空间的呢?

Leslie Kaelbling:它对于许多不同程度的抽象表示都有认知,我认为,它对于低级别的抽象表示,会使用某种占用网格;对于高级别的抽像表示,它会使用针对某种空间以及关联性的抽象符号。

Lex Fridman:现在有一个词叫「片状」(flaky)。

Leslie Kaelbling:是的。当时在 SRI 的时候,我们正在开发一个全新的机器人。正如我刚刚所说的,团队中没有一个人是来自于之前 Shaky 那个项目的,因此我们相当于是从头开始。当时是我的导师并最终也成为了我的论文导师的 Stanresinshine,就曾受到「情景计算」(Situated Computation)或者说「情境自动装置」(Situated Automata)这个想法的启发。这个想法就是:逻辑推理的工具非常重要,但是可能仅有工程师或者设计者会将这个工具用到系统的分析中,此外,这一工具不一定要应用到系统自身的头部中。

当时我认为可以使用逻辑去证明关于机器人行为的理论:即使机器人不使用它头部的逻辑,它也可以进行手臂的动作。这就是区别。而这个想法就是使用这些原则去开发可以做事情的机器人。不过当时,我自己需要学习大量的基础工作,因为我没有机器人学背景,不知道任何机器控制、感知相关的知识。所以在这一过程中,我们把很多技术都重新研发了一遍。

Lex Fridman:那您认为这是优势还是阻力呢?

Leslie Kaelbling:我的意思是说,在这个过程中,你可以学到很多事情,并且最终攻克问题以后也能更清楚地明白自己走到了哪一步。

Lex Fridman:您能总结一下 AI 和机器学习强化学习的历史,以及您怎样看待它从 20 世纪 50 年代至今的发展?

Leslie Kaelbling:它的发展的一个重要特点就是徘徊:变得火热之后又落到低谷,之后又变得受欢迎,随后又落到低谷...... 实际上,我认为它的进程很大程度上是由社会学进程所驱动的。

早期,它的发展是控制论的发展有关,人们以动态平衡的思路开发机器人,当机器人需要动能的时候,就为它们充电,之后它们就可以在周围滚动,做事情。后来,我对于这一思路思考了很长时间,我认为它是具有启发性的。但是当时人们不赞成这一思路,他们认为我们需要让机器人不断接近实现真的智能,即类人智能。

之后人们尝试研究专家系统去实现真正的智能,但是都太过表面了。我们对智能的理解是表面的,这就跟我们理解钢铁厂怎么运转一样。我们认为,只要对智能进行解释,然后将它用逻辑写下来,之后再设计一台计算机来对其进行推理就实现了专家系统,然而结果,我们发现计算机无法实现推理。不过我认为比较有意思的是,当专家系统的研究开始变得不太顺利时,我们不仅改变了研究方法,我们还改变了问题。我们似乎没有更好地方法甚至可以说没有办法去解决专家系统的问题。最终我们放弃去解决专家系统的问题,开始转向另一个完全不同的问题。

Lex Fridman:想必当时研究界有很多人会认为不应该放弃专家系统的研究,而您则倾向于将该问题先搁置到一边。现在让我们回到刚刚的话题,专家系统之后的 20 年的发展。

Leslie Kaelbling:认为专家系统很异常,这个观点是无可厚非的,这就像有的人认为仅仅做一些表面的符号推理是错误的一样,以及有些人认为医生在拥有临床经验之前不能成为一名真正的医生一样。因此当时存在这个问题的方向对或不对的争论,都是正常的,只不过我们最终还是无法找到解决方法。

Lex Fridman:您刚刚提到,逻辑学和符号系统中你最喜欢的部分,就是它们能够给以短名称给大规模的设置命名。所以这些方面在符号推理中有什么应用吗,比如说专家系统或符号计算?你认为在 80 和 90 年代,人工智能发展的最大阻碍是什么?

Leslie Kaelbling:实际上我并不是专家系统的拥护者,不过我对一些符号推理倒是很感兴趣。说到人工智能发展的阻碍,我认为最主要的阻碍是当时人们的想法,大家认为人类能够有效地将他们的知识转成某种形式的逻辑陈述。

Lex Fridman:这不仅仅要求付出代价和努力,还要人类真正拥有这种能力。

Leslie Kaelbling:是的。虽然我们都算是有远见的专家,但是完全无法用内省的方式来想明白我们如何做到这一点。关于这一点,我认为其实当时每个人都明白:专家系统不是要求人类写下用来识别水瓶的规则,而是要写下用来进行决策的规则。我认为当时大家都发现了,所谓的专家能给出的解释,就像鹰派能够解释他们怎样做事以及为何做事一样。他们给出的解释不一定很好。

之后,他们改造了专家系统,使其转而依赖于某种感知事物的东西,但是感知的这种东西又回到了我们刚刚提到的:我们无法很好地定义它们。所以从根本上来说,我认为其根本问题就是假设人们可以明确表达他们做决策的方式和原因。

Lex Fridman:所以说,从专家那里转换而来的知识进行编码后,就变成了机器能够理解和推理的东西。

Leslie Kaelbling:并不是。这不仅仅需要编码,还需要让知识完全脱离专家。我的意思是,将知识编写到计算机中本来就很难。而我更认为,人们无法将这些知识生成出来。人们可以讲一个故事告诉我为什么要做这件事,但我并不确定这样表达出来的东西能够为机器所理解。

Lex Fridman:在分层规划方面仍然存在符号推理的用武之地,正如您刚才所谈到的那样。所以具体的难点在哪里呢?

Leslie Kaelbling:即便人类不能为机器提供推理过程的描述,这也并不意味着在计算机内部不能进行各类风格的推理。这只是两个正交点(Orthogonal Points)。这样的话,问题实际上就变成了:应该在计算机内部用何种方式进行推理?答案是,我认为计算机内部需要针对所面临的不同问题,使用各种不同的推理方式。

Lex Fridman:我是否可以理解为,这个问题是,人们可以对哪类事物进行符号编码,从而实现推理?

Leslie Kaelbling:关于符号,我甚至都不喜欢这个术语,因为我不知道它在技术上和形式上到底是什么意思,与此同时,我对抽象深信不疑。抽象是直观、重要的,因为对于生活中的一切,人不可能从特别细的粒度出发做出完整的推理。你不可能仅仅基于某张图像,就做出要读博士的决策。

所以如果你要推理出要攻读博士学位,甚至是购买哪些食材来做晚餐,你就必须缩小状态空间的大小以及推理的视界。那该怎样缩小状态空间的大小或推理的视界?答案是抽象:空间抽象和时间抽象。

我认为沿着目标轴线的抽象也很有趣,对目标进行抽象和分解可能更像是一个分解的过程,某种程度上我认为这就是大家所谓的符号或离散模型。当你在聊天的时候,你可能会谈到房子的面积,而不会谈你在某个时间点的姿势;你会说你在下午做了某件事,而不会说你在两点五十四分做了某件事情。你这样做其实是因为这样能简化了你的推理问题,以及你没有足够的信息去对你在今天下午两点五十四分的姿势进行高保真的推理。

我需要重点重申的一点是,所有的这些都不应该沦为教条,认为我们不应该这样做,不应该那样做。我可以赞成符号推理,而你也可以支持神经网络。计算机科学最终会告诉我们所有这些问题的正确答案是什么,如果我们够聪明的话,也可以搞清楚。

Lex Fridman:是的,实际上当你试图用计算机解决实际问题时,正确答案自然而然就出来了。您刚刚提到抽象这个概念,提到所有的网络都源自于抽象,存在自动化的方式去形成策略、专家驱动的方法去构建抽象,并且当下人类似乎在抽象构建上的表现更好,所以你提到两点五十四分与下午对比,那我们如何构建这样的分类法呢?现在是否有可能实现诸如抽象此类的自动构建?

Leslie Kaelbling:我认为当机器学习发展得更好时,工程师可以开发出算法来构建出非常出色的抽象。

Lex Fridman:我们不妨先放下抽象的讨论,先谈谈部分可观察的马尔可夫决策过程(Partially Observable Markov Decision Processes,POMDPs)。首先想请问一下您,什么是马尔可夫决策过程?我们世界中有多少事物是可以建模以及具有马尔可夫决策过程的。比如您从 POMDPs 的角度,怎样看待早晨做早餐的花费?又怎样看待 POMDPs?它跟我们的真实世界又是怎样建立联系的?

Leslie Kaelbling:其实这是一个立场问题,立场就是我看待问题所处的位置。我作为一名研究人员或者系统设计者,可以选择以何种方式对我周围的世界建立模型,从而了解这个混乱的世界。如果我其将当做这种形式的问题处理,我就可以沿着算法这一类的思路,提出方案来解决问题。当然对这个世界建模并不能代表能解决任何问题,也不是马尔可夫决策过程。但是我能通过以各种方式建模的来寻找解决方案,一旦我找到正确的建模方式,就能得到一些可以用的算法。

Lex Fridman:您可以通过各种方式为这个世界建模。一些方式会更倾向于接受不确定性,也更容易为世界的不确定性进行建模,而一些方式可能会强行将这个世界变成确定性的。

Leslie Kaelbling:是的。一些模型是不确定性的,但是这个模型并不能表示当前状态的不确定性,而是对未来的发展走势进行建模。

Lex Fridman:那什么是马尔可夫决策过程呢?

Leslie Kaelbling:马尔可夫决策过程,是一个假设我能够完全了解系统的当前状态,即掌握系统的所有信息情况下对未来做预测的模型。所以记住历史发生的所有事情,与对未来所做预测的好坏并无关联。同时,该模型也假设我能够采取一些行动来改变世界的当前状态,并且我无法对这些变化进行确定性建模,而只能建立概率模型。这种概率模型对于某些系统来说可能非常有用,不过对于大多数问题来说都没什么用。因为对于大多数问题,你无法只能观察到它们的部分状态,并且这些问题都是各不相同的。

Lex Fridman:所以对于马尔可夫决策过程,我们只能观察到部分状态。所以当你不能观察到大部分状态,也不能完整地了解周边世界的信息时,马尔可夫决策过程又怎样处理现实问题呢?

Leslie Kaelbling:现在这个过程的思路依旧是,假设存在我们了解周围世界的一些信息的情况,我们能够做出好的预测。虽然我们不知道当前完整的状态,不过我们可以通过图像等去观察、感受,然后根据观察到的历史行为去推断世界的发展趋势,并基于自己无法确定的未来发展动向,来决定采取什么行动。

Lex Fridman:在不确定的情况下做出规划,这个问题是非常困难的。在对世界进行建模来处理现实世界这种特殊系统的不确定性方面,您有着非常丰富的经验。

Leslie Kaelbling:这种最优规划问题往往是不可判定的,它取决于你进行了怎样的设置。很多人都表示,我不使用 POMDPs,因为它们难以处理。我个人认为这是一件非常滑稽的事情,因为问题之所叫做问题,就是需要你必须去解决的。

而我们 AI 研究者之所以会出现,就是因为要解决的问题非常棘手。我们都明白我们正在解决的问题在计算上的难度非常高,我们可能无法为它找到最优解。即便我们认为可能无法提出最佳解决方案,但是还是会回到最优问题上反复探索,我们能做的就是让建模、算法不断、不断地接近最优。

我从来不会说,问题的计算是多么复杂。相反地,这些复杂的问题能够让我更清晰地了解我解决问题的方式,然后一步步地执行近似操作,最终在一个合理的时间范围内找到可计算的最优解。

Lex Fridman:当您在探讨最优解的时候,当时业界有多重视追求最优解决方案的思想?此外,追求最佳解决方案的思想多年来也一直在变化。

Leslie Kaelbling:这很有趣,从理论上来说,我们实际上有一点方法论危机。我的意思是,我认为理论对于我们现在所做的很多事情都很重要。

现在出现了很多经验丰富的黑客攻击,他们对此进行训练并进行编号。我们很难说清这样好还是不好。如果你关注计算机科学理论,你会发现在谈论了探讨一段时间后,每个人都会讨论最优化解决问题。人们会关注怎样找到遗憾绑定(Regret Bound)、怎样执行近似、怎样证明问题的解是近似解,花的时间越多就越接近最终的最优解。

我觉的比较有意思的是,对于难度非常高的问题,我们没有建立一个比较好的「近似解」概念。我个人非常喜欢研究难度很高的问题,希望自己建立某种形式的解决方案的概念,让我可以判断这个算法是有一定作用的,让我知道除了运行它还能用它做点其他什么事情。

Lex Fridman:所以拥有某种概念某种程度上对您有很深的吸引力,同时您可以使用这些概念来更好地看清某些事情,并期待这些事情能够给您带来好的结果。

Leslie Kaelbling:科学这一学科中也有工程学,但我认为二者并不完全相同。我认为我们正在做的工程学取得了跨越式的发展,它是走在科学前头的学科。但是它今后如何发展,大致是怎样以及为什么工作,没有人清楚。我们需要将工程问题转化成科学问题,我们需要知道工程学怎样、为什么工作的原理,比如在曾经的一段时间,人们如果要建桥梁就要真正地去建,而现在我们不需要去真正去建桥梁,就能预测这架桥梁建成后会是什么样。这些都是我们可以应用到学习系统以及机器人中的。

Lex Fridman:您期望从唯物主义的角度来看待人工智能、智能系统以及机器人? MDPs 所涉及的信念空间(Belief Space)和状态空间(State Space)有什么区别?您通过世界的状态来进行推理,那信念空间呢?

Leslie Kaelbling:信念空间不是说考虑当前世界的状态是什么样的从而尝试让机器人去控制这些状态,我将它理解为一种世界如何发展的概率分布,这样的话控制问题不再是怎样控制机器人在这个世界穿行的问题,而变成了一个控制信念的问题,即我采取行动不仅仅考虑这个行为对真实世界产生什么影响,还会考虑它对于我自己对世界的理解会产生什么影响。这就可能迫使我提出一个问题:哪些是不会真正改变世界状态但会改变我对世界的信念的?我会将这些信息汇集起来作为决策考量的依据。

Lex Fridman:这是增强智能体对世界的推理和探索能力的很强大的方法。您在面临什么问题的时候,会考虑用到信念空间,又在什么情况下会仅仅考虑状态空间呢?

Leslie Kaelbling:其实大部分问题都是需要刻意收集信息的。在一些问题中,比如说象棋中是不存在不确定性的,但是对于对手来说,可能就会存在不确定性,这样的话就不存在状态的不确定性了。即便一些问题存在不确定性,但是你可以在解决问题的过程中去收集信息。比如,当你乘坐驾驶自动汽车的时候,它并不完全知道它身处何处,但它了解光照时长一直在变化的信息,这个时候你是不需要收集信息的;但是当你自己在道路上驾驶汽车时,你要看看你旁边以及后方的路况,需要决定在哪边道路开等等,你需要衡量这些信息的价值,并选择收集哪些信息以及合理区分。

同时,在你采取行动前,你还需要考虑自身的不确定性。如果我知道我所站的地方与门框恰好相对,我就能顺利穿过门。但是如果我不能确定门所在的位置,最好就不要马上迈过去,而要先进行评估。

Lex Fridman:你对世界的不确定程度,实际上就是你在形成规划过程中需要优化的一部分。那您能否描述一下,我们怎样采用分层规划的方式来对这个世界做规划?距离机器人真正实现对一些事情做规划还有一段很长的道路。

Leslie Kaelbling:推理中使用的分层推理,包括时间分层和空间分层。我们先说一下时间分层。之前的执行过程需要进行很长时间,而使用时间分层就能够抽象地将这个过程划分为几个部分。在之前我们也谈到过,如果你能够在状态空间中构建时间抽象,你就能进行高水平的规划,比如说我要前往城镇,然后给车加油,之后我会到这里做一些什么事情等等。你可以推理出这些行为的依赖性和约束性,而不需要进行事无巨细的考量。

在分层规划中,我们需要做的就是针对抽象,做出高水平的规划。我认为这个过程是非常灵活的,它不需要考量所有的细节因素,同时我也认为这是非常有趣的一个步骤。我喜欢以机场这一场景为例,比如你可以规划前往纽约,之后到达目的机场,然后到达办公楼,但是你无法提前说出你在机场发生的事情,这或许是因为你自己懒得想,但更多的还是因为你没有足够的信息推理出你在哪个登机口登机,坐在你前面的是谁等等这些事情。

所以,规划得太详细是没有意义的,但是你必须实现信念上的飞跃,相信你到了那里就能弄清楚所有事情。有人说,我终其一生所学到的就是预测实现某些类型的子目标的难度。我认为这是至关重要的,如果你对于完成这些中间步骤没有一个模型,你就无法对飞往某个地方做规划。

我们现在要讨论的一件事就是,就是如何对这些你没有经历过的情况进行概括,从而进行预测,比如说穿过吉隆坡机场要多长时间。所以,对于这类抽象模型,我真的非常感兴趣,一旦我们创建好这些模型,我们就可以用这些模型来做分层推理,我认为这非常重要。

Lex Fridman:就跟您刚刚提到,一旦你出现在机场,你就离目标只剩几步之遥了。您能解释一下这个目标的起点是什么吗?

Leslie Kaelbling: Herb Simon 在人工智能早期就谈到过从方法到结果的正向推理以及从结果出发的反向推理。人们直觉上会认为状态空间数量很多,你可以采取的行为也很多。比如说我坐着的时候,想要搜索我前面在哪,我所有能做的事情是什么,其状态空间和可采取的行为数量都是庞大的。

如果你可以在另一个层面上推理,比如确定了希望实现的目标,要知道如何实现这一目标,这样问题的范围就更小了。有趣的是,现在 AI 规划领域还没有解决已知的这类问题,并且他们现在倾向于使用的方法还是从方法到结果的正向推理,目前还没有什么研究在从结果出发的反向推理中做出更好的结果。这还是我的某种直觉,我还无法立即向你证明这一点。

Lex Fridman:也很荣幸您能跟我们分享您的直觉。您之前是否思考 AI 领域需要借助点哲学的智慧?您认为将人类的一生或生命的某个部分制定成一个规划问题有多难?当您从事于机器人研究时,您往往考虑的是物体操作、物体移动任务等,那您打算什么时候走出实验室,让机器人出门、做午饭以及追求更加高远的目标呢?您怎样看待这个问题?

Leslie Kaelbling:我认为这个想法是错误的,事实上人类的一生并不都是规划问题。大家可能都觉得将生活的各个部分整合在一起非常重要,但是这些部分在推理、表示以及学方面的风格都是截然不同的。大家都清楚的是,一个人不可能永远都是这样的或者那样的,人类的大脑也并不总是一成不变,所有的事情都是如此,它们的构成部分、子架构等都不尽相同。所以我个人认为,我们没理由去憧憬,将会有一个算法能够真正地完成整个任务。

Lex Fridman:我们现在能做的,还只是针对特定的问题设计出特定的算法。

Leslie Kaelbling:这需要考量问题类型,比如说,某些推理可能需要在图像空间中进行。我要再次提到的一点事,推理只是一个强化学习问题,它的思路可以是基于模型的,也可以是不基于模型的。人们可能还在谈论是否应该学习——我们可以学习策略直接产生行为,也可以学习一个客观的价值函数,或者学习一个转移模型以及某些能够告知我们世界动态信息的东西。比如当我旅游的时候,想象我学到了一个转移模型,将它与规划器结合起来,然后画出一个围绕它的盒子,我就可以学到一个策略,而这个策略是以不同的方式储存的。与其他策略一样,它也仅仅是一个策略。

而我更倾向于将其视为一种在计算上的时空权衡。一方面,对于更公开的策略表示,它可能需要占据更多的空间,但是我可以快速地计算出应该采取的行为;另一方面,使用一个非常紧凑的世界动态模型加上一个计划器,我可能只能比较慢地计算出接下来要采取的行为。我认为这一点不存在任何争议,它只是一个「对于我们来说,哪种计算形式最好」的问题。

比如用代数操作做某些推理是合适的,但是如果面对的是控制骑独轮车这样的任务,它对时间响应的要求很高,但是决策空间也要小很多,在这种时候可能我们就需要不同的表示方式。随便举的例子,不一定贴切。 

(本文为上篇,下篇阅读请前往:https://www.leiphone.com/news/201904/XAt6Paa6u28uQyvO.html

IJCAI 2019 会议召开之前,特邀报告讲者名单将陆续公布,雷锋网 AI 科技评论作为 IJCAI 2019 的媒体特别合作伙伴,也将陆续为大家带来各位特邀讲者的相关报道。届时,雷锋网 AI 科技评论还将奔赴现场为大家带来精彩报道,敬请期待!

文章点评
相关文章