新智造按:本文作者Pascale Fung ,来源weforum,由新智造独家编译,未经许可拒绝转载!笔者最近为科普杂志《科学美国人》写了篇文章,叫《“走心”的机器人》。文中,笔者描述了将“移情模块”添加到机器人编程中,如此一来,它们可以更好地满足人类的情感需求以及生理需求。文章发表后,有些读者很好奇我们是如何将这类能感受到情感的机器人应用到医学和生活中的其他领域中去的,而另一些读者则对机器人理解人类的情感的想法表示强烈反对,其中有一个读者的观点很犀利:“人之所以为人,是因为具备情感。所以,机器人真的不能具备人类的特征,这样它们就会取代人类,去做那些人类才能做的工作。”当然,舆论并非一边倒,有些读者对这个点子非常感兴趣:“如果机器人都有了智慧,并且可以感受到人类的情绪,那么在未来的某一天,它们是不是可以拥有自我意识?”
对我们而言,理解机器人智能非常重要。但是首先,我们需要懂得人类拥有自我感受的原因,以及人类感受自我的方式。
在物种进化的过程中,情绪起到什么样的作用呢?研究显示,人和人之间的关联是靠友好的关系建立的。物种的生存依赖于这样紧密关联,并且大多数时候,这种关联是由情感支撑的。我们也可以将情绪作为信号,传递自己的意图。
我们的感觉和情绪都是受到一定刺激后产生的,不管是外部的还是内部的(比如记忆),因此,我们的各种生理特征可以做出受到刺激后的反应,如脉搏的跳动、汗液、面部表情、手势和音调等等。我们也许会哭,也许会笑,也许会恶心得发抖,也可能会担心得畏手畏脚。这些情绪不像语言,它们是自发的并自动表达的,不存在任何下意识的控制。从出生的那一刻开始,我们就开始学习理解其他人的情绪。而在婴儿出生之前,轻轻哼唱的摇篮曲会让他们完全放松。在出生的时候,它们就可以对父母的笑脸做出反应,并且从那天开始就可以表达自己的情绪了。
工业机器人制造了汽车和智能手机;康复机器人帮助病患重新行走;教学助手型机器人可以回答学生们的问题;软件程序可以写些合法的文件,甚至可以为你的作文打分;软件系统可以为报纸写故事;人工智能程序AlphaGo 打败了围棋九段的李世石;IBM Waston在益智问答游戏《危险边缘》中打败了人类;机器人甚至可以创作出美轮美奂的画作,让人们误以为是由专业的艺术家画的;机器还可以创作音乐......显然,在某些领域,机器人可以被打造得比人类更强、更快、更智能,但是,它们真的需要像我们人类一样具备感受情绪的能力吗?
2016年早期,我们团队宣布了第一个可以从语调中实时识别出十二种人类情绪的系统。在这个项目研发之前,因为一种叫“特征工程”的程序的存在,从语调中识别情绪会导致处理时间上的延迟,而在人机交流的场景中延迟是不自然的。那么,我们的团队是如何突破这个障碍的呢?——我们充分理解了机器人学习的机制。
每个机器人都可以在由软件算法驱动的硬件平台上运行。由人类设计的算法系统可以告诉机器人怎么回应一些刺激,比如,如何回答一个问题、如何在一个房间里实现自我导航,这就像建筑师在建房子——一个AI工程师可以纵览机器人完成任务的整体蓝图。编程知识用代码让机器人识别可能存在的阻碍,完成任务。其中一个非常中大的阻碍是机器人学习——也就是让机器能够学习并模仿和人类相似的回应的算法,比如玩象棋和回答问题等等。
人工智能领域最大的突破是机器人学习。它并不是编程算法中设计的有预测性地回应某个请求的结果,相反,机器人可以通过现实世界中的很多关于刺激反应的例子进行学习。如果机器人看到很多被标注了“猫”的有着猫咪的画作,它可以用其中任何一个机器学习算法,识别其他它没有看到的画里的猫。同理,如果一个机器可以浏览万亿的网页和翻译实例,它就可以学会像谷歌翻译那样的翻译技能。
机器学习最重要的部分就是学会理解特征的代表。一只猫可以由它的轮廓、利爪、面部和身体姿势表示。话语可以由声音的频率分量来辨别。话语中的情绪不止可以通过音高进行识别,音色、节奏、速度都可以作为识别特征。机器学习首先需要构建特征工程,对这些特征进行抓取。而对于音调而言,特征工程会抓取一个声音中的1000到2500个特征,这个过程会在整个情绪识别过程中放缓。接着,这几千个特征会被由人类着手处理,它们中的每个都需要处理的时间和过程。
最近,科学家们用机器加速和大量的学习数据,在神经网络(又名深度学习)领域做了几项突破,这导致了机器学习领域的飞速发展。首先,一些深度学习方法,比如卷积神经网络(CNN)可以在没有明确的、延迟的特征工程或是人类设计的情况下,在学习过程中自动习得这些特征。这大概是深度学习对AI领域做出的最大的贡献了。
回到我们从声调中识别情绪的系统中来,我们做的是用一个简单的卷积神经网络替换特征工程和分类学习,它可以学得很好(即使不比分类机器学习好,但是要比它快很多),因为它不需要明确且缓慢的特征工程过程。类似地,面部识别也可以通过卷积神经网络来实现。
另外,科学家们也在研发让机器人通过改变音高,和小发动机控制合成的面部肌肉表达情感的方式。Sofia和Erica就是两个有面部表情的人形机器人。
第四次工业革命就在眼前了。技术已经在很多领域取代了人们的地位。以前需要花费很多年,甚至几十年才能学成的技术,如今在一夜间已经过时了。目前,很多人都没有意识到AI和机器人领域进步的速度,并且以他们当下目睹的情况,推测机器人会在三十年到五十年内统治世界。这种机器人威胁论近来被炒得很热,很多人对机器人的存在诚惶诚恐。
实际上,这种预测在前几次工业革命中就已经存在了,那时候人们担心蒸汽机和计算机会让人类的劳作显得多余。但众所周知的是,人类一直都在学各种不同的技术来操纵这些机器。
然而,随着更多的AI和机器人的运用,人和机器人之间的新关系会出现。对人类而言,想要减少恐惧,去相信一个能走、能说、能做出各种姿势、能负重的机器人,我们需要做到的是,与机器人实现情感的互通。将机器人和其他电子设备区分开的是它先进的机械智能以及情绪。对家庭护理机器人而言,理解婴儿的哭声,或是病人痛苦的呻吟非常重要。对那些智能的机器人而言,它们需要“走心”。
如果一个机器人拥有了分析技术、学习能力、沟通能力,甚至是情绪,它们会有自我意识吗?它们会有感知能力吗?它们会做梦吗?
上文提到的神经网络不像其他的机器人学习算法那样,会让人类更确定自己才是主宰者。神经网络甚至可以产生一些随机的,像梦境一般的图像,让人们相信机器人是可以做梦的。
问题是,作为人类的我们自己明白是什么让我们拥有感知能力吗?它是不是只是感官理解和思考过程的结合?AI科学家们无法回答这个问题,但是我们相信,要打造好的机器人,我们需要将那些符合伦理道德规定的价值观传递给它们,这些价值规范能帮助它们做出决定。有了机器人智能领域的相关拓展,将这些价值观教授到机器人会变得和教育儿童一样重要。目前,我们的下一个挑战是,在机器人有了先决的情绪理解和沟通技巧后,让机器自动学习这样的价值观。
via weforum