研究人员对于人工智能何时能上升到人类的理解水平意见不一。但奥巴马政府不会坐等答案。白宫表示,当人工智能还是依赖于人类的时候,政府需要开始思考如何调节和使用这种强大的技术。
“当我们说人工智能的时候,公众脑海里应该有一个准确的答案。”华盛顿大学法律教授Ryan Calo说。今年夏天,白宫主持了4个关于如何应对人工智能日益驱动整个世界的研讨会,而Calo在上周第1个会上发言。尽管学者和政策制定者都认为华盛顿应该在这方面发挥作用,目前尚不清楚应该如何制定政策,紧迫的问题却日益积累。它们包括何时和如何决定谷歌的自动驾驶汽车能上美国的公路和如何检验偏差渗透算法。
“我们可以肯定的一件事是,人工智能已经使得制定政策变成一种挑战,比如如何确保技术仍然安全,可控,可预测,即使它变得更复杂和更聪明。”美国科学和技术政策的副领导Ed Felten说,其领导着夏季的人工智能研究。 “其中一些问题随着技术的进步将变得更具挑战性,所以我们需要加大马力,紧随其脚步。”
尽管在某一些领域,人工智能已经超过了人类的能力,谷歌的AlphaGo反复击败了世界上最好的棋手,但是每个系统的应用仍然有限,而且依赖于人类。 “智能和自主权是两种完全不同的事情,”非营利人工智能艾伦研究所主管Oren Etzioni说,同时也是美国时间周二的研讨会发言人, “人的智慧和自主性是齐头并进的,但对于计算机而言就完全不是这样的情况了。”他说。
整个团队花了几年时间研究技术,精心打造和管理最聪明的人工智能系统。正如Etzioni指出,没有人按下按钮的话,AlphaGo就不能进行下一轮对战。但是,人类在输入和设计的不可靠性,使得学者和政策专家焦虑。机器要获得学习的能力,它们必须要接收大规模的数据集。而人类,带着他们所有的固有缺点,一直在输入数据。
最近白宫的一份报告中概述看大数据潜在的歧视性。为了使数据有意义,必须有人将其分类和作简介。技术人员和设计人员可能将现有的偏见和结构性不平等灌输给人工智能。
这不是一个学术问题。谷歌的广告交付算法把较高工资的工作广告,更多地发放给男性。ProPublica最近报道说,依赖人工智能系统判刑和作假释决定的法官,其所做的风险评估结果出现种族偏见。
“该记者发现,被标记为潜在惯犯的白人非裔美国人之间存在悬殊的差距,”微软研究员Kate Crawford说。 “这是一个从设计开始就存在偏见的系统,但我们看不到它是如何工作的。该系统是专有的,他们没有共享数据。我们不知道为什么系统会获得这些结果。”
如果人工智能将决定如谁能得到抵押贷款,工作,或假释之类的东西,Crawford说,为确保其准确性,对灌输到这些系统中的数据采取一定程度的应用问责,将是越来越重要的。
人工智能不仅用于做人生选择、司法结果等等。它也可以用来做出即时的决定,举个例子,一辆无人驾驶汽车如何避免碰撞。试图控制这些技术的问题是,它们仍在开发阶段。南卡罗来纳大学的法学教授和自动驾驶汽车全国领先的专家之一Bryant Walker Smith说。
早期任何一种设计要求能抑制建设一个更安全,更负责任的机器,Smith说。自动驾驶汽车的创作者有责任让公众安全。
同时,政府已经与如何规范和监督已经在使用的人工智能作斗争,如无人机、癌症的检测分析。白宫的科学和技术政策办公室聚集几个机构一起,基于证据,而不是焦虑来考虑应对方法。政府将要考虑其能买什么,以及在什么条件下,投资使人工智能更安全的研究。
然而,尽管政府努力追赶世界上已经存在的技术,值得记住的是,人工智能仍然新生。为了在未来能规范人工智能,在人类还能做主的时候就应该奠定基础。
via wired