智能机器不会很快统治世界,但当它们拒绝你的贷款,撞了你的汽车,因为你的种族或性别歧视你的时候,会发生什么?
在一个层面上,答案很简单:“看情况。”南卡罗来纳大学的法学教授Bryant Walker Smith说。
但是,这打开了一个更为复杂的法律辩论的大门。 “在我看来,我的机器人做错事并没有借口。”总部位于西雅图的艾伦人工智能研究所(Allen Institute for Artificial Intelligence简称AI²)的首席执行官 Oren Etzioni说。
美国的法律制度和政策制定者面对的挑战迅速崛起,其是首次白宫关于人工智能的公开研讨会,在法律华盛顿大学医学院展开。整整一个下午,Smith,Etzioni等专家在座无虚席的礼堂讨论人工智能的未来。
白宫副首席技术官Ed Felten说,今天的讨论将纳入跨部门的决策过程,包括一份公开报告,将于今年晚些时候公布,同时还有公开信息邀请书的要求。
“敬请期待更多的RFI(request for information信息邀请书)。”Felten说。
一个响亮而清晰的消息:人工智能的当前状态远远不够先进,辜负了像斯蒂芬·霍金,伊隆·马斯克和比尔·盖茨的后顾之忧。 “你得知道它们是哪里来的。”Etzioni说。
“我认为现在AI的确有一些非常现实的问题,我们应该要马上解决。”他说。 “而AI的生存威胁不是其中之一。事实上,我认为这让我们从一些非常现实的担忧分心了。其一是有关工作。而另一个非常实际的是关于隐私权的。”
在工作方面,有人估计,在2050年,由于快速的自动化,全球人口的一半或者更多,可能面临失业。在隐私方面,通过互联网收集的个人数据越来越多,并由日益智能化代理处理。
有时候处理会产生争议的结果:例如,在一个实验中,研究人员发现,根据模拟的用户配置文件,谷歌的AdFisher计划更可能把高薪工作显示给男性。而就在本周,ProPublica报道,用软件程序评估刑事被告的再犯风险时,黑人比白人遭受的指责更严厉。
这是程序的错还是程序员的错呢?正如Smith说,要看情况。
纽约的微软研究院首席研究员Kate Crawford表示,机器背后的人类不得不更加重视职业道德和问责制,即使是在今天狭隘的人工智能工具的情况下。
“这些系统在一定程度上类似黑盒子。”Crawford说, “当这些系统开始成为基础设施的时候,我认为我们必须有最高水平的正当程序和公正。”
Crawford说,其中一项建议是开展人工智能程序的外部审计,以确保它们产生理想的政策效果。耶鲁大学法学教授 Jack Balkin说,另一个建议是在决策过程中,计算机科学家应该加入政策制定者的行列。
“我赞同,”Crawford说。现在计算机科学家已经组成一个团队,称为机器学习公平、透明、问责制( Fairness, Accountability and Transparency in Machine Learning)。
当自动驾驶和半自动驾驶车集体上路,法律问题很可能会成为主流。沃尔沃已经承诺,将承担涉及其自动驾驶碰撞事故的全部责任,而特斯拉汽车就比较谨慎。
谈到决定赔偿责任的问题,当涉及厂商和用户时,法律制度将不得不权衡反对派观点的有效性,没有涉及自动化时,他们也是这样做的,Smith说。华盛顿大学计算机科学教授Pedro Domingos说,人类最终将习惯于把智能机器考虑在内。
“事实上,很多事情人们本来觉得不舒服,但很快就会开始觉得是理所当然。”他说。
Domingos说,很可能对大范围的应用都适用,即使当智能机器身背武器时。
“如果我发现自己在战区,在我面前还有一架无人驾驶飞机,它在决定是否要拍我,我一点也不在乎该决定是由人还是机器所做。”他说。 “只要他们做出正确的决定,让我能存活下来就行。我宁愿机器来做这个决定。手术也同理,机器人有99%的成功几率,而外科医生的成功率是98.5%,我会选择谁?毫无疑问:我宁愿选择机器人。”
最终,社会可能接纳AI程序守望彼此,以确保它们不出差错,Etzioni说。但是,如果事情确实出了问题,会有AI起诉另一个AI吗?
Etzioni说: “当然总比人们互告对方好。”
via GW