资讯 业界
此为临时链接,仅用于文章预览,将在时失效

欧盟发布AI道德指南,这次可不是“闹着玩”

作者:伍文靓
2019/04/09 13:55

欧盟发布AI道德指南,这次可不是“闹着玩”

雷锋网注:【 图片来源:The Verge  所有者:European Commission 】

欧盟(EU)近日发布了一套指南,指导企业和政府在开发人工智能时遵循道德准则。

这些道德准则与艾萨克·阿西莫夫的“机器人三定律”不同,它们并没有提供一个简单明了的道德框架来帮我们控制会杀人的机器人。相反,如果我们把AI整合到医疗保健、教育和消费技术等领域,AI将解决那些将影响社会的棘手问题。

例如,如果未来的AI系统诊断你患有癌症,那么,欧盟就要确认一些事情:该软件没有因为你的种族或性别而对你产生偏见;它会遵从人类医生的反对意见;它可以向患者解释诊断情况。所以,这些道德准则确实旨在防止AI失控,但这是从管理和官僚层面来说,而不是类似阿西莫夫式的谋杀之论。

为了实现这一目标,欧盟召集了52名专家,他们提出了未来AI系统应该满足的7项要求。如下:

1.人道机构的监督AI不应该践踏人类的自主性。人们不应该被人工智能系统操纵或强迫,人类要有能力干预或监督软件所做的每一个决策。

2.技术稳健性和安全性AI应该安全且准确。它不应该轻易受到外部攻击的影响,即便受到攻击,它也应该十分可靠。

3.隐私和数据治理AI系统收集的个人数据应该是保持安全和隐私。它不应该随便让人访问,也不应该轻易被盗取。

4.算法透明度用于创建AI系统的数据和算法应该是可访问的,软件做出的决策应该“被人类理解和跟踪”。换句话说,运营商应该能够解释自己的AI系统做出的决定。

5.多元化、非歧视和公平性AI提供的服务应该对所有人开放,不分年龄、性别、种族或其他特征。同样,系统也不应该偏向于这些界限。

6.环境和社会福利AI系统应该是可持续的,也就是说它们应该对生态负责,它们还应该“促进积极的社会变革”。

7.完善问责制AI系统应该是可审计的,公司应对其系统的负面影响应事先作出承认和报告。

我们可以看到,其中一些需求非常抽象,难以从客观意义上进行评估。例如,“积极的社会变革”,对于这个词的理解要因人而异,或者说因国而异。但其他方法则更为直接,可以通过政府监督进行检验。例如,共享用于训练政府AI系统的数据,这可能是对抗偏见算法的好方法。

虽然这些道德准则没有法律约束力,但它们可能会影响欧盟未来起草的法律。欧盟曾多次表示,它希望成为AI道德领域的领导者,并且已经向GDPR表明,它愿意制定影响深远的法律来保护数字权利。

然而,从某种程度上来说,这一角色是环境强加给欧盟的,因为在投资和前沿研究方面,它无法与美国和中国等世界AI领导者竞争。因此,欧盟只能将道德作为其塑造该技术未来的最佳选择。

欧盟的指南里还包括了一份“值得信赖的AI评估清单”,这份清单可以帮助专家找出AI软件中的潜在弱点或危险。清单还对软件公司设置了很多问题,包括“是否检验了贵公司的AI系统在意外情况和环境中的表现?”以及“是否评估了软件数据集中数据的类型和范围?”

这些评估清单只是初步的,但欧盟将在未来几年里收集公司的反馈意见,并在2020年提交有关其效用的最终报告。数字权利组织Access Now的政策经理范妮·希德维吉是帮助撰写这份指南的专家之一,她表示,评估清单是指南中最重要的部分。

“这份清单为减轻AI的潜在危害提供了一个实用且具前瞻性的视角,”希德维吉告诉The Verge,“我们认为,欧盟有潜力和责任走在这项工作的前列。但欧盟不应止步于道德准则,因为道德准则只有在法律的基础上才能发挥更大的作用。”

其他人则怀疑,欧盟试图通过道德研究来引导全球AI的发展,这会对AI界产生重大影响。

“我们对欧盟正在采取的方法持怀疑态度,为AI制定道德的黄金标准并不能让欧盟在全球AI发展中站稳脚跟,”数据创新中心的高级政策分析师埃利纳·奇沃特对The Verge说道,“要成为AI道德领域的领导者,你首先要成为全球AI的领导者。”


雷锋网注:本文编译自The Verge

雷锋网注:【封面图片来源:网站名The Verge,所有者:European Commission】

长按图片保存图片,分享给好友或朋友圈

欧盟发布AI道德指南,这次可不是“闹着玩”

扫码查看文章

正在生成分享图...

取消
相关文章