资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

霍金、马斯克携手力推23条原则,告诫AI发展底线

作者:大数据文摘
2017/02/02 21:08

雷锋网注:本文作者任杰、邱猛、Aileen,文章来自大数据文摘。

“一个好的未来是什么样子?” 特斯拉首席执行官伊隆·马斯克(Elon Musk)在加利福尼亚州阿西洛马的Beneficial AI会议上发言。 “我们正走向超级智能,亦或是人类文明的结束。”

全球2000多人,包括844名人工智能和机器人领域的专家联合签署了23条AI发展原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。

宇宙学家斯蒂芬·霍金和特斯拉首席执行官埃伦·马斯克本周公开大力支持了一系列原则,用以确保拥有自主思考能力的机器保持安全发展,并符合人类权益行事。

机器正逐年变得更加智能,研究人员相信他们在未来几十年内可以拥有人类智能水平。 一旦他们达到这个程度,他们就可以开始改善自己,并创造其他智能,甚至更强大的AI,牛津哲学家尼克·博斯特罗姆和其他几个该领域的专家认为,应当称其为超级智能。

2014年,马斯克警告说,人工智能有可能“比核武器更危险”,而霍金在2014年12月说,人工智能可能会终结人类。 但它也是双刃剑。 AI也可以帮助治愈癌症及减缓全球变暖。

2017年1月初举行的“Beneficial  AI”会议为基础上建立起来的“阿西洛马人工智能原则”,名称来自此次会议的地点 –美国加州的阿西洛马(Asilomar)市,旨在确保AI为人类利益服务。

本次会议参加者是业界最富盛名的领袖,如DeepMind首席执行官 Demis Hassabis和Facebook AI 负责人Yann LeCun等。全球2000多人,包括844名人工智能和机器人领域的专家已联合签署该原则,呼吁全世界的人工智能领域在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。完整名单可以见futureoflife.org/

这一系列原则目前共23项,分为三大类:

1、科研问题

AI研究的目标应该是“有益的智能”。 它应该防止AI系统被黑客入侵。 它还应该解决“维护人类的资源和理想”。法律应该“跟上AI的步伐”,应该考虑人工智能“价值观”的问题。 此外,应该努力使研究人员和法律/政策制定者合作,并且应该“在AI的研究人员和开发人员之间培养整体的信任和尊重文化。

2、伦理和价值观

应根据原则以一种安全和透明的方式开发AI。 自主系统应必须可以解释它的行为。 创建AI系统的人必须对这些系统的使用方式承担责任。 自主系统的设计应反映人类的价值观。 人们应该有机会控制这些系统共享和使用数据的方式。AI应该尽可能使更多多的人受益,并应该为人类做出贡献,而不是仅仅得益于某些组织或个人。有的国家在竞争建立智能的自主武器 ,这是很大的潜在危害,应该主动积极的避免。

3、长期问题

我们不知道AI会有什么能力,应该计划“灾难性或风险”。

霍金、马斯克携手力推23条原则,告诫AI发展底线

Beneficial AI会议上的一个小组讨论会,包括埃隆·马斯克(最左边)和DeepMind的CEO(手持麦克风)

 “人工智能已经为世界各地的人们提供了日常使用的有益工具,”生命的未来 (Future of Life)网站上声明,“它的持续发展,须以后文原则为指导,在未来几十年甚至几个世纪,为帮助人类更加强大提供很多惊人的机会。”

会议上,马斯克坐在Hassabis、Bostrom、Tallinn和其他AI领域领导人组成的专家组中。 他们每个人都轮流回答他们所认为的超级智能,Bostrom在一篇学术论文中把它定义为“一种比每个领域最优秀的人类智能还要优秀的智能,这包括科学创造力、一般智力和社会技能。

当小组被问到超级智能是否可能,每个人都表示了十分的肯定,除了马斯克,当他说“不”的时候应该也是在开玩笑。可见,这些大佬都认为超级智能的发生是迟早的事情。有趣的是,当小组被问到是否期待超级智能出现时,回答开始出现矛盾了,有四个人思虑再三觉得“这很难说”,而马斯克说,这“取决于它到底是什么类型的智能了。” 

“阿西洛马人工智能原则”是开发安全AI的重要指南,它们得到了AI社区和广大从业者的广泛支持。路易斯维尔大学网络安全实验室主任Roman Yampolskiy说:“从签署名单数量可以看出,对这些原则的巨大支持为人工智能安全这个年轻的领域提供了可信度,但它仍然需要面对众多对AI风险的否认者,他们仍旧拒绝相信设计不当或恶意的AI /超级智能可能给人类带来巨大风险”。

| 点击视频,观看这次科技大佬之间生动的圆桌讨论

霍金、马斯克携手力推23条原则,告诫AI发展底线

在电影“她(Her)”中,人类爱上了人工智能。

阿西洛马人工智能23原则原文:

科研问题

1)研究目标:人工智能研究的目标不是为了创造不受指挥的智能,而是有益的智能。

2)研究经费:对人工智能进行投资的同时,要保证有经费用于研究如何有益地使用人工智能,研究包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

如何使未来的人工智能系统变得高度稳健,即系统会执行我们所想的而不会发生故障或被入侵?

如何通过自动化提升我们的繁荣程度,同时保持人们的资源和意志?

如何升级我们的法制体系使其更公平高效,能够跟得上人工智能的发展速度,并且能控制人工智能带来的风险?

人工智能该与什么样的价值体系保持一致?它该有怎样的法律和伦理地位?

3)科学与政策的联系:在人工智能研究员和政策制定者之间应该要有富有建设性的和健康的交流。

4)科研文化:在人工智能研究员和开发者中应该要培养起一种以合作、信任与透明为基础的文化。

5)  避免不必要的竞争:人工智能开发团队之间应该积极合作,避免有人钻空子导致安全标准被削弱。

伦理和价值

6)安全性:人工智能系统在它们整个的运转周期内应该是安全可靠的,并且能在可应用的和可行的地方被验证。

7)失败透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)审判透明性:任何自动系统参与的司法决策都应提供令人满意的解释,可被有能力的人类监管机构审核。

9)负责:高级人工智能系统的设计者和建造者,在道德影响上,是人工智能使用、误用和动作的利益相关者,并有责任和机会去塑造那些影响。

10)价值观一致:高度自主的人工智能系统应该被设计,确保它们的目标和行为在整个运行过程里与人类的价值观相一致。

11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)个人隐私:人们应该拥有权力去访问、管理和控制他们产生的数据,考虑到人工智能系统有分析和使用那些数据的能力。

13)自由和隐私:人工智能在个人数据上的应用必须不能不当地剥夺人们真实的或认为的自由。

14)分享利益:人工智能科技应该惠及并赋权最大可能的多数人。

15)共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)人类控制:人类应该来选择如何和是否委派人工智能系统去完成人类选择的目标。

17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序。

,而不是颠覆。

18)人工智能装备竞赛:致命的自动化武器的装备竞赛应该被禁止。

更长期的问题

19)能力警惕:我们应该避免关于未来人工智能能力上限的假设,但这一点还没有共识。

20)重要性:高级人工智能能够代表地球生命历史的一个重大变化,我们应该用与之相称的警惕和资源来管理。

21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须能够被相应的努力所管理和减轻。

22)递归的自我提升:人工智能系统被设计成能够以一种可以快速提升质量和数量的方式进行自我升级或自我替代,这种方式必须受制于严格的安全和控制标准。

23)公共利益:超级智能的开发是为了服务广泛认可的伦理理想,并且是为了全人类的利益而不是一个国家和组织的利益。

参考素材:businessinsider.com/techrepublic.com

长按图片保存图片,分享给好友或朋友圈

霍金、马斯克携手力推23条原则,告诫AI发展底线

扫码查看文章

正在生成分享图...

取消
相关文章