雷锋网AI科技评论:下面这些问题,可能在我们不久的将来(一年或者两年?)就会出现在我们身边——
目前人工智能正逐渐大规模地应用于医疗行业,许多疾病的诊断已经可以通过机器学习的方法来完成。但是我们设想,如果人工智能诊断出现医疗误判,最终导致医疗事故,那么谁将来承担事故责任呢?是提供技术的公司,还是医院,或者医生个人?
自动驾驶正逐渐上路,据各方估计在2020年之前自动驾驶汽车将进入消费市场。不可避免的,自动驾驶汽车在不熟悉的环境中可能会导致交通事故(例如2016年的特斯拉自动驾驶汽车事故),那么在这种情况下谁将承担法律责任呢?是车主,还是车辆生产方?
随着人工智能系统以及机器人研究的发展,致命自主武装系统逐渐应用于军事当中。当这些自主武装系统在前线失控误杀平民(甚至军人)时,谁将承担这些责任呢?
随着人工智能的发展,技术的垄断越来越严重,政府和大企业在逐渐垄断着技术和数据,他们一方面利用这些数据给我们的生活带来便利,另一方面也在某种程度上控制着我们的生活。那么技术是否应该开源开放呢?在什么样的标准上我们的人权才能得以保障呢?
…………
随着人工智能在人们生活中应用越来越广泛,也有越来越多的人对这些问题开始思考和制定规则。在过去的两年时间里,有大量的AI研究人员开启对AI伦理的思索。大家熟知的有:
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft 和 IBM等几家全球大公司共同成立了 Partnership on AI,来研究和制定人工智能技术的最佳实践,促进公众对人工智能的理解,并作为一个开放平台来讨论人工智能对人和社会的影响。
2016年12月,IEEE首家发布了第一版《合乎伦理的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》,由全球100多名人工智能、伦理学及相关领域的思想领袖和专家共同制定。
2017年6月,ITU(国际电信联盟)举办了“AI for Good”的全球峰会。今年五月将在日内瓦再次举办同一主题的峰会。
2017年11月,蒙特利尔大学举办“人工智能的社会责任发展”论坛,随后并发表了《人工智能负责任开发宣言》
2017年,人类未来研究所发布的《阿西洛马人工智能原则》(共23条)。有1273名人工智能 /机器人研究人员和其他2541人签署并支持了这些原则。
此外,2016年联合国在“特定常规武器公约”会议上启动了关于人工智能在军事使用上的全球性辩论,其中大多数缔约方赞同了所谓的“对致命自主武器系统进行有意义的人类控制原则”, 这条原则提出“凡是无有意义的人类控制的致命自主武器系统都应被禁止”。联合国还在海牙建立了一个专门的研究机构(犯罪和司法研究所),主要用来研究机器人和人工智能治理的问题。
但是上述的这些伦理思考,一方面并没有经过严格地思考和准确地定义;另一方面,在国家层次上关于AI的规则制定并不平衡,有的国家已经优先制定了机器人和人工智能的规则,甚至还通过立法来管理自动驾驶汽车;但大多数国家还没有着手这样的事情。
雷锋网了解到,为了解决这样的问题,近期欧盟的“欧洲科学和新技术伦理小组”(European Group on Ethics in Science and New Technologies,EGE)发布了一份声明,希望各国能够合作起来共同制定标准和规则,并呼吁对AI、机器人以及自主技术的伦理学进行广泛和系统地讨论。
在24页的声明中,EGE介绍了AI伦理的背景、面临的问题以及重要的思考因素。它认为我们应当跳出狭义的伦理框架思考。例如,到底是什么使我们陷入前文中提到的伦理困境?什么才算“人类控制”?人们是否应当有权知道某个系统是自主系统还是人工系统?……
为了制定一套可作为建立全球标准和立法行动基础的道德准则,作为第一步,EGE提出了一套基于《欧盟条约》和《欧盟基本权利宪章》的基本原则和民主先决条件。
人类尊严的原则,即尊重个人的生命和人格,不被人工智能技术所侵犯。举例来说,当人与一个系统进行交互时,我们应该明确被告知与我们交流的是机器,而不是真人。也即我们应当有知情权,知道我们是否以及什么时候在与机器(或另一个人类)交流。
自主原则意味着人的自由。对人工智能系统的控制和了解应当成为人的责任,智能系统不得损害人类自由,不得设定自己的标准和规范。所有的智能技术必须尊重人类选择是否、何时以及如何将决策和行动委托给它们。
责任原则必须成为人工智能研究和应用的基础。智能系统的开发和应用必须为全球社会和环境的利益服务,因此它们的设计应该与人类的价值观和权利相一致。由于智能系统的潜在滥用可能会对人类整体构成重大的威胁,因此风险意识和预防措施至关重要。
应当利用人工智能的优势为全球正义、平等做贡献。应尽早预防、检测、报告和消除用于训练人工智能系统的数据集中的歧视性偏差。我们需要协调一致的全球努力,实现平等获得智能系统技术,在社会内部公平分配利益和机会。
关于人工智能发展和应用管理的关键决定应通过民主辩论和公众参与来决定。在这些问题上进行全球合作和公共对话,将确保这些问题以包容、知情和远见的方式被采纳。接受教育或获取有关技术信息的权利将有助于每个人都了解风险和机遇,并有权参与决策过程。
健全人工智能时代的法律,确保降低可能侵犯人权的智能系统产生的风险(如安全和隐私)。应尽快投入开发有效的解决方案,以提供公平、明确的责任分配和有约束力的法律机制,解决该领域出现的所有法律挑战。
在这方面,各国政府和国际组织应加大力度,明确智能系统的不良行为所造成的损失该由谁来承担责任。
智能系统的安全保障体现为三种形式:(1)其环境和用户的外部安全;(2)可靠性以及内部稳健性,例如抗黑客攻击能力;(3)人机交互方面的情感安全。AI开发人员必须考虑到安全性的所有方面,并在发布之前进行严格测试,以确保智能系统不会侵犯身心完整(bodily and mental integrity)和安全保障(safety and security)的人权,尤其需要注意处于弱势地位的人。
在数字通信技术无处不在,且能够大量收集数据的时代,保护个人信息和尊重隐私权的权力受到了严重的挑战。作为物联网一部分的AI机器人,以及通过互联网运行的AI软件必须遵守数据保护条例,而不是收集和传播数据,或运行没有给予同意的数据集。
智能系统不得干涉私人生活权,其中包括免受技术影响个人发展和发表意见的权利,建立和发展与他人关系的权利,以及免于监视的权利。
鉴于智能系统对私人生活和隐私的影响,可考虑引入两项新的权利:有意义的人与人之间的接触权,以及不被推荐、测量、分析、指导和干扰的权利。
人工智能技术必须符合人类的责任,以确保我们星球上生命的基本先决条件,持续促进人类的繁衍以及为后代保持良好的环境。为了防止未来技术对人类生命和自然造成不利影响,制定的策略应基于环境保护和可持续发展为优先的策略。
雷锋网结语:
相较于欧美国家在人工智能安全和伦理方面热闹的场面,国内在此方面似乎稍显冷淡一些。是我们不关心 AI 的安全和伦理吗?是因为没有利益驱动吗?
私下与众多学者的交流中,可以看出许多研究人员对人工智能的安全和伦理都有着莫大的兴趣和关注。但我们知道,这样的工作往往不是一个群体所能带动和完成的,它需要政府(政策)、学者(学识)、企业(资金)、媒体(宣传)和公众(支持)共同推动。而引起政、学、产、媒、众关注和推动的第一步,可能就是——举办一场 AI 安全和伦理的会议?
期待在这个为 AI 制定标准的时刻,我们中国能贡献力量。
相关文章: