雷锋网AI科技评论按:近日,一份 AI 专家联合签名的公开信火了。这封信发表在澳大利亚新南威尔士大学 (University of New South Wales) 的官网上,在信上,来自全球 20 多个国家、50 多名高校顶尖 AI 学者集体签名抵制一所正在研究如何使用人工智能武器的韩国研究型大学。
事件的起因是,韩国科学技术研究院 (Korea Advanced Institute of Science and Technology)(以下简称 KAIST)在今年 2 月 20 日成立了一个研究中心,希望在今年年底前研发出基于「人工智能」的导弹、潜艇和四轴飞行器。
看到这儿,知道 AI 专家为什么要抵制了吧?KAIST 要研制人工智能战争武器!
雷锋网发现这个研究中心的成立背景也让人细思极恐。该研究中心由 KAIST 与韩国军工企业「Hanwha Systems」合作成立,全称为「国防和人工智能融合研究中心」。Hanwha Systems 的母公司是韩华集团(Hanwhua),是一家有着制造恐怖武器黑历史且是韩国最大的军工企业,曾因制造集束弹药被联合国列入黑名单。
据《韩国时报》称,该中心的目标是开发应用于军事武器的人工智能技术,以便在无人控制的情况下搜索并消除目标。Hanwha Systems 与 KAIST 正在合作研发的国防 AI 应用,目前已曝光的的有四大方向,分别是 AI 指挥与决策系统;无人水下潜艇的导航算法技术;AI 智能飞行模拟器;AI 智能目标追踪与识别技术。
看清了该研究中心科研项目的不纯目的后,AI 学界大牛们对此发出了一致的谴责声。
最早发出呼吁的是 AI 领域著名的澳大利亚学者 Toby Walsh,其后有近 60 名从事机器人和 AI 研究的专家表示赞同。其中最著名的有多伦多大学 Geoffrey Hinton、蒙特利尔大学 Yoshua Bengio、瑞士人工智能实验室 Jürgen Schmidhuber、加州大学伯克利分校 Stuart Russell、南京大学的周志华教授,香港中文大学的华云生教授、香港科技大学的杨瓞仁教授等人。南京大学人工智能学院院长、计算机系教授周志华是唯一一名内地学者。
专家们在信中写道:
在联合国正在讨论如何遏制自主武器对国际安全构成的威胁时, 我们非常遗憾的看到, 像韩国科学技术院这样的著名机构似乎在加速军备竞赛, 以发展这类武器。因此, 我们在这里公开宣布, 我们将抵制与韩国科学技术院相关的所有合作, 直到韩国科学技术院负责人向我们保证,该中心将不会研发完全自主,不需要人类控制的「机器人杀手」。例如, 我们将不再访问韩国科学技术院, 接待韩国科学技术院的学者, 或参与任何涉及韩国科学技术院的研究项目。
道义始终站在正义这边,大家的集体呼吁很快得到了 KAIST 院长 Sung-chul Shin 的回应。
他表示对科学家们联名抵制感到很遗憾。他在一份声明中称:「我需要重申 KAIST 无意参与致命性自主武器系统「机器人杀手」的研发。作为一个学术机构,我们高度重视人权和伦理标准。我重申 KAIST 没有进行任何有违人类尊严的研究,包括研发缺少有效控制的自主武器。」
周志华教授也第一时间在微博上通知了此事件的进展。以下是周志华教授微博的截图内容:
事件发展到此基本告一段落,不过,该公开信签名发起人新南威尔士大学 Toby Walsh 教授对这一回应似乎有点小小的不满意。他在接受 CNN 采访时表示,「仍然对他们研发这些打算做什么有一些疑问,但总体来说,也算做出了适当的回应。」
附公开信全文翻译及联名教授名单:
作为 AI 和机器人技术的研究员和工程师, 我们对韩国科学技术院(Korea Advanced Institute of Science and Technology)与韩国军工企业韩华系统(Hanwha Systems)合作建立的「国防与人工智能融合研究中心」(Research Center for the Convergence of National Defense and Artificial Intelligence)表示极大的担忧。据报道, 该中心的目标是「开发可用于军事武器的人工智能技术, 加入全球研发自主武器(autonomous weapon)的军备竞赛」。
在联合国正在讨论如何遏制自主武器对国际安全构成的威胁时, 我们非常遗憾的看到, 像韩国科学技术院这样的著名机构似乎在加速军备竞赛, 以发展这种武器。因此, 我们在这里公开宣布, 我们将抵制与韩国科学技术院相关的所有合作, 直到韩国科学技术院负责人向我们保证该中心将不发展完全自主不需要人类控制的「机器人杀手」。例如, 我们将不再访问韩国科学技术院, 接待韩国科学技术院的学者, 或参与任何涉及韩国科学技术院的研究项目。
一旦发展出自主武器,我们将面临战争的第三次革命。自主武器(「机器人杀手」)将让战争的规模比以前更大,速度更快。它们很有可能成为恐怖武器。专制统治者和恐怖分子可以利用它们伤害无辜平民,不顾任何伦理束缚。这个「潘多拉的盒子」一旦被打开将很难关闭。正如过去我们曾经禁止的技术(如致盲激光)一样,我们可以直接决定不再开发。我们敦促韩国科学技术院继续沿着这条道路前进,用人工智能技术来改善人类生活,而不是伤害人类生命。
公开信联名教授名单
雷锋网