人工智能一定会使战争更加惨烈吗?
人们担心迅速发展的人工智能如果用于战场,其后果将十分严重,它可以提高杀人机器的效率,同时承担的责任更少。上周数千名科学家和技术人员发表了一份公开信上,呼吁禁止使用人工智能控制的致命性武器。
但与你想象的不同,专家们对机器人杀人一事存在意见分歧。
包括Elon Musk、霍金和Steve Wozniak等在内的许多优秀人工智能研究员、知名科学家、企业家都签署了那份公开信。信上表示:
“人工智能技术已经成熟,如果法律允许,将于近几年内而不是几十年内实现人工智能系统部署。另一方面其危险系数较高:自动化武器可称得上是仅次于火药和核武器的发明的第三次战场革命。”
近年来人工智能发展迅速,特别是机器学习领域。该领域通过大量数据让计算机学习识别复杂、微妙的模式,在现实世界中使用这些技术将会引发道德争议。与此同时,先进的军事技术可以实现远程控制。例如,无人机和拆弹机器人的使用,让人们预想在未来可以实现这些技术的自动化。
2012年,美国国防部发布禁令:10年内禁止研发和使用“自动化和半自动化”武器。今年年初,联合国举行会议讨论自动化致命性武器以及禁令实施的可行性问题。
尽管军用无人机和机器人自动化性能还可以升级,但是有人认为不经人类控制而让全自动化机器实施关键任务的想法,其实是无稽之谈。虽然人工智能领域仍存在许多基本挑战,但全自动化武器所需的技术何时成熟仍是未知数。
加州理工州立大学哲学专家Patrick Lin认为:“我们在人工智能领域取得了新的进展,仍有许多人怀疑全自动化时代是否能到来。没有人可以完美的预测未来。”
他说:“这封信在引发人们警觉性方面十分有用,但它也不完全是为了引发讨论,它试图终止争议,并认为‘我们已经找出了答案,你只需要支持我们的意见’。”
公开信中没有提及的一个问题是,在一些情况下自动化武器能否证明其可以帮助减少不必要的伤害。因为他们不会疲劳,犯错更少,也不会有战士的情绪化影响。
有人希望人工智能系统更加智能,但又担心如果失去控制,会对我们的防御系统带来极大损失。
许多人工智能专家关注这个问题,仍有一些科学家认为这只是放错位置的资源。例如,有人认为如果想避免人工智能给金融市场、空汇总交通系统等带来严重后果,可以让那里的计算机不升级人工智能。
另外,Lin认为不受控制的杀人机器人概念令人担心,但它毕竟离我们还远,或许自动化武器更应该引起人们的关注,毕竟它是一个更加紧迫的现实问题。