美国国防情报局( Defense Intelligence Agency )总部华盛顿总部的墙上写满了潦草的计算机代码和技术笔记。其中有一行字在房间后墙的中心特别显眼:
“普通民众的意见,评论和玩笑都应该被注意。”
这句话最初来源于基地组织训练手册,上至恐怖网络的头目,下至底层的步兵都被告知:即使是最平常的通信也能提供关于敌人的宝贵经验。它被贴在另一句话旁边,这是来自美国国防情报局局长 Vincent Stewart 的话,他说“90%的情报是公开的。”
据雷锋网了解,2017年7月12日,新美国安全中心发布《人工智能与国家安全》报告,分析了人工智能技术对国家安全的潜在影响。信息无处不在,无论它是有意还是无意地收集到的,无论是个人的还是数字的,情报工作者都能从来源、监视和社交媒体中获取越来越多的数据,这些数据很容易就会超出他们对信息的筛选、分类和组织信息的能力范围。但是如果没有情报,下一个袭击美国城市的计划可能会成功,下一次伏击美国军队的行为都可能是致命的。
“现在有这么多的数据,”迪克森(Robert Dixon Jr )说,他是 DIA 创新办公室的项目和转型特别顾问,“一切都是关于信息,你需要能够预测你的对手下一步会做什么。”
数十年来,美军在情报方面投资包括:研发更好的传感器以收集更多情报;开发更好的网络以传输数据;投入更多人力监视信息直至发现有效情报。Cukor上校说,“我们的劳动力被海量数据所淹没,长时间盯着某个事物的确不应该是主要由人类来完成的。美国的分析师不可能得到收集到的全部数据,我们也不能计算出他们到底错过了多少信息。”因此, DIA 的情报工作的重点之一是迅速推进机器学习的技术或者 AI 来识别所谓的“趋势,模式或大数据组织”,以此来缓解分析人员的负担。
美国将 AI 视为在战场上使用的国家安全工具。 AI 也成为识别和转移网络攻击的关键工具,而这些网络攻击发生的速度太快,任何人无法预见和消除,这些缺陷更加令人不安。
埃森哲安全部总经理兼政府网络安全问题常务顾问 Matt Devost 表示:“现在行业的发展落后于形势,网络防御并没有跟上攻击的速度。“我们缺乏人力资本,所以我们没有足够的技术人员来开展不断扩大的网络防卫任务。”
“这意味着我们必须增加拥有 AI 和机器学习的人才,来从人类层面获得更多的价值。”
新美国安全中心发布的《人工智能与国家安全》报告表示, AI 技术进展主要发生在民用企业或学术界,美国政府机构处于落后状态。然而, AI 对国家安全起到至关重要的影响。如机器学习技术可使一些劳动密集型工作的自动化程度大幅提升,如卫星获取的图像分析和网电攻防领域等。报告认为,未来随着技术的持续进步,AI 将像核武器、飞机、计算机和生物技术一样,日益成为影响国家安全的变革性技术。
然而,让制定战争计划的高层头疼的是,在过去的几十年里,美国都是以一种缓慢而繁琐的方式支出防御资金,这是一种传统。这种方式只允许谨慎地开发新项目,比如一艘航空母舰,它的设计可以持续几十年。这种模式显然无法跟上伊斯兰极端分子利用社交媒体进行恐怖活动的速度。
因此,通过其新的创新中心办公室, DIA 正在尝试一种新的方式来征求 AI 专家的意见。实验室的技术人员和分析师收到了私营企业展示的产品,这些公司相信他们的产品能够解决 DIA 已经发现的问题。这已经是该项目6个月以来的第三次会议。
雷锋网了解到,参与者可以获得25万美元的种子资金,为 DIA 开发项目或技术以评估潜在的投资。到目前为止,该机构在上一财年的六个项目中已经投入了200万美元。这笔钱来自于一个专用的 DIA 预算,尽管它也与国防创新实验小组( DIUx )合作,为一些项目提供资金。
“pitch days”是国防部加大力度投资于更灵活的作战技术的一部分,从最近的趋势中参考了像 DIUx 这样的办公室,在前国防部长 Ash Carter 的领导下,为目前的战争迅速找到现代工具。
“政府过去一直都非常官僚主义,注重结构、严谨,有时不愿意改变,”迪克森说。“这将简化流程并提高效率。”
DIA 目前正在考虑资助的各种技术都是直接从间谍电影中获得的。上周推出的一个公司实际上引用了杰森·伯恩(Jason Bourne)的电影系列,来展示它如何追踪一个特定的面孔——在这个例子中,演员马特·达蒙(Matt Damon)——横跨一系列不同的视频片段。这样的程序可以自动识别多个监控摄像头的目标,就像那些惊悚片通常描述的那样。
据 breakingdefense 网站上个月的报道,在大量私营企业的推动下,人工智能技术将很快用于作战。美军计划在6个月以内,开始使用商用人工智能算法来分析整理关于“伊斯兰国”极端组织的大量情报数据。
Drew Cukor上校说,“我们将在2017年底之前将人工智能算法引入作战区域,唯一的方法就是与商业伙伴合作。”
Integral Mind的总裁 Daniel Osher 表示,他已经开发了一个工具用来帮助解释文化差异,例如宗教在社会中所扮演的角色,然后创建一个可以准确预测国际事件如何演变的程序。Osher 表示,他的方案本可以预料到导致索马里1993年“黑鹰坠落”的暴力起义,并准确地预测了2015年“联合综合行动计划”——伊朗核协议,最终如何确定包括每一方要求的结果以及他们最终将如何同意。
这项技术是基于他所称的“思维导图”(mind maps),他的公司通过与特定国家的人进行有针对性的访谈来创建计算机程序,确定影响他们决定的因素,以预测他们对某些挑衅的反应。这可能有助于美国目前对抗极端主义的战争,在那里赢得当地的支持和消灭敌人一样重要。
在向 DIA 分析师和技术人员完成陈述之后, Osher 表示,“这是一场模糊的战争,你必须让人们相信你是对的。”“头脑正在成为新的战场,这可以让他们知道该信任谁和如何影响他们...”
可以不靠人操控就击发的防御武器激起了军备控制倡导者和一些军事战略家的警惕,他们担心这将使得智能武器在攻击和防御方面的应用平衡变得难以维持。
雷锋网了解到,美国还没有完善的法律来管理人工智能,或者解释有关人类在决策过程中应该如何参与的关键问题,尤其是决定计算机何时可以自行选择是否执行致命行动。
“你永远不能把人带出这个圈子。”Dixon 表示。他对保护措施的实施有高度的信心,防止例如无人机自己决定是否应该发射导弹。
加州大学伯克利分校的人工智能专家、一个禁止自动武器运动的领导者 Stuart J.Russell 说:“我们必须分清楚这中间的界限,而且必须站在正确的那一边。”
事实上,在一些科技界人士以及军事战略人士看来,把杀戮的决策权留给机器,其实就是在倡导新的、很可能导致不稳定局面的军备竞赛。
“我们正在做的是为了国家的国家安全,这是一种激励。”Dixon 补充说。
其他专家则担心更多看似良性的决策,可能会产生更大的灾难性后果。未来主义者担心的是未来机器可以决定削弱某个国家的货币,给自己的军事力量带来更大的优势,从而加速全球金融崩溃。
新美国安全技术和国家安全项目中心主任、前国防部长顾问 Paul Scharre 表示:“这是一个严峻的挑战。之前他曾为无人机等新时代的技术制定规则。““这不是不使用这项技术的理由,但当我们考虑如何使用它时,我们需要考虑人机界面、透明度、人工智能的脆弱性,以及如何训练人们使用系统。”
他说,在许多方面,除了探索美国军方如何更好地使用人工智能之外,没有其他选择。
“我们被数据淹没了,”Scharre说。“我们从恐怖分子和其他行动中收集了大量的数据,并通过这些数据进行筛选,但是单靠人力来实现是不现实的。”