12月15日,雷锋网从腾讯了解到,腾讯安全平台部预研团队发现谷歌人工智能学习系统 TensorFlow 存在自身安全风险,可被黑客利用带来安全威胁,其已向谷歌报告这一风险并获得致谢。
腾讯安全平台部预研团队发现,攻击者可以生成 Tensorflow 的恶意模型文件,对 AI 研究者进行攻击,对受害者自身的 AI 应用进行窃取或篡改、破坏。腾讯方面认为,该风险危害面非常大,一方面攻击成本低,普通攻击者即可实施攻击;另一方面迷惑性强,大部分 AI 研究者可能毫无防备;同时因为利用了 TensorFlow 自身的机制,其在 PC 端和移动端的最新版本均会受到影响。
Google 的 TensorFlow 作为开源框架被互联网广泛使用,该框架在谷歌、ebay、airbnb、twitter、uber、小米、中兴等公司均有使用。在TensorFlow中,AI 研究者可以复用他人建好的模型来进行AI训练,或直接提供 AI 服务。
这是安全研究员最近发现的第二起 TensorFlow 相关安全风险事件。
12月初,雷锋网了解到,奇虎 360 安全研究实验室的 Qixue Xiao 和 Deyue Zhang,美国佐治亚大学的 Kang Li,以及美国弗吉尼亚大学的 Weilin Xu 在分析了 TensorFlow,Caffe,Torch 这三大深度学习框架所使用的大量第三方开源基础库后,发现它们存在不少的网络安全漏洞,容易受到拒绝服务攻击、逃逸攻击、系统损害攻击的影响。