资讯 业界
此为临时链接,仅用于文章预览,将在时失效

惊呆了!这些“网红”可能都是假人......

作者:贝爽
2020/11/26 10:52

Ins、抖音上的网红一定都是真人吗?

答案还真不一定。

最近国外出现了一批售卖“假人”的网站,面向所有人开放,只要付费就能通过API快速获取一个假人IP,而且也不贵,2.99美元(不到20元)一个。

先来看下它们的成品。

惊呆了!这些“网红”可能都是假人......

这些拥有光滑皮肤的人脸照是不是像极了社交平台的网红照?

可能你会怀疑他用了美颜相机一键磨皮瘦脸了,但肯定想不到他们都是不存在的“假人”

不止如此,这个名为Generated.Photos的网站还为购买者提供了极大的发挥空间,如果对年龄、容貌、肤色、种族、性别,甚至情绪不满意,统统都可以根据需求自己调整,而调整方法就像使用美颜APP一样简单。

比如想要变大双眼,直接滑动下面的滚动按钮即可。

惊呆了!这些“网红”可能都是假人......

从青年直接跨到老年,头发、神情、皱纹,过渡的相当自然,还应景地配了副眼镜。

惊呆了!这些“网红”可能都是假人......

情绪变化也毫无违和感,正经脸一秒变职业假笑。

惊呆了!这些“网红”可能都是假人......

如果一张假人照不足为奇,那么一个名为Rosebud.ai的网站还能让他们“动”起来。

惊呆了!这些“网红”可能都是假人......

从说话的口型,五官的轻微移动,确实很难辨真假。

从网站介绍来看,任何带有面孔的照片都可以变成视频效果,其中说话的文本,可自定义,也可由系统自动提供,同时,说话者的声音有多种选择模式。

那么,如此逼真的深度造假网站,是不是已经被封杀?

然而并没有,这是一家正经公司的正经网站,网站上还挂出了他们的客户—欧莱雅(L‘OREAL),电商平台(shopify)、YC中国(Y-Combinator)等大牌企业Logo。

Rosebud.ai:为艺术创作而生

想必很多AI开发者或爱好者,对上述“假人”的生成效果并不感到意外。

自从2014年GAN(生成式对抗网络)首次被提出以来,基于人脸的图像合成效果便得到了惊人的发展,尤其是其升级版StylGAN2推出后,在人脸处理方面,已经能够支持换脸、换头、修改五官,甚至生成不存在的新人脸。

而且这项技术已经支持图像、视频、语音多种形式。据Rosebud.ai官网介绍,其“假人”制造正是基于GAN技术,而其视音频的处理上利用的是自然语言模型GPT-3.

GPT-3具有超强的文本生成能力,内含1750亿参数量,是有史以来最大的NLP模型,也是OpenAI耗资四百多万美元打造的模型。从6月份开通API服务后,被网友们挖掘出了50多种新玩法,如写诗作词、画图做PPT,生成代码等等,效果也十分惊人。

基于这两项超强AI技术,Rosebud.ai可以达到的效果不难想象。而为何提供这样一种“假人”服务,该网站也给出了明确说明:

惊呆了!这些“网红”可能都是假人......

Rosebud ai是一款生成文本、图像、视频和语音的工具,它对于生成性媒体完成故事创作非常重要。比如,小说故事中的人物形象总是很丰富多彩,我们可以通过AI技术呈现与之最相符合人物容貌。同时,GPT3能够进一步通过人物特点合成了具有亲和力和情感丰富的独白,这些独白在刻画人物形象,丰富故事内容方式也发挥了非常重要的作用。

也就是说,这项技术原意是被用来辅助艺术创作。事实上,无论是GPT-3,还是GAN技术都是以科技向善为初衷研发的,比如GAN在人脸融合方面的惊人效果,可以被广泛应用于娱乐、电影制作等行业。

但有人曾说过,“技术本没有错,错的是利用技术的人。”GAN技术被不少不良分子用来创造了大量Deepfake视频,或是色情内容或是伪造政客言论,此前雷锋网也有多次报道。

Rosebud ai等工具也一样。

被间谍利用,用于身份造假

Rosebud ai主要被人用来身份造假。相关案例也不再少数,其中最大的一起案例要属2019年某间谍利用假面孔混入华盛顿政治领域事件。

当时一名凯蒂·琼斯(Katie Jones)的红发女郎以网络专家的身份,与美国副国务卿助理,高级参议员助手以及经济学家保罗·温弗里(Paul Winfree)都建立了密切联系,Winfree当时正在竞选美联储的职位。

后来经调查发现,这位30岁的女性是由AI创建的“假人”,她在职业社交平台Linkedin上的个人资料和照片全部虚构。

美国国家反情报与安全中心主任威廉·埃文纳(William Evanina)曾表示,

“这是在专业社交网站上进行间谍活动的典型案例,很多外国间谍通常会使用虚假的社交媒体资料把自己包装成美国知名专家,并进行大规模间谍活动,对他们而言,相比于派间谍到某一个国家,不如坐在家里的计算机后面,向30000个目标好友发送请求效果更高。”

不过,因及时发现该事件并没有产生更恶劣的影响。同样是在LinkedIn平台,今年7月份也发生了一起重大身份造假事件。

这位“假人”名为拉斐尔·巴达尼(Raphael Badani),他将自己包装成美国知名新闻平台Newsmax的内部人员,从事“政治风险顾问、国际关系高级分析师”相关工作。

惊呆了!这些“网红”可能都是假人......

利用这一身份他发表过有关“伊拉克如何伊朗的控制”,“迪拜为何如此动荡”等多篇文章。这些文章还被美国Washington Examiner、RealClear Markets,、American Thinker以及The National Interest等多家媒体转载。

但后来发现此人并不存在,其个人资料全部为伪造,文章也窃取自圣地亚哥创业公司创始人的博客。

此外,与以上有政治意图的造假案例相比,该技术可能被广泛的应用于日常社交,虽然不会涉及违法犯罪,但它确实在构建一个虚假的世界。例如有网友称,

不难想象,未来我们会经常看到此类分享照——与“假朋友”聚会,与“假狗”闲逛,抱着他们的“假婴儿”。

仔细看,肉眼看也能识别

当然,随着造假信息的泛滥,相关反识别技术也在陆续推出。

目前的主流技术包括人脸X射线( Face X-ray)检测、背景差异检测(Background Difference)、情绪识别网络(Emotion Recognition Network)检测,以及生物学信号(Biological Signals)检测,最高识别率可达到99%以上。

此外目前的人脸造假,无论是视频还是图像方面,还远未达到毫无差错的地步。

如果用肉眼观察,也能够发现一些痕迹。比如通过一些配饰,

惊呆了!这些“网红”可能都是假人......

图中的耳环看起来很相似,但细心一点可以发现有明显区别。另外眼镜也是一个常用的衡量配饰,GAN创建的眼睛,框架两端经常会不对称,或有轻微变形。

在对称方面,GAN在耳朵、眼睛的生成上也会有不一致出现。

最后,最明显的痕迹就是伪影和背景。

惊呆了!这些“网红”可能都是假人......

伪影就是在原图像上出现了并不存在的各种形态的混色影像,这一点最容易识别。伪影也是衡量合成图像质量的关键指标。此外,目标人脸之外的背景也是重点,如变形的树木、错位的草坪等。

引用链接:

https://www.nytimes.com/interactive/2020/11/21/science/artificial-intelligence-fake-people-faces.html?action=click&module=RelatedLinks&pgtype=Article

https://apnews.com/article/bc2f19097a4c4fffaa00de6770b8a60d

https://www.thedailybeast.com/right-wing-media-outlets-duped-by-a-middle-east-propaganda-campaign

雷锋网雷锋网雷锋网

长按图片保存图片,分享给好友或朋友圈

惊呆了!这些“网红”可能都是假人......

扫码查看文章

正在生成分享图...

取消
相关文章