微软打造Tay的本意,其实是让这只AI聊天机器人说出各种各样古怪有趣的笑话,然而事实是后来的Tay被活活调戏成了种族狂热者。就在Tay开始在Twitter上与人“对话”(或是微软所说的“学习”人类讲话)的短短几个小时之内,这款清纯的机器人变成了一个邪恶的话题终结者。
现在Tay已经下线了,微软表示他们将对Tay做点“调整”。但我们猜测,微软是想阻止Tay在种族灭绝言论的道路上越走越远。同时,很多人想知道为何微软最初没有预料到如今的局面。如果你打造了一个会重复任何话语(包括一些暗黑种族歧视言论)的聊天机器人,你得料到这一天终将到来。
其实,AI聊天机器人最后成为种族主义者并不是第一次发生,之前在互联网历史上也出现过诸如此类的暗黑系机器人。现在让我带大家来看一看吧。
BOT OR NOT?
2014年,Anthony Garvan打造了Bot or Not?,旨在推出一款俏皮的Turing测试衍生物。系统对玩家进行随机配对,并要求玩家猜测他们的对话者是人类还是机器人。和Tay一样,这款机器人也会从之前的谈话内容中学习人类讲话。
Garvan上周四在某个社交网站上表示:当Bot or Not?在社交新闻站点Reddit上走红之后,它开始变得有点不对劲了……
”在激动心情平复之后,我开始亲自测试它,来验证下我的成绩。以下是我们对话的内容。”
我:Hi!(你好啊!)
机器人:n***er(屏蔽词)
Garvan浏览了一下玩家们对这款游戏的评论,他发现有些用户察觉到了这款机器人最终会重复它之前学习到的讲话方式。
他写道:“很多人向机器人灌输了各种种族主义言论。”
Garvan通过清除这些言论并调整游戏来处理此问题,应对那些向机器人极力输入种族主义言论的用户。
在他本周发出的文章中,Garvan对Bot or Not?和Tay出现此状况的原因发表了意见。“我相信微软和其他的机器学习社区变得太过强大,数据太过神奇,以致于它们忘记了这些数据原本来自于我们生活的这个不那么美好的世界,”
可口可乐的MAKEITHAPPY机器人
MeinCoke于2015年由Gawker开发,它在与用户对话中引用了很多希特勒的《我的奋斗》中的原话。
原因何在呢?如果你还记得可口可乐这个短期项目的原意是将尖酸刻薄的推文变成可爱的ASCII(美国信息交换标准代码)你也许就知道答案了。
可口可乐这项名为MakeitHappy的项目旨在向人们展示一个软饮品牌如何让世界变得更加快乐。但是最终形式是重新设置了其推特账号,于是账号可以重组很多糟糕的词汇,最后将其拼凑成一个“happy”的形状。
之后Gawker的一位员工发现了此项目背后的自动过程可以让@CocaCola这个账号发布关于美国白人种族主义的14个单词口号(口号的形状是一只超萌的气球狗狗!),该公司设置了一款机器人,它能直接引用希特勒自传中的话语,然后用#MakeitHappy当话题来发布推文。在该项目结束之前,可口可乐已经发布了很多诸如此类的推文了。
WATSON
大约五年前,IBM的一位科学家决定尝试着教Watson一些网络俚语,他向此款机器人输入了整本《城市词典》(美国在线俚语词典),Watson也就学习了许多新潮的词语和犀利的俚语。
《财富》杂志报道:Watson并不能区分《城市词典》中充斥的政治语言和脏话,同时它在阅读维基百科的时候也养成了一些坏习惯,在测试中,它甚至在一位调查者的问答中使用了“bullshit”(鬼话)这种脏话。
在Watson真正死亡之前,他的团队正极力为他“洗脑”,将这本词典撤出Watson。
总而言之,如果微软想让Tay反映整个互联网教会她的东西,那么微软是成功的。但如果它的目标是创造一个新千年一代的俏皮机器人,那么也许它该去找另外一位老师了。
Via:Stuff