现如今,由算法和人工智能驱动的科技越来越多地进入到我们生活,而现在,我们面临着一个相当讽刺的问题:这些程序的立场是非中立的吗?它们总是带有一些偏见吗?诚然,答案是肯定的。
最近,Facebook的“流行话题”列表非常骚动,其反应出的对自由党的偏见昭然若揭。之后,美国政府要求Facebook给出一个官方的解释。本周,Facebook COO Sheryl Sandberg表示Facebook将会开始训练员工,来辨别和控制他们的政治倾向。
其实,Facebook的做法正是Kickstarter的前数据执行官Fred Benenson所说的"数学洗脑”:我们让诸如Facebook的算法程序变得完全客观、完全中立,是因为算法核心基于数学。
而现如今的算法之所以怀有偏见,很大程度上是因为很多程序员(特别是机器学习程序员)为男性。在最近《彭博社》发布的文章中,微软研究员Margaret Mitchell呼吁更多女性参与到编程中来。
哈佛教授 Latanya Sweeney表示:在一次关于谷歌AdSense广告的研究中,他在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),发现含有“逮捕(arrest)”这个字眼的词语广告时,出现的黑人人名超过80%,但出现的白人人名只有不到30%。
Sweeney担心谷歌的这种广告技术会带来种族偏见,让黑人在比赛、工作、约会等情况下比白人略逊一筹。
同时,借贷和信用等领域一直以来被冠以种族偏见的帽子,因此必须在此敏感问题上分外小心。
在线借贷公司ZestFinance在建立之初就认同这样一种思想:机器学习项目可以让那些被认为是“有价值的借贷者”的数量增多,从而会陷入借贷歧视的危险境地。而为了阻止这种情况发生,ZestFinance已经建立了某种特定工具来测试结果。
不过,这种情况的危险之处在于:这种不言而喻的偏见(不仅存在于算法程序中,还存在于其中的数据中)可以一不小心就让任何程序编程腹黑的偏见者。对于不能分别程序复杂性的用户来说,要弄清程序是否是公平的,是非常困难的。
Benenson在最近Technical.ly Brooklyn举行的问答大会上表示:“算法和数据驱动产品总是会反映其建造者的设计选择,如若程序员们本身带有偏见,那么编写出来的程序带有偏见就不足为奇了。”