资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

「发展」的AI伦理治理观:既要「扬善」,也要「除恶」

作者:陈彩娴
2021/12/14 12:32

在中国的交通历史上,有两个看似荒诞、却极有启示意义的著名事件:

1865年,清朝同治四年,英国商人杜兰德在北京宣武门外铺设了一条长约500米的小型铁路。这是中国的第一条铁路,很快引来了围观人群的惊呼声。人们看到一个庞大无比的蒸汽机头带着几节车厢缓缓驶来,无需人力拉动,着实神奇。雷峰网(公众号:雷峰网)

但对蒸汽机头的一无所知还是使人们心怀恐惧,清廷官员更是吓得一身冷汗,跑去向慈禧告状,言杜兰德所修的庞然大物乃是一条铁龙,能上天入地,破坏大清朝的龙脉!慈禧一听,也吓得不轻:“这是要亡我大清!”立即下令拆除。雷峰网

除了「无知」,按照两广总督毛鸿宾的说法,反对修建铁路还有另一个原因,就是火车会挤掉马车的生存空间,从而中断民间的贸易:“此(铁)路一开,遂为外国火车独行之路,中国马车既难与之并驾齐驱,更不堪其横冲直撞,势将断绝往来商民交割。”雷峰网

此乃事件一。

近一百年后,江苏常州也发生了类似的工具迭代竞争事件:

1946年,江苏常州计划在城区推行公交汽车,但此时城内仍有3000名黄包车车夫。城区公交汽车的推行必然威胁到黄包车车夫的生存空间,因此,3000名黄包车车夫发起大罢工游行。

当年10月,罢工游行事件到了白热化的节点。10月25日下午,聚众车夫前往市政府抗议,途径府桥时,与一辆红头雪佛莱公共汽车相遇。情绪中的车夫众人拦下公交车,往车上扔掷石块,双方乱成一片,最后护车士兵在混战中开枪射击,造成一人当场死亡,三人重伤不治,当地政府不得不紧急叫停城区公共汽车。

如今回顾,这两件事看起来十分不可理喻,但在人工智能时代,它的启示(或教训)仍是深刻的:第一,不要低估大众对未知新兴科技的担忧与抵触;第二,一项技术在人类社会的全面开花,必须考虑、保护甚至提升人类的自身权益,以人为本。

近日,商汤科技所提出「发展」的AI伦理观,也是从人的角度出发。

与早期的「AI伦理」不同,商汤所提出的发展AI伦理观,不仅强调对技术负面影响的约束,还强调人工智能对社会与个人的正向价值。

更重要的是,商汤认为,在发展与落地人工智能技术的过程中,「AI伦理」要考虑行业变革的飞快性,在技术发展的不同阶段采取不同治理框架,实现社会的发展平衡。

简而言之,就是:紧跟时代,以人为本,既要「扬善」,也要「除恶」。


1、AI治理的复杂性

近几年,随着人工智能在日常生活中的不断渗入,这项神奇的技术也逐渐向世人展示了自己的正邪两面。

先看「善」的一面。

这两年,新冠疫情爆发,被广泛使用的无感测温、无感通行,便是基于感知识别的人工智能技术。嫁接于各个计算机软硬件的AI技术,如智能图像处理、便捷支付、对话机器人等等,也极大地便利了人们的日常生活。

举个例子。此前商汤也研发智能避障眼镜,帮助视力障碍者在户外行走时获得交通信号、环境障碍物等语音提示,改善视障人士的生活。

人工智能不仅在实际的应用中带来了极为直观的价值,在学术研究上也产生了令人瞩目的影响。比如,前段时间,DeepMind用机器学习证明了两大困扰人类科学家数十年的数学猜想,登顶Nature。人工智能学家将AI与物理、生物、化学等基础研究相结合、并取得卓越成果的例子亦不胜枚举。

但与此同时,由于深度学习算法的「黑盒子」特征,以及人工智能系统在现实生活落地中所体现的不稳定性、不可控性等,误用、或滥用人工智能给人类社会带来的伤害也不容小觑。

在这样的背景下,建立AI的伦理体系实为大势所趋。为了促进AI技术的良性发展,各方力量承担起了不同的角色。比方说,据联合国统计,全球目前一共出台了超过150份有关AI治理的报告方案,学术界也掀起了「可信AI」、「负责任AI」与「AI向善」等多个新兴话题的研究热潮。

那么,科技公司应该如何承担起AI可持续发展的责任?作为AI产业的先行者,商汤有自己的思考。

首先,AI技术要不要发展?答案无疑是肯定的。正如商汤科技副总裁、商汤人工智能伦理委员会的主席杨帆所说:

「解决技术伦理最简单直接的方法,看起来似乎是不搞技术创新,那么自然就不会存在数字科技的诸多问题。然而,国家要发展,社会要进步,人们的生活质量要改善。前沿科技的发展对家、国、天下都非常重要。如果有顾虑就放弃发展,就是因噎废食。」

「技术发展与技术治理,本身就是制约与平衡的关系,缰绳勒得太早、勒得太死,会制约技术的发展;在技术演进的过程中,适时地收一收绳子、收住技术的底线和边界,才能让技术发展与应用,走得快、走得远。如今,AI已经走出实验室,随着AI通用大装置的日渐发展,机器猜想将带给我们更多的可能,伦理治理由此将更为重要。」

杨帆还表示:「没有理论可以完美得解释技术,但我们要了解技术应用的边界。通过AI伦理治理,既是规避AI技术的负面影响,引导技术的正向发展,推动公司与行业的可持续发展;同时,这也是业内领先公司、以及所有AI从业者们所应当承担的社会责任。」

从成立之初,商汤的使命便一直没有改变:坚持原创,让AI引领人类进步。也就是说,在商汤将AI落地的过程中,AI的服务对象不应该局限于一个特定的群体,而应该面向整个人类社会。

杨帆提出,AI治理是一个多目标、多维度的平衡过程。比如,防疫期间,保护集体利益的目标与尊重个人行程隐私的目标要权衡;健康码快速人群分类进行针对性防治与老年人数码产品使用问题要权衡等等。

多维目标的权衡,意味着AI治理的难度在增加。为此,商汤伦理委员会整理国际主流的治理观点、以及产业一线的实践经验,提出了AI治理的三大核心:技术可控、以人为本与可持续发展。具体来说,每个核心的表现大约如下:

可持续发展:保护环境、保护和平、包容共享、开放协作、社会认知、敏捷治理……

以人为本:保护人权、保护隐私、人类可控、公平无歧视、造福人类……

技术可控:可验证、可审查、合法性、可信任、可解释、安全可靠、公开透明、负责任……


2、制度式的「技术可控」

值得注意的是,商汤科技在「AI伦理」的参与过程中,不仅是停留在倡议或报告类的书面工作上。商汤的「关键行动」,是率先将「AI伦理」的治理工作贯彻在产品与业务的运营过程中,使之成为商汤企业管理中的一环。

2020年1月,商汤成立了人工智能伦理委员会,从企业的组织架构上渗透「AI治理」的观念。

对内,委员会审核商汤的所有落地产品线,对员工进行伦理通识培训,提高员工在日常工作中的伦理意识;对外,与其他组织合作,共同开展AI伦理的研究工作。

「发展」的AI伦理治理观:既要「扬善」,也要「除恶」

图注:商汤伦理委员会的职责介绍

另外,该委员会的成员不仅包括商汤内部的核心骨干,还有许多外部专家参与其中。而且,为了保证委员会所作决策的客观与中立,该伦理委员会有一条硬性规定,即外部委员不能少于1/3的席位。

今年上半年,该委员会上线了伦理审核系统,从实际的运营「把关」中践行了「技术可控」的核心AI治理原则。

该线上系统的设置,结合参考了国内外在技术伦理方面众多的政策制度和研究成果。审核体系从数据风险、算法风险与社会风险三大维度出发,设置十余个板块,近30道题目,从尊重人权、向善性、无偏性、隐私保护、可靠性、透明及可解释性、问责性等等角度,对项目进行详细拆解,考察其伦理水平。

「发展」的AI伦理治理观:既要「扬善」,也要「除恶」

图注:商汤伦理审核系统的运维

目前,伦理审核已经嵌入商汤立项审核流程,进行线上评审,并根据评分对被审核的产品进行风险等级划分。对于伦理风险较高的产品,该系统会予以驳回,提出中断开发、下线或整改的要求。若无法通过整改,则不予以立项上市。

「发展」的AI伦理治理观:既要「扬善」,也要「除恶」 

图注:商汤伦理审核流程

比如,曾经有「AI算命」的客户需求找到商汤,提出用计算机视觉技术识别人体特征、手掌掌纹等信息,自动给出用户的人生运势等预测。识别这些信息和特征,技术上来说并不难,但这显然不符合商汤的价值观,即使预见可以有所收益,这样的项目也无法立项成型。

杨帆的看法是:「技术有所不为,而后才能有所为。」虽然一个高盈利的AI产品可能会因为风险问题被淘汰、从而对公司营收会造成直接影响,但从长远的角度来看,这是必要的。

目前,这套系统已经全面覆盖商汤存量产品与新增申请立项产品,形成了内部的产品项目从立项、发布、运营全生命周期的伦理风险控制机制。伦理审核结果会伴随产品研发和发布的全过程,若发布阶段产品有重大变化,则需要重新审核说明。

据商汤披露,从该系统上线至今,已有 10% 的产品被责令整改或下线;在对新增项目审核中,有 5% 的项目被打回整改,或驳回立项,累计放弃价值数百万的商业利益。

「光有概念、有想法是不够的,AI伦理治理既需要高屋建瓴的指引原则,也需要具体而微的评估指标。系统的建立就是根据这些指标维度建构人工智能伦理风险评估体系,将指标具体化、操作化,为企业的技术治理与风险管控提供支持。」杨帆表示,

而在实践中,AI伦理管理系统,通过系统的方式将风险识别、评估、处理、 监控及汇报等各环节都进行了覆盖,明确各产品全生命周期中各个主体的风险管控责任,让技术可控有章可循、有规可依、有据可查。」

今年11月,商汤因伦理方面前瞻性思考和实践,获得了《哈佛商业评论》2021年度拉姆·查兰管理实践奖。这也是国内首个因为在技术伦理与治理方面的实践而获得的顶尖商学院媒体授予的企业。


3、「发展」的AI伦理观

「技术可控」并非目的,而是手段。

说到底,人工智能企业在技术创新中「有所不为」的最终目标,不是为了停止人工智能技术的研究与创新,而是以一种良性的、可持续的方式在现实生活中发展人工智能,紧跟时代需求,使其为人类、为社会造福。

今年,在伦理审核之外,商汤也继续保持其在人工智能技术上的创新,推出AI大装置等人工智能基础设施,「伦理治理」与「技术创新」双管齐下,为行业做贡献。

「无论是技术本身、还是技术治理上,商汤都是开放而坚定的长期主义者。AI伦理治理是一个需要持续关注与投入的话题。人工智能伦理的发展,需要多方合作、共同探索。」

据了解,目前,商汤科技已与清华大学人工智能国际治理研究院、上海交通大学、上海人工智能实验室、上海科学学所、数据法盟等共10家机构展开合作,围绕敏捷治理、数据安全、人工智能算法的可解释性等方面开展联合研究,平均每年推动五个专项课题的研究,产出10+专项研究报告。

当越来越多力量参与其中,「AI伦理」就不再只是一句口号,而会演化成实际的行动,贯彻人工智能的发展始终,最终推动人工智能在人类社会的全面落地。

彼时,人类与AI才算得上是真正的「和谐共存」。而这,也正是「发展」AI伦理观的愿景所在。

笔者注:

恰在笔者行文期间,美国财政部以所谓“侵犯人权”为借口将中国、俄罗斯等五个国家15名个人及10个实体列入制裁名单,其中包含商汤科技。这也是继2019年被列入“实体清单”后,商汤再度遭到美国无端打压——尤其,该项决定的宣布日期就在商汤原计划的香港上市发行定价日。这样对商汤精准的打击,其用心不可谓不明显。美国财政部的这一行为,将正常的商业和科技活动政治化,严重破坏了正常的市场规则与秩序。

此时再想到商汤科技伦理委员会主席杨帆所说:“要不要发展AI?当然要。国家要发展,社会要进步,人们的生活质量要改善。前沿科技的发展对家、国、天下都非常重要。”愿中国硬科技发展崛起!

参考链接:

1、https://www.sensetime.com/cn/news-detail/41164352?categoryId=72

2、https://mp.weixin.qq.com/s/FOxOhEkWIXv5ypzHPkXIWw

长按图片保存图片,分享给好友或朋友圈

「发展」的AI伦理治理观:既要「扬善」,也要「除恶」

扫码查看文章

正在生成分享图...

取消
相关文章