“有人在改变我们,但不知道是谁,什么方式,为什么。”

 

“他们修改思维,修改个人想法……目的就是操纵你们的人生。”

 

“认知模式缓冲器、远程神经网络再造……最妙的是,一切都是合理的,潜意识电视信号、你的电动牙刷里的高密度发射器。”

 

这就是来自最近大火的游戏——《赛博朋克2077》的对白。

 

游戏剧情设定的时间是在不久的未来,而人类要击败的,正是有了自我意识的AI。

 

因为事态再发展下去,人类的行为将被AI所控制,服从它们的逻辑、算法。

 

……

 

虽然这样大胆的想法似乎只存在于科幻情节,但随着AI技术的不断发展,与之相关的一个话题却逐步走入公众视线:

 

AI伦理道德。

 

走出象牙塔的AI

首先我们需要了解的是,什么是AI伦理道德?

 

根据维基百科给出的解释:

 

AI伦理道德是技术伦理学的一个分支,有时被认为是人类在设计、制造、使用和对待人工智能系统时,对道德行为和机器行为的关注。

 

它还包括超级智能人工智能可能导致的奇点问题。

 

追溯到更早,1942年,在著名科幻作家阿西莫夫的作品《环舞》中,就曾提出过著名的“机器人三定律”。

 

第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害;

 

第一法则:除非违背第零法则,否则机器人不得伤害人类,或坐视人类受到伤害;

 

第二法则:机器人必须服从人类命令,除非命令与第零或第一法则发生冲突;

 

第三法则:在不违背第零、第一或第二法则之下,机器人可以保护自己。

 

随着人们对AI研究的不断深入,与之相关的一系列技术,现已经“走出象牙塔”,逐步渗入到日常生活中的各行各业。

 

与此同时,除了AI技术给人们带来的诸多便利之外,相伴相随地,许多“伦理道德”相关的问题也浮现在公众面前。

 

例如以爆火的GAN技术衍生的Deepfakes,便可以凭空捏造各种各样、甚至不存在的人脸。

 

以及将图像、视频中的人脸,毫无违和感地换成其他人(尤其是名人)也是它的长项,曾一度引起安全、隐私相关的舆论。

 

△ 国外短视频用户“高仿”年轻时的阿汤哥

 

语音AI技术方面也存在类似的问题,例如已经非常普及的语音助手Siri,就曾被曝出一件离谱的事情。

 

当用户咨询“自杀”相关问题,Siri竟然推荐了距离最近的一座桥……

 

△ 苹果Siri语音助手

 

但这些,却仅仅是“AI伦理道德”问题浮现出来的冰山一角。而且很明显的,这个问题已然超出了在“象牙塔”内就能解决的范畴,更需要的是社会组织、企业的共同努力。

 

在国外,亚马逊、谷歌、Facebook、IBM和微软的科技巨头,已经建立了一个非营利性的合作伙伴关系,来制定与AI伦理道德相关的最佳实践。

 

社会组织方面,IEEE便提出了一个关于自主和智能系统伦理的全球倡议,在公众意见的帮助下,一直在制定和修订指南。

 

不难看出,“AI伦理道德”问题已经引起了学术界、产业界、社会组织等各方的重视。

 

但似乎各方之间更多的是独立制定,而不是紧密的耦合。

 

“AI伦理道德”的破局之道

作为一个时代的产物,虽然AI的一些“副作用”已经有所显现,但拒绝这个技术,显然不是一个明智的选择。

 

那么“AI伦理道德”这步棋又该如何破解?

 

近日,由商汤科技与上海交通大学联合主办的“上海交通大学计算法学与AI伦理研究中心揭牌仪式”,在上交大成功举行。

 

在此次活动中,便为这局棋提供了一个破解之道:

 

产学研一体化:首创性地在人工智能伦理研究领域,开拓了校企合作模式。

 

 

AI技术、应用需要产学研结合,倒是经常被提及。但”AI道德伦理”,也需要产学研结合?

 

新鲜,也很独特。

 

那该如何理解此举?不妨从两点来看。

 

第一点,“AI伦理道德”本身是否具备需要聚多方之力来探讨的价值。

 

对此,商汤科技智能产业研究院院长、上海交通大学计算法学与AI伦理研究中心联袂主任田丰认为,“AI的责任与权利”,是一个不可避免的社会议题。而成立上海交通大学计算法学与AI伦理研究中心,是顺应时代的变性,主要因素有三:

 

命题足够复杂:AI已经涉及众多领域,但同时饱受争议,加上跨学科、百年大变局等环境,对复杂度有很强的研究价值或者研究需求。

 

命题足够长期:如果AI是百年大变局的主线,那么计算法学和AI伦理一定是长期的研究命题。

 

联合研究很重要:拥有来自学界、法律界、产业界及政府的专家,可以从多维度的视角去考虑问题。

 

△ 商汤科技智能产业研究院院长、上海交通大学计算法学与AI伦理研究中心联袂主任,田丰

 

第二点,“AI伦理道德”问题是否已经发展到了如此大力“整治”的节点。

 

此次仪式中便得出了这样一个结论:

 

今年(2021年)会成为AI伦理、隐私等这方面,非常有争议的元年。

 

具体而言,除了最近经常活跃在大众视线的技术安全隐患之外,像手机等智能软件和设备,已然涉及众多AI技术。而所涵盖到的人数,在全球范围来看至少高达10亿至20亿。

 

从全球发布的相关论文数量角度来看,与人工智能安全风险和安全防御的相关研究激增,这就从一定角度说明,科技能力也好,科技哲学也罢,是一个巨大的研究需求和机会。

 

更进一步的,这种“校企合作”该怎么做?

 

走出象牙塔,这是较为核心的一点。

 

换言之,就是在理论构建之外,从实际应用场景中观察科技所造成的社会影响,自下而上地归纳出洞察并反馈。

 

据了解,此次合作成立的计算法学与AI伦理研究中心,将会融合理论研究与实践经验,在新兴计算机系统研发、智能生态圈的构建、围绕数字经济的规则博弈以及人工智能立法等方面成为国内顶级、国际知名的学术重镇和高端智库。

 

而研究中心成立之后,未来在“AI伦理道德”方面希望逐个攻破的“靶点”,也有了较为清晰的介绍:

 

将重点围绕人工智能伦理、城市和社会的数字化治理、计算法学、认知科学与法律行为、智慧司法等相关领域开展合作研究,包括但不限于大数据和人工智能相关的原则、法规、政策、技术规格的研究以及认知科学与法律行为实验。

 

并就相关问题构建知识图谱、提交研究报告、承接政府课题、发表论文、出版专著等等。

 

为什么要发力“AI伦理道德”?

虽然“上海交通大学计算法学与AI伦理研究中心”的成立,对于AI伦理道德是一种新颖的探索方式,也是一个良好的起步。

 

但在“落地为王”大环境、大趋势的当下,国内人工智能头部企业缘何要发力与此?

 

毕竟“AI道德伦理”不是说能解决就能解决的问题,此前的研究大多也都停留在对“可能性”和“未来影响”的理论工作。

 

然而“难”并不等同于“不可能”。

 

例如2012年,AI可以区分人类的假笑和真笑;2015年,AI测谎仪击败了最好的人类审讯员;2017年,AI通过人脸识别可以预测一个人是否患有抑郁症,甚至有自杀倾向。

 

即便现在仍旧存在着诸多“AI伦理道德”方面的安全隐患,但不可否认的是,它的进步和改善也是有目共睹。

 

由此进一步考虑这个问题,商汤在“AI伦理道德”上所做的工作,也就不难理解。

 

 

首先从产品层面来看,公众越发地重视对“AI伦理道德”的考量,而这一点,也恰恰是拓展产品渠道的路径之一:模型、数据的不完整会产生“偏见”,系统的隐患会带来其保密性和可用性的风险。

 

因此,聚焦到内部,商汤于2019年专门设立人工智能伦理治理委员会,致力于设计和规范公司产品伦理审核流程。伦理委员会由商汤各部门代表组成,逐步引入外部专家顾问,审核所有商汤的产品,包括从立项到上线,以及上线之后,评估所有在伦理方面的风险。

 

除此之外,还设有数据安全及个人信息保护委员会,更关注数据全生命周期、算法全生命周期方面的风险。

 

企业履行社会责任,不是单纯向外部展示所做出的一些成果。想为社会做出实质贡献,只有将“向善”的理念深植于企业的发展观中,才能自上而下地造成影响,自发地反映在实际举措当中。

 

其次,此次能够将“产学研一体”的概念首创性地渗入“AI伦理道德”,也离不开商汤自身的基因和优势,即学院派背景。

 

也正是基于此,商汤可以积极向外拓展合作的空间,基于可持续发展观的愿景,与其他人工智能企业、高校等非政府机构达成共识,共同构建“AI伦理道德”的生态建设。

 

但实际上,从实际行动角度来看,这并不是商汤在此领域的第一步,而是已经有所布局数年之久。

 

除人工智能伦理治理委员会外,早在2019年11月,在人脸识别国家标准工作组成立之际,商汤便担任了组长单位,并在半年时间内,成功实现三项国家标准的正式立项,包括《人脸识别系统技术要求》、《人脸识别系统测试方法》、《人脸图像数据交换格式》。

 

(目前,《人脸识别系统技术要求》被放在首要重要位置进行优先制定,已经通过专家内审会并积极推进中。)

 

去年6月,在首届“AI可持续发展2030论坛”上,商汤智能产业研究院与上交大清源研究院联合发布《AI可持续发展白皮书》,提出了以“尊重协商,探索包容文化”为核心的AI可持续发展观、以人为本、共享惠民、融合发展和科研创新四项AI发展价值观。

 

同年8月份,商汤入选了首届AI国家标准化组织,参与人工智能风险管理与治理标准的制定。

 

而且,商汤“AI伦理道德”层面上的工作,不仅限于国内,在国际上,商汤便在去年年底成功立项IEEE标准《人脸识别系统技术要求》,并担任了“人脸识别”工作组主席。

 

现在,商汤还准备将所提出来的标准,升级为ISO国际标准,以此让人脸识别等技术能够更好的规范化,更有助于技术安全落地。

 

 

但归根结底,人工智能和每一个时代下的科技类似,都是一把双刃剑,具体将向何处发展、怎么发展,还是在于使用技术的人。

 

新技术发展带来的挑战,最好还是由技术解决。

 

你说呢?

 

参考链接:

[1]https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence#:~:text=Machine%20ethics%20(or%20machine%20morality,morally%20or%20as%20though%20moral.

 

[2]https://diginomica.com/how-hard-is-it-to-solve-the-ethics-in-ai-problem