AI 技术正在带来欣欣向荣的智能产业之时,我们有感于 AI 可以应用的范围之广,也感慨于 AI 普及速度之快。这其中一个非常重要的原因,就在于 AI 的开发门槛在大幅降低。

 

骄阳之下,必生阴影。当 AI 正在进入寻常百姓家的同时,AI 技术也可能在那些不法之徒手中变身恶龙,释放规模更大、后果更严重的人性之恶。

 

还记得去年那个可以“一键脱衣”的 DeepNude 软件么,因为触犯用户隐私也触及道德底线而在爆火之后被马上禁止。但这项技术却被很多人盯上,也给了很多黑产以灵感。

 

据报道,最近一个 DeepNude2.0 版本的应用程序在 Telegram APP 上出现,同样也是主打“一键脱衣”的功能。与 1.0 版本有一定技术门槛不同的是,原先还需要用户安装完整软件和完整的神经网络框架,做好设置调试等操作才能得到一张“裸照”,而现在只需从手机里上传一张照片,不需要任何技术和专门的硬件支持,就能把照片中的目标“一键脱衣”。

 

 

据发现这一软件的安全公司称,当时已经产生了至少 68 万名女性的“假裸照”,这意味着大量普通人正在遭受 AI 所带来的隐私和名誉的危害。受害者的“照片”不仅有可能被不法分子用来牟利,如果同时泄露更多社交信息,还有潜在的勒索威胁。

 

我们不得不面对 AI 在应用中的这一问题:“AI for Good”还是“AI for Evil”,更为复杂的是,一些 AI 技术应用,比如人脸识别,也正陷入到了新的博弈困境,比如,人脸识别技术能否成为普通人对抗强者的工具,还是说,这些 AI 应用必须彻底禁止就行?

 

这恐怕并不容易能够立刻做出回答。

 

人脸识别,反过来对准了执法者

“我们正在逼近小人物也能对付大人物的技术门槛。”

 

这是下面事件里的开发者的立场。他所指的技术正是人脸识别。而事件的起因是,今年因为非裔男子佛洛依德之死所引发的全美大抗议。

 

事件之后,美国俄勒冈州波特兰市爆发了持续数月的抗议游行,联邦特工和波特兰警方加入到旷日持久的阻击和镇压当中。从之前的新闻看来,警方不仅使用了催泪瓦斯,甚至在冲突后出现了枪击,一人因枪击死亡的事件。

 

 

一名参与了持续抗疫的开发者 Christopher Howell 则坚持认为,“我们必须明确责任,需要知道事件中谁做了什么。”他所指的就是要对警方身份进行识别和行为进行确认。

 

Howell 是一个熟悉神经网络算法的开发者,他们当时正好也拍摄了很多警察执法的照片。为了防止滥用警力,或警察违规执法,原本警员制服上的名字可以告诉公众人们他们的身份,但是在这场示威游行中,波特兰市警察局允许了身穿制服的警察可以遮挡住自己的名字。

 

因此,Howell 才使用了人脸识别技术,连同政府官网、社交媒体和新闻报道中搜集到的警员照片,来辨认这些执法警察。

 

而几乎同时,9 月初波特兰市议会开始公开讨论,是否出台一项立法以全面禁止使用人脸识别技术,该法案将主要禁止警员利用摘下抗议者面罩或者用监视摄像头拍下并识别这些人的身份,也阻止企业和其他组织使用该技术识别未知人员的身份。

 

该法案征求意见期间,Howell 反映了他用人脸识别技术来识别波特兰警员的事情,这件事让波特兰官方感到非常不爽。经过讨论,该法案也得到了市议会的通过,但 Howell 个人可以继续开展该项目。

 

这确实出人意料。代表执法者的官方被禁止使用人脸技术来对准民众,而民众个人则有权利用人脸识别技术来对抗执法者。

 

Howell 的做法并非孤例。原本执法部门可以通过政府数据库中的照片或者通过人脸识别技术公司 Clearview AI 从公共互联网中获得的照片,来利用人脸识别技术发现犯罪分子,而现在一些激进人士反过来用这一技术对付执法部门,用来揭露行为不当的执法人员的身份。

 

去年,一名抗议者 Colin Cheung 试图通过警员在网上的照片来识别其身份,因为其在 Facebook 公开发布了该项目的视频而被捕。

 

白俄罗斯的一个技术专家则通过 YouTube 演示了如何使用人脸识别技术来识别那些暴力执法的蒙面警察,其过程也是通过社交媒体上的警员照片进行对比而获得。当然,这位专家已经逃到了美国洛杉矶。

 

通过 Howell 的案例我们看到,只要具有一定 AI 开发经验的普通人,都可以利用那些开放的图像识别软件,进行人脸识别技术的开发,比如 Howell 就用了谷歌的 TensorFlow,帮助他构建机器学习模型。

 

这就是技术门槛降低带给“小人物对抗大人物”的底气。但是这样真的好吗?

 

滥用人脸识别:一场无人胜出的博弈

我们知道,波特兰市议会出台的这一项禁止政府使用人脸识别技术的法律,其根源正是来自于今年 6 月在全美开启的一项关于“人脸识别技术是否要禁止”的大争论。

 

为声援全美掀起的“BLM”(黑命贵)抗议活动,微软、IBM、亚马逊为代表的科技企业纷纷表示拒绝向美国警方提供人脸识别技术服务,其中 IBM 公司直接宣称放弃人脸识别业务,激进可见一般。6 月底,美国计算机协会(ACM)的技术政策小组呼吁,以记录在案的种族和性别偏见为由,公开敦促美国立法者立即中止企业和政府部门使用人脸识别。

 

其实,在此之前,旧金山、波士顿等城市都以性别偏见和错误识别为由,已经禁止使用人脸识别技术用于警察执法。而现在,美国参众两院的议员推动,美国多个州的地方议会和政府也开始相继讨论和禁止用于执法的人脸识别技术。

 

虽然警方的人脸识别的软件之前存在缺陷,出现过错误识别和逮捕嫌疑人的情况,但是技术的问题似乎应该通过改进技术来解决,现在为了政治正确,他们把这项技术也直接推翻。

 

而另一面,我们也看到,小人物也获得了对付大人物的“屠龙术”。激进抗议者为了获得警察的身份数据也可谓是不遗余力。

 

在引入人脸识别技术之前,一些反监视组织采取了众包的办法,就是依靠网络用户去识别那些有警察暴力执法视频中的警员身份,或者直接上传穿制服的警员照片,最后通过那些可以搜索到的记录执法人员的公共数据库,来找到警员的姓名、徽章编号。

 

现在,这些开源的数据库正在成为像 Howell 这样的开发者获得警员身份照片的途径,而人脸识别技术又能快速判定现在执法行动中警员的身份。

 

这当然是给受到暴力执法之苦的民众予以起诉这些执法警员的有利途径,但是同时人脸识别技术的应用有可能导致被更激进的人员滥用。因为这些警员也会有私人生活,也会携带家人和孩子出行。一旦有些人可以使用这一工具追踪这些警员,那么很可能让这些警员和家人处在更加危险的境地。

 

普通民众担心官方滥用人脸识别技术,因为错误识别和种族偏见而蒙受不公待遇,而现在执法者却因为可能滥用的人脸识别技术,被激进者跟踪或报复。

 

为了凸显这一矛盾,最近一个法国艺术家 Paolo Cirio 在网络发起了一个名为“Capture”的展览活动,公布了 1000 张法国警员的脸部照片,这是从互联网和一些参加抗议活动的摄影师那里获得的照片。他汇总了这些照片之后,声称这是开发一款人脸识别应用程序的第一步。

 

 

紧接着,他就收到了来自法国内政部的压力,随即他撤下了照片。这位艺术家的立场恰恰是要禁止人脸识别。他希望官方能够意识到人脸识别技术带给人们的压力,无论是民众还是执法者。而现在官方的做法只是在解决“提出问题的人”,而非去解决问题。

 

那么,人脸识别技术就在这样的冲突中真的无解了吗?

 

滥用无解,合规有道

正如人类几乎难以阻止 AI 技术被用于色情、黑产等灰色地带,我们也不应因噎废食地放弃 AI 技术用于正常的日常社会生产生活当中。

 

现在我们看到,人脸识别技术已经广泛应用到面部解锁、身份认证、面部支付、门禁、通行、安防等领域,不仅给个人生活带来极大的便利,也给社会环境提供了更为安全的保障。正如亚马逊的表态一样,他们并未放弃人脸识别技术,而且还会在找寻失踪儿童上面跟政府进行合作,而微软也希望在联邦政府出台更为严格的监管法律之后再重新合作。

 

当然,人脸识别技术在危及隐私和身份信息安全方面也一直被人们所诟病。

 

不过,技术的问题应该用技术的办法来解决。正如美国的人脸识别技术在有色人种的识别率差的问题,在好几年前就已经暴露出来,而现在应该通过训练样本等手段的改进而改变识别率,而非因为有过“翻车”事件就直接去掉,可谓印证了中国这句“波洗澡水,把孩子也一起泼掉了”的老话。

 

技术问题解决,更应该强调的是监管问题。

 

在一个人人皆媒体的时代,谁都将成为社会事件的记录者。正如弗洛依德事件中,我们看到警方在有意掩盖现场执法过程,而围观群众则将整个事件从各个角度都拍了下来,因此才引起全网的轩然大波。

 

 

如果在没有摄像机执法,没有路人围观拍摄的情况下,警方一定是强势的解释方,真相可能就此被掩盖。所以,无论从掌握的摄像头的拍摄数据和民众信息,还是现场的执法权,政府和警方都拥有绝对的优势,那么,官方在使用人脸识别技术的时候,就必须要严格遵守程序正义和结果的可溯源,在执法中的交叉录像、执法后的证据固定,事后的结论公布等都要对当事方要透明公开。如果中间出现疏漏,当事人可由此提请申诉。

 

而对于民众而言,人脸识别技术的使用也必须有一定的边界,其使用的人脸识别数据必须要有合法的来源,其识别软件必须要严格控制其扩散途径,一旦随意扩散该工具和数据,从而造成相关法律风险,发明者和使用者都需要付出相关的代价。

 

个人的无商业或者无违法目的的使用是一回事,而一旦用于谋利或犯罪就是另一回事。其中的边界相当敏感,未来需要更多的案例和更多的博弈出现。

 

正好最近看到一个非常正向的人脸识别应用。杭州市的一个初二学生,刚刚发明了一种可以进行人脸识别和语音提醒功能的“智能项圈”,其发明的初衷是为了帮助家中患有阿尔茨海默症的老人,可以通过项圈的摄像头识别出眼前的亲人,可以通过紫外线传感器来识别室内室外,提醒老人回家。

 

 

特别是人脸识别技术,其中的数据只包含了老人的几位亲人,自然也就不涉及滥用非法数据的问题,因为涉及少数家里人的照片,绝对的安全可靠。无论这款产品能否有实际的商业应用前景,但是从“AI for Good”的角度来看,其 AI 应用的合规性和公益性是毋庸置疑的。

 

 

尼采曾经说过:与恶龙缠斗过久,自身亦成为恶龙。AI 技术其实既不是那个英雄,也不是那条恶龙。最关键的还是使用这一工具的人类,我们究竟要用 AI 技术把自己锻造成为一个英雄,还是变身成为一头恶龙,可能就是在人心的一念之间。

 

当然,最终能够守护人间秩序的,仍然要靠着逐渐完备的法律制度来保障。只不过这个过程需要各方参与者共同去向积极方向努力。