人工智能已经在接管许多人不愿意做的平凡,耗时的任务方面取得重大进展。然而,将工作交给 AI 的责任和后果差别很大。一些自治系统推荐音乐或电影; 其他人在法庭上推荐判决。更高级的人工智能系统将越来越多地控制拥挤的城市街道上的车辆,并在发生不可避免的事故时提出有关安全问题和责任问题。

但是关于人工智能对人类存在的威胁的哲学争论往往远离实际构建和使用有关技术的现实。深度学习,机器视觉,自然语言处理 - 尽管已经撰写和讨论过人工智能的这些和其他方面,但人工智能在其发展中还处于相对较早的阶段。专家们争论说自治,自我意识的机器人会遇到麻烦,尽管计算机科学家对如何编写机器视觉算法感到疑惑,这些算法可以分辨出乌龟和步枪之间的差异。

尽管如此,在人们认识人类之前,人们应该如何管理人工智能,这显然很重要,因为它在现代生活中变得非常普遍。哈佛大学肯尼迪政府学院的研究人员,学生和校友在 2014 年推出了“未来社会”,目的是促进关于如何治理新兴技术(尤其是人工智能)的国际对话。科学美国人与未来社会人工智能计划和 H5 首席执行官的高级顾问 Nicolas Economou 进行了交谈,这家公司通过制作软件来帮助律师事务所对电子文档,电子邮件和数据库进行预审分析(也称为电子发现)。Economou 谈到人类可能会被视为负有责任(即使机器在做主),以及历史告诉我们社会有义务利用新技术,一旦它们被证明具有提高安全性等益处。

[ 编辑的谈话记录如下。]

你对 AI 的主要担忧是什么?

我是一名受过培训的政治科学家,也是一位主张在法律体系中逐渐采用人工智能的企业家。所以我非常相信 AI 可以成为一个好的力量。但我认为它需要进行治理,因为它确实存在风险。人们以不同的方式谈论风险,但我最感兴趣的是涉及机器决策的风险,这些决策会影响我们的权利,自由或机会自由。我们不仅基于理性思考做出决定,而且还包括价值观,道德观,道德观,移情和正确与错误的判断 - 机器本身并不具备的所有东西。另外,人们可以通过机器不能做到的方式对他们的决定负责。

谁应该对 AI 的决定负责?

这取决于能力问题。在完全自主的 AI 系统中,您可以说:制造商。但是今天大多数 AI 不是自治的; 它依赖于人类操作员。如果那个人在医学,法律或金融服务等重要决策中应该对错误负责,那么这个人的知识足够不够,无法正确使用人工智能?考虑[2016] 国家诉 Loomis 案,法官依靠部分黑箱秘密算法来评估被告是否有再犯风险。算法评估[Loomis]为高风险,但 AI 用于产生评估的方法未向法庭或被告披露。法官将这项建议纳入六年监禁刑期。美国最高法院拒绝审理此案,因此现在是该地的法律。你现在可以被判处长期徒刑,部分原因是 AI 算法的评估,而没有太多的追索权。法官是否有能力理解算法评估是否充分并得到合理的经验证据支持?答案可能不是,因为法官和律师通常不是受过训练的科学家。

如何开发一个大多数人都能理解的透明 AI 系统?

诚然,AI 可以拥有世界上所有的透明度,但作为公民,我们无法正视人工智能正在做的事情。也许科学家们可以理解它,但要被授权为公民,我们需要知道在现实世界中是否有某种东西会起作用。要考虑的一个模型是汽车。普通人可以看到一辆始终建造的汽车,但仍然不知道汽车是否安全驾驶。相反,你相信一辆汽车是安全的,因为你参考了保险公司提供的评级,它每天都会让汽车碰撞,以确定它们的安全性。[因此],作为一个公民,我现在有了一些信息可以用来评估涉及技术和人类智能的非常复杂的社会技术系统。我有非常简单的指标,告诉我汽车是否安全。

当人们被告知人工智能风险时,是否会将使用人工智能的人的责任或义务转移?

责任是一个巨大的法律问题。例如,对于自动驾驶车辆,您可以查看驾驶员对汽车的控制程度。如果司机没有,那么你会期望制造商或其他公司参与组装汽车,以承担更多的责任和责任。当驾驶员拥有更多控制权时,它会变得更加复杂,并且您可能会看到谁做出了导致车祸的决定。有几个与责任有关的有趣问题。以汽车为例,假设(假设)如果每个人都被一辆自动驾驶汽车驾驶,我们将每年减少与交通有关的死亡人数 2 万。如果是这样的话,那么公共政策目标就是鼓励人们使用自动驾驶汽车。但同时人们对这项技术感到害怕。所以你可以设想几种方法来支持你的政策目标,以挽救 2 万人的生命。有人可能会设计自动驾驶车辆,以优先考虑乘客对行人和其他驾驶员的安全。换句话说,你在车内比在外面更安全。这将鼓励人们克服对自动驾驶汽车的恐惧,从而支持您的政策目标。但是,社会会为某些生命(那些车辆内部的人)赋予更高的价值。从而支持您的政策目标。但是,社会会为某些生命(那些车辆内部的人)赋予更高的价值。从而支持您的政策目标。但是,社会会为某些生命(那些车辆内部的人)赋予更高的价值。

另一种鼓励人们使用自动驾驶汽车的方式本质上是争辩说,如果您知道一辆 AI 驾驶汽车更安全,驾驶传统汽车是不负责任的。有从被称为 20 世纪 30 年代的情况下的 TJ 胡珀情况下,其中两个驳船失去了在风暴部分是因为拥有的船公司并未与无线电装备他们。这个决定是,如果明显有效的新技术得到发展,那么就必须将其作为预防措施。最终,如果一个汽车司机选择开车而不是进入统计上更安全的自驾车,汽车司机会承担更多责任吗?

当技术本身仍在发展和定义时,公共政策如何为人工智能开发?

我不确定这对定义 AI 非常有帮助。我们对于智能是什么还没有普遍接受的定义,所以人造智能很难做到这一点。支配人工智能的规范应该足够宽泛,以接受来自任何地方的创新。但是它们应该足够狭窄,以便为它的使用方式以及它如何影响人们提供有意义的限制。一个有效的过程将有四个层次:您从值开始。我们希望 AI 为我们做什么?从那里你去道德原则。人工智能应该如何去做它的工作?然后你可以形成公共政策建议; 最后看看实施该政策所需的实际技术控制