新网Logo
首页>互联网热点>

自动驾驶显现道德困境:1 个人和 5 个人,AI 会撞谁?

登录 注册

自动驾驶显现道德困境:1 个人和 5 个人,AI 会撞谁?

  • 来源:网络
  • 更新日期:2020-07-09

摘要:目前程序员在开发和自动驾驶相关的 AI 程序时,面临着一个相当大的问题,或者说是道德困境。原因是,到现在为止,似乎都没有工程师考虑过,人们可能会用自动驾驶车辆做坏事的情况。这

目前程序员在开发和自动驾驶相关的 AI 程序时,面临着一个相当大的问题,或者说是道德困境。原因是,到现在为止,似乎都没有工程师考虑过,人们可能会用自动驾驶车辆做坏事的情况。

这种道德困境大家都很熟悉:假设路上有一辆自动驾驶汽车,如果它继续往前开,就会撞死前车上的 5 个人;如果它紧急打方向避让,就会冲上人行道撞死 1 个行人。

对于这种情况,目前大多数关于 AI 伦理的讨论,都集中在自动驾驶汽车 AI 系统的取向应该是自私的(保护车辆及其货物)还是功利(选择伤害最少的人的行为)的。而在现实中,这 2 种伦理方法都会引起自身的问题。

总体而言,业界目前对 AI 所要面临的情景设想是非常简化的,道德判断远比此更复杂。比如说,如果给 AI 设定程序,让它撞 1 个行人,保护前车的 5 个人,那么,如果前车上的是 5 个恐怖分子呢?如果他们是故意要利用 AI 程序杀死那个行人呢?

对此,北卡罗来纳州立大学科学、技术与社会(STS)项目助理教授维尔科 · 杜布尔耶维奇(Veljko Dubljevi )提供了另一种思路。他提出了一种称为代理人行为后果(ADC)的模型,作为 AI 道德判断的框架。

ADC 模型基于 3 个变量来判断决策的道德性:首先,程序的意图是好是坏?第二,行为本身是好是坏?最后,结果或后果是好是坏?这赋予了 AI 很强的灵活性,比如一辆车闯红灯时,还将是否为了避开了一辆超速的救护车以及是否成功避开。

这个模型更贴近普通人遇到的情况,在生活中,大多数人的道德判断通常也是具有相当灵活性。尽管大多数人有稳定的道德原则,但在具体问题上又是灵活的,比如为了好事说谎常常被视作好事。

在此之前,也有研究人员提出了另外的思路。德国达姆施塔特理工大学研究人员曾提出 " 道德地图 " 的概念。

该校席格登 · 图兰(Cigdem Turan)博士表示:" 如果 2 个词经常一起出现,就相当于在地图上紧密连接。这样," 杀人 " 和 " 谋杀 " 相当于 2 个相邻的城市," 爱 " 则是一个遥远的城市。当我们问起 " 我应该杀人吗 ?" 时,期望结果是‘不’比‘是’离问题更接近。这样,我们可以问任何问题,并用这些距离来计算是非程度。"

通过这种穷举所有情况的方法,就能给机器设定一张和人的道德体系类似的到的地图。

这种穷举不仅包括研究人员给出的情景,还包括从大数据中学习。通过学习,试验 AI 算法可以区分不同语境并加以道德判断。例如,杀人是错的,但消磨时间是可以的。机器做到了这一点,不是简单地重复它找到的文本,而是从人类在文本中使用语言的方式中提取关系,并组成一张地图。

编译 / 前瞻经济学人 APP 资讯组