大悟读书网 > 经济管理 > 人工智能革命:历史、当下与未来 > 电车的困境 ——道德代码如何编写

电车的困境 ——道德代码如何编写

但在这些伦理问题解决之前,人工智能武器已经上路了。2016年3月3日,美国国防高级研究项目局透露,美军正在开发新一代智能型电子战系统。这套系统以深度学习技术为基础,能连续不断地感知、学习和适应敌方雷达,从而有效规避敌方雷达探测。在以往靠人力需要几周甚至几个月才能完成的敌方雷达搜索任务,在人工智能的帮助下可能几分钟就能搞定。这并非美国在人工智能武器领域的吃螃蟹之举,基于人工智能的更加致命的机器兵种早已开始在美军中服役:美国海军陆战队的部分基地已由移动式机器人值守;空军F-35战斗机的操作系统中包含几千万条代码,已经具备了部分自动控制的功能;海军X-47B无人轰炸机则更进一步,完全由电脑操控的它们代表了军用人工智能的最高水平。

当然,有关人工智能的道德讨论不仅仅限于无人驾驶这一单一的应用场景。科幻与现实之间的界限越发模糊,但用于推动决策的价值观指向却鲜有提及。2016年9月,IBM、微软、谷歌等业界巨擘的计算机科学家联合成立了一个新联盟,名字叫做“造福社会与公众的人工智能合作伙伴关系”。该联盟的目标之一是建立人工智能领域最佳实践的规范标准,其中就包括了类似无人车电车难题这样的伦理问题的处理。

把生死决策交给人工智能背后存在着强烈的反乌托邦隐喻,并如多米诺骨牌一般牵连出一系列复杂的相关问题。当偶然性、命运、天启这些心理缓冲被去掉后,对悲剧事故的追责无可避免地会引发一些伴生的问题,有些热爱自己动手的极客可能会玩弄系统,对自己的车辆进行“越狱”,以便推翻有可能对自己不利的代码,确保自己成为事故的幸存者。突然之间,这把抱怨摆弄技术资产“权利”的意志论者推到了理论上“牺牲小我”观点的对立面。此外,人工智能的道德问题对无人驾驶汽车的私人产权也有决定性的影响。就理性而言,要把熙熙攘攘的鲜活生命交到人工智能手中,不同的无人驾驶系统就应该具备同样的技术水准,作为它们具备同样的道德水准的基础。据此而言,奔驰或特斯拉的模式只不过是公共系统或者高度管制化系统的垫脚石罢了。但是这样的结果会不会是制造商或者数据公司喜闻乐见的呢?

图6-2 服役于英国空军的“掠食者”无人机系统

这类道德机器测试的可怕之处在于,人工智能做出道德决定的数据集中包含着更多的不确定参数:通常来讲,数字是权重最高的评价参数,机器可以简单地把拯救数多于杀死数,但年龄、性别、种族同样也可以成为不容忽视的因素,年龄是甚至会决定某些场景下的价值判断:如果无人车知道自己搭载的是一对耄耋之年的老夫妇,杀死他们以拯救一个年轻的三口之家可能会显得更有道德,甚至老夫妇自己可能也会做出这个无私的决定。一旦引入对社会的价值的概念,问题就会变得越发复杂——人工智能可以为了拯救一位诺贝尔奖级别的物理学家而牺牲整整一校车孩子的生命吗?这将引发空前的道德争论:君不见前些年大学生舍身救老农的社会事件造成的讨论有多激烈,但谁又能保证这一车孩子里不会出现另一个伟大人物呢?

随着人工智能在军事领域应用的不断深化,一个重要的伦理决策渐渐浮出水面:支持还是反对基于人工智能的致命性自主武器系统(Lethal Autonomous Weapon System)。这些完全不需要人类干预的自动武器把自主决定将哪些对象作为袭击目标,袭击的强度又会达到何种程度。继火药和核武器之后,致命性自主武器系统可能第三次改写战争的面貌。

电车难题的核心在于,现实情况经常强迫一个人违背他自己的道德准则,并且还不存在完全道德的做法。在无人驾驶领域,当面临车毁人亡和伤害其他路人的两难选择时,人工智能如何在危急时刻做出千钧一发、生死攸关的决定?在这样的场景下,机器人三定律似乎也失去了效力。根据报道,奔驰的下一代无人车将会被设定为任何情况下都拯救车上的乘客。从编程角度看,这属于一类算法派生,这种派生的主题是特权阶级在任何其他生命面前都有一条优先通行车道。这样做更接近于人类司机的本能,也避免了程序员代替人工智能“扮演上帝”的责任——眼下人工智能还没有自我意识,因而没办法自行作出决定,更没有办法对其追究责任。2016年夏,美国麻省理工学院的研究人员推出的“道德机器”网站提出的正是这类问题。在各种假设交通场景下,用户必须做出一系列的双输决定——也就是不管怎么决策都会有人死。任何人都可以进行“测试”,测试完之后网站就会公布你的“分数”以及与其他人所做道德决策的对比情况。

包括英国著名物理学家斯蒂芬·霍金(Stephen Hawking),特斯拉电动车发明人埃隆·马斯克(Elon Musk)和苹果公司联合创始人斯蒂夫·沃兹尼亚克(Steve Wozniak)在内的诸多科技界人士联合发表声明,要求联合国以国际法的形式禁止对自主武器系统的研发,但国际人道法律尚未对此类技术做出任何有针对性的规定。1949年签订的战争人道主义准则《日内瓦公约》要求任何袭击需要满足3个条件:军事必需、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡。而当前的自动武器显然不具备作出这些主观判断的能力。国际社会对于此类武器也是反响不一,德国等许多国家迫切要求签署禁令,但美国、英国和以色列这三个在自主武器系统技术中领先的国家则认为这样的条约完全多余。

电车难题是对伦理哲学中功利主义的批判。功利主义的哲学观点认为,大部分道德决策都是根据“为最多的人提供最大的利益”的原则做出的。当功利主义者面对电车问题时,会毫不犹豫地选择拉拉杆,用一个人的命换五个人的命。可批判功利主义的观点认为另一个人同样是无辜的,拉拉杆行为的实施者会成为一个不道德行为的同谋——为另一条轨道上单独的一个人的死负部分责任。如果囿于拉与不拉的困境而选择袖手旁观,这样的行为亦不可取——不作为将会是同等的不道德。

确保人类对武器的控制已经成为道义上的当务之急。人类对人性的尊重会成为他们伤害他人时必要的抑制因素,相比之下,无生命的机器根本无法真正了解它们所伤害的生命意义何在,这是对人类尊严基本原则的侵犯。即便是在最残酷惨烈的战争中,无辜平民的安全也会远远重要于预期的军事利益,指挥官们会根据以往的经验和道德顾虑做出他们的判断并逐个确认,以免造成不必要的非军事人员伤亡。但指望“杀手机器人”理解这些概念似乎并不现实,隐藏着这些先进技术背后的,可能是空前的人道主义危机。

这个致命的伦理学实验的内容是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

幸运的是,虽然人工智能尚不具备道德的判断力,但人类还有。物理学家们曾激烈反对在战争中使用核武器,生物学家也曾激烈反对在战争中使用生化武器,今天的人工智能和机器人领域的科学家们,已经担起了同样的道义重担。

随着人工智能从科幻文学走进真实生活,道德准则的问题也不可避免地被提上日程。如果未来的人工智能仍然仅仅是纯粹意义上的非生物体,没有独立的意识、直觉与感情,也就谈不上要从道德、法律或是权利、义务等概念上对之作出限定;但反过来,如果人工智能本身具有机器智能、神经系统与生物体的融合性,具备了类似于人的意识、学习能力和感情,上述问题就变得无法逃避。随着无人驾驶技术的迅猛发展,眼下人工智能最著名的道德困境就是无人车版本的电车难题(The Trolley Problem)。