自动驾驶汽车撞死人,被受害人家属告上法庭受审的将是计算机代码(以及编制代码的计算机程序员)。

 

Robocar Ethics opening illustration

 

  设想一下,2034年的某个夜晚,一个醉酒行人突然倒在一辆无人驾驶汽车前,当场死亡。如果是人类司机在开车,这会被认定是一次意外事故,因为行人显然也有错,再理智的人类司机也难以及时避开。但早在2020年代,随着无人驾驶汽车的普及,车祸发生率减少了90%,对应司机过失的“理性人”法律标准早已消失,现在的标准是“理性机器人”。
 
  根据新的法律标准,受害者家属将起诉汽车制造商,称尽管汽车来不及刹车,但它可以避开周围行人,越过双黄线,撞上旁边车道上的无人驾驶车。根据车辆传感器的数据再现事故现场证实了这一点。原告律师会向汽车软件的首席设计师责问,“为什么自动汽车不转向?”

 

被告上法庭的自动驾驶车辆

  今天的法院在处理交通肇事案件时,不会问司机为什么在即将撞车那一刻不采取紧急措施,因为这个问题毫无意义,司机当时惊慌失措,根本无法思考,只能凭直觉行事。但如果驾驶汽车的是机器人,这个“为什么?”就是一个有效合法的提问了。
 
  人类的道德标准和法律法典并非完美,可产生各种解释和假设,令计算机工程师们无所适从。最重要的是,具有良好判断力的人类知道何时可以不受法律条文字面意义所限,而以尊重法律的精神实质为重。如今工程师们必须要做的是,将最基本的判断因素教给汽车机器人和其他自主机器人。
 
  车辆驾驶实现计算机控制的历史至少可以追溯到1970年代,从最早引入的电子防锁死刹车系统开始,发展为如今更多的高级功能,如自动驾驶、加速和紧急制动等。目前,英国部分地区、荷兰、德国和日本,全自动车辆的测试是法律允许的,但前提是车里要有一个人类测试司机。另外,美国的四个州和哥伦比亚特区已有法律明确规定无人驾驶是合法的,而美国其他一些州至少也没有禁止。谷歌、日产、福特及其他公司也表示,他们预计在今后5到10年内实现真正的无人驾驶操作。
 
  自动驾驶车辆通过一系列传感器获得周围环境的信息,如摄像机、超声波传感器、雷达和激光雷达等。在美国加州,自动化车辆上牌照要向机动车辆管理部门提供碰撞前30秒传感器的所有数据。工程师们因此能够凭借这些车辆感知到的精确数据重现事故现场,考虑替代方案以及机器人所做决定背后的逻辑。因此可以向计算机提问,要求它对其推理进行概括,就像要求人类解释他们在游戏中或在驾驶模拟器中的每一个决定一样。
 
  监管机构和诉讼律师能够根据这些,坚称自动车辆有着超人的安全标准,在不可避免的但很少会出现的撞车事故后,通过严格的审查,汽车制造商和软件开发商也会以今天的人类驾驶员无法理解的方式为无人驾驶车辆的行为辩解。

 

自动驾驶行为中的风险分配

  所有的驾驶行为都有一定的风险,如何将这种风险在司机、行人和骑自行车的人,甚至是车辆的所有者之间分配,涉及到的还有伦理道德上的考虑。无论对于工程师还是一般公众来说,重要的是,汽车的决策系统还要能权衡其行为在伦理道德上的意蕴。
 

无人驾驶车辆的轻微交通事故:今年早些时候,谷歌汽车与一辆巴士车发生了轻微的刮擦,这是首例无人驾驶汽车被认为至少部分有错的交通事故

 

  在道义上模棱两可时,通常的反应是在尽可能减少损害的情况下以法律条文为准,这样的策略很有吸引力,因为它不仅可以让开发商轻松为肇事车辆行为辩护(“我们完全没违反法律”),而且还将定义道德行为的责任转嫁给了立法者。遗憾的是,这方面的法律还远未完善。
 
  例如,在大多数国家,法律也要依赖于司机的常识,在事故发生前法律条文也难有作为。在开头的例子中,自动驾驶车辆根据编程中与法律条文相关的指令,拒绝转向越过双黄线的另外一条车道,即使有撞上醉酒行人的风险,即使边上车道上只有一辆里面没人的无人驾驶汽车。法律很少会为“有人突然倒在马路上”这种紧急状况制定例外免责条款,尽管例外也有,如维吉尼亚州有法律条文暗指,只要能避免碰撞,这种(越过双黄线)的行为就是合法的(法律原文是“假使采取这样的行动可以保证安全”)。在这种情况下,就要由自动汽车的开发者来决定,在什么情况下越过双黄线是安全的、合法的。
 
  无人驾驶汽车很少能百分百确定前面的道路是否畅通无障碍,或跨越双黄线是否安全合法。而是对这种“确认度”进行估算,比如98%或99.99%。工程师要事先决定,达到多高的“确认度”才可越过双黄线,规定的阈值还要取决于汽车正在试图避开的是什么,是一个塑料袋还是一个行人。
 
  尽管如此,自动驾驶汽车还会用所谓的判断力来规避法律。例如,谷歌承认在有些情况下可允许其车辆超过限速,以跟上交通车流,在这种情况下如果慢速行驶反而会增加危险。在其他一些紧急情况下,大多数人也会选择超速行驶,比如在送急诊病人去医院的途中。斯坦福大学的克里斯?格迪斯(Chris Gerdes)和莎拉?桑顿(Sarah Thornton)反对将法律条文作为硬性限制编码到软件中,如果加速可以获得很大好处时,司机们不会拘泥于某些法律条文,而是将其视为“可塑性”的条文,司机不会因为“不得超越双黄线”的法律规定而愿意被困在几英里长的自行车车流后,他们会选择越过双黄线超车,暂时性地无视这条法律条文。
 
  即使是在法律条文规定的范围内,自动驾驶汽车也可以做出许多微妙的安全决策。例如,车辆在车道内的位置,很大程度上没有硬性的法律规定,大多数车道几乎都有一般车辆的两倍宽,司机可以利用这额外的空间避开一些碎片障碍,或者与附近行驶路线不稳的车辆保持一定距离。
 
  在2014年的一项专利中,谷歌进一步引伸了这一概念,专利描述自动驾驶车辆如何通过在车道内合理定位以将事故风险降至最低。谷歌引用了这样一个例子,一辆自动驾驶汽车行驶在三车道的公路上,右边车道上有一辆大卡车,左边车道上有一辆小汽车,为优化本身的安全度,自动驾驶汽车会将自己定位在车道上略偏离中央的位置上,接近小汽车,偏离大型卡车。
 
  这似乎是一种明智的选择,也可能是大多数人会做的事情,不管是有意识还是无意识。尽管如此,它还是引发了伦理道德上的担忧。自动化驾驶汽车通过靠近比它更小的汽车,减少了总体风险,但现在风险分配却变得不公平起来。小车难道就应该承担更多风险,就因为它个头小?如果这个问题只是涉及某个司机的习惯,这也许无关紧要。但如果将这种风险再分配方案正式应用于无人驾驶汽车,就有可能产生一些重大后果。

 

自动驾驶车辆的事故规避伦理

  在每一个这样的例子中,一辆汽车要根据多方面的价值评估做出决定,它可能撞上物体的价值、物体主人的价值等。人类会依据本能做出决定,而自动驾驶车辆与人不同,它们会根据风险管理策略精心计划的结果做出决定,将风险定义为发生事故的可能性与其灾难性后果程度的总和。
 
  2014年谷歌还为这种类型的风险管理进行了专利申请,在这项专利中,谷歌公司描述道,车辆可能为获得看到红绿灯的更好视角而转换车道,或选择继续留在当前车道里,以避免小概率的碰撞风险(如因某个出故障传感器的错误读数),代价是有可能忽略掉红绿灯的信息。对每种潜在结果的可能性加以评估(获得益处或付出代价的大小),将每种可能事件的严重程度与可能发生的概率综合起来,得出风险评估的最终值,如果利弊权衡结果在合理范围内,自动驾驶车辆就会根据计算结果采取某种行动。
 
  问题是,自动驾驶车辆发生碰撞事故的风险率极低。在美国每行驶257 000公里或每12年才发生一次。因此,即使自动驾驶车辆上路后会源源不断产生庞大数量的数据,也许我们还需要更多时间才能计算出各种可能场景中碰撞事故的发生概率。
 
  至于损害大小及责任分配就更难了。财产损失的估计可能还比较简单,保险行业在这方面有很多的经验,但对伤亡损失的评估则比较困难。对于事故风险,仅仅考虑到生命损失和交通影响还不够,还有伦理道德上的重要问题。例如,自动驾驶车辆对待出现在路上的每一个生命都必须同等对待,但是否应给予没有戴头盔的摩托车手更多的闪避空间呢?因为相对于另一个穿着全套防护装备的摩托车手,未加保护的人在车祸中活下来的可能性更低。但这似乎又有些不公平,难道穿着全套防护装备的摩托车手要因为他的安全意识而受到不公正对待吗?
 
  机器人伦理和人类伦理道德之间的另一个区别是,它们的伦理道德有可能会被曲解,即使程序员的出发点是好的。想象一下,一辆无人驾驶汽车会以一些涉及交通事故的民事诉讼案和居民点情况调查为依据制定的程序算法,对不同地区行人缓冲空间的分配进行调整,尽管这是一个非常合理的、善意的、控制车辆行为的有效方法,但它也有可能导致一些不尽人意的结果。例如,某个区域行人受伤率较低,但实际原因是因为他们生活在交通量较小的低收入社区中,算法无意中对穷人产生不公平待遇,由于给他们提供了较小的缓冲区,而导致他们外出散步时被车撞的风险略有增加。
 
  人们可能会觉得,所有这些担忧只是一些学术上的争论而已,但实际上这些都是无法规避的现实问题。由于机器人驾驶员会不折不扣地执行计算机程序,因此最好的办法是在程序设计时就要事先考虑到一切不良后果,而不是事后采取补救措施。
 
  这也是为什么许多研究者会假设某些自动驾驶车辆必须在两个或多个坏结果中进行选择并做出决定的部分原因。其中最著名的是一个“电车问题”假设,电车即将撞上一群不知危险即将到来的玩耍儿童,阻止悲剧发生的唯一方法是改变方向将在桥一侧行走的一个胖子撞下桥去(这里体重是一个关键因素,如果他不是太胖的话,可以在发现危险时自己跳出桥外)。那么,在这种情况下,你会不会采取行动牺牲一条生命来挽救更多生命呢?无疑你是愿意牺牲一个生命来挽救更多生命的,但你很难下定这样的决心,而如果你的回答是“不”,你又将如何面对那么多孩子家长呢?
 
  重要的是,自动驾驶汽车逻辑判断也是有缺陷的。让我们再假设一下,一个行人突然出现在一条双车道的隧道里,车辆无法及时停下,被迫转向进入另一车道,撞上迎面驶来的载满乘客的公共汽车,行人安全绝对高于其他任何道路使用者的逻辑在这种情况下可能会更危险。
 
  道路车辆自动化的伦理道德并非一个不能解决的问题,其他领域内也有一些处理类似风险与利益的案例可资借鉴。例如,捐赠器官如何分配给病人,衡量标准是接受器官移植后患者的生存年限和生活质量等变量的综合考虑。
 
  自动车辆面临更大的挑战,它们必须在信息不完全的情况下,在程序员通常考虑不到的一些情景中,迅速做出决定,毕竟以软件编码编写的伦理道德太过死板,缺乏灵活性。幸运的是,对于自动驾驶车辆,公众想要的并不是超人的智慧,而是有伦理内涵的行为。解决方案不必完美,但应慎重考虑,合情合理。

 

资料来源 IEEE Spectrum

责任编辑 彦 隐