查看原文
其他

讲座实录丨郑戈:自动驾驶算法的法律规制

法学院 中国政法大学法学院 2023-08-31


2021年6月7日,由法学院大数据和人工智能法律研究中心举办的“大数据和人工智能法律前沿问题”系列讲座第二十期以线上会议的形式顺利举行。本场讲座荣幸邀请到上海交通大学凯原法学院教授、交大人类伦理委员会委员郑戈老师,以“自动驾驶算法的法律规制”为主题开讲。


中国人民大学法学院副教授熊丙万老师、中国政法大学法学院副教授张力老师、百度集团法律事务部沈萌老师作为与谈嘉宾,与一百多位师生一同参与了本次讲座。研究中心主任沈伟伟老师担任本次讲座的主持人。



主讲环节

自动驾驶算法的法律规制



引言


“The question of whether a computer can think is no more interesting than the question of whether a submarine can swim.”


“讨论计算机能不能思考就像讨论潜水艇会不会游泳一样”


― Edsger W. Dijkstra   



(一)阿西莫夫法则与新的机器人法则


德国交通部伦理委员会于2017年提出:在为自动驾驶汽车编写算法时要把相应的伦理规则编入算法。至此,阿西莫夫的机器人三律法已不是仅存于科幻小说中的想象。


在阿西莫夫法则中,“勿害人类-遵守命令-保护自己”三者的顺序尤为重要。按照这样的方式排序,在很大程度上可以达到某种平衡,但是如果稍微打乱顺序,世界就可能会陷入一种非常不美妙的状态。


如果调换机器人三定律的顺序



此外,如果将人类自身规则的优先级顺序,即“自我保存-服从命令-勿害他人”,与机器人三律法相对照,这两种律法之间会产生怎样的微妙互动关系也会成为值得思考的问题。


在阿西莫夫法则之后,Frank Pasquale教授在其所著的New Laws of Robotics一书中提出了4条新的机器人律法。其中“机器系统和人工智能不应当假冒人类”这一律法非常重要。现在很多人工智能的设计者考虑的是怎么让人工智能更像人类,以至于达到以假乱真的程度,但我们发展人工智能的意图不是让人工智能更像人,这是有悖伦理的。机器系统和人工智能不应当激化零和的“军备竞赛”这一律法有其现实意义,但在当下的国际竞争背景下很难实现。“机器系统和人工智能应当总是能显示其创造者、控制者和所有者。”意味着基于人工智能的特点,在“黑箱”的背后,我们总是能找到“人”。在发展人工智能的过程中,它的系统设置也要确保我们最终能找到一个人类,这样才能确保有人对这个系统负责。


总而言之Pasquale教授所提出的4条法则每一条都非常重要,而且在技术上是可行的,在法律上也可以通过相应的规则设计来加以确保。


(二)特斯拉车内摄像头引发的争议&算法即权力时代的平台责任


特斯拉车内摄像头能够清晰拍摄车内驾驶员以及乘客的动作、姿态以及面部表情的细节。制造商声称安装车内摄像头的主要目的在于安全保障,包括监测驾驶员疲劳状态并进行提示,并且可以配合其他设备实现拍照、打视频电话等功能。


争议在于:如何平衡安全与隐私?


特斯拉CEO马斯克认为未来要发展的自动驾驶汽车可以完全不使用计算机视觉技术,而用电磁等不拍摄图像的技术方案。由此可见安全与隐私之间的张力也许可以用技术方案来解决。


车内摄像头拍摄的画面



我们现在的时代被称为“算力即权力的时代”,而且政府在算力的分布上已经不掌握优势。此时平台企业拥有最强的算力,而政府监管存在算力不够的问题。目前普遍的做法是强调产品责任。例如在自动驾驶领域,一旦出了事故就让自动驾驶汽车的制造商先一揽子地承担责任。如果他认为这个责任不在自己,其可以再向其他主体追偿。


Privacy by Design意为“通过设计来保护隐私”。强调平台企业在设计产品和服务的时候,应该把隐私植入到算法设计本身当中。这是落实平台责任的非常重要的做法,因为我们已经很难实现外部的有效监控。此外不仅是隐私,公民人身和财产权的安全以及公共安全同样很大程度上取决于平台企业自身设计算法时的责任感。由此衍生出的另一个问题是,谁来监督“design”?目前也没有很好的解决方案。


(三)以算法制约驾驶人


自动驾驶之所以重要,不仅是因为它涉及到巨大的商业利益,更主要的原因在于它背后的一整套未来交通的方案。自动驾驶的鼓吹者们常说,绝大部分交通事故都是由人类的过错导致的。自动驾驶技术它通过把人赶出驾驶舱,可以在很大的程度上降低因交通事故而死亡的人数。


如果把这个话题更进一步,是否可以通过算法设计,在即使由人类驾驶的汽车上,通过算法设计使驾驶者无法通过控制车来做某件事情?比如禁止驾驶人在人行道有行人通过的情况下突然加速。


德国的交通部起草的伦理指导意见中就要求自动驾驶汽车的程序设计者在设计算法时要把人的生命放在首位。如果考虑到算法本身可以被用来书写和执行人类的法律和伦理规则,那么在这时,“用算法来制约人”本身也是可以探讨的一个思路。



#01 国际竞争的大背景


对于所有在自动驾驶领域有一定竞争力的国家,其首先考虑的就是如何通过设计法律来确保自己在该领域保持或者争得竞争优势。


美国参议院正在讨论两部非常重要的法案,其一是《无尽前沿法案》,The Endless Frontier Act,法案的主要意图是确保美国的竞争力,强调要加强数理化教育,也非常强调制造业。另一个是《2021战略竞争法案》,Strategic Competition Act of 2021,完全是意识形态化的,意图利用政治议题做文章。虽然《无尽前沿法案》没有专门提到自动驾驶汽车,但是其中的好几个领域都和自动驾驶汽车直接相关,包括人工智能集体学习自主性和相关的科技进步,也包括机器人自动化和先进制造。


英国为了鼓励自动驾驶领域的技术创新,故意放松了法律方面的规制。2015年的2月,英国的交通运输部就完成了对现有法律的详细审查。审查的结论是英国现有法律当中没有任何规则禁止自动驾驶汽车上路,这意味着英国无需制定新的法律来允许自动驾驶汽车上路。


英国街道上的无人驾驶舱



德国在2017年修改了道路交通法,允许自动驾驶汽车上路。德国的法律明确规定所有的自动驾驶汽车上面都必须有驾驶人,因此无人驾驶状态在德国基本是不可能实现的。其中一个非常重要的原因就在于德国是1965年《维也纳道路交通公约》的缔约国。根据公约第8条,所有车辆上都必须有驾驶员。


我国毫无疑问在自动驾驶领域有相当强的竞争力,因此我国在制定法律的时候也会把“立法会不会削弱我国在这个领域的竞争力”这样的因素纳入考量。

 

此外,国际竞争的大背景会导致规则和标准上面的分裂而不是融合。One globe two system的局面会导致很多问题。比如外国品牌外国标准的自动驾驶汽车在中国上路,如果背后的制度不一样就会造成很多现实的问题,比如数据跨境问题,最典型的例子是特斯拉汽车在中国的道路上行驶时会把数据传送到美国的数据中心。



#02 《道路交通安全法(修订意见稿)》

和深圳市条例


(一)道交法修订意见稿第155条:


第一款是关于自动驾驶汽车道路测试和上路之前需要取得许可的规定。这意味着只要经过测试并取得许可,进口自动驾驶汽车也可以在我国上路。


第二款是关于自动驾驶汽车的交通事故责任分配问题。虽然我国没有加入维也纳条约,但我国和德国一样要求车上要有驾驶人。在判定事故责任时需要区分两种状态:人工驾驶时追究驾驶人的责任,自动驾驶系统接管时追究自动驾驶系统开发单位的责任。


这种责任分配模式与德国的相关立法几乎完全相同,区别在于在德国的立法中,一揽子承担责任的是“制造商”而非“自动驾驶系统开发单位”。


(二)深圳经济特区智能网联汽车管理条例(征求意见稿)第47条


深圳市条例和道路交通安全法的修改建议稿非常不一样。


根据该条例的规定,“配备驾驶人的智能网联汽车”即使出现了汽车质量缺陷导致的交通事故,也是由驾驶人先承担损害赔偿责任后,再向智能网联汽车的生产者、销售者追偿。


另一方面,“不配备驾驶人的智能网联汽车”发生交通违法行为的,由公安机关交通管理部门依法对该车辆的控制人或所有人进行处罚。但问题在于,根据自动驾驶汽车的运行原理和实际情况可能根本不存在一个具体的“控制人”。



#03 现实发生的自动驾驶汽车事故


智能算法操纵的汽车其实早已默默上路,人类司机驾驶的汽车事故早已先于规则出现。中国的“高巨斌诉特斯拉案”和美国的“约书亚· 布朗(Joshua Brown)案”两起事故中丧生的司机都是退伍军人,这个特定身份或许意味着他们敢于冒险,在事故发生时他们都没有驾驶汽车,而是放心的把自己的安危交给智能算法。


但现实生活中大多数人都是风险规避者,对于不能确定是否安全的新产品我们总是不愿意贸然去尝试,此时立法可以起到稳定人心的作用。虽然法律本身无法消除事故,但可以让人们觉得有安全保障,这也是需要加快这方面立法的重要原因。它不仅是为了确保安全,而且就行业自身的发展来说,有法可依也是行业发展的重要前提条件。



#04 德国的自动驾驶立法模式


(一)模式特点


我国的立法在很大程度上借鉴了德国的立法。这种立法思路的本质是确定事故责任时区分两种模式:自动驾驶模式和人工控制模式。


在自动驾驶模式下,德国法律规定责任在于汽车制造商,我国《道路交通安全法》的修改建议稿规定在于系统开发者,深圳市的条例规定责任在于控制人,这虽然是三个不同的表述,但其最终的目的都是为了解决自动驾驶汽车事故涉及到多种主体的情况下责任如何确定的问题。无论是德国的日本的还是中国的,都是需要一揽子的先把这个责任放到一个最适合承担责任的主体身上。而人工介入的时候,他所遵守的还是原有的道路交通事故的侵权责任的处理方法。


(二)算法治理


德国交通部长专门任命了一个伦理委员会。委员会在2017年提出了20 条伦理指导意见,核心是把人的生命放在首位。但如伤害一个人以避免对更多人的伤害(电车难题)这样的伦理难题不能通过事先编程来处理,系统必须被设定为出现这种情况下请求人工处理。


但这种将规则写入算法的做法只有在特定的算法设计模式中才有可行性,而很难被适用到象人造神经网络算法(ANN)这样的模式之中,因为这一类算法的特点和优势就是人类无法控制机器学习的结果。从机器学习模式的角度来看,只有监督学习状态下的算法才在设计者的掌控之下,对于无监督的深度学习和强化学习而言,结果是无法预测的。


(三)产品责任


在传统的非智能产品领域,要落实产品责任,首先要证明产品缺陷,而产品缺陷又分为制造缺陷、设计缺陷、警示缺陷。这三方面缺陷对于传统非智能产品来说是比较容易判断的。但是对于自动驾驶汽车背后的算法来说却很难判断。


我国《产品质量法》第46条规定:“本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康、人身、财产安全的国家标准、行业标准的,是指不符合该标准。”其中提出了三条标准:合理预期标准、法定标准、行业标准。这三种标准要真正变成执法和司法层面上可以适用的标准,都需要产品成熟且大规模被人使用。而对于自动驾驶汽车这种前沿的新兴的产品来讲,很多产品都还停留在测试阶段,没有正式上路,消费者无法形成合理预期,法定标准和行业标准也都尚不具备。


实际上在现有的规制模式下,无论是德国、日本还是我国正在讨论的立法,事故发生后只需区分“人工介入”和“自动驾驶系统运行”这两种情况,而无需证明产品缺陷。这可以说是一种全新的法律理念。



结语


法律进入算法不能靠立法者和规制者的单方面努力,而需要法律人与技术人员的合作。


法律人可以向技术人员解释法律规则的要求,而技术人员可以设计出符合法律要求的算法。法律和技术都是非自然的“人工”造物,两者都服务于使人类生活更加美好的目的。在人工智能时代,一种新的职业——法律知识工程师——正在诞生,这种职业是由能够用技术解决法律问题的人士和能够用法律服务技术发展并将技术套上法律缰绳的人士共同组成的。人工智能是能够在给定问题的前提下通过深度学习和强化学习寻求最优解的智能算法,它需要人类提出正确的问题,对错误问题的正确解答可能带来灾难性的后果。法律就是用来划定问题域之边界的,它不能确保最佳问题的出现,但可以防止最邪恶问题的提出。


与谈环节

自动驾驶算法的法律规制



熊丙万老师:


道交法修订意见稿第155条中规定了“自动驾驶系统开发单位”的责任,但在实践中,这一主题的界定可能存在困难。一套自动驾驶系统可能存在整车制造商独立开发、委托技术开发、与其他单位合作开发或针对已开发好的系统进行技术转让、技术许可等多种情况。


目前的事故责任模式在实体法层面减轻了消费者负担,而在实体法之外,可能还需要程序法上的更多努力。比如采用第三人追加机制,让那些在很大程度上未来会成为最终买单的一方当事人加入诉讼。

德国伦理委员会关于“禁止用编程处理伦理难题”的规定是在风险的理性分配规则和自然分配规则中选择了自然分配规则。这种选择也是对汽车厂商产品研发的激励。厂商会有更强的动力去进一步改善技术从而减少事故发生的可能性,而不是在事故发生时通过程序对人命数量做选择。


在产品缺陷认定的必要性方面,道交法修订意见稿第155条中规定“应当依法确定驾驶人、自动驾驶系统开发单位的责任”,其中“依法”二字也许意味着如果在道交法没有做出特别规定的情况下,就要依据侵权责任的一般原理去处理它。如果是一个产品责任,依然还需要去进行缺陷的认定。此外,当自动驾驶作为一个新技术遇到“缺陷”难以认定的问题时,短期内“专家团”可能是一个好的处理方式。




张力老师:


自动驾驶至少有三方面的功能:取代驾驶人员、替代决策、内化规则。在此基础上,《道路交通安全法》的本质目的是“安全”而非“产业促进”。就道交法修订意见稿第155条而言,其至少遗漏了一个非常重要的责任主体:机动车所有人。因为机动车参与道路交通的过程本身是有一定风险的,这恰恰是机动车的所有者把财产投入到社会生活中引发的风险。如果自动驾驶汽车事故责任变成纯粹的行为责任和产品责任的话,机动车所有人良心负担的水平就大大降低了。


目前在交通事故引发的损害填补当中有三个机制共同参与:一是侵权责任,二是包括交强险在内的保险制度,三是道路交通安全事故的社会救助基金制度。如果机动车事故责任完全变成一种产品责任,这种要求大多数社会成员参与风险共担的制度设计是否依然成立是值得思考的。


我国是否需要针对自动驾驶做新的制度创设?比如在特定区域或者特定时间段,一旦事故造成的伤亡率达到一定的上限的时候,就需要对此类技术的使用,包括时间、区域等等进行限制,或者采取一种类似熔断的机制。




沈萌老师:


从一辆自动驾驶车本身来看,基本上可以分成三层:底盘、软件层、设备层,其中我国最占优势的是软件层。但技术的发展需要试错,也技术的发展需要社会一段时间的宽容,例如张老师提到的道路交通安全法应该考虑一些熔断的机制。


在事故责任方面,由于自动驾驶汽车架构的复杂性,车辆决策输出可能会涉及不止一个系统。此时如果要求“自动驾驶系统开发单位”承担责任,就可能会出现责任主体难以判断的情况。同时,目前有关自动驾驶的规定散落在不同的管理制度中,这些制度对于自动驾驶的相关概念尚未统一,这使得系统服务商面临责任边界不清的困惑。


在车辆数据的管理方面,相关规范性文件中存在一些冲突。基于数据是自动驾驶算法的重要基础,其收集、使用、管理的方式也是值得研究和跟进的问题。



讲座最后,郑戈老师简要回应了三位与谈老师的发言,并总结了自己的观点。本期讲座继续透过自动驾驶算法这一具体场景,分析现实中各国在大数据和人工智能时代面临的社会治理问题,并引发了对相关法律规制模式未来出路的讨论。最后,在与会师生的致谢刷屏和表情包中,第二十期中国政法大学法学院“大数据和人工智能法律前沿问题”系列讲座圆满结束。



欢迎关注“大案牍术”公众号

实时获取大数据与人工智能法律研究新动态



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存