2018年,日本发生了一场车祸。驾驶员打开了汽车的自动辅助驾驶功能,但车撞上了一辆停靠在路边的面包车,导致一人死亡、两人受伤。法院认为,无法判断这起车祸的起因是自动辅助驾驶系统故障,还是超出系统能力范围,但有证据表明驾驶者当时非常疲倦,已经无法正常驾驶,因此,驾驶者应该负主要责任;而驾驶者的家属则认为,在这起车祸中,自动辅助驾驶系统同样应该承担责任。
现在许多企业都在开发更高级的自动驾驶系统,希望有朝一日能够制造可以全程无人驾驶的汽车。到那时,如果无人驾驶汽车出现车祸,应该是谁来负责呢?是汽车生产厂商,还是无人驾驶系统的开发者?还是汽车的使用者?
这道难题,是未来AI网络化所面临的复杂法律问题的一个缩影。我们来设想这样一个情形,在一条盘山公路上,一辆由人驾驶的汽车突然失控,眼看着就要撞向一辆满载客人的无人驾驶汽车。这辆无人驾驶汽车安装了AI系统,能够紧急转向来避免相撞,但是如果紧急转向的话,它可能会掉下悬崖,也可能撞上岩壁,那样的话,车上的乘客必然难以幸免。于是,这辆无人驾驶汽车没有转向,而是正面撞上了对面失控的汽车,导致失控汽车内的乘客伤亡,而无人驾驶车内的乘客则安然无恙。
这是一个可以被不断挖掘讨论的案例:
首先是伦理问题,AI应该优先保护自身乘客的生命,还是应该优先保护对面车辆中的乘客生命?AI在处理这种紧急情况时,应该最大限度地考虑减少社会损失和人员伤亡的问题吗?
其次是技术问题,在即将相撞时,无人驾驶汽车中的AI是否出了错误,做出了错误判断?AI做出的判断,是否是设计时就存在的缺陷?
最后是责任问题,AI的行为是不是出自汽车设计师的设计?AI制造商是否对使用者尽到告知潜在危险的义务?
这些问题,都将会是在法庭上辩论的焦点。但是,透过这些表面的问题,我们将会发现,核心在于我们能否预测AI将会做出怎样的判断。如果AI的决策过程始终是一个“黑箱”的话,我们也许永远也找不到答案。既然责任无法确定,那么谁来承担责任,也就成了谜题。
传统的计算机程序不能自主做出判断,而AI的特征就在于它有创造性。而因为现在的AI是个“黑箱”,因此在做出判断和行为后,即使是AI的开发者本人,也难以查明AI做出这种判断的原因。
AI的行为无法预知,也就会带来难以意料的危险,进而造成责任的空白,我们甚至没有办法在法律上做出判断。而即使找到原因,认定责任的确归属于AI,我们也没有办法做出惩罚,因为惩罚只能用在人类这样拥有人格的生物身上。那么AI是否拥有人格呢?这显然会引起规模更大的讨论,涉及人类所拥有的诸多权利和义务。
所以我们可以看到,如果不改变这种AI行为无法预知的特性的话,我们将会面临诸多法律上的困境。为了避免这些困境,我们能想到的最好的方式,就是让AI的开发变得更加可控,让AI的逻辑变得更加透明,让人能够理解AI做出判断的原因,并让AI避开作为刑事责任主体的可能性。
这个结论可能会让我们有点不舒服。毕竟我们已经习惯了责任明晰的法律判断,而对AI这样介于生物和非生物之间的模糊物体还不大适应。但要解决这样的问题,根本方法是对AI的开发和使用建立规则。这看起来和刑法离得有点远,却是解决这类刑事问题的最好方案。
具体地来说,网络化AI的问题可能会集中在两个方面,分别是日常生活中的隐性影响,以及重大的刑事问题。在这两个方面,我们都需要建立一些通用原则,来预防AI对个人和社会带来的冲击。比如,完善相关法律,例如知识产权法不应该保护AI创作的内容,企业应该更谨慎地对待客户的个人隐私和个人数据;其次,尝试改变现在AI的开发方式,建立更透明、更可控的人工智能系统,让我们能够理解AI做出判断的理由和方法。
有一个好消息是,在最近几年,人工智能学界已经开始反思AI黑箱化所带来的种种问题,也诞生了一个新的领域,叫做“可解释人工智能”,它指的是为人工智能使用人类可以理解的算法,来让AI的决策结果变得可以预测。
人工智能学界已经意识到传统AI不透明所带来的局限性,而这个弱点正因为AI的广泛使用变得越来越突出。未来我们需要和AI协同工作,如果AI是一个黑箱的话,我们就无法信任它。从2018年开始,国际上成立了一个名叫“公平、问责和透明度”的跨学科同行评议会议,其中就涉及如何让AI开发和使用过程变得更加透明的问题。
现在,我们已经有了一些“可解释人工智能”的算法模型,它们在通用的人工智能机器学习算法基础上,结合了新开发的人机界面技术,让使用者可以更方便地理解人工智能算法的逻辑,并且预测它的运行结果。
也许有一天,“可解释人工智能”会取代现在基于机器学习的AI“黑箱”,让AI成为我们生活和工作中的重要帮手,帮我们提高自己的生活质量,提升整个社会的智力水平。这也应该是未来AI的发展方向。