《金融时报》发表文章称,透过无人驾驶汽车,可以看到自动化技术的局限性,一味假定无人驾驶汽车技术将会让我们更加安全是危险的。
以下是文章主要内容:
我们人类并不完美,容易犯错误,容易出现判断上的偏差。因此我们创造了各种技术来提供帮助。
以推出无人驾驶汽车车队为例。人们认为技术将会提升驾驶的安全性。但就该项技术现阶段的发展来说,这是一个非常大胆的假设。
一方面,支持这一看法的证据还没有出现。整个2016年,对于无人驾驶汽车我们所得到的最佳数据来自于在加州进行的测试数据,但必须要指出的是,加州气候温和,并不能代表全球的驾驶环境。
谷歌旗下的无人驾驶汽车项目Waymo测试表现最好:每行驶5127英里需要一次人工干预。这相比前一年有所改进,但还远远称不上表现完美。总的来说,Waymo的60辆测试汽车去年行驶了大约1.0597万英里(比美国普通车辆的平均里程要少3000英里),在这一时间范围内它们分别至少需要两次人工干预。
特斯拉的表现则要糟糕得多。该电动汽车厂商的四辆汽车2016年平均行驶了137英里,每辆汽车平均出现45次人工干预——也就是说每行驶3英里就需要一次人工干预。每次人工干预代表一次可能能够避免的事故。
考虑到多数的行业观察家认为,公众不会容忍无人驾驶汽车出现任何的错误,这些测试表现显然无法让人满意。诚然,该类技术在不断改进。但也要指出的是,无人驾驶汽车其实早在1990年代中期就开始出现,当时就有辆汽车的“无人驾驶百分率”达到98.2%。
但即便技术方面的挑战能够克服,预想不到的负面外部性影响可能还是无法解决。
Uber无人驾驶汽车最近在亚利桑那州被撞翻,就是很好的案例。该事故的责任并不在Uber汽车身上,而在另一辆汽车的司机身上。这样的人类没有好好驾驶的情况,引发了人们对即将到来的自动驾驶过渡时期最大的挑战之一的关注:在人工驾驶的汽车和无人驾驶汽车共存的时候,二者将必须要安全地进行交互。
然而,人类的行动动机跟计算机算法的行为动机很不一样。基本上,大多数的司机——不包括那些醉酒驾驶的、寻求自杀的或者制造恐慌的司机——都会有保护自我或者保护他人的意识。复杂的算法则无法保证会有保护人类的动机。
另外也有特殊的例子,比如上周发生在伦敦的恐怖袭击。但让人脱离驾驶盘,实施自动驾驶,不一定就会降低安全风险。能够自动驾驶的汽车会很容易被改装成武器,因为不法分子只需要入侵它们就可以了,不必找人亲自去驾驶实施自杀式袭击。
与此同时,2014年酗酒驾驶在美国造成的死亡人数达到致命车祸的三倍之多。而如果人类不必亲自去驾驶了,无人驾驶汽车另一个意想不到的影响可能会是酗酒和药物滥用案例出现增加。
另外,我们必须要信任程序员。通常来说,企业雇主会制定详细的奖惩制度来确保员工有将工作尽量做好的积极性。员工们需要为自己的工作负起责任。在人为失误会对别人造成巨大的不利影响的行业——比如银行业或者空中交通管制——这类激励机制来得更加重要。
然而,无人驾驶汽车将由程序员来编程和维护,他们人数众多,要问责起来并不容易。我们能否确保他们一直都有积极的动力呢?
最后,虽然无人驾驶汽车有助于强化人类的驾驶技能,但它们也有可能会导致人们的驾驶能力退化。我们当然不希望在我们迫切需要那些驾驶能力的时候却发现它们已经不复存在。(乐邦)