醉驾、车祸、悲剧...时有发生,当人为选择走向错误的那一方,汽车,可以替我们做些什么?
汽车最大的危险因素就是司机。所以这场即将到来的技术变革汽车正在学习如何与人类的思想进行沟通,想帮助司机做出正确的选择。
未来,它们可以检测到司机是否醉酒、是否意识昏乱等等,再利用AI技术做出应激反应,保卫人类的生命、健康与幸福。
自动驾驶固然先进,有“同感”的汽车才是真正的革命。
未来,汽车的情绪和活动侦测将以多种形式出现,并采用五花八门的新技术,其中最具代表性的是人工智能(AI)技术,它将处理来自摄像头、麦克风、生物传感器乃至雷达的实时数据。
目前,多家科技公司(包括Affectiva、Guardian Optical、Eyeris、Smart Eye、Vayyar Imaging、Seeing Machines、B-Secur、eyeSight、Nuance Automotive、BeyondVerbal和Sensay,各位司机朋友们可能闻所未闻,别着急,后面会详细讲到)正在研发仪表盘技术,用于监督驾车者的一举一动。
说这项技术是“救星”也好,高科技“老大哥”也罢,就看你怎么看了。总的来说,这项技术转变主要是出于安全考虑,毕竟汽车最大的危险因素就是司机。
美国交通部表示,“94%的严重车祸与人为选择有关。”
汽车情绪和活动探测技术能够改变甚至推翻有风险的选择,从而拯救生命。它们不仅可以检测到司机是否醉酒、压力水平如何、是否意识昏乱、精神分散或困倦嗜睡,还能识别并关注车内人员的互动,利用AI技术解读人类行为的发生背景,并据此做出反应,保卫人类的生命、健康与幸福。
汽车行驶过程中,车内有时会发生意想不到的事情,增加事故风险。比如说,司机可能会突然看到让他不安的东西(路边发生车祸或者动物被汽车撞伤),也可能做出致其分心的行为(打洒咖啡或掉落手机)。情绪和活动探测技术能够即时识别情况,采取安全措施,比如短暂启动自主驾驶模式或者放慢车速,直到司机恢复状态。
在紧急情况下,即使司机失去知觉或丧失行为能力,汽车也能自动拨打911,甚至将司机送往医院。
但安全并不是唯一的目标。“专家普遍认为,情绪和活动探测技术将首先应用于人类驾驶的汽车,然后在未来的自动驾驶汽车时代继续存在和进化。它们将‘服务和取悦’车内的司机和乘客,从功能安全到娱乐享受,满足你的一切需求。”eyeSight Technologies产品管理副总裁塔尔克尔泽鲍(Tal Krzypow)说道。
这项技术转变所催生的新功能将集安全性与满足感于一身。尼尔斯伦克博士(Nils Lenke)是Nuance Auto公司的创新管理高级总监,他说:“你可以使用“视线侦测”技术,问汽车一些问题,比如‘那栋是什么建筑?’或者‘那家餐馆开门了吗?’不用打开手机搜索,就能得到答案。”
车载传感器有何意义
车内强大的传感器则指向内部的司机和乘客,留意更加复杂的因素:人类的情绪、注意力和行为。
自从亨利福特(Henry Ford)开始大规模生产汽车以来,汽车的功能就像一台机器,把汽油或电力转换成动力,把我们的身体从一个地方运送到另一个地方。
未来的汽车仍然是一种交通工具,但其深层意义是一台带轮子的人工智能超级计算机,能快速处理万亿字节的传感器数据,理解数据的含义,然后以微秒速度向车轮、发动机和刹车发出命令,从而实现半自主驾驶乃至完全自主驾驶。
汽车的外部传感器指向四面八方,探测道路边缘、交通灯变换、单车骑行者的速度和方位等多种因素,而车内强大的传感器则指向内部的司机和乘客,留意更加复杂的因素:人类的情绪、注意力和行为。
但哪种传感器更适合呢?排名最靠前的是摄像头,它能观察人类活动,解读面部表情;其次是麦克风,通过语音语调检测情绪;此外还有方向盘或安全带上的直接传感器,甚至还包括雷达!
每一种传感器都有其优点和局限性。Sensum联合创始人兼CEO高文 莫里森(Gawain Morrison)总结了这个难题:“面部表情和声音模式等情绪信号可以通过摄像头和麦克风感知到,这些都是常见的技术,而且通常是汽车自带的。但人类的面部表情并不总是丰富的,尤其是在从事开车等复杂活动的过程中。同样,我们也不是时时刻刻都在说话,又或者车内环境可能太吵,麦克风根本听不懂我们在说什么。另一方面,内在的生理过程,如心率、呼吸和皮肤电导,可以持续提供一种无意识的、难以伪装的情绪信号。但要测量这些信号,通常需要侵入性更强的传感器,比如可穿戴设备。”
“这项技术发展飞快。”莫里森说道,“举个例子,我们现在可以通过非接触式的方法测量心率和呼吸等信号。其中最具代表性的就是超宽带技术,也被称为生物雷达。未来,我们或将开发出更多微创方法,测量更细微、更基本的心理生理信号,比如脑电波或身体化学成分的改变。”
考虑到传感器的低成本和良好传感的高价值,久而久之,部分汽车可能会部署所有的传感器,包括摄像头、麦克风、接触式生物识别技术和雷达。
区区一辆车安装这么多传感器,听来似乎有些小题大做。但事实上,这种AI处理传感器技术是所有计算形式的未来发展趋势。
环境计算指日可待
车内强大的传感器则指向内部的司机和乘客,留意更加复杂的因素:人类的情绪、注意力和行为。
人机用户界面即将迎来一场结构性技术变革,其中就包括所谓的“环境计算(ambient computing)”。环境计算常与物联网联系在一起,指的是计算机(各类基于微处理器的设备)和传感器嵌入人类的生活和工作空间,帮助我们使用电脑和互联网,同时,我们又没有完全意识到自己的行为。
为了帮助大家理解环境计算,我们举一个简单的类比:超市的自动门。面对一扇普通的门,用户走到它跟前,首先确定门把手的位置和功能,然后把它当作一台机械装置来操纵,转动把手把门推开或拉开,最后走进去。但在动作感应自动门面前,用户什么都不需要做,人一走近,门就自动开了,他们可以直接走进去。
只要配备足够多的传感器和更好的AI技术,我们今天使用电脑和手机完成的许多任务就能像那扇自动门一样自动执行。
假设你的办公室里安装了几台麦克风,你告诉它们“跟杰瑞预约下周的会议”。这个动作可能触发一系列高级计算任务,包括搞清楚杰瑞是谁、联系他的AI日程软件、协商开会时间、使用双方的偏好和已知的地理位置信息确认会议地点、预订位子并把会议安排加入日程表等等,最后,它们会及时发出声音提醒,让你为会议做好准备。
在住宅和工作场所,传感器能够扫描人体皮肤,探测到我们有点冷,然后根据我们过去的喜好把温度调高。
环境计算包含嵌入式的联网计算机和传感器,它们隐藏在我们的生活和工作空间之中,附着在我们的身体上,向AI提供信息,而AI将以非常个性化的方式发挥作用,保证我们的舒适、便利与安全。
几乎可以肯定的是,大多数消费者初次体验成熟的沉浸式“环境计算”会是在自己的车里。
与大多数家庭住宅和办公室相比,汽车将更早运用环境计算技术,原因有三个。首先,在汽车狭小的空间里,这项技术更容易实现。一坐上车,我们就是被动的受众,被束缚在椅子上,面向一块控制面板。我们的身体和脸部所处的位置和方向都是固定且可预测的。同时,我们也和车内的“设备”(汽车座椅、安全带和方向盘)产生实际接触,更方便检测生物识别数据和肢体动作。
其次,开/坐车不比在家里,我们的潜在行为和欲望是有限的。当我们做出某种举动时,环境计算更能轻松梳理出这种行为的背景信息。比如坐在驾驶座上的人正在开车,这是他们的基本背景。因此,AI就能专注于帮助司机安全舒适地驾驶。
最后,对车内乘客和周围的人而言,汽车都是危险的存在。美国国家公路交通安全管理局的数据显示,美国平均每天有100多人死于车祸。所以,购车者、汽车制造商乃至整个社会都强烈希望利用环境计算技术拯救生命。
事实上,这一危险因素也促使各国出台相关条例,要求出厂汽车配备环境计算技术。在这方面,欧洲法律处于领先地位。从2022年开始,欧洲出售的汽车必须具备侦测司机是否困倦、是否注意力集中或分散的功能。今年4月,欧洲议会颁布欧盟“通用安全条例(General Safety Regulation)”,要求到2022年,在欧洲销售的新车必须具备多项安全功能,包括一系列提醒驾驶员的警报,比如困倦和注意力分散的提醒,这就需要在车内安装能够探测这些精神状态和活动(比如判断司机是否在看手机)的技术。
欧盟法律提出的要求并没有超出汽车公司的能力范围。这些技术早已存在高端豪华轿车中,现在,它只是要求更均匀地分配这些技术,惠及不同类型的汽车。
在法律的强制规定下,普通汽车将纳入基本探测功能,而豪华汽车受到激励,也会进一步提升其环境计算功能。
“我们预计情绪传感将在未来两到三年内成为主流。”Nuance Auto的伦克说道。
于是,不少汽车厂商开始求助Affectiva(麻省理工学院媒体实验室的衍生公司)。
此前,Affectiva的软件曾被用于衡量人们对广告和政治辩论的情绪反应。最近,该公司筹集了2,600万美元,开始进军汽车领域。Affectiva预计,马路上奔跑的汽车三年内就会用上它的技术。
Affectiva第一代的Automotive AI情绪监控产品使用了汽车本身内置的摄像头和麦克风,搭配其专利深度学习算法。通过摄像头,AI能够探测到司机和乘客的三种情绪:喜悦、愤怒和惊讶,同时,它将持续监控每个人的面部表情,确定他们的情绪是积极的还是消极的。
此外,该算法还能留意司机是否出现困倦的迹象,包括眨眼频率、打哈欠频率、闭上眼睛的时间等等。
Automotive AI系统还将通过内置的麦克风监听笑声或愤怒的迹象,以及司机的警觉程度。
情绪侦测为什么这么难
“情绪侦测的其中一个难题就是每个人都是不同的。”
在早期的情绪侦测研究中,我们普遍认为人会经历六种情绪:愤怒、恐惧、厌恶、悲伤、快乐和惊讶。
在这种模棱两可的情绪研究格局中,研究人员还相信,人们以同样的方式经历和表达这些情绪。如今,这一观点已被推翻。
事实证明,人的情绪不止六种(关于人类具体能感受到多少种个人情绪,专家们意见不一),情绪的表达方式也不具有普适性。克尔泽鲍指出,“情绪侦测的其中一个难题就是每个人都是不同的。在不同文化之间,在同一文化之内,人们在表达相同的理论情感时会出现不同的面部表情、音调,甚至是心率。”
据伦克介绍,“Nuance Auto的传感技术合作伙伴是Affectiva,该公司对来自87个国家的600万张人脸进行分析,解释不同文化和不同个体表达情感的方式有何差异,从而训练其情感侦测技术。”Affectiva的Automotive AI系统将与Nuance的汽车虚拟助手“Dragon Drive”整合。(Nuance表示,Dragon Drive包含40种语言版本,被应用于2亿多辆汽车,也为奥迪、宝马、戴姆勒、菲亚特、福特、通用汽车、现代、上汽、丰田等汽车品牌的定制语音交互系统提供了技术支持。)
Affectiva联合创始人兼CEO拉娜 埃尔 卡利欧比(Rana el Kaliouby)博士告诉我,为了避免算法偏见,“你必须用大量不同的数据训练你的算法,以便它能准确探测到不同年龄、性别、种族的人。收集这些数据既费时又昂贵,但对于我们构建的技术而言是必需的。这不仅是一件合乎道德的事情,坦白讲,也是确保技术有效的重要筹码。”
还有一个潜在障碍
当技术夺走我们的控制权时,消费者可能会奋起反抗。
监控情绪和精神状态或将引发争议:消费者可能会认为,在车内侦测情绪和活动是对隐私或自由的侵犯。
面对技术跟踪,数字隐私遭受持续侵犯,有些人已经放弃了抵抗。但当技术夺走我们的控制权时,消费者可能会奋起反抗。
车载的情绪和活动跟踪系统能够强制执法,比如限制车速、禁止或限制学生司机、阻止被吊销驾照的人开车,或防止酒后驾驶。欧洲有些政治家正在讨论另一种可能,即以后的汽车在启动前必须测量司机体内的酒精含量。
伦克透露,Nuance Auto开展的研究发现,“不是每个人都会喜欢每一种反应,所以这些功能必须做到个性化和可配置。”
情绪感知汽车何去何从
利用AI开发所谓的“共享心理模型”,让汽车说出它的“想法”和下一步要采取的行动。
未来十年或二十年间,自动驾驶技术将改变古老的汽车,我们都期待着这一转变。
但大多数消费者没有预料到,他们将与汽车建立一种全新的关系。
情绪和活动侦测技术与人工智能相结合,就能帮助汽车理解、预测、辅助和保护你(甚至是防止你伤害自己),而汽车的沟通能力也将得到提升。
举个例子,面对因路怒而发狂的司机,汽车可以怎么做呢?
人们提出了各种各样的建议,包括播放舒缓的音乐、提议在某个地方停下车、调整车内温度,甚至是从司机手中夺回控制权,自动靠边停车。
有人提议让汽车虚拟助手与司机交谈,指导司机进行深呼吸练习,控制自己的愤怒情绪。汽车变成了教练,扮演人类朋友的角色,帮助你冷静下来。
卡尔伊阿格内玛(Karl Iagnemma)博士担任Aptiv的自动驾驶总裁,在去年Automotive AI的情感AI峰会上,他谈到当驾驶员信任汽车时,我们必须确保其安全性和满意度。方法之一就是利用AI开发所谓的“共享心理模型”,让汽车说出它的“想法”和下一步要采取的行动。
自动驾驶汽车的前景是美好的。但在普及无人驾驶之前,我们将与汽车建立一种全新的关系。一旦坐进车内,我们便沉浸在被理解的环境之中,传感器和AI将为了我们的安全和幸福而共同努力。