展会信息港展会大全

特斯拉“完全自动驾驶”初体验:转弯“像人”,还不习惯
来源:互联网   发布日期:2020-10-24 20:54:14   浏览:7971次  

导读:FSD能让驾驶员在当地街道上使用Autopilot的许多高级驾驶员辅助功能,目前仍处于测试阶段。因此驾驶员需要在驾驶辅助系统运行时保持警惕。正如特斯拉在FSD升级的推介中警告那样,它可能会在最糟糕的时候做错误的事情。 腾讯科技讯 10月23日消息,据媒体报道,...

FSD能让驾驶员在当地街道上使用Autopilot的许多高级驾驶员辅助功能,目前仍处于测试阶段。因此驾驶员需要在驾驶辅助系统运行时保持警惕。正如特斯拉在FSD升级的推介中警告那样,“它可能会在最糟糕的时候做错误的事情。”

特斯拉“完全自动驾驶”初体验:转弯“像人”,还不习惯

科技新闻讯 10月23日消息,据媒体报道,本周特斯拉开始向一批特定客户推广其“完全自动驾驶”(FSD)软件升级,现在关于FSD软件的体验开始公之于众。一些客户说,FSD让特斯拉汽车转弯“像人一样”,但“有点可怕,因为我们还不习惯。”

FSD能让驾驶员在当地街道上使用Autopilot的许多高级驾驶员辅助功能,目前仍处于测试阶段。因此驾驶员需要在驾驶辅助系统运行时保持警惕。正如特斯拉在FSD升级的推介中警告那样,“它可能会在最糟糕的时候做错误的事情。”

特斯拉“完全自动驾驶”初体验:转弯“像人”,还不习惯

特斯拉通过FSD软件启用自动驾驶时的屏幕

实事求是而言,这看起来很可怕。不是因为FSD看起来不稳定或有故障,而是因为它将不可避免地被滥用。

特斯拉用户对软件更新的早期反应中既包括“这有点可怕”的感觉,也有对特斯拉首席执行官埃隆马斯克(Elon Musk)愿意让客户对尚未准备好大规模发布的功能进行测试的热烈追捧。客户的这种意愿有助于特斯拉保持其在电动汽车和自动驾驶汽车技术前沿的市场领先地位。但如果这些早期测试出现严重错误时,也会给该公司带来巨大风险。

本周四,一名自称“特斯拉拉杰”(Tesla Raj)的特斯拉车主发布了一段10分钟的视频,意在展示他与FSD打交道的用户体验。拉杰说,自己在开车经过“一条没有交通标志物的住宅区街道时使用了FSD功能……这是特斯拉Autopilot以前无法实现的功能。”

FSD从一开始展现给驾驶员的信息就有明显不同。汽车仪表盘上显示的视觉效果更像是一辆自动驾驶汽车的训练视频,其中用橙色框标记停在路边的汽车、道路上行驶的其他车辆以及道路标志。汽车的行驶路径以在汽车前面延伸的蓝点标记。车载屏幕上会弹出各种各样的信息,告知驾驶员特斯拉汽车将要做什么,比如“在前方75英尺(约20米)处因交通管制而停车”。

这辆在FSD控制下行驶的特斯拉汽车还自动完成了几次左转弯和右转弯,拉杰说这“有点可怕,因为我们还不习惯。”他还说,特斯拉汽车转弯时“像人一样”,因为在转弯之前,车辆会慢慢驶入对向车道,从而留出足够的转弯半径

另一位家住加州萨克拉门托的特斯拉车主@pandonee916在个人社交媒体上发布了一系列短视频,展示特斯拉汽车使用FSD软件在一系列复杂路段进行自动驾驶的场景,其中包括十字路口和环岛。

这名用户在个人社交媒体上表示,“在通过环岛时汽车显得过于谨慎……直至行程结束,我都不需要进行干预。第一次体验还不错!FSD测试走起!”

在测试过程中,拉杰和@pandonee916的特斯拉汽车均以中等速度行驶,时速在25至35英里(40公里至56公里)之间,这对特斯拉驾驶辅助系统来说非常具有挑战性。马斯克表示,特斯拉Autopilot系统可以让汽车在高速行驶时启用自动导航功能,在低速行驶时启用智能召唤停车功能。考虑到报告该系统存在漏洞的特斯拉车主的数量,智能召唤停车的工作效果到底如何还有待讨论。目前特斯拉尚未允许其客户在高速公路上完全放开让车辆自动驾驶,就像凯迪拉克的自动驾驶系统竞争对手Super Cruise。但在低速行驶的情况下,特斯拉汽车更有可能需要应对各种交通信号、十字路口等复杂情况,因此会出现更多困难。

目前,FSD软件升级只面向特斯拉的早期测试项目用户,但马斯克表示,他希望在2020年年底前“大规模发布”。显然,风险在于特斯拉客户会无视公司警告,滥用FSD记录自己让车辆自动驾驶的危险表演,就像他们多年来一直在做的那样。在许多人关于追求影响力的社会中,这种违反规则的行为是意料之中的事。

特斯拉表示,在使用Autopilot系统时驾驶员需要将双手放在方向盘上,时刻保持警惕。但这一功能是为了辅助驾驶而设计的,而且也并非万无一失:迄今为止特斯拉汽车已经发生了几起事故,其中一些驾驶员在使用Autopilot系统时发生了严重车祸。

Waymo、Zoox等自动驾驶技术公司合作成立的非营利组织Partners for Automated Vehicle Education公关主管Ed Niedermeyer表示,“公共道路测试责任重大。让未经任何培训的消费者在公共道路上验证测试软件相当危险,并不符合现有的指导意见和行业规范。任和使用未经训练的消费者验证beta级软件在公共道路上行驶是危险的和不一致的与现有的指导和行业规范,”他补充说,“此外,明确驾驶员辅助系统和自动驾驶系统之间的界限也极其重要。需要人类驾驶员监督的系统不是自动驾驶系统,也不应该被称为自动驾驶系统。”(科技新闻审校/皎晗)


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港