特斯拉自动驾驶三次撞飞假人 网友:因为识别出来是“假人”

8月9日,一名为Dan O'Dowd的网友在社交平台发布一则关于特斯拉FSD评测视频,其表示特斯拉的FSD自动驾驶系统在评测中多次撞上儿童假人模型车辆。



此外,参加测试的人员在测试报道中称:过去一个月的时间里对特斯拉进行了几十次测试,在撞到人体模型之前,虽然车子是放慢了一点速度,但还是以超过每小时25英里的速度撞击并碾压了人体模型。其表示在操作过程中特斯拉以每小时40英里的速度启动,在指定车道内行驶100码之后,就会撞上人体模型。


Dan O'Dowd丹·奥多德对此表示:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为采取行动的呼声。埃隆·马斯克说,特斯拉FSD软件令人惊叹,但事实并非如此。它对所有美国人都是致命的威胁。”目前,关于Dan O'Dowd发布的测试视频,特斯拉方面暂未回应。




据了解,Dan O'Dowd丹·奥多德是Green Hills Software的CEO。曾在去年发起一项运动名为“黎明项目”,该运动旨在禁止安全系统中使用不安全软件,其中就有包括对特斯拉FSD的测试。




值得注意的是,关于特斯拉 FSD Beta 的安全性一直以来都备受质疑。从推出后在不同的版本当中都有用户反馈出现不同的问题。例如,在早前的9.0版本当中,就有用户反馈转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。




而FSD Beta 是在2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,目前仅开放给美国的车主付费使用。而在中国市场则提供了增强版自动辅助驾驶功能EAP和完全自动驾驶能力FSD两个自动驾驶付费选装包,其售价分别为3.2万与6.4万,二者在功能方面都可实现自动变道、自动泊车、智能召唤、在自动驾驶仪上导航等功能,而FSD除了包含以上功能之外,还能识别交通信号灯与停车标志并作出反应以及城市街道中辅助驾驶。




关于特斯拉 FSD系统的安全性,美国国家公路交通安全管理局也一直在跟进调查特斯拉 FSD系统, 其主席认为特斯拉使用“全自动驾驶”一词是“误导和不负责任的”,因为消费者更关注营销,而不是汽车使用手册或公司网站上的警告,完全自动驾驶的宣传行为会误导了许多人误用和滥用该项技术,FSD可能引发了多起事故,因此要求特斯拉详细说明自动驾驶模式下车辆如何应对紧急事故。当然特斯拉方面也在使用手册上及向调查机构解释,它仍属于 L2 级驾驶辅助系统,因此司机仍需要对车辆负责,必须把手放在方向盘上,而且随时准备接管车辆。


早在去年8月份,特斯拉CEO马斯克曾在推特上表示,对FSD的目标是比普通人类司机安全1000%。对于特斯拉CEO马斯克的这一目标,有网友指出:也许已经可以做到在99.99%的情况下都比人准确十倍,但是一旦遇到那独特的0.01%,就是出人命的事故。就算有数据为证比人类驾驶员安全10倍,还是不敢放心睡觉让它开车,只是偶尔失败一次,就没有重新开局的机会了。




美国NHTSA也曾提醒到:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的辅助驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”



本内容来自汽车之家创作者,不代表汽车之家的观点和立场。
0 +1
收藏
纠错/举报
1253关注 | 604作品
+ 关注
【汽车行业关注】汽车行业资讯与独立评论媒体
Ta的内容

下载之家app

0
评论
收藏
意见反馈