您现在的位置是: 首页 > 车型评测 车型评测

特斯拉车祸再致命_特斯拉车祸致死

zmhk 2024-04-22 人已围观

简介特斯拉车祸再致命_特斯拉车祸致死       接下来,我将会为大家提供一些有关特斯拉车祸再致命的知识和见解,希望我的回答能够让大家对此有更深入的了解。下面,我们开始探讨一下特斯拉车祸再致命的

特斯拉车祸再致命_特斯拉车祸致死

       接下来,我将会为大家提供一些有关特斯拉车祸再致命的知识和见解,希望我的回答能够让大家对此有更深入的了解。下面,我们开始探讨一下特斯拉车祸再致命的话题。

1.特斯拉车主黄伟伦致命车祸的原因是什么?

2.车主上路实测特斯拉"全自动驾驶"撞上护栏

特斯拉车祸再致命_特斯拉车祸致死

特斯拉车主黄伟伦致命车祸的原因是什么?

       2月19日消息,据国外媒体报道,美国国家运输安全委员会(NTSB)上周公布了特斯拉Model X车主黄伟伦遇难的详细调查文件,该文件给出了可能导致车祸的三大原因。

       这三大可能的原因是:第一、特斯拉Autopilot系统故障;第二、黄伟伦本人注意力不集中;第三、设计和维护101号高速公路的政府机构更换碰撞减速装置的速度太慢。

       这起事故发生在2018年3月,当时苹果工程师黄伟伦驾驶的Model X在Autopilot启动的情况下撞上了匝道隔离栏,导致车辆起火,不幸遇难。

       去年5月,黄伟伦的家人将特斯拉告上了法庭。他的家人声称,特斯拉对其Autopilot系统的广告营销,让黄伟伦对该技术的性能产生了夸大的印象。他们认为,Autopilot系统出现问题才导致了悲剧的发生。

       但特斯拉坚称是黄伟伦的过错,并称黄伟伦收到过几次“把手放在方向盘上的警告”。如果他没注意,车祸就有可能发生。

       以下是美国国家运输安全委员会公布的文件给出的可能导致车祸的三大原因:

       第一、特斯拉Autopilot系统故障

       上周,外媒曾报道称,黄伟伦生前曾报告过Autopilot系统的故障,且他曾向家人和朋友抱怨过这个问题。

       美国国家运输安全委员会公布的文件披露,黄伟伦之前曾报告称,在之前的几次行程中,这辆车曾在事故发生的地方驶离了高速公路。

       这些文件证实了黄伟伦家人的说法,即在他发生致命撞车事故前,他曾在这个特定地点经历过多次这种特殊故障。然而,美国国家运输安全委员会无法证实,他是否曾向特斯拉报告过这个问题。

       第二、黄伟伦本人注意力不集中

       法医的数据表明,黄伟伦可能在车祸发生前的最后几秒没有注意到道路状况,因为他有开车上班时在车里玩游戏的习惯。

       苹果公司提供的iPhone的日志也显示,在发生致命车祸的那一周,他每天早上通勤时都会使用这款应用。然而,这些日志并没有提供足够的信息来说明,他是否在去世前的最后几秒还在玩游戏。

       此前,美国国家运输安全委员会的一份初步调查报告发现,黄伟伦驾驶的Model X在撞上路障前曾加速行驶,且在事故发生前的6秒内,黄伟伦没有把手放在方向盘上。

       此前,特斯拉曾表示,它的Autopilot系统只是部分实现了自动化,比如,使汽车保持在车道上,与前方车辆保持安全距离。该系统只是为了辅助司机,司机必须随时准备干预。

       第三、相关政府机构更换碰撞减速装置的速度太慢

       在黄伟伦撞车事故发生的前两周,在他撞车的同一地点曾发生过另一起撞车事故,设计和维护101号高速公路的政府机构还没来得及更换碰撞减速装置,这降低了黄伟伦在车祸中幸存的机会。

       据悉,关于黄伟伦撞车事故的听证会将于2月25日举行,届时美国国家运输安全委员会将确定黄伟伦撞车的原因,并提出安全建议。

车主上路实测特斯拉"全自动驾驶"撞上护栏

       蔚来因为“自动驾驶”致死的交通事故还没有查明,特斯拉的“自动驾驶”就又出大事了!

        8月16日,美国国家公路交通安全管理局(NHTSA)宣布,美国政府对特斯拉自动驾驶系统启动正式调查。

        该消息一出后,特斯拉的股价也应声大跌超过5%,市值蒸发约307亿美元(约合人民币1988亿元)!

        根据NHTSA的调查显示,本次调查的范围包括了Model S、Model X、Model Y以及Model 3在内的765000辆特斯拉 汽车 ,几乎涵盖了特斯拉在美国销售的全部车辆。

       NHTSA表示,自2018年1月以来,机构共明确11起特斯拉安全事故。在这些事故中,均由车辆撞击一辆或多辆其他车辆。这些事故一共导致17人受伤,并导致1人死亡。

        值得一提的是,这11起因特斯拉自动驾驶造成的交通事故中大都发生在夜晚,且大多数的驾驶员都是在开启了Autopilot相关功能后,便撒手不顾,最终导致了事故发生!

        NHTSA在一份文件中表示:“目前已经证实,涉案车辆在事故发生时都开启了Autopilot或交通感知巡航控制(Traffic Aware Cruise Control)功能。”

        此外,NHTSA还表示,特斯拉的自动辅助驾驶系统也经常被司机们误用,包括酒后驾车乃至在高速公路上行驶时坐在后排座位上等。

        不过,看到NHTSA仅对特斯拉进行调查后,美国一些网友认为,NHTSA有针对特斯拉的嫌疑,毕竟其它福特、通用等车型,也都配备有L2级辅助驾驶功能,但是却没有收到NHTSA的特别关照。

        自2016年以来,特斯拉在美国至少发生了三次致命车祸,关于屡次发生的交通事故,NHTSA也至少派出了14个SCI团队调查与特斯拉自动驾驶辅助系统相关的交通事故。

        2016年1月20日,在京港澳高速河北邯郸段上,一辆特斯拉Model S轿车直接撞上了正在作业的道路清扫车,特斯拉的司机高雅宁当场身亡。

        在这起事故发生不久之后,特斯拉中国官网在2016年8月份将其“AutoPilot”系统的中文翻译从“自动驾驶”改成了“自动辅助驾驶”,并且在9月份对自动驾驶辅助系统作出了进级。

        虽然“自动驾驶”这项引领着将来的技术是由特斯拉带到量产车上来的,然而它的“自动驾驶”技术却也是最具有争议的存在。

        人们如果过度信赖这种随时有可能存在风险的所谓“自动驾驶”,那无疑是一种不尊重生命的愚蠢行为。

        车主上路实测特斯拉"全自动驾驶"撞上护栏

        车主上路实测特斯拉"全自动驾驶"撞上护栏,一名YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”套件并不像埃隆·马斯克所称的那样安全。车主上路实测特斯拉"全自动驾驶"撞上护栏。

车主上路实测特斯拉"全自动驾驶"撞上护栏1

        特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。

        不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的视频得到曝光,这被认为是FSD Beta版上线后的第一起事故

        从公布的视频看,这台特斯拉正常右转,然而转弯后路线发生了偏差,径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。

        好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。

       

        车主表示,已经将该案例上传到了特斯拉反馈部门

        值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。

车主上路实测特斯拉"全自动驾驶"撞上护栏2

        2月10日消息,名为AI Addit的YouTube用户提供了首份视频证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。

        AI Addit的视频是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。

       

        在视频中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。

        令人担忧的是,在视频中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。

        AI Addit的驾车视频长约9分钟,撞车事件发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在视频中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”

        马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的视频提供了证据,证明事实并非如此。在AI Addit记录的视频中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。

       

        FSD是专为特斯拉汽车提供支持的先进司机辅助驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。

        在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。

        在这段视频发布前不久,特斯拉被迫召回近5.4万辆电动轿车和SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。

        许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在视频的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。

        这段视频似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在视频中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。

       

        2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta计划。该计划只适用于该公司特别挑选的.特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。

        这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。

        FSD是特斯拉司机辅助驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的死亡事故,以及一系列非致命的撞车事故。

        尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。

        无独有偶,最新公布的监控视频显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。

        自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机辅助系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”

车主上路实测特斯拉"全自动驾驶"撞上护栏3

        1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过车祸意外或有人受伤,而同期美国则有20000人死于交通意外。马斯克转发了这条推特,并确定的说:“没错”。

       

        而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的视频博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按视频的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。视频当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,视频到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的车祸事故。

        当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即采取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。

        特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。

        除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。

        特斯拉的自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。

       

        FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,视频已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。

       

        2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。

        马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“

        一月中马斯克才刚称赞完 FSD Beta 自一年前计划开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。

        美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的辅助驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”

       好了,今天关于“特斯拉车祸再致命”的话题就到这里了。希望大家能够通过我的讲解对“特斯拉车祸再致命”有更全面、深入的了解,并且能够在今后的生活中更好地运用所学知识。