自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?

汽车自动驾驶目前不能保证绝对不出错,出了错会产生因自动驾驶系统判断错误而导致的事故与人员伤亡。但是自动驾驶会降低汽车的总体事故率和人员伤亡数,比如(假设的数据)可以使汽车每十亿公里的重大事故率和人员伤亡数量分别降低25%和50%。也就是说因为自动驾驶自身不够完善导致20人死亡,但同时因使用自动驾驶在统计数量上又少死了20个人。 那么请问该如何评价和选择是否启用汽车自动驾驶功能?

假设数据具有「引导性」-问题不成立

  • 「自动驾驶系统」错误识别率与故障率有多高?

这一问题目前还没有准确答案,因为普及具备「L2级自动驾驶功能」的汽车占比极低,敢于正常使用这一功能的用户少之又少。至于所谓的“无人驾驶汽车”至少现阶段是伪定义,因为现行法规法律并不认可无人驾驶汽车的合法性;只有极少数《维也纳道路公约》的缔约国承认这种汽车,然而其机动车保有量与中国并不在同一量级,那么这种车到底能否降低交通事故率呢?

概率-极低
  • 「无人驾驶」汽车的真正测试方式是怎样的?

参考某地投入运营的所谓“无人驾驶出租车”,此类车每台车会配备一名「备用驾驶员」,其任务为自动驾驶系统失控后接管车辆;同时车辆还会配备一名「安全员」,任务自然是驾驶员接管车辆后辅助解决或记录问题。在测试过程中会出现多少问题,可以说这些企业100%不会公布准确数据,然而可以预测的是“系统鲁棒性”(robust)水平不会很高。

  • 知识点:功能限制

L2级自动驾驶功能的基础配置包括:主动刹车,自适应巡航,自动并线变道。汽车做出这些动作依靠的是传感器采集的道路信息,然而传感器的「错误识别率」似乎会很高。比如毫米波雷达在能见度低,或者空气中有飘散异物的环境中会错误识别,也许只是飘片树叶就会主动刹车。为了提升识别率又加入了激光雷达,然而这种雷达的探测距离太端,综合高速公路「150米」左右的理想安全距离而言,这一系统可靠吗?

自适应巡航系统在雨雪湿滑路面上不宜使用,包括最基础的「定速巡航」也是禁用的。因为ECU控制车辆加速到巡航车速,其过程会非常的“简单粗暴”,低转速高功率输出的高效加速是常态。而在湿滑路面上「大功率输出」时,车辆的转矩可以轻易的克服滚动阻力与摩擦力,车轮瞬间的打滑反而会造成车辆失控率的提升。而即使不考虑这些问题,有三位数的传感器与复杂控制程序组成的自动驾驶系统,在芯片板路老化或面对复杂路况时,稳定性与算力匹配吗?

真实路况-回到现实
  • 机动车
  • 非机动车
  • 行人

三类参与交通的车辆与行人总会产生冲突,即使机动车在自动驾驶系统的控制下会严格遵守交规,但非机动车横穿马力、逆行压线、占道行驶等情况,这些问题如何让电脑分析处理结果?按照规则可以撞击,从伦理的角度分析似乎可以让行;而人工操控车辆是可以避让的,那么产生的结果要如何面对呢?

特殊场景:礼让斑马线。在早晚高峰期时驾车通行,如果无人驾驶汽车严格按照交规通行,出现的场景100%是长时间停车让行,拥堵程度的加重是必然的结果。如面对不受交规的行人,行车电脑分析出的结果也许还会是碰撞。所以面对事实道路情况并综合系统与硬件的可靠性,无人驾驶汽车或自动驾驶系统的适用场景都太窄了;想要普及这种车辆首先要修改规则,在做不到各行其道、互不干扰之前,这种智能汽车必然会对道路安全起到反作用。

编辑:天和Auto

内容:共享天和MCN头条号

欢迎转发留言讨论,保留版权保护权利

自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?

题主问题问的很有深度,这是一个很值得深思的问题。

人类在出现紧急情况时,反映时间是0.05秒,而在这短短的反应时间内,可以发生很多事情,可能就错过了最佳的自救时间。

而自动驾驶技术的发展,特别是传感器、行车电脑的处理速度、机器学习、大数据等技术的提升,可以比人类在更短的时间内做出最佳的应对方案,得到最优解。

但设备毕竟是设备,电脑的应对方案,也是有设定逻辑的,如果设定的最优解是保护车主的生命,哪在某种特殊情形下,就有可能去牺牲其他人的生命或者利益。

这就上升到了人性、法律和道德的层面,就像是克隆技术的应用一样,世界各国都协议严禁研究人造人。

目前自动驾驶技术,大部分都在L2级别,特斯拉吹嘘了好几年的L3级,其实并没有达到,还无法做到完全不用驾驶员辅助驾驶。

机器也会犯错,而且可能会犯正常人不会犯的错误,比如前段时间特斯拉客户在使用自动驾驶时,车子径直撞向白色的卡车,原因是摄像头受到光线的影响,未有效识别卡车,这如果是人为驾驶,大概率是不会判断失误的。

国外有一些研究自动驾驶技术比较深入的公司,包括一些传统老牌车企,即使技术能无限接近L3,也不敢贸然宣称,毕竟现在各方面条件都还不成熟,包括相关的法律法规还不健全。

从大数据的角度来讲,自动驾驶技术的应用,的确可以规避很多以往无法规避的车祸风险,比如紧急刹车辅助的应用,可以大大减少高速追尾事故的发生。

相比较而言,在某种程度上,人工驾驶出事故的概率是要远远高于自动驾驶的,毕竟人类犯错的概率,较之机器而言,会受到更多因素的影响。

自动驾驶是大趋势所在,随着5G技术出、大数据、车联网的普及,机器学习的效率会越来越高,数据处理能力也会越来越强,虽然始终无法避免设备出错导致事故的发生,但可以不断改进优化,从而降低风险。

每一项新科技新技术的到来,都需要时间和无数次的经验积累,与其退却固步自封,不如勇敢面对,持续提升。

自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?

你的这个问题很有深度,直接切中个人利益与社会整体利益矛盾,目前这样的法律道德的矛盾还在探讨,没有绝对的答案,可能随着自动驾驶车子越来越多,大家自然而然接受自动驾驶了,那个时候也许这样的灵魂发问就有了答案了

自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?

谢邀

人类对自动驾驶的渴望从汽车诞生以来就没有停止过,在无数科幻作品中,无人驾驶的汽车运载着乘客们到达世界每一个角落,而由于自动驾驶技术的发展,车祸与事故也成为了历史课本当中的名词。然而,现在并不总是像科幻作品那么美好,尽管人类在自动驾驶的脚步上不断探索,现在的辅助驾驶技术也能够在很大程度上帮助驾驶者去控制车辆,然而驾驶辅助系统依旧无法避免事故的发生,甚至在很多时候驾驶辅助功能还会成为车祸的“罪魁祸首”,那么在这样的情况下,我们是否应该继续发展驾驶辅助功能甚至是自动驾驶呢?

历史的每一步进程都会遭遇当头一棒

历史从来都是很残酷的,这一点已经被无数的事实所验证,每当人们觉得已经取得了突破的时候,现实总会告诉你,你离成功还有很远。在不久之前,台湾发生了一起诡异的车祸,一辆白色大货车侧翻在了高速公路上,而一辆与之相距甚远还有一定安全距离的特斯拉Model 3却径直撞了上去,事故造成Model 3车身较为严重的损害,所幸由于大货车的车厢内装载的是奶油状物质,因此可以给予Model 3很好的缓冲,所以Model 3的驾驶者并无大碍。而根据驾驶者透露,当时他的Model 3正开启着Autopilot功能。

事实上,这位驾驶者已经算是众多特斯拉车祸驾驶者当中最幸运的一位了,因为早在2016年,在美国就有一位驾驶者,他的特斯拉当时也开启了Autopilot功能从在主道上正常驾驶,而偏巧对面主道有一辆白色大卡车左转下主道,这个时候特斯拉并没有减速,而是直接全速撞向了货车的车厢侧面,特斯拉驾驶者当场身亡。从个体角度来讲,这些遭遇车祸的驾驶者无疑是悲惨的,而对于整个行业来说,这每一次事故都是一次对那些向着未来科技冲击的科研人员和厂商的打击。

在这次的台湾Model 3事故之前,很多人都认为特斯拉的Autopilot驾驶辅助功能已经是某种意义上的“自动驾驶”了,但是这次事故将人们一棍子打醒——即便是目前在这方面走得最靠前的特斯拉,也只是驾驶辅助,最终的驾驶者还是坐在方向盘后面的人。因此在现阶段,每一次车祸的责任都是由人类驾驶员负责,这一点和几十年前没有什么不同。

但是另一方面我们需要说明的是,现阶段的驾驶辅助技术的确在很多时候帮助提升了车辆的安全性,在驾驶者没有注意到或者是走神的时候帮助避免了很多可能到来的车祸,因此,在我们合法合规的使用驾驶辅助功能的前提下,现在的驾驶辅助技术是能够帮助降低车祸发生的概率的,车辆的主动安全配置也几乎是利远大于弊的。

自动驾驶技术依旧是汽车行业的未来

回到我们刚刚说的特斯拉车祸上来,只要稍微了解一些行业新闻你就会知道,这次事故并非是特斯拉第一次发生类似的事故,在特斯拉大规模量产的几年当中,类似的事故屡有发生。而这些事故都有一些相同点,那就是几乎都是白色大卡车,而且这些大车的速度都比较慢,有些甚至是静止的。

那么为什么这种情况特别容易造成AP系统的误判呢?这主要是由于目前的AP系统主要是依靠一套视觉方案来感知外界,也就是摄像头为自主,毫米波雷达为辅的传感器组合。这套方案最大的好处就是成本低廉,但是最大的问题就是摄像头对于外界的感知非常被动,它只是传回图像,通过车载系统的计算单元识别之后才能分辨前方的路况究竟如何,而系统只有在经过大量学习之后才能进行相应识别。

如果在系统学习的时候没有遇到过这种情况,那么系统将无法判断前方路况,换言之,在系统和摄像头眼里,前面横贯在路面上的白色卡车车厢就如同一片白茫茫的雪地一样,那么这个时候车辆自然判断这是安全的无需减速。而另一方面,尽管车辆也搭载了毫米波雷达,但是毫米波雷达只对运动的物体能较好识别,但对静止的物品识别能力很弱,因此也就造成了车辆在面对这种情况的时候无能为力的局面。

那么现阶段的技术水平能不能做到避免这种情况呢?事实上还是有的,那就是采用激光雷达。然而在目前,激光雷达的成本实在是太高了,一套激光雷达的成本甚至能高达2万美元,而一辆特斯拉Model 3现在的售价不过只有4万多美元,很明显,激光雷达对目前的车辆来说还是太贵了。

但从科技发展的历史来看,很多现在成本很高的东西在以后甚至是在不久之后成本就会快速下降,我们现在生活中以及离不开的液晶屏幕就是一个很好的例子。因此对于未来来说,自动驾驶依旧是我们追寻的方向,包括激光雷达在内的众多技术也一定会在时机成熟的时候搭载到未来的车型上。

当然,电脑和人脑一样都会犯错,尽管当下的电脑比人脑犯错的几率已经小得多,但是我们不可能保证电脑永远不出错,当车载电脑遇到这样的问题,那很可能带来的就是交通事故的发生和人身安全的受损,这是我们回避不了的道德问题,但是如果自动驾驶技术的应用能够让每年死于车祸的人比从前大为减少,车祸发生率也比现在低得多,那我们为什么不去采用呢?因此,无论是从技术层面还是从道德层面,当下事故的发生都阻止不了我们继续探寻自动驾驶技术的步伐,未来也终有一日会出现曾经科幻作品当中的场景。

自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?

自动驾驶目前还没有完全成熟,如果成熟了,自动驾驶不会违章,不会酒后、疲劳驾驶,也不会路怒症,不会飙车抢道,目前车祸事故90%是人为原因。所以道路上如果全部都是自动驾驶,事故率会比人驾驶事故率低10倍,每年全国减少交通事故伤亡近10万人。我愿意接受成熟的自动驾驶车辆。

自动驾驶会出错死人,但整体会降低事故率与死亡率如何评价?

谢邀

要搞清楚这个问题,那就得先分清楚对人来说最重要的是什么?当然毋庸置疑——生命

自动驾驶目前的确因为技术的不成熟发生过一些事故,具体事故就不举例了,但从自动驾驶的现阶段发展的现状以及未来的实用效果来看,车企投入研发资金和人力是正向的。毕竟目前的自动驾驶才发展到L3级(关于详细的自动驾驶解释可以查看账号主页),已经能够降低交通事故率和死亡率,换句话说也就是已经得到了比较客观的效果,从整体上已经在控制了交通事故的发生和避免了生命的不幸,所以这个自动驾驶是应该得到市场的拥护的。

举个例子,就像在研发核爆炸之类的重大工程上,即是知道某些物理材料能够让研发人员换上癌症的概率大一些,但为了国历的强大和危机时刻保护家园,这一切都是值得的。

所以自动驾驶即是目前因为一些事故让大家寒颤,但未来是能够帮助人类的,也是能够让人类进步的,很有可能未来在大数据和云技术的发展下,汽车全部自动化,没有一起交通事故发生也不是没有可能的。

码字不易,请多关照,谢谢~

内容仅供参考,如果您需解决具体问题(尤其法律、医学等领域),建议您详细咨询相关领域专业人士。

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请与我们联系,我们将及时删除。

相关推荐