快捷搜索:  汽车  科技

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)真想说清楚Autopilot是否安全,那还得拿出实锤的证据。如果光靠辩论就能够获得思想进步,那人们就不需要从事科学研究了。作为旁观者我们发现,几乎历史上所有的辩论都只有一个目的:赢得尊严。而这一次也不例外。如果你聊:对AI进行真实路况的数据训练有没有比SLAM更好的基础?CNN在融合激光雷达和摄像头信号上的应用与冲突判断?那么别人会给你一砖头让你滚;但如果聊一聊无人驾驶里最浅显的道德困局:一条牧羊犬和一条贵妇犬到底先撞哪一个?那么爱狗的和不爱狗的,就会在帖子下开始对骂起来。

们生活的世界里有一个悖论,你很难正面证明一件事情,却很容易靠个例来否定一件事情。

因此你很难认定TeslaAutopilot是否真的安全。而一旦Tesla站出来高调宣扬我有多么的安全,必然会立刻被打脸。于是就有了下面的这个故事:

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(1)

真要说起辩论,它往往跟探寻真理无关。

作为旁观者我们发现,几乎历史上所有的辩论都只有一个目的:赢得尊严

而这一次也不例外。

如果你聊:对AI进行真实路况的数据训练有没有比SLAM更好的基础?CNN在融合激光雷达和摄像头信号上的应用与冲突判断?那么别人会给你一砖头让你滚;但如果聊一聊无人驾驶里最浅显的道德困局:一条牧羊犬和一条贵妇犬到底先撞哪一个?那么爱狗的和不爱狗的,就会在帖子下开始对骂起来。

如果光靠辩论就能够获得思想进步,那人们就不需要从事科学研究了。

真想说清楚Autopilot是否安全,那还得拿出实锤的证据。

斯拉对自家Autopilot的安全性评估一直讳莫如深。

即便象征性地公布了三个季度的安全报告,却也并不能证明什么——因为报告里只有两个数字跟结论,别人根本就没法拿来复盘并解读,因此其权威性也打了个折扣。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(2)

▲ 聊胜于无的安全报告里,特斯拉展示了,开启autopilot的平均无事故间隔里程比不开启autopilot明显增加。

特斯拉们常常这样声称:大多数碰撞都是驾驶员的对自动驾驶功能的误用导致的,因此所有无法解释的碰撞都是人类驾驶员的错误操作导致的。

特斯拉Model 3用户在激活Navigate on Autopilot时会看到如下提示:

“在Autopilot上启用navigate没有让你的Model3完全成为无人驾驶,与其他Autopilot功能一样,驾驶员仍需始终对行车安全负责。”

这种无意义的循环论证逻辑并不鲜见。翻阅卷宗,1989年针对Audi 5000s的油门失效的分析报告,也有着类似的说辞。——驾驶员要为事故承担责任。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(3)

无独有偶,2010年,NTHSA(美国高速公路安全管理局)针对丰田刹车门的分析报告里也如此推理:

我们没有发现任何机械故障! 因此这是驾驶员的错误!

我们无法再现这个场景!因此这是驾驶员的错误!

结论:踏板误用是事故的根本原因!

看来辩论用的无脑逻辑,大家都心知肚明。

不过这世界从来都不缺救世主,一旦他们横空出世,必将打碎旧世界的枷锁。

教训丰田的人叫Philip Koopman,是我们之前刹车门故事里的主角。

教训特斯拉的也不乏破局者,这次是美国的QCSC(Quality Control Systems Corp),故事里还有一位律师主角:David L. Sobel,正是他据理力争,伸张信息自由法案(FoIA)权力的正义,才让我们一睹这份珍贵的报告。

看来美国人骨子里真的喜欢做英雄。

这场旷日持久的论战整整延续了677天

直到2019年2月7日,才有一份确凿的报告出炉,人们才真正对Tesla的安全水平有了一个初步的看法——更确切地说,颠覆了三年前NTHSA对特斯拉Autosteer(Autopilot的一个功能模块)安全能力的正面看法。

为什么是三年前呢?

很简单,谁让你们NTHSA(怎么又是你?)这么能拖呢!

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(4)

回到事件尘埃落定的三年前,NTHSA最初的报告显示:通过统计43781台2014-2016年型的特斯拉Model S和X数据,发现自2015年10月Autosteer功能加入后,特斯拉事故碰撞率降低了40%之多。

为什么NTHSA在2017年要做这样一份调查呢?追根溯源,起因还是2016年5月7日,佛罗里达州发生的一起autopilot致死事故。

这份发表于2017年1月19日的报告消解了民众的担忧,但也引起了QCSC的关注,他们想知道数字背后的逻辑。可谁能想到,这一查就是2年的时间:

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(5)

NTHSA:Tesla安全性提升了40%!(2017年1月) QCSC: 我要看数据!(2017年2月) NTHSA: 别急,我们会给的!(2017年3月) QCSC: 这都4月份了(2017年)! NTHSA: 这事没戏! QCSC: 法庭见! NTHSA: 给!不谢!(2018年11月) QCSC: 你看,碰撞率增加了59%!跪下唱征服!(2019年2月)

QCSC重新查阅了Tesla提供的关于Autosteer里程的数据,并真的找到了NTHSA的硬伤,NTHSA的确犯了重大的低级错误。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(6)

影响结论的关键里程数据按时间顺序列出一共有三类:

  • 确定的Autosteer功能加载前存储的里程记录(Miles before Autosteer)
  • 不确定的Autosteer是否加载的行驶里程(Miles Mixed)
  • 确定的Autosteer加载后存储的里程记录(Miles after Autosteer)

关于第二类数据,由于Tesla只能统计备份时的里程,却无法判断两次备份期间OTA升级Autosteer的确切时间,因此总是有一部分里程无法判断应该分在Autosteer升级之前还是之后。

更麻烦的是,这三类数据也并不完全,通常还会缺失一项或两项。

但这难不倒QCSC,他们将这4万多台车按照三种里程信息的缺失情况,将数据分做了四类。四类当中只有一类是可以直接比较碰撞率的,这一类里,Autosteer的OTA升级几乎是即时完成的,对照升级前和升级后的行驶里程便可以算出碰撞率。

这一类的样本总数为5714例,正是这5714例数据(而不是NTHSA不加审查的43781例)告诉我们,Autosteer升级后的碰撞率增加了59%(每年每百万台0.76起上涨到1.21起),而不是减少40%。

来我们知道,特斯拉在2014-2016年间,曾对Autopilot进行了激进的升级,从Autopilot1.0 Mobileye的技术切换为2.0的Nvidia PX2平台,2016年10月2017年3月,Autopilot2.0才勉强追平了1.0所能达到的能力,2.0的成熟期跨越了近半年时间。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(7)

我们有理由认为,在此期间,特斯拉Autopilot安全水平并不稳定。

我们最感兴趣的是,跟同级车比起来,特斯拉的安全水平如何呢?是否可以被量化呢?

答案是肯定的。

美国公路安全保险协会IIHS的数据就能告诉我们答案。

IIHS是一家汽车保险人成立的非盈利组织,IIHS曾经使用NHTSA的FARS系统(致死分析报告系统)的死亡率数据,并计算美国每一个车型的驾驶员致死率。数据是按照车型来分类的,数据单位是每年每百万台汽车的死亡数,这个数据目前更新到了2016年。

致命车祸是罕见的二元事件:司机要么挂,要么没挂——这很便于比对,因此这个数据也是我们评估特斯拉Autopilot安全水平的基础。

在解读数据之前,我们必须要提前引入一个统计学概念:置信区间——他是表示真实总体可能值范围的概念。而样本的数量越多,我们的估计就越准确。

例如,IIHS报告说,奥迪A6 4WD在101164(每年*每百万辆)中有0人死亡,但并不意味着真实情况就是这样。我们需要计算95%的置信区间,结果是0到36。

这代表着,根据这10万多个案例推算,我们可以95%地确定,真实的奥迪A6四轮驱动汽车导致司机死亡的事故发生率(每年每百万辆)应该在0-36起之间。

其余同理。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(8)

在这个分析里,我们还计算了三大德系品牌的致死率,以及所有大型豪华车的致死率(囊括奔驰E,宝马5,Audi A6,现代Genesis等),并与特斯拉Model S和Model X做了一个对比。

结果发现,所观察到的大型豪华车的IIHS死亡率为每年每百万辆7人。95%的置信区间是3-13人。如果看德系三大品牌,所有三个德国品牌的司机死亡率都相似,从奥迪和宝马的每百万车年10人死亡到奔驰的每百万车年12人死亡。

那特斯拉呢?这是路上最安全的车吗?

是不是比平均水平高4倍呢?

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(9)

按照特斯拉某季度发布的安全报告数字来看,特斯拉应该有这个底气:

“根据国家公路交通安全管理局的说法,在2017年,每8600万英里就有一次汽车死亡事故。特斯拉每行驶3.2亿英里出现一次。”

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(10)

然而,遗憾的是,这段话里,只有前半句的数据(8600万英里)是NHTSA给出的,后面的那句话的数字(3.2亿英里)则是特斯拉自己加进去的,NTHSA对此并不知情。

以上分析表明,特斯拉2014-2016年交出的成绩单并不咋地:

265290车辆年数里有11人死亡,驾驶员死亡率高达每车每百万英里41.46,这是奥迪和宝马的四倍,是所有豪华车的三倍多。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(11)

单从这个比较上看,特斯拉好4倍谈不上,差4倍倒是绰绰有余。

当然,我们的这个分析也是可疑的:

核心就在于,我们能够得到的数据描述非常粗糙,我们不知道大多数汽车实际行驶了多远——这就是为什么IIHS使用“车辆年数”这个可疑的全新计数单位来进行计算;我们还不知道这些车辆年数里有多少比例是激活Autopilot后碰撞的;我们也不知道这些车辆有多少比例一直在路上行驶,或是报废……

我们不知道的还很多。

单拿特斯拉跟德系豪华车和大型豪华车比较的最重要的考虑,此前38号车评的李天扬也已经指出了:昂贵汽车的构造和安全特性,车主的驾驶习惯和驾驶环境,与普通汽车相比会更加优秀,因此特斯拉自己一言堂的比较方法有失偏颇。

虽然这里的计算也带有不少的假设条件,但至少要比特斯拉不分级别一锅出的平均数要好得多。特斯拉对安全数据讳莫如深的现实面前,我们一点微小的进步也应该算是值得展示的成果吧!

不管怎样,马斯克断言特斯拉是道路上“最安全的车辆”“比平均水平高出四倍”的说法都要被打回原形重新商榷。

斯拉一直说,我们的安全性比人类驾驶员更加优秀。

但就算是这样政治正确的说辞,也备受质疑。特斯拉两度被美国非营利的《消费者报告》点名,这当中就包括2018年10月特斯拉刚刚投放的Navigate on Autopilot

去年,《消费者报告》将通用汽车的Super Cruise列为自动驾驶系统排名中的第一名——并评价它是在技术能力和确保驾驶员注意并安全操作车辆之间取得平衡的最佳选择。特斯拉在排名中靠后,并不是因为它的能力差,而是因为Autopilot很容易被误用。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(12)

这之后,美国消费者权益组织曾呼吁特斯拉限制Autopilot的使用,并安装一个更有效的系统来确保驾驶员集中注意力,这一呼吁用以回应国家运输安全委员会针对2019年3月在佛罗里达德拉海滩发生的一起特斯拉与半挂车致命碰撞事故的关切。

据悉,那台特斯拉Model 3在碰撞的10秒钟之前打开了Autopilot。

第二次批评,消费者报告则重点针对特斯拉的Navigate on Autopilot,他们认为:自动车道变换功能“远远不如人类驾驶员”。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(13)

该系统被特斯拉吹捧为一种减少压力和提高安全性的方法。但在实践中,消费者报告的汽车测试高级主管Jake Fisher却发现,该系统偶有惊人的行为。

强行变道右侧超车便是当中最无法令人理解的,驾驶员不得不经常接管Autopilot以防止系统做出糟糕的决定——尽管特斯拉布置了三个后置摄像头,但却未能比普通驾驶员更好地检测后方快速逼近的物体。

虽然在Autopilot上开启导航是一个微妙的改进,但却是很大的一个跨越:这把特斯拉从一种被动的运输工具(有助于缓解公路交通压力)演变为一种更积极,甚至是有时过于积极地参与驾驶的智能机器。

此外,Jake Fisher还发现,在正常超车后,Autopilot也不会引导车辆再次回到右侧的车道——这在部分地区可是驾驶违规行为。

“从本质上讲,系统可以完成任务,但是当事情变得更加复杂时,人类需要进行干预。”

这反而让驾驶这辆汽车的体验变得不那么令人愉快。自动换道对特斯拉汽车爱好者来说可能是一个有趣的功能,但这个功能带来的并不总是惬意的驾驶。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(14)

Navigate on Autopilot会不会成为另一个Autosteer的故事呢?

特斯拉越来越像一个负面的典型,在通往自动驾驶汽车的道路上不断做着不该做的事情:发布越来越多未经适当审查的自动驾驶系统。

在销售这些系统之前,特斯拉应向公众提供经过验证的确凿证据,证明该系统的安全性,而不是在市场里经受各种各样舆论的质疑,甚至是潜在的牺牲。

为什么特斯拉可以这样为所欲为呢?似乎特斯拉正在钻政策的空子,将Navigate当作导航系统来销售和使用——州法律对此并没有严格的安全要求。而自动驾驶汽车上路测试之前往往要取得州牌照的认可。

人们通常认为,成熟的自动驾驶技术由以下几个部分组成:

  • 自动驾驶硬件
  • 专利与知识产权
  • 人工智能专家
  • 自动驾驶源代码
  • 道路驾驶数据(用于机器学习)

无人车风起云涌的世界里,争夺最火热的往往是数据,人才,专利,代码,它们的流动性都非常强。大量的收购行为直奔这些流动要素,至于收购以后原有已经开发出的产品和技术则往往被束之高阁或惨遭遗弃。

与之相比,似乎最容易带来与众不同的就是硬件本身了,这是企业最为独特的资产。

在Autopilot的硬件发展上,特斯拉一直走在前面。特斯拉在硬件之路上狂奔,给人以进步飞快的感觉,可真实的产品力又如何呢?

市场研究公司ABI Research的汽车分析师Shiv Patel也认为,尽管人们普遍认为特斯拉在自动驾驶方面领先于其他汽车制造商,但那主要是硬件的贡献。

这背后的潜台词是:当前的硬件并不具备支持全自动驾驶所需的计算能力。

过于追逐硬件和算力通常就意味着战略上的偷懒,核心问题在于,在消耗算力的无人车感知层面上,我们还缺乏意义重大的创新性成果。

时至今日,自动驾驶技术仍然处于研发和验证阶段,尚未达到大规模应用甚至盈利的水平。

今年四月份,特斯拉就推出了自研的AI芯片,马斯克还表示,到2020年,还将推出更高级的硬件。在Autopilot的开发进程上,马斯克一直以来都超级乐观。他曾表示:

“打造全自动驾驶车辆的难度比人们想象的容易的多,我们只需2年就能解决这个问题。”

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(15)

据内部消息人士透露,马斯克在公司内部一直开发进展感到不满,对一些员工无法在规定时间内完成这项技术的开发感到生气。与此同时,三年间Autopilot团队也经历了多轮离职潮,我们有理由怀疑,马斯克是否低估了自动驾驶的开发难度?

于无人车安全,人们最关注的问题无非是:

谁家的无人车更安全? 谁在制定安全标准? 谁在运用标准进行测试? 谁来评估无人车的安全性? 我们能相信评估报告吗?

这五个问题也始终困扰着我——与此同时,Philip Koopman 教授(没错,又是他)已经深入思考这些问题很久了。

在Koopman看来,不论是现有的功能安全(ISO26262),还是预期功能安全(ISO/PAS 21448),都是基于有人类驾驶的汽车而制定的标准,可真正的无人车,不管是Robocar还是Robotaxi,所需的技术都超出了这些安全体系的范畴。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(16)

安全体系应该还需要围绕安全用例来构建——这就好比你的开发文件塞满了一整个文件柜,需要合理地梳理并归档这些文件,从而确保所有的项目都被测试过没有遗漏。

这便是全新的标准UL 4600,在Koopman看来,做为补充,它没有必要像功能安全ISO26262,或SOTIF预期功能安全ISO/PAS 21448一样,以经典的V模型出发搭建理论框架。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(17)

对于从来不配备激光雷达的特斯拉而言,UL 4600并不会强制他加上激光雷达,而是会要求特斯拉提出安全用例,有效证明“限定环境下根据预期的操作(即设计运行域),所安装的任一形式的传感器都能够成功地检测和分类目标物体。”

简单说来就是:你可以使用任意的技术或开发流程,但如果你不进行完善的测试,我就不会相信你。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(18)

不论是“蛮力训练”还是“高难度场景加权训练”,伴随汽车路试里程的增加,都会遭遇理论的天花板,无法达成既定的安全目标。

“故障注入训练”,或者“压力测试”,则能够显著提升训练的效果,提升训练的质量——而这正是UL 4600安全用例体现作用的方式——它帮助我们建立了更加全面的测试观,而不仅仅是关注开发模型本身。

宣称进行多少英里的道路测试不具价值,因为那还是蛮力思维。真正重要的是测试覆盖率——供应商必须能够能够证明“联合分析,仿真,封闭路面测试,公共路面测试,使得针对汽车初始状态和之后的每一次软件更新,都能够达到可靠可接受的安全水平。”

这段话直击特斯拉的痛点。

虽然特斯拉已经交付了50多万辆带有Autopilot的车型,并积累了几百亿英里的行驶里程,但仍然缺乏行业领先的核心要素——深入骨髓的安全文化。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(19)

摩根士丹利认为,特斯拉的自动驾驶技术能占到特斯拉总市值的五分之一。总市值按420亿美元计算的话,以Autopilot 为代表的自动驾驶技术就大概价值85亿美元。

排在它前面的是通用Cruise的190亿美元和Waymo的1750亿美元,为什么比特斯拉高这么多呢?看到这些数字的时候,他们究竟代表了什么?

仔细思量,我们就会意识到,估值唯一不变的基础在于,各家未来是否可以拿出真正的自动驾驶产品,他们是否安全成熟,而这才是价值所在。

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(20)

不管到哪儿,我都要套用那个公式。 我会保守好秘密的。 很简单的算术。 应用题。 如果一部我们公司生产的新车以每小时60英里的速度驶离芝加哥,后桥差速器锁死,汽车撞毁,所有的人都被困在里面活活烧死,我们公司要不要启动召回呢?你把已经投放市场的同型号汽车总数 (A) 乘以故障率(B) 然后乘以庭外和解的平均费用(C). A乘以B乘以C等于X. 这就是我们不启动召回的代价。 如果X大于召回成本,我们就把汽车召回,就没有人会再受害了。 如果X小于召回成本,我们就不召回。 这种事故很多吗? 多到你无法想象。 你在哪家汽车公司工作? 恩,一家大公司。 ——《搏击俱乐部》 1999

年5月份,有消息称,特斯拉将适时推出一份特斯拉保险产品。

马斯克表示:

“如果潜在的特斯拉客户想购买特斯拉保险,他们一定不能疯狂地驾驶汽车——否则保险费率会更高。”

干得漂亮!将安全变成一门生意,摆脱诉讼的困扰,这的确是一个天才的想法!

特斯拉autopilot最新消息(黎明前的抉择向AutoPilot开炮)(21)

甘地不愿杀人。如果你给甘地一颗能让他杀人的药丸,他不会吃,因为他知道,吃了药自己会想杀人,而此刻的自己并不想杀人。

我绝对认为,人类应当开放而谨慎地研究无人驾驶,这里的“开放”,指的是,积极地拥抱质疑才能提升自我。这里的“谨慎”,指的是,要比应对埃博拉病毒或放射物钚更加一丝不苟。

特斯拉你说呢?

特邀撰稿:徐鸿鹄 现就职于某德汽车钢铁集团,负责电动转向系统技术开发与项目管理。

汽车行业十余年从业经验 ,研究侧重点主要为底盘电控系统,自动驾驶等。关注历史,经济,艺术,热爱物理,科学哲学。跨越藩篱,看见世界,面对未知,感受成长。

猜您喜欢: