快捷搜索:  汽车  科技

马斯克谈论科学家特斯拉(号称特斯拉FSD将免费试用)

马斯克谈论科学家特斯拉(号称特斯拉FSD将免费试用)表面上,一个月的免费体验是让客户尝鲜,然后吸引更多客户订阅服务,相当于免费试吃一口冰激凌来扩大销量。首先,FSD以深度神经网络为核心技术支撑,在技术上仍处于测试阶段,这就意味着它需要大量数据来训练,才能不断调优和升级。去年11月,马斯克宣布,特斯拉在北美地区正式开放FSD测试版软件,车主付费购买后就可以使用。在北美定价为1.5万美元或每月99-199美元。FSD行驶距离已超过1.5亿英⾥,2022年底用户规模已突破40万⼈。马斯克免费体验的说法没公布具体的时间计划,用户体验时一样要为交通事故负责任,也不代表能获得L3审批通过,所以有不少人认为马斯克又在画大饼。但重点是,画这个饼对特斯拉大有好处,免费体验背后的战略意图是加速训练自动驾驶系统,快速拓展FSD市场,乃至尽快拿下L3批准。

你好,我是王煜全,这里是王煜全要闻评论。

5月8日,马斯克发推文说一旦完全自动驾驶系统FSD运行得安全又流畅,未来将为北美所有特斯拉车主免费提供一个月的FSD试用服务。在其他国家的道路上运行良好并获得当地监管机构批准后,也会扩大应用范围。

FSD全称Full Self-Drive,是特斯拉驾驶辅助系统Autopilot的升级版,有自动驾驶导航、自动变道、自动泊车、自动召唤等功能。

虽然,FSD名义上叫“完全自动驾驶”,但实际上并不允许汽车完全自主,仍需要驾驶员时刻准备接管车辆。

马斯克谈论科学家特斯拉(号称特斯拉FSD将免费试用)(1)

去年11月,马斯克宣布,特斯拉在北美地区正式开放FSD测试版软件,车主付费购买后就可以使用。在北美定价为1.5万美元或每月99-199美元。FSD行驶距离已超过1.5亿英⾥,2022年底用户规模已突破40万⼈。

马斯克免费体验的说法没公布具体的时间计划,用户体验时一样要为交通事故负责任,也不代表能获得L3审批通过,所以有不少人认为马斯克又在画大饼。

但重点是,画这个饼对特斯拉大有好处,免费体验背后的战略意图是加速训练自动驾驶系统,快速拓展FSD市场,乃至尽快拿下L3批准。

首先,FSD以深度神经网络为核心技术支撑,在技术上仍处于测试阶段,这就意味着它需要大量数据来训练,才能不断调优和升级。

表面上,一个月的免费体验是让客户尝鲜,然后吸引更多客户订阅服务,相当于免费试吃一口冰激凌来扩大销量。

但深层原因是,如果北美每辆特斯拉上都使用FSD,即便只是一个月,也能收集大量的驾驶数据,尤其是不同城市场景下的驾驶数据,这就有很大价值,可以提升FSD的性能,加快FSD在其他地方的审批和推广。

但其实,L3最终能否审批通过,技术进步还是次要的,更关键的是标准的制定。

对监管机构来说,审批就代表要承担责任,所以最关心的是自动驾驶的安全性问题,需要建立相关标准。

可问题是,像国际自动机械工程师学会SAE制定的《驾驶自动化分级》等行业标准,只是从驾驶员介入程度和自动驾驶适用范围来划分自动驾驶类别。

简单来说,驾驶员负责大部分操作就是L1,在部分路段负责小部分操作就是L2,在部分路段可以完全不操作但要随时待命就是L3,在部分路段不操作也不待命就是L4,在所有路段完全放手就是L5。

但是,标准划分的等级只是分类而不是高低,虽然编号为0到5,但不代表L4比L3“更好”,而且除了“部分路段”这种模糊概念之外,标准中没有安全性的量化指标,自然也无法指导实际的分级考核。

也就是说,自动驾驶级别高并不代表安全性高,这就导致监管部门在参考类似标准时难以做出安全性评估,只能看重实际路测表现。

马斯克谈论科学家特斯拉(号称特斯拉FSD将免费试用)(2)

其实,特斯拉在推出FSD时就受到了安全性质疑,汽车教育合作伙伴联盟的Ed Niedermeyer说,利用未经培训的消费者在公共道路上验证beta级软件是危险的。

而FSD也确实出了问题,比如,由于不适应路况,它在曼哈顿运行中经常出现无法左转和在空地直接停车的情况,这进一步加重了监管部门对安全性的担忧。

因此,特斯拉尝试在北美进行大范围路测,可能是让自动驾驶系统学会处理更多实际问题,提高事故处理能力,更快获得监管认可。

但需要注意的是,路测也只能解决常见场景问题,却难以应对罕见场景。

罕见场景在现实路测中出现的概率比较小,但一旦出现,人工智能又没有经过预训练,就很可能发生事故。

人类驾驶员在学开车时,也只学了基本驾驶技能,没有做过事故处理训练,但是人有模糊推理能力,理论上有可能应对罕见事故。

虽然人也有人的劣势,有些交通事故恰恰是驾驶员处理不当造成的,事故给人的反应时间也就1-2秒,没经验的人很难应对。

也就是说,在很多常见事故场景,自动驾驶比大多数人类驾驶员处理的好。

但在没有针对性训练时,自动驾驶处理罕见事故的能力确实不如人类,而路测中罕见事故出现的概率本身就比较小,单纯靠路测也难以解决,这可能是监管部门审批缓慢的根源。

简单说,人的能力和人工智能的能力很不一样,不能用考核人的方法考核自动驾驶。要推动自动驾驶的商用,必须尽快建立针对自动驾驶的分级考核方法,而不是含糊不清的定义。

解决问题的方法之一是虚拟路测,马斯克也意识到这一点,他说FSD每天100万英里行驶数据远远不够,为了获得足够的潜在严重事故训练数据必须在模拟环境中训练它们。

但这可能不是一家公司能解决的问题,我在上周的科技特训营中提出一个思路,和大家分享。就是在自动驾驶评测中制定罕见事故处理能力评测细则,以量化指标来直观的评估自动驾驶的安全性能。

在实际操作中,可能需要企业与监管部门合作,对大量事故数据做统计分析,分级定义常见和罕见场景,然后用数字技术做场景还原,让自动驾驶系统在虚拟场景中训练,提高罕见场景的处理能力,并用同样的思路,基于自动驾驶系统对虚拟的罕见场景的处理能力来考核分级。

基本原理是:可以根据自动驾驶针对不同级别罕见场景的处理能力,来评估性能等级。比如,把能处理罕见性为100万分之10事故率的场景的自动驾驶系统列为1级,把能处理罕见性为100万分之1事故率的列为2级,等等。

同时,也可以和相关标准结合,形成更完备、更有操作性的行业规范,让自动驾驶企业有罕见场景可用,让监管部门有评测指标可依,让自动驾驶成为降低交通事故率的重要工具,为人们提供更加安全的交通服务。

马斯克谈论科学家特斯拉(号称特斯拉FSD将免费试用)(3)

目前,虽然很多公司已经在做模拟路测,也创建了大量虚拟场景,因为需要全产业协调和监管部门配合,虚拟场景的罕见程度分级和量化评估工作进展缓慢,真正推出规范化、可量化执行的认证体系尚需时日。

这就是我们一直呼吁的,中国在科技产业前沿已经取得了领跑资格,但还没学会领跑,要真正建立起强大的科技产业生态,必须学会产业的深度协同和规则制定,这样才能真正领跑产业。

以上是今天的内容,更多详细的产业分析和底层逻辑,我会在科技特训营里分享。欢迎关注全球风口微信号,报名加入!

王煜全要闻评论,我们明天见!

猜您喜欢: