马斯克一次放12000个卫星吗:马斯克割掉了最后一颗雷达
马斯克一次放12000个卫星吗:马斯克割掉了最后一颗雷达纯视觉还是多传感器融合?如今马斯克丢掉最后的超声波雷达,实现纯视觉终极方案,再度引发关于两个不同路线方案的讨论:毋庸置疑,相较于特斯拉这一“剑走偏锋”的纯视觉思路,国内众多车企都还是坚持多传感器融合,摄像头和雷达一个都不落。比如小鹏,其最新旗舰车型G9就搭载了2个激光雷达、12个超声波传感器以及12个摄像头。再如蔚来ET7,身上更是有1个超远距激光雷达、5个毫米波雷达、12个超声波传感器以及14个摄像头。
当然,已售车辆的超声波雷达及其相应功能不会被停用。
针对这一操作,不少人可能会想起去年特斯拉在去掉毫米波雷达后,新增的不少幽灵刹车事件,不由得担心这次又会出什么问题。
不过,特斯拉有特别说明,超声波雷达的剔除不会改变特斯拉的碰撞安全评级。
而在今年CVPR中,特斯拉公布了一个新算法:Occupancy Networks,据称可以理解车身周围物体占多少空间,以及预测接下来行动轨迹和占用空间,代替雷达感知避免纯视觉方案的盲点(Corner Case)等问题。
多传感器融合还是纯视觉?毋庸置疑,相较于特斯拉这一“剑走偏锋”的纯视觉思路,国内众多车企都还是坚持多传感器融合,摄像头和雷达一个都不落。
比如小鹏,其最新旗舰车型G9就搭载了2个激光雷达、12个超声波传感器以及12个摄像头。
再如蔚来ET7,身上更是有1个超远距激光雷达、5个毫米波雷达、12个超声波传感器以及14个摄像头。
如今马斯克丢掉最后的超声波雷达,实现纯视觉终极方案,再度引发关于两个不同路线方案的讨论:
纯视觉还是多传感器融合?
前者的反对者依然不少。最绕不过去的,就是安全问题。
比如面对摄像头上有污点这种情况,知乎网友@高岩就拿“人眼”做比喻,称虽然说人眼被挡住一只还能正常走路,但对于机器来说,这需要消耗巨大的算力来识别、判断,而且有很大概率无法判断导致退出自动驾驶条件,或者它还可能直接把黑点当作污染或者干扰因素过滤掉,保证自动驾驶能继续执行。
他指出,这就是为了易用性牺牲安全性,保证更好的自动驾驶体验。
或者更直接一点,有人指出马斯克这波“减配不减价”的操作,就是为了省成本。
(粗略估计一下,这一车能至少省出500块。)
这一点上,有不少中外网友所见略同:
当然,支持马斯克的声音自然也有。
有观点称:
特斯拉本来就是主视觉,依次去掉毫米波雷达和超声波雷达都是顺理成章的事儿,说明其算法、模型等已经达到了新高度。
就光说这次的超声波雷达,知乎网友@EatElephant就认为,它只是一个相对较弱的辅助驾驶传感器,无法准确确定障碍物位置。
再加上得益于最新的Occupancy Network出色的能力,最新版本的FSD已经能非常准确识别周围物体的远近与形状了,所以去掉也无妨,并且可能还不会和上次取消毫米波雷达时一样出现“磨合期”。
对于纯视觉方案不靠谱这一观点,有人则搬出这样的观点,称:
国内的多传感器融合的方案在实质性上并没有在量产大规模推送的功能上证明自己的能力更好。
当然,持这个想法的人还是相信多传感器融合的方案的上限一定会高于纯视觉方案。
不过,到底谁更好,正如前面的网友所说,这是一个路线之争,争来争去没有用,还是看实际效果吧。
那么问题来了:
谁愿意做纯视觉方案的第一批测试者呢?(狗头)
参考链接:
[1]https://www.zhihu.com/question/558212074
[2]https://zhuanlan.zhihu.com/p/35177313
[3]https://mp.weixin.qq.com/s/9gFAnEldiGevslxSkRsyOw
[4]https://arstechnica.com/cars/2022/10/after-cutting-radar-tesla-now-dropping-ultrasonic-sensors-from-its-evs/
[5]https://www.vzkoo.com/read/202207125c76d0078c69f9a464451f58.html
[6]https://www.dongchedi.com/article/7124852439500456456
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态