懂车帝高危大测试,绕不开的拷问:训练够吗?
近日,汽车界吵得最热烈的一件事,就是懂车帝的高速事故场景大测试。
此前,懂车帝联合央视新闻对36款主流车型的辅助驾驶能力进行了全面测试。在高速和城市两大场景的15项高危事故模拟中,2023款特斯拉Model 3和Model X以高速场景5/6的通过率位居榜首。而一众炙手可热的国产车型表现让人大跌眼镜,部分车型通过率低至1/6。特斯拉对此回应称:不关注排名,对安全的要求没有上限。而被测成绩不佳者分别在官方社交媒体账号发文称:已看到某平台所谓“测试”,不予置评,来表达说不出口的委屈。
当下,特斯拉坚持纯视觉方案。因为人类驾驶仅依赖双眼和大脑(神经网络)就能开车。特斯拉是通过海量用户车辆收集真实道路数据,不断优化神经网络,适应长尾场景。因为视觉系统更接近人类驾驶逻辑,只要AI技术够发达,深度学习模拟人类对复杂环境的理解就能完全做到。这意味着特斯拉早在10年前就已经笃定AI之路,而不是近年来的心血来潮。至于不用激光雷达能降低让成本,是原因但非主因。因为规模经济和摩尔定律之下,激光雷达越来越便宜是迟早的事情。特斯拉特别在于早早舍弃雷达的参与,连毫米波雷达都不用,但是在高强度钢上却毫不吝啬。
相比之下,众多车企采用激光雷达+多传感器融合策略,始终是舍不得雷达的好处。因为激光雷达可精确测量距离和形状。由于这种依赖是立竿见影的有效,所以并不需要在AI方面做到很强。谁知道一辆车的决策是靠雷达多些,还是摄像头强些呢?激光雷达的“安全感”,导致很多企业放缓算法优化,虽然口头都说拥抱AI、说算法、买算力。实际上,装上激光雷达,根本就不用去苦苦训练了。所谓融合效果如何只有企业自己知道。正如一个身高两米的中学生打篮球,大家就会说他厉害,而内行就知道他靠身高还是靠技术。
两条路线各有长处,但是当雷达和摄像头获取信息出现矛盾时,该叫互补、互相佐证还是叫打架?那么内部就得先PK再决策和控制。
只依赖视觉算法的进步,不断精益求精是可能缩小硬件差距的。这就是第一性原则,先果断减法,再在单一道路上越“加”越强。何况从芯片到算法全栈自研,还能避免多供应商协作的技术碎片化。如此也不必整合不同供应商的激光雷达、算法,不用担心兼容性。
只要认识到特斯拉以纯视觉、AI为灵魂的特性,就能理解本次测试为什么这么多“融合”派的车都直接水平跳楼。这是因为现实中的变量不是固定的,是立体来袭的。只有通过数百万辆车的长期真实行驶数据训练算法,对常见高危场景的识别和响应才更成熟。各种危险场景都被车队大量覆盖,算法通过OTA持续优化,那么才能应对懂车帝这些个案。如果训练不足、数据缺乏,那么急于求成的企业,就只能堆砌传感器和雷达强行控制。如此一来,不但成本居高不下,但是AI水平并未见长。毕竟,雷达再好也是不具备AI适应能力的,是分辨不出马路上塑料袋和石头之间区别的。
文 | 羊城晚报全媒体记者 戚耀琪
图 | 网络截图