特斯拉要实现完全自动驾驶,即SAE L5级别,仅依靠纯计算机视觉(CV)技术目前是不可行的。
现在特斯拉的自动驾驶介于 L3,L4 之间,但是从 L2到L3,就是把驾驶事故的责任完全转嫁到自动驾驶的车企上了,所以马斯克死也不承认他的自动驾驶技术已经介于 L3 and L4.
L2:出事故:责任完全在司机
L3:出事故,主要责任在车企
仅依靠纯计算机视觉(CV)技术目前是不可行的。下面是我认为的三个核心原因。
感知局限性
纯视觉系统存在固有的技术局限性,使得其无法在所有环境下都可靠地感知世界:
-
对环境的依赖性高: 像人眼一样,摄像头依赖光线。这意味着纯视觉系统在恶劣天气(如大雨、大雪、浓雾)和弱光条件下(如夜晚或太阳眩光)的感知能力会显著下降,甚至完全失效。报告指出,即使是脏污的摄像头镜头也会影响系统性能。
-
深度和距离测量不精确: 与激光雷达或毫米波雷达不同,摄像头很难精确测量物体在远处的距离和深度。虽然可以通过训练神经网络来推断,但这种推断缺乏其他传感器固有的硬件级精度,无法满足L5级别系统所需的普遍可靠性。
-
缺乏冗余: 纯视觉系统缺乏传感器冗余,这意味着一旦摄像头系统因任何原因(如光线、天气或硬件故障)失灵,就没有其他备用传感器来提供安全保障,这会带来灾难性后果。
“边缘案例”困境
即使拥有海量的真实驾驶数据,也无法解决自动驾驶面临的“边缘案例”问题,而L5级别系统必须能处理所有情况:
-
数据驱动模型的根本局限: 纯视觉系统只能从它所接触过的数据中学习。尽管特斯拉拥有数十亿英里的驾驶数据,但这仍然是有限的、历史性的记录。系统无法为它从未见过、不可预测的突发事件做好准备,而这是任何数据驱动模型的根本缺陷。
-
无法应对“新颖”场景: L5级别的系统必须能够处理任何可以想象到的场景,而不仅仅是常见的场景。依赖历史数据训练的系统很难为前所未见的复杂情况做好准备。
监管和法律鸿沟
特斯拉在推广其纯视觉技术时面临监管和法律上的挑战,这暴露了其技术与实际能力之间的差距:
-
品牌命名误导: “全自动驾驶(Full Self-Driving)”这样的名称会给消费者带来一种虚假的安全感,让他们误以为系统可以处理所有情况,从而导致危险的过度依赖。特斯拉将系统官方归类为L2级别,这与它所宣传的能力相矛盾,也让它得以规避更高级别自动驾驶所需的严格监管和测试。
-
安全隐患: 特斯拉的几次Autopilot的致命事故,这些事件都暴露了纯视觉系统在识别固定障碍物等场景时的缺陷。这表明,一个真正安全的L5系统必须能够完美地处理系统故障和用户疏忽,而纯视觉系统尚未达到这一要求。
总而言之,虽然纯视觉方法具有成本效益和可扩展性的优势,但它在感知、可靠性和安全性方面面临着根本性的技术障碍。相比之下,采用多传感器融合方法的公司(如Waymo)通过牺牲可扩展性和成本来换取硬件冗余和可靠性,从而在商业上走上了一条更安全、更可行的道路,特别是在L4级别(高度自动化)的有限区域应用中。