小鹏汽车|小鹏汽车撞人致死频出事故:你还敢买吗、辅助驾驶还敢用吗?( 二 )
自动驾驶业内人士刘菲鸿对深途分析 , “从事故视频来看 , 那个场景对于辅助驾驶的感知任务来说是一个corner case , 也就是目前落地的感知技术难以解决的场景 。”
静态物体 , 为何成了高速路“天坑”?
为什么高速路上的一个静止物体 , 会成为感知系统的corner case?识别出静止物 , 究竟难在哪?
数据里奥斯认为 , 车辆行驶时 , 系统并不是不能识别静止的物体 , 而是不能准确地将对本车行驶有影响和干扰的静止物体筛选出来 。“其实都可以识别出来 , 但是没办法判断到底要不要避让 , 因为道路上的这些静止物体不好标记 , 标记出来又很容易被误判 。”
这可以理解为:宁可不识别 , 也不能经常误刹车 。“比起经常幽灵刹车 , 识别不出来更容易宽容 。”他说 。这里涉及到的感知设备 , 就是我们在上文提到的摄像头和毫米波雷达 。摄像头需要用机器学习来训练识别物体 , 毫米波雷达靠电磁波的反射情况来识别测距 。
但这两个传感器都有自己的局限 。对于摄像头而言 , 静态物体类别多 , 形态千差万别 , 需要大量的样本训练 , 而侧翻的卡车、打开后备箱的车尾、停在路边的养护车 , 都不是常见的样本 , 在训练不够的情况下就容易识别不了 。
比如著名的“白色卡车” , 特斯拉曾多次与白色卡车相撞 , 因为特斯拉的辅助驾驶系统没有识别出卡车车身 , 而是错将其识别为天空 , 最终导致误判 。
毫米波雷达的局限性也很明显 。车道上停放的汽车、金属标牌 , 以及一些非标的静止障碍物 , 都会因为雷达的分辨率、回波等问题导致识别失误 。
汽车的感知系统扮演的是人眼的角色 , 人眼有一个特点 , 就是对运动物体很敏感 , 毫米波雷达跟人眼一样具备这个特点 , 但对静止物体比较容易“忽视” 。
“这是毫米波雷达的核心技术弱点 。”和高资本高级投资经理陈子颖对深途说 , 在她看来 , 毫米波雷达的角分辨率低 , 是行业一直想要突破的技术难点 , 雷达信号的分辨率会直接影响成像精度 , 看得清楚和看不清楚有很大的差别 。
“一般来说天线越多 , 波束角越窄 , 雷达性能越强 , 而增加天线的方式通常是MIMO(大规模阵列)方案和多芯片级联的方案 , 但前者存在信号干扰的问题 , 后者存在级联数量有限的问题 , 所以角分辨率始终难以突破到1°以下 。”她说 。
在技术没有突破的情况下 , 对静态物体的识别 , 会一直是辅助驾驶的一大痛点 。
理想汽车CEO李想曾说:“目前摄像头+毫米波雷达的组合像青蛙的眼睛 , 对于动态物体判断还好 , 对于非标准的静态物体几乎无能 。视觉在这个层面的进展几乎停滞 , 哪怕是动态 , 车辆以外的识别率也低于80% 。”
李想说这段话的时间是2019年 , 当时特斯拉Model 3直接撞上一辆正在作业的道路清扫车 , 车主不幸身亡 。如今三年时间过去了 , 情况似乎也并没有太大改观 。
技术上该如何解决?
高速路上的静止物体 , 就像是自动驾驶路上的一只拦路虎 , 时不时跳出来吓人 。这个问题该如何解决?
刘菲鸿对深途说 , 问题可能不在静止上 , 而是在这些较为罕见的、低频出现的场景 , 比如高速路上有侧翻卡车 , 这种场景的出现的频率太低了 。在目前的技术框架下 , 瓶颈还是在罕见场景的数据量上 , 而不在于传感器 。
他认为 , 目前的感知是基于数据驱动的 , 比如让系统识别猫和狗 , 猫的图片有20个 , 狗的图片有2000个 , 那么系统对狗的识别就会好于猫的识别 。所以一个场景“稀缺” , 那么就是一个corner case 。
不过目前的技术瓶颈在于 , “虽然单个稀缺的场景数据量是少的 , 但稀缺的场景类别数却并不少 。尴尬的地方之一就在这里 。”按照这个逻辑 , 要让自动驾驶系统持续进化 , 就需要源源不断“投喂”大量的数据 , 覆盖尽可能多的稀缺场景 , 让系统在学习中增强识别能力 。
推荐阅读
- 电池|买不起 修不起!电动汽车开始割第二茬韭菜了
- 智能汽车事故频发,辅助驾驶系统“背锅”?
- 史上最全的汽车标志图 全套汽车标志
- 汽车|上海修车店一天收20多辆“中暑”车:爆胎、打火机炸了玻璃
- 高速|高速超速20%以内不处罚?一汽车博主信了 结果损失200块
- 特斯拉|马斯克:外后视镜很影响电动汽车续航 今后可能取消
- 汽车|电动爹坏了修不起直接报废!电动车割第二茬韭菜 准备好了
- 你有认真看过汽车灯光标志图解吗? 车灯符号
- 俄罗斯|国产车出海重大突破!奇瑞有望在俄罗斯生产汽车
- 新能源汽车|电动车卖不动了?7月新能源车上险销量出炉:环比跌11.16%
