智能汽车|「汽车人」我们如何信任自动驾驶( 二 )


本文插图

显然 , 在来得及实施所有措施的时候 , 自动驾驶系统既无法正确识别 , 也无法正确预测轨迹和速度 。 等到终于采取正确措施的时候 , 距离碰撞只有0.2秒 , 事故已经无法避免 。
在终于正确识别的时刻(此时已经来不及了) , 自动驾驶系统又设定了1秒延时 。 算法编制人员认为 , 紧急制动会造成车辆不稳定 , 因此关闭了XC90自带的预碰撞+自动刹车系统 , 改为用车机软件控制刹车 。
技术无罪?
日志显示 , 和成熟的人类驾驶员相比 , 优步自动驾驶系统表现完全不合格 。 软件工程师非常清楚 , 如果采用保守策略 , 系统将首鼠两端、一惊一乍 , 让乘坐者非常不舒服;如果采取激进策略 , 系统将变得迟钝而自大 。 系统要么刻意忽略“次要干扰因素” , 要么在目标认定上反复横跳 , 直至浪费了所有处置机会 。
如果深入一点 , 优步自动驾驶系统的传感器协同、模式识别算法、决策系统、预设的介入条件 , 都出了大问题 , 是事故发生的真正诱因 。 而瓦斯奎斯玩忽职守 , 没有起到“安全闸”作用 , 导致事故未能被阻止 。 这种“自动驾驶” , 比人类驾驶要危险得多 。

智能汽车|「汽车人」我们如何信任自动驾驶
本文插图

任何稍具专业知识和良知的“码农” , 都可能被这个算法惊呆了 。 决策算法和训练系统(主要是用数据填喂 , 训练感知系统的目标能力) , 尤其粗糙和不专业 。
即便没有任何专业知识的普通公众 , 了解到所谓自动驾驶系统 , 如此不知所云 , 绝不会赞成它们在开放道路上行驶 。 哪怕只是测试 , 也可能以其他人的生命作为代价 。 系统成熟度非常低 , 根本不应该脱离封闭场地 。
而NTSB则轻描淡写地认为 , 优步的“安全文化”不足 , 是导致事故的原因 。 可这种做法 , 明明是不专业、不走心和胆大妄为 。 优步没有担责 , 可能是钻了法律空子 。

智能汽车|「汽车人」我们如何信任自动驾驶
本文插图

其技术水准也的确如此 。 在优步“自愿”终止试验前 , 根据加州交管局的报告 , 优步自动驾驶测试车 , 每隔37公里就需要一次人工干预 , 而Waymo同期每1000英里的人工干预次数是0.09 。 从这个角度 , 优步作为技术背后的企业应该为安全事故担责(未必是刑责) 。
背锅侠与软柿子
然而实际上发生的是 , 公司什么都不必做 。 不但摆脱了法律责任 , 经济赔偿责任则由保险公司负责 。 至于安全员瓦斯奎斯 , 检方要求判她入狱2.5年 , 她拒绝认罪 , 也拒绝做控辩交易 。
技术公司只因为不是自然人 , 就不用承担疏忽导致的事故后果 。 技术团队和决策人员 , 不能用“技术无罪” , 规避自己失察责任 。 更何况他们强行加速试验进程 , 很可能出于商业动机 , 而非简单的技术能力不行 。

智能汽车|「汽车人」我们如何信任自动驾驶
本文插图

公司要求安全员随时介入 , 并用合同条款框死了后者的责任 。 后者因为不在驾驶状态 , 事实上很难像普通驾驶员那样随时保持警惕和防御驾驶状态 。 安全员必须为技术缺陷背锅 。 这样看来 , 事后被解雇的100多个安全员 , 焉知非福 。
值得一提的是 , 受害人家属选择起诉坦帕市政府 , 索赔1000万美元 , 因为后者不合理的交通设施“鼓励”横穿马路 。 这和检方选择只起诉涉案安全员瓦斯奎斯的做法很相似 , 柿子捡软的捏 , 猪捡肥的宰 。
如果要求法律对技术宽容 , 蜕变为对无良商业团体的纵容 , 那就不配以技术之名 , 更不值得冒公众安全利益的风险 。 (文/《汽车人》黄耀鹏 , 部分图片来源网络)【版权声明】本文系《汽车人》独家原创稿件 , 版权为《汽车人》所有 。


推荐阅读