智能汽车|「汽车人」我们如何信任自动驾驶



智能汽车|「汽车人」我们如何信任自动驾驶
本文插图

如果要求法律对技术宽容 , 蜕变为对无良商业团体的纵容 , 那就不配以技术之名 , 更不值得冒公众安全利益的风险 。
文/《汽车人》黄耀鹏
目前距离优步自动驾驶路测撞人致死一案 , 已经过去31个月 。 本月晚些时候 , 该案将进行初审 。 即便该案自动驾驶系统“参与”之下变得复杂 , 舆论也未能预料到 , 审理过程如此旷日持久 。
让我们再次回溯一下发生于2018年3月的该案 。 优步公司在加州路测时被认定为没有取得“完整资质” , 优步被迫移师亚利桑那州 , 致命交通事故就发生在该州坦帕市 。

智能汽车|「汽车人」我们如何信任自动驾驶
本文插图

后备安全员拉菲拉·瓦斯奎斯(Rafaela Vasquez)乘坐优步自动驾驶汽车(沃尔沃XC90改造而成) , 撞到一位推着自行车横穿道路的女性 , 致其死亡 。 优步公司规定 , 安全员必须随时准备接管车辆 , 但瓦斯奎斯不时低头看手机(手机上正播放“美国好声音”节目) , 直到事故前半秒才抬头 , 为时已晚 。
检方不起诉优步
此案复杂就复杂在 , 初看似法律问题 , 再看似技术问题 , 又看似科学伦理问题 , 也许是社会问题 。 牺牲者可能成了多重嵌套难题无解的祭品 。
早在2019年3月 , 美国亚利桑那州马里科帕县的检察官 , 已经将优步公司排除在刑事调查范围之外 , 认为其无须承担刑责 。 这并非源于事实判定 , 而是根据亚利桑那州的法律 , 企业过失杀人的概念仅仅存在于理论上 。 既然必须有“过失责任方”为这起伤人致死案负责 , 那么起诉人 , 比起诉公司要容易得多 。
【智能汽车|「汽车人」我们如何信任自动驾驶】
智能汽车|「汽车人」我们如何信任自动驾驶
本文插图

无论在哪个法律体系下 , 检方都很难证明高等级自动驾驶(哪怕只是路测)事故中 , 自动系统及背后的公司 , 应该负多少责任 。
2019年11月 , 美国国家安全运输委员会(NTSB)发布一份报告 , 其中附有涉案自动驾驶系统的“运行日志” 。 为了让人们认识到该系统有多么不靠谱 , 甚至根本不应该上路 , 有必要将其中的关键时刻罗列于此 。
自动驾驶系统都干了些啥
如果将事故发生时定为零时刻 , 在此前10秒系统内发生的事情 , 如果从一个人类驾驶员的角度看上去 , 简直匪夷所思 。
-10秒 , 车辆一直处于自动驾驶状态;
-9.9~-5.8秒 , 车辆从时速56公里加速到时速70公里;
-5.6秒 , 毫米波雷达第一次检测到前方目标(就是受害者) , 计算机将其识别为汽车 , 并估算了其速度;
-5.2秒 , 激光雷达再次检测到受害者 , 计算机将其识别为“未知” , 并认为其静止不动;
-4.2秒 , 计算机更改目标类别为“汽车”;
-3.8~-2.7秒 , 计算机对目标分类 , 再次在“汽车”和“未知”之间来回摇摆 。 而且每次更改时 , 都莫名其妙地忽略前一时刻的跟踪记录 , 以至于不断将其行为预测为“继续静止”;
-2.6秒 , 计算机终于正确地将目标识别为自行车 , 但预测其行驶状态仍为静止;
-1.5秒:计算机动摇 , 将人+自行车识别为“未知” , 并规划出躲避目标的路线;
-1.2秒 , 计算机再次认定目标为自行车 , 并算出规避已不可行 , 准备制动 , 此刻时速64公里;
-0.2秒 , 经过1秒的延时 , 终于开始全力制动;
-0.02秒 , 安全员控制方向盘 , 汽车脱离自动驾驶状态;
0秒 , 发生致命碰撞;
0.7秒 , 安全员瓦斯奎斯刹停车辆 。
智能汽车|「汽车人」我们如何信任自动驾驶


推荐阅读