42号车库|为什么特斯拉实现不了 L5 自动驾驶?( 四 )
人类的自我导向
推崇自动驾驶 AI 的人往往认为 , 人类驾驶员也会犯很多错误 , 而自动驾驶汽车犯错的概率相对于人类要小了很多 , 会让驾驶变得更加安全 。
对于这一点 , 我是存在疑虑的 。 首先由于疲倦、大意、酗酒等因素 , 人类在驾驶中确实会犯很多错误 , 但是目前的样本数量和数据分布无法得出驾驶员和 AI 之间的事故发生频率的准确比较 。
其次 , 与自动驾驶汽车背后的 AI 算法相比 , 也许人类错误频繁 , 但却很少出现怪异的现象 , 对于怪异的现象人类更容易预测和规避 , 比如有理智的人类驾驶员都不会往倾翻的卡车上撞 。
最后 , 人类往往会去理解和接受自己主观行为带来的后果 , 但是无法接受自己的生命被别人支配 , 被动地承担所有的致命后果 , 人们更期待自动驾驶的安全性远超自身 。
因此就引出了下一个问题:安全性 。
安全性与公众信任
马斯克在他的讲话中提到了一个问题:「L5 级别自动驾驶的安全性需要达到要求的两倍?三倍?五倍?还是十倍?人类的可接受水平到底是多少?」 。
安全性的评判没有一个统一的标准 , 至少与人类同等的安全性是绝对不够的 , 只有超出预期才有价值 , 监管机构也不会认可 L5 自动驾驶达到与人类驾驶员同等的安全性是足够的 。
但就目前的现状来看 , 深度学习算法的安全性还远远比不上普通人 。
人类的推理不仅是对信息的提取和分析 , 还反应了人的思想 , 这些因素的综合使人类能够做出普遍正确的判断 。
在任何情况下 , 人们都更倾向于将责任归咎于技术而不是人类自己 , 这就导致了人们对技术的信任感缺失 , 公众信任的缺失会影响了整个汽车行业 。 未来势必会有类似图灵测试一样的实验来评判自动驾驶人工智能的安全性 。
那么要实现类似人类推理一样的安全性 , 除了 AI 视觉算法的进步 , 我们也可以通过增加约束 , 使得 AI 算法和硬件正常可靠的工作 。 给 AI 算法加设火车轨道 , 火车脱轨的概率应该足够小了吧?
这个约束就是:车路协同 。
车路协同
我们可以改变道路和基础设施 , 以适应汽车中存在的硬件和软件 。 例如 , 我们可以在道路、分隔线、汽车、道路标志、桥梁、建筑物和物体中嵌入智能传感器 。
这将允许所有这些对象相互识别并通过无线电信号进行通信 , 也就是V2X 。
本文插图
计算机视觉在自动驾驶中仍将发挥重要作用 , 但它将作为汽车及其环境中存在的所有其他智能技术的补充 。
随着 5G 网络的铺展以及智能传感器和互联网连接的价格下降 , 以 V2X 为主导的自动驾驶方案会更加常见 。
但是目前道路基础设施现代化的成本并未纳入大多数自动驾驶发展的预测 , 在广泛区域内运行的 L5 自动驾驶可能需要大量基础设施投资 , 才能在整个范围内可靠运行 。
技术和配套设施的变革往往需要企业与政府持续的巨额投资和时间投入 。 但对于地方政策制定者来说 , 自动驾驶配套基础设施的建设需要考虑很多因素 。
首先 , 尽管地方政策将在基础设施支出和建设方面会发挥核心作用 , 但是全国各地不同的经济、政治、文化、地理和天气状况将影响建设的速度和质量 。
其次 , 在取得技术先发的光环优势之后 , 各地政府会更多考虑设施的有效利用、投资的回报、各辖区之间的利益均衡、给予的政策激励、人才培训及劳动就业等 。
最后 , 万物互联带来的隐私和安全威胁也会是影响道路基础设施现代化的因素之一 。
地理围栏
地理围栏是自动驾驶/高级辅助驾驶技术量产的关键 , 也是未来主机厂部署 L2+ 自动驾驶时的主要开发任务之一 。
地理围栏的意思是 , 只让自动驾驶技术在功能经过充分测试和认可的区域 , 有智能基础设施以及针对自动驾驶量身定制的法规的区域中操作 。
推荐阅读
- 温枪|为什么测温枪一下子就能测出人体的温度?
- 科学|为什么没有人被暗物质杀死?
- |为什么微信用户这么多,QQ还能成为中国第二大社交软件?
- 设备|投屏功能为什么如此重要
- 科学|为什么动物能直接喝脏水,而人类喝水需要过滤?
- 凤凰网|投屏功能为什么如此重要
- 群众网|为什么富人选择创业,穷人却选择打工?
- 群众网|马云的妻子张瑛有多优秀?为什么她不像刘强东妻子章泽天那样经常出现?
- |变声器为什么一定要有实时变声功能?能实现什么有趣的玩法?
- 技术编程,区块链|ETH测试网Medalla为什么提倡验证者尝试多个客户端?
