42号车库|为什么特斯拉实现不了 L5 自动驾驶?( 三 )


42号车库|为什么特斯拉实现不了 L5 自动驾驶?
本文插图

马斯克在他的讲话中提到 , 「我认为实现自动驾驶 L5 目前不存在底层的根本性的挑战 , 但是有很多细节问题 。 我们面临的挑战就是要解决所有这些小问题 , 然后整合系统 , 持续解决这些长尾问题 。 你会发现你可以处理绝大多数场景的问题 , 但是又会不时出现一些奇怪不寻常的场景 , 所以你必须有一个系统来找出并解决这些奇怪不寻常场景的问题 。 这就是为什么你需要现实世界的场景 。 没有什么比现实世界更复杂了 。 我们创建的任何模拟都是现实世界复杂性的子集」 。
他认为 L5 自动驾驶没有根本性挑战的信心来源于特斯拉能从全世界收集来自现实世界的数据解决自动驾驶问题 , 特斯拉通过收集的数据不断模拟虚拟场景并微调其算法 , 会让特斯拉最先逼近现实场景中深度学习长尾问题的极限值 。
解决长尾问题上目前有两种 , 一种是在大数据集上训练更大、更复杂的神经网络 , 最终在认知任务上达到人类水平的表现 。 另一种是在大数据集上直接拟合 , 找到可以覆盖问题空间更大范围的正确数据分布 。
这些方法都是基于大数据 , 如果这些理论是正确的 , 那么特斯拉确实可以在可预见的未来通过收集和有效利用越来越多的汽车数据实现 L5 全自动驾驶 。
但是有些人认为现有的深度学习理论从根本上是有缺陷的 , 因为它只能插值 。 人类对世界的感知不仅有环境信息提取 , 也有逻辑因果 。
而深度学习没有探索环境的因果模型 , 这就是为什么深度学习工程师需要精确地训练他们想要解决的问题的不同的细微差别 。
无论你在多少数据上训练一个深度学习算法 , 你都不能完全相信它 , 因为总是会有许多新奇的情况出现导致推理失败 。
相比而言 , 人类的大脑不需要明确的培训 , 它从每个环境中提取高层次的规则、符号和抽象概念 , 并用它们来推断新的设置和情景 。
因此 , 如果深度学习算法没有对抽象网络和符号操作的利用 , 没有整合常识、因果关系和直觉物理学 , 它将永远无法达到人类水平的驾驶能力 。
当然目前有很多对于深度学习网络的改进 , 如:
Hybrid artificial intelligence:结合了神经网络和符号人工智能 , 赋予深度学习处理抽象的能力;
System 2 deep learning:使用了一种纯神经网络的方法来为深度学习提供符号处理能力;
Self-supervised learning:通过自身探索世界来学习 , 而不需要人类的大量帮助和指导;
Capsule networks:通过观察像素来创建一个准三维的世界表示 , 为对象的不同组件之间建立连接 。
这是深度学习领域最前沿的早期研究 , 但是还没有准备好被部署到自动驾驶汽车和其他人工智能应用中 。
42号车库|为什么特斯拉实现不了 L5 自动驾驶?
本文插图

综上所述 , 特斯拉的纯视觉深度学习解决方案没法在 2020 甚至及接下来的几年内实现 L5 全自动驾驶 。
接下来我们来讨论「社会是否做好了接受 L5 全自动驾驶的准备?」
03
L5 自动驾驶的社会接受度
标准法规
在特斯拉目前宣称的 L2 自动驾驶中 , 驾驶员被要求对他们自己的所有驾驶行为负责 。
对于由人驾驶汽车引起的事故 , 我们有明确的规章制度 。 但是自动驾驶汽车仍然处于灰色地带 , 即便是 L3 级别自动驾驶的事故责任划分 , 目前都没有任何国家出具详细的法律条文 。
而 L5 自动驾驶汽车 , 驾驶员不需要为事故承担任何负责 , 那么制造和提供自动驾驶汽车的公司分别要承担怎样的责任?保险公司又应该承担怎样的责任?一直不愿意对 Autopilot 事故负责的特斯拉是否愿意承担这可能的责任?


推荐阅读