从备受争议的自动驾驶谈起
时间:2022-04-13 16:03:01 | 来源:行业动态
时间:2022-04-13 16:03:01 来源:行业动态
2015年5月,工信部发表《中国制造2025》,将智能车联网提升到国家战略高度。至今三年时间里,各项政策层出不穷,甚至开放了包括北京上海的部分道路在内的一部分路段作为路测。然而,近来,自动驾驶汽车的安全与伦理一直备受争议,不仅发生了几起令人侧目的特斯拉自动驾驶系统事故,还在2018年3月发生一起致命事件。在该起致命事件中,Uber自动驾驶车辆与行人之间发生碰撞并导致行人死亡。这让人们不禁关注起自动驾驶技术的敏捷度、安全性、以及车企如何能够保证它万无一失。
王晓雷表示, 比起完全信息博弈,自动驾驶更像是一场司机与环境的对话。这里面涉及众多环节。比如定位与映射;场景理解;路径规划;状态感知等等 。
如此复杂的流程必须依靠包括深度学习在内的人工智能技术进行支撑,机器通过大量数据的采集与特征提取,在一定算法的基础上自主的完成优化和改进,从而最终得出一个具有统计学意义的结果。这个统计学结果的得出其实是值得探讨的。由于包括数据量不足和模型本身的种种限制,深度学习并不能实现100%的准确性。
人工智能背后是一整套算法的支持,而这些算法的优化又依赖于大量的数据进行不断的训练,从而获取到一个在训练数据上相对较好的模型,然后再利用这一模型对其他数据做出预测。在这一过程中,任何一个因素都有可能导致预测结果出现一个偏差。举一个例子,当我们试图训练一个模型来创作一行标题用以描述图片内容时,我们常常认为该模型是在理解图片的内容的基础上,从而产生相应的标题。然而,当轻微改变训练数据中存在的图像时,比如调制一些特制的噪声进去后,研发者会非常惊讶地发现模型开始创作完全荒谬的字幕。
通常,这类行为被强调为对抗案例,通过向深度学习网络输出错误的样本来欺骗模型。 如上图所示,我们拍摄一辆卡车,添加一个鸵鸟梯度噪声,则训练好的神经网络可以以很高的置信度将这辆卡车分类为鸵鸟,而人类肉眼完全无法判断这两张图片之间的区别。 这证明了深度学习模型并非万能的,它们从输入到输出映射与我们人类感知之间的深刻差异。
简而言之,深度学习模式对他们的输入没有任何理解,至少不是从人的意义上来说。我们对图像,声音和语言的理解是基于我们的运动感觉体验。然而机器人却没有这种经验,因此不能以任何以人为本的方式理解他们的驶入。通过输入大量的培训示例来训练我们的模型,我们让他们学习一个几何变换,将数据映射到这个特定的一组示例上的人类概念,但是这个映射只是我们思想中原始模型的简单草图。
这也就是现在人工智能技术发展的困境。同样,这与适用于自动驾驶技术。现在对于人工智能的态度,两类人是恐惧的。一类是不懂的人,他们认为人工智能是破坏性的;另一类是懂的人,因为他们知道人工智能能够解决很多现实问题,但是这需要对人工智能技术有个正确的认识和用法,特别是算法的设计。
当算法应用于产品时,我们不仅仅要考虑算法是否能够实现需求,同时还必须考虑算法本身的性能和准确性,这就和算法本身的体系搭建有着密切的关系。