自动驾驶感知系统中来模拟人的眼睛的硬件,自然就是摄像
作者:互联网
我们理解世界是以人类的感知为基础的,我们建立的交通系统自然也是以人的感觉为基础的,人开车最主要依赖的感知途径是眼睛,所以想要在人类建立的交通系统中开车,“看见”就成为了重中之重。而自动驾驶感知系统中来模拟人的眼睛的硬件,自然就是摄像头。
之前我们聊过激光雷达和毫米波雷达,可能有朋友觉得我就是雷达吹或者视觉黑。这我可不认,接下来我是要改吹摄像头了吗?当然也不是。聊过雷达之后,我们再来聊聊在自动驾驶感知中,占据主导地位的摄像头不可或缺的原因、原理和分类,以及未来发展等。摄像头在我们生活中太过常见,在聊它的成像原理和发展史就显得有点多余了。但很多朋友可能没有注意,我们习以为常的摄像头这两年经历了怎样的飞速发展。当然我说的不是摄像头硬件层面,或者他借助手机实现大规模普及之类的,而是摄像头与人工智能的结合。
人工智能的概念诞生于上世纪50年代,虽然有一些争议,不过总体意思就是赋予人造机器以类似人类的智能。在60余年的发展中,人工智能经历了两轮低谷和三轮高潮,不管技术方向如何改变,听懂和看懂都是人工智能应用中最基础的两个方向。听说读写是人类交流的主要途径,想要模仿人类技能,人工智能首先需要学会的就是听懂和看懂,对应的基础硬件也就是音响和摄像头。近几年随着多层神经网络和深度学习的发展,以及对互联网、大数据的合理应用,人工智能技术有了长足进步。
从2016年左右开始,语音识别和图像识别的准确率取得了质的飞跃,于是智能音响、手机、语音助手、人脸识别等应用飞速的走入了我们的生活,而在人工智能更深层次的应用中,自动驾驶指数发展最快,也是最被看好的领域之一,可以说人工智能的发展一直伴随着摄像头的应用,而摄像头与人工智能的结合推动了自动驾驶的发展。因此长期以来摄像头都占据的自动驾驶感知硬件C位,也就不足为奇了。
1961年也就是人工智能技术刚刚兴起之时,斯坦福大学研究院设置了一台无人驾驶小车,Stanford Car,这台车也是被普遍认可的,世界上第一辆自动驾驶汽车。Stanford Car依赖车顶的一个摄像头和早期的人工智能算法,实现了感知、决策、规划、控制的一系列流程。不过Stanford Car的发展也经历了漫长的过程,从1961年试制成功到1967年才学会识别地面的白线,并沿着白线向前行驶。到1979年Stanford Car终于实现了立体识别感知,成功的通过一个没有人为干扰,但充满椅子的障碍物的环境,但它的问题也很严重,由于当时的算法尚不成熟,芯片算力也还很有限,Stanford Car移动的非常缓慢,最终Stanford Car项目因为进展缓慢被迫终止,但是Stanford Car开创了自动驾驶的先河,也树立了摄像头在自动驾驶中无法撼动的地位。此后不断有新的自动驾驶项目上马,摄像头几乎从未缺席。
包括如今经常被提及的纯视觉和雷达路线之争,所谓的雷达路线也是包括摄像头在内的多传感器融合方案。毕竟在当下,以及可预见的很长一段时间内,不论是自动驾驶还是高阶辅助驾驶,都需要在专为人类设计的交通体系中运行,能够模拟人眼的摄像头,是不可或缺的感知硬件。也只有像ACC自适应巡航这种低阶的辅助驾驶功能,因为将更多地操作交给了人类驾驶员,才可以依赖毫米波雷达实现。
标签:中来,摄像,Stanford,人工智能,Car,驾驶,感知,摄像头 来源: https://blog.csdn.net/slivegogo/article/details/122270946