车载摄像头技术的现在与未来.docx
《车载摄像头技术的现在与未来.docx》由会员分享,可在线阅读,更多相关《车载摄像头技术的现在与未来.docx(25页珍藏版)》请在冰豆网上搜索。
车载摄像头技术的现在与未来
车载摄像头技术的现在与未来
在自动驾驶车辆中,感知系统主要由摄像头、毫米波雷达、激光雷达(可选,这里主要是怕被特斯拉的粉丝杠)等传感器构成。
摄像头作为主要的环境感知传感器起着非常重要的作用,可以实现360°全面视觉感知,弥补雷达在物体识别上的缺陷,是最接近人类视觉的传感器。
因此是车载摄像头是自动驾驶领域的关键设备之一。
本文来自汽车智能网联技术青年专家程增木老师为我们带来车载摄像头的技术入门介绍、目前主流的车型车载摄像头搭载方案的优劣比较和未来车载摄像头的发展趋势。
什么是车载摄像头?
车载摄像头主要的硬件结构包括光学镜头(其中包含光学镜片、滤光片、保护膜等)、图像传感器、图像信号处理器ISP、串行器、连接器等器件。
其结构示意图如图所示:
车载摄像头的结构构成(图片来源:
安森美半导体公司)
光学镜头:
负责聚焦光线,将视野中的物体投射到成像介质表面,根据成像效果的要求不同,可能要求多层光学镜片。
滤光片可以将人眼看不到的光波段进行滤除,只留下人眼视野范围内的实际景物的可见光波段。
图像传感器:
图像传感器可以利用光电器件的光电转换功能将感光面上的光像转换为与光像成相应比例关系的电信号。
主要分为CCD 和 CMOS 两种。
ISP图像信号处理器:
主要使用硬件结构完成图像图传感器输入的图像视频源RAW格式数据的前处理,可转换为YCbCr等格式。
还可以完成图像缩放、自动曝光、自动白平衡、自动聚焦等多种工作。
串行器:
将处理后的图像数据进行传输,可用于传输RGB、YUV等多种图像数据种类。
连接器:
用于连接固定摄像头。
车载摄像头在制造工艺及可靠性要求方面也要高于工业摄像头和商用摄像头,由于汽车需长期工作在恶劣环境中,车载摄像头需要在高低温环境、强振动、高湿热等复杂工况环境下稳定工作,对于工艺制造方面的要求主要如下:
车载摄像头的工艺需求
目前车上搭载的车载摄像头根据安装位置主要分为车载摄像头主要分为前视摄像头、环视摄像头、后视摄像头、侧视摄像头以及内置摄像头五种类别。
前视摄像头:
主要安装在前挡风玻璃上,用于实现行车的视觉感知及识别功能,根据功能又可以分为前视主摄像头、前视窄角摄像头和前视广角摄像头。
特斯拉前视摄像头模组(图片来源:
特斯拉)
前视主摄像头:
该摄像头在L2的ADAS系统中作为主摄像头使用。
其视场角的一般为30°、50°、60°、100°、120°,检测距离一般为150 -170m,摄像头输出的格式为RCCB或RCCC。
前视广角摄像头:
该摄像头的作用主要是识别距离较近的物体,主要用于城市道路工况、低速行驶等场景,其视场角在120°-150°,检测距离在50m左右。
在后续8MP镜头大规模装车后,无需该摄像头。
前视窄角摄像头:
该摄像头的主要作用是进行红绿灯、行人等目标的识别,一般选用窄角镜头,可选择30-40°左右的镜头。
并且该镜头的像素一般和前视主摄像头的镜头像素一致,该摄像头采用窄角度,具有更高的像素密度和更远的检测距离,一般可达250m甚至可探测更远的距离。
在上了8MP摄像头后,前视主摄像头的FOV可达120°,该摄像头可能就不需要了。
检测距离在60m左右。
环视摄像头:
主要安装在车身四周,一般使用4-8个摄像头,可分为前向鱼眼摄像头/左侧鱼眼摄像头/右侧鱼眼摄像头/后向鱼眼摄像头。
用于全景环视功能的显示,以及融合泊车功能的视觉感知及目标检测;常用色彩矩阵为RGGB,因为有色彩还原的需求。
后视摄像头:
一般安装在后备箱上,主要是实现泊车辅助。
视场角在120 -140°之间,探测距离大概50m。
侧前视摄像头:
安装在B柱或者车辆后视镜处,该摄像头的视场角一般为90° -100°,探测距离大概在80m左右,这个摄像头的主要作用是检测侧向车辆及自行车。
侧后视摄像头:
一般安装在车辆前翼子板处,该摄像头的视场角一般为90° 左右,探测距离也在80m左右,主要用于车辆变道、汇入其它道路等场景应用。
内置摄像头:
主要用于监测司机状态,实现疲劳提醒等功能。
其中,前视摄像头价格相对较高,目前市场价格处在300-500 元水平;其余摄像头价格在150-200 元左右。
车载摄像头搭载方案优劣比较
特斯拉—— 纯视觉感知的深度拥护者
特斯拉的Autopilot系统搭载了8个摄像头,其中前方摄像头模组共由3个摄像头组成,这3个摄像头都是基于2015年安森美半导体公司发布的120万像素图像传感器开发的,其配备了3个AR0136A上的CMOS图像传感器,像素大小为3.75um,分辨率为1280×960(1.2MP)。
主视野摄像头:
视野能覆盖大部分交通场景。
鱼眼镜头:
视野达120度的鱼眼镜头能够拍摄到交通信号灯、行驶路线上的障碍物和距离较近的物体,非常适用于城市街道、低速缓行的交通场景。
长焦距镜头:
视野相对较窄,适用于高速行驶的交通场景,并可以清晰拍摄远达250m的物体。
前方侧视摄像头:
视场角为90°,前方侧视摄像头分别位于特斯拉两侧的B柱上,最大探测距离为80m。
其能够探测到高速公路上突然并入当前车道的车辆,以及在进入视野受限的交叉路口时进行探测。
侧方后视摄像头:
最大探测距离为100m,能监测车辆两侧的后方盲区,在变道和汇入高速公路时起着重要作用。
后视摄像头:
探测距离为50m,主要进行泊车辅助。
小鹏P7—— 搭载最多摄像头的车型代表
小鹏P7搭载了14个摄像头,我们选择其中最重要的几个摄像头讲解。
前方摄像头模组共由3个摄像头组成,这3个摄像头都是200 万像素,帧率为15/60fps。
其中分为远距感知摄像头:
视场角为28°,是窄视角的前向摄像头,可探测150 米以上的路面情况。
中距感知摄像头:
视场角为52°,是主要的前向摄像头,可探测30-70m的范围。
远距离感知摄像头:
视场角为100°,可探测40m的范围。
小鹏P7的侧前视摄像头安装在后视镜处,视场角为100°,100 万像素,分辨率是457*237,fps为30,用于防加塞和侧向车辆的检测。
小鹏P7的后视侧边摄像头安装在翼子板上,参数与侧视摄像头差不多,用于ALC(自动变道)、开门预警和盲区检测。
小鹏P7的后视摄像头安装在后备箱处,视场角为52°,200万像素,fps为30,用于ALC、盲区检测和追尾预警。
奔驰 S级 —— 传统主机厂方案的代表
奔驰S级搭载了7个摄像头,其中前方摄像头模组共由2个双目立体摄像头组成,这2个摄像头的像素均为1.3MP,其镜头光轴之间的距离大概在22-25cm左右,探测的有效距离大约为120m,摄像头的视场角大约在50° 左右,刷新频率在10Hz左右。
供应商为大陆汽车电子,该双目摄像头可完成3D 立体识别功能,可以完成目标跟踪、位置预测并且配合毫米波雷达实现目标速度的检测。
奔驰S级在保险杠处安装了一个摄像头,该摄像头是前向鱼眼摄像头,视场角约为120°,配合其它视像头实现360°环视功能。
奔驰S级前鱼眼摄像头
奔驰S级在两个后视镜处各安装了一个摄像头,该摄像头是侧向鱼眼摄像头,视场角约为120°,配合其它视像头实现360°环视功能。
奔驰 S级侧视鱼眼摄像头
奔驰S级的的后视摄像头安装在后备箱处,视场角约为120°,200 万像素,配合其它视像头实现360° 环视功能。
奔驰 S级后视鱼眼摄像头
方案对比:
从方案中我们可以看到,特斯拉的8个摄像头均与行车系统有关联,这与其一直宣传的不依靠激光雷达纯视觉的自动驾驶方案是有较大关联的,特斯拉的这一套方案的最大优势就是:
高性价比。
特斯拉用了成本非常低的自研1.2MP摄像机就实现了L2+级别的自动驾驶。
小鹏P7使用了多个摄像头,这一套方案的最大优势就是:
可拓展性较强。
前期方案在设计时需要提高硬件成本,但是在后期OTA升级后,其自动驾驶功能具有非常好的兼容性和可拓展性。
通过这套传感器模型,小鹏实现了具有较好体验的L2+ 级别的自动驾驶功能,包括小鹏极具特色的高速自主导航驾驶(NGP)和停车场记忆泊车功能。
奔驰S级是传统主机厂方案的代表,双目立体摄像头方案是奔驰S级最大的优势。
相比于单目摄像头,双目摄像头可以计算当前检测目标在X、Y、Z坐标下的运动情况,判断检测目标的姿态及目标类型,奔驰在L2级别的ADAS功能的体验效果也比另外两家好一些。
从上文对已经量产车型的摄像头方案分析中,我们发现其都是使用中低像素摄像头来实现自动驾驶功能。
随着技术的发展与更新,未来更多量产车型及自动驾驶解决方案会使用800万摄像头。
800万像素摄像头未来发展趋势
800万像素相对于120 万像素的摄像头,它可以探测到100-150m范围内的行人,并且在窄视角的场模式情况下,大约可以探测到500m左右的动态车辆,180m左右的小目标。
2018年德国大陆集团就发布了800 万像素的摄像头MFC535,这款摄像头的视场角为125°,并且可以识别100m 的交通标志,140m 的自行车、行人,160m 的摩托车和三轮车,250m 的轿车,这款摄像头的性能不错,可以有效提升车辆的感知性能并且应对最新的EuroNCAP安全标准。
MFC535可利用深度学习方法,识别人体的四肢、背包、五官,并判别出行人的姿态,包括但不限于行、坐、卧、立等状态,以及判断出大人还是小孩。
大陆MFC535摄像头(图片来源:
大陆集团德国官网)
豪威科技在2019年发布了2款800万像素前向摄像头OX08A和OX08B。
两款摄像头都具有非常良好的高动态范围(HDR),并且在芯片上集成于了 HALE(HDR和LFM引擎)合成算法,OX08B还具有非常优秀的LED闪烁抑制(LFM)性能。
这两款摄像头都可以提供4次读取HDR、3840x2160图像分辨率(8MP)、36fps、16:
9比例的图像,同时提供多种CFA排列来满足自动驾驶的性能需求,可以准确探测远处的人和物体,并且可以满足极暗或极亮环境下的应用需求(例如驶出隧道)。
这两款摄像头都满足ASIL-C功能安全要求。
对于车规级800万像素的摄像头,目前国内蔚来ET7、2021款理想ONE极氪 001等车型在使用。
蔚来:
2021年1月蔚来发布了ET7,这款车的一大亮点就是搭载了11颗800万像素的高清摄像头。
ET7基于NT2.0 平台打造,前向摄像头有4颗,环视摄像头为4颗,感知摄像头为3颗。
蔚来的11颗摄像头的供应商为均胜电子,这颗800 万像素的高清摄像头可以最远探测687m左右的车辆,262m左右的锥桶,223m左右的人。
摄像头分别分布在前保险杠、后视镜、翼子板、后备箱、鲨鱼鳍、车顶部。
前保险杠处的800 万像素摄像头。
后视镜处800 万像素环视摄像头。
翼子板处800 万像素侧后视觉摄像头
后备箱处800 万像素后环视摄像头。
鲨鱼鳍处800 万像素后环视摄像头。
车顶侧800万像素前侧感知摄像头。
理想:
2021款理想ONE在国内市场正式首发,该车搭载了800 万像素前视摄像头,识别精度达到4K级别,有效可视距离约为200m,视场角为120°。
理想800万像素前置摄像头模组(图片来源:
汽车之家)
极氪:
2021年发布的极氪001使用了15个摄像头,其中12个摄像头用于自动驾驶,其中8个远距离摄像头都是使用800 万像素的高清摄像头,可以覆盖车辆感知全视野区域。
对于芯片的要求:
一个800 万像素的16位前视摄像头,以每秒60 帧的速度运行,数据速率可达1GB/s。
800万像素的摄像头,每秒钟需要处理的数据量是巨大的,同时对于不同场景和不同的神经网络,耗费的算力也不一样。
在日后800 万像素摄像头成为标配后,计算平台也需提升自己的算力。
单个800W在使用FP16精度数据的情况下,摄像头的数据速率为1GB/S,在内存带宽为64GB/S,供电电压和温度情况均正常,其算力需求主要集中在深度学习模型的batch尺寸中。
假设使用ResNet-50 进行图像处理,每秒需处理1GB的数据图像量,大概可以处理159张图像,该网络在「修枝」后需要大约每秒70亿次的运算,粗略估计需要1.14TOPS的算力。
(以上情况为简单估算)
由此可见,升级了800万像素后,随着深度学习网络的发展,其对算力具有更高的要求。
蔚来超算平台NIOAdam使用了4 颗NVIDIADriveOrin 芯片,包括2颗主控芯片+1颗冗余备份芯片+1颗群体智能与个性训练专用芯片,算力最高为1016TOPS,并且有超高带宽的图像接口,ISP每秒可处理64亿像素。
这对于使用11颗800 万摄像头的ET7来说性能是足够的。
2021款理想ONE使用地平线征程3芯片,这款芯片基于台积电16nmFFC工艺,使用双核BPUAI引擎,等效算力≥5TOPS;使用4核ArmCortex-A53处理器,支持4K@30fps图像处理、HDR宽动态、3D降噪以及畸变矫正。
极氪001使用2颗MobileyeEyeQ5H,使用台积电的7nmFinFET工艺打造,单颗芯片算力为24TOPS。
算法层面的思考:
使用800W像素摄像头后带来的一个比较大的问题就是过多的数据量,在融合和处理时可以借助一些方法进行处理。
作者在阅读大量文献后,推荐使用CenterNet网络的处理思路对多目标、多数据量进行处理。
上图展示的核心方法就是使用CenterNet算法进利用摄像头数据预测目标的中心点,并回归得到目标的3D坐标、深度、旋转等信息。
高像素摄像机适合使用CenterNet,相对于之前的one-stage和two-stage的目标检测,基于高分辨率的图像输入,图像传输的物体的特征可提取性较好,CenterNet的「anchor」仅仅会出现在当前需检测的目标(例如行人、车辆等)的位置处而不是整张图,在高分辨率图像的支持下可以精准地直接检测目标的中心点和大小。
随后将高精度摄像头的检测的目标中心点数据和激光雷达采集到的目标数据进行关联,可以采用视锥的方法进行关联。
可以基于对象的三维边界生成ROI的截锥体,如下图所示。
ROI的截锥体(来源:
CenterFusion:
Center-basedRadarandCameraFusionfor3DObjectDetection)
边界生成ROI的截锥体的BEV与雷达检测到的特征进行融合,最终显示如下图。
ROI的截锥体的BEV与雷达检测到的特征融合图(来源:
CenterFusion:
Center-basedRadarandCameraFusionfor3DObjectDetection)
随后将关联后的目标的特征和雷达数据检测到的深度和速度信息组成的特征图并联,再进行3D目标深度、旋转、速度和属性的回归。
算法检测结果图(来源:
CenterFusion:
Center-basedRadarandCameraFusionfor3DObjectDetection)
随后将关联后的目标的特征和雷达数据检测到的深度和速度信息组成的特征图并联,再进行3D目标深度、旋转、速度和属性的回归。
作者在nuScenes数据集上进行了验证,该方法可显著提高检测精度。
随着800 万像素的车载摄像头日后的推广应用,随着检测图像的信息越来越丰富,精度越来越高,相信以后会有更多更高效、更快速的视觉检测网络及算法应用到汽车上。
车载摄像头的未来改善需求
摄像头的像素大幅提升,带来的不光光是对芯片算力等性能的要求,还带来了对于功率、热管理等层面的需求。
为了实现更好的性能,摄像头需要更大功率的电源,因此摄像头热管理也是一个需要考虑的大问题。
传统摄像头基本都是使用内置ISP,但一些行业也在使用无ISP的摄像头模组,数据直接传输到域控制器,由外部ISP进行处理。
ISP是摄像头产生热量和提升功耗的主要元器件,部分公司提出把ISP集成到控制器中进行热管理。
例如安波福提出的解决方案是摄像头保留光学镜头和图像传感器部分,将ISP移动到相应的控制器主板中,通过以太网来进行数据传输。
很多图像传感器制造商在把ISP模块从摄像头模组中移除,来限制摄像头的功耗和热量产生。
与此同时,ISP被集成到专用的视觉处理器(SoC)中,可以提高图像的成像质量,并且可以同时处理多个摄像头的数据,以此来降低成本。
相信未来单个高精度摄像头的成本会出现大幅下降,后续当高精度摄像头成为标配时,整体成本会有比较大的下降空间。