有关自动驾驶汽车硬件系统的内容Word格式文档下载.docx
《有关自动驾驶汽车硬件系统的内容Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《有关自动驾驶汽车硬件系统的内容Word格式文档下载.docx(7页珍藏版)》请在冰豆网上搜索。
三、自动驾驶传感器的产品定义
四、自动驾驶的大脑
五、自动驾驶汽车的线控系统
这段视频想必大家都看过很多次了,这里就不再播放了。
根据美国国家运输安全委员会的调查报告,当时涉事Uber汽车——一辆沃尔沃SUV系统上的传感器在撞击发生6s前就检测到了受害者,而且在事故发生前1.3秒,原车自动驾驶系统确定有必要采取紧急刹车,此时车辆处于计算机控制下时,原车的紧急刹车功能无法启用。
于是刹车的责任由司机负责,但司机在事故发生前0.5s低头观看视频未能抬头看路。
从事故视频和后续调查报告可以看出,事故的主要原因是车辆不在环和司机不在环造成的。
Uber在改造原车加装自动驾驶系统时,将原车自带的AEB功能执行部分截断造成原车ADAS功能失效。
自动驾驶系统感知到受害者确定要执行应急制动时,并没有声音或图像警报,此时司机正低头看手机也没有及时接管刹车。
目前绝大多数自动驾驶研发车都是改装车辆,相关传感器加装到车顶,改变车辆的动力学模型;
改装车辆的刹车和转向系统,也缺乏不同的工况和两冬一夏的测试。
图中Uber研发用车是SUV车型自身重心就较高,车顶加装的设备进一步造成重心上移,在避让转向的过程中转向过急过度,发生碰撞时都会比原车更容易侧翻。
所以在自动驾驶中,安全是自动驾驶技术开发的第一天条。
为了降低和避免实际道路测试中的风险,在实际道路测试前要做好充分的仿真、台架、封闭场地的测试验证。
软件在环(Softwareinloop),通过软件仿真来构建自动驾驶所需的各类场景,复现真实世界道路交通环境,从而进行自动驾驶技术的开发测试工作。
软件在环效率取决于仿真软件可复现场景的程度。
对交通环境与场景的模拟,包括复杂交通场景、真实交通流、自然天气(雨、雪、雾、夜晚、灯光等)各种交通参与者(汽车、摩托车、自行车、行人等)。
采用软件对交通场景、道路、以及传感器模拟仿真可以给自动驾驶的环境感知提供丰富的输入可以对算法进行验证和测试。
硬件在环(Hard-wareinloop),各种传感器类似人的眼睛和耳朵,作为自动驾驶系统的感知部分,该部分的性能决定了自动驾驶车辆能否适应复杂多变的交通环境。
包括,摄像头、毫米波雷达、超声波雷达、激光雷达。
针对不同的传感器,硬件在环会根据不同的传感器和环境因素来部署。
车辆在环(Vehicleinloop),车辆执行系统向传动系统发出执行命令来控制车辆,在自动驾驶中取代了人类的手脚。
自动驾驶系统的执行控制优劣决定了车辆是否能够安全舒适的行驶。
车辆运行在空旷的场地上,自动驾驶系统感知系统模拟的虚拟场景,自动驾驶系统根据虚拟的场景发出控制指令,再通过传感器将车辆的真实轨迹反馈到虚拟环境中,实现真车与虚拟环境的融合,从而进行车辆操控的验证。
司机在环(Driverinloop),基于实时仿真技术开发,结合驾驶员的实际行为,可以实现对车辆和自动驾驶技术开发测试做出主观的评价。
司机在环,可以一方面获得司机的主观评价,另一方面可以验证人机共驾驶的功能。
1.自动驾驶系统的硬件架构
就整体而言,汽车是个全社会化管理的产品,其固有的行业特点是相对保守的。
在人工智能的大潮下,面对造车新势力和消费者需求变化的冲击,传统汽车行业渐进式的创新方法已经面临巨大的挑战。
急需改变传统的架构和方法不断创新。
自动驾驶整体的硬件架构不光要考虑系统本身也要考虑人的因素。
自动驾驶系统主要包含三个部分:
感知、决策、控制。
从整个硬件的架构上也要充分考虑系统感知、决策、控制的功能要求。
整体设计和生产上要符合相关车规级标准,如ISO26262、AECQ-100、TS16949等相关认证和标准。
目前L1、L2、ADAS系统的硬件架构体系和供应链相对完善符合车规级要求。
感知层:
依赖大量传感器的数据,分为车辆运动、环境感知、驾驶员检测三大类。
车辆运动传感器:
速度和角度传感器提供车辆线控系统的相关横行和纵向信息。
惯性导航+全球定位系统=组合导航,提供全姿态信息参数和高精度定位信息。
环境感知传感器:
负责环境感知的传感器类似于人的视觉和听觉,如果没有环境感知传感器的支撑,将无法实现自动驾驶功能。
主要依靠激光雷达、摄像头、毫米波雷达的数据融合提供给计算单元进行算法处理。
V2X就是周围一切能与车辆发生关的事物进行通信,包括V2V车辆通信技术、V2I与基础设施如红绿灯的通信技术、V2P车辆与行人的通信。
驾驶员监测传感器:
基于摄像头的非接触式和基于生物电传感器的接触式。
通过方向盘和仪表台内集成的传感器,将驾驶员的面部细节以及心脏、脑电等部位的数据进行收集,再根据这些部位数据变化,判断驾驶员是否处于走神和疲劳驾驶状态。
计算单元部分:
各类传感器采集的数据统一到计算单元处理,为了保证自动驾驶的实时性要求,软件响应最大延迟必须在可接受的范围内,这对计算的要求非常高。
目前主流的解决方案有基于GPU、FPGA、ASIC等。
车辆控制:
自动驾驶需要用电信号控制车辆的转向、制动、油门系统,其中涉及到车辆地盘的线控改装,目前在具备自适应巡航、紧急制动、自动泊车功能的车上可以直接借用原车的系统,通过CAN总线控制而不需要过度改装。
警告系统:
主要是通过声音、图像、振动提醒司机注意,通过HMI的设计有效减少司机困倦、分心的行为。
2.自动驾驶的传感器
摄像头:
主要用于车道线、交通标示牌、红绿灯以及车辆、行人检测,有检测信息全面、价格便宜的特定,但会受到雨雪天气和光照的影响。
由镜头、镜头模组、滤光片、CMOS/CCD、ISP、数据传输部分组成。
光线经过光学镜头和滤光片后聚焦到传感器上,通过CMOS或CCD集成电路将光信号转换成电信号,再经过图像处理器(ISP)转换成标准的RAW,RGB或YUV等格式的数字图像信号,通过数据传输接口传到计算机端。
激光雷达:
激光雷达使用的技术是飞行时间法(TimeofFlight)根据光线遇到障碍的折返时间计算距离。
为了覆盖一定角度范围需要进行角度扫描,从而出现了各种扫描原理。
主要分为:
同轴旋转、棱镜旋转、MEMS扫描、相位式、闪烁式。
激光雷达不光用于感知也应用于高精度地图的测绘和定位是公认L3级以上自动驾驶必不可少的传感器。
毫米波雷达:
主要用于交通车辆的检测,检测速度快、准确,不易受到天气影响,对车道线交通标志等无法检测。
毫米波雷达由芯片、天线、算法共同组成,基本原理是发射一束电磁波,观察回波与入射波的差异来计算距离、速度等。
成像精度的衡量指标为距离探测精度、角分辨率、速度差分辨率。
毫米波频率越高,带宽越宽,成像约精细,主要分为77GHz和24GHz两种类型。
组合导航:
GNSS板卡通过天线接收所有可见GPS卫星和RTK的信号后,进行解译和计算得到自身的空间位置。
当车辆通过遂道或行驶在高耸的楼群间的街道时,这种信号盲区由于信号受遮挡而不能实施导航的风险。
就需要融合INS的信息,INS具有全天候、完全自主、不受外界干扰、可以提供全导航参数(位置、速度、姿态)等优点,组合之后能达到比两个独立运行的最好性能还要好的定位测姿性能。
3.自动驾驶传感器的产品定义
这张表总结了常见自动驾驶功能所使用的传感器,以及各个传感器的应用。
针对L1、L2的自动驾驶功能各国也纷纷出台了相关标准,加速了市场的发展和产品落地。
欧盟新车安全评鉴协会(E-NCAP)从2013年起便在评分规则中增加了ADAS内容,计划到2017年速度辅助系统(SAS)、自动紧急制动(AEB)、车道偏离预警/车道偏离辅助(LDW/LKD)的加分要求为系统,装机量达到100%。
美国国家公路交通安全管理局(NHTSA)和高速公路安全保险协(IIHS)也提出2022年将自动紧急制动(AEB)等ADAS功能纳入技术标准。
自动驾驶要求局限于车辆的ODD(OperationalDesignDomain),即设计适用范围。
城市道路+城际高速是自动驾驶汽车普遍的适用范围。
我国城市封闭道路最高限速80公里/小时,高速公路限速120公里/小时。
干燥的柏油路面摩擦系数是0.6,根据刹车距离公式:
S=V*V/2gμ去计算刹车距离得出第一行的表格,再结合自动驾驶系统反应时间和制动系统反应时间得出下表。
从两个表格可以看出,刹车距离与速度的平方成正比,与摩擦系数成反比。
当摩擦系数一定时,刹车距离取决于车速,如果车速增加1倍,刹车距离将增大至4倍。
摩擦系数μ主要与路面材质和天气相关。
自动驾驶传感器在中国最高限速120公里的情况下,探测距离达到150m就可以满足需求了,自动驾驶的技术开发者可以根据实际场景的速度来选择所需要的传感器,没有必要一味追求传感器的性能提高整体成本。
传感器的分辨率和物体探测的关系可以用atan反正切函数来计算,图中给出的公式多除以了个2,主要是为了保证在传感器探测时当最小角度是最小目标一半时,任意情况都能覆盖到某个像素保证分辨。
避免物体恰好不是在一个角度内而产生漏检。
理论上分辨率0.4度时100m外就可以探测到一辆车,而在0.1度分辨率下400m外就能探测到。
但检测只是识别到有个物体并不代表能识别,从自动驾驶的算法角度来讲,比如激光雷达物体识别需要4到5条线扫描上才能识别出物体的类别。
从这个角度看自动驾驶系统如果用0.4度分辨率的激光雷达在50m范围内才能真正识别出一辆车。
自动驾驶离不了多传感器融合,其中激光雷达和摄像头都是光学类的传感器,核心零部件和处理电路相似。
有望将两个传感器前端融合到一起,直接输出R、G、B、X、Y、Z颜色+点云融合信息。
在传感器内部实现数据融合可大幅度降低后端的计算处理量。
其中以AEye为代表,其iDAR智能感知系统能够瞬间将2D真实世界的色彩信息智能地叠加在3D数据上。
其动态扫描和发射图纹技术、通过控制每束激光脉冲的扫描,可查询每个点的三维坐标和像素。
4.自动驾驶的大脑
IPC即工业个人计算机(IndustrialPersonalComputer─IPC)是一种加固的增强型个人计算机,它可以作为一个工业控制器在工业环境中可靠运行。
采用符合“EIA”标准的全钢化工业机箱,增强了抗电磁干扰能力,采用总线结构和模块化设计技术。
CPU及各功能模块皆使用插板式结构,并带有压杆软锁定,提高了抗冲击、抗振动能力。
整体架构设计需要考虑ISO26262的要求,CPU、GPU、FPGA以及总线都做冗余设计,防止单点故障。
当整体IPC系统失效还有MCU做最后的保证,直接发送指令到车辆Can总线中控制车辆停车。
目前这种集中式的架构,将所有的计算工作统一放到一个工控机中,整体体积较大,功耗高,不适用于未来的量产。
但这种架构非常方便,算法迭代不需要过度考虑硬件的整体设计和车规要求。
用传统的X86架构就可以非常快捷的搭建出计算平台,卡槽设计也方便硬件的更新。
采用工控机集中式运算整体体积和