精华内容
下载资源
问答
  • 自动驾驶汽车的传感器该如何布置

    千次阅读 2018-01-23 09:45:45
    热文推荐:自动驾驶模拟软件 “无人驾驶汽车的研究越来越多,各环境感知传感器的分布位置也不同,到底这些传感器要遵循一个什么样的布置原则?请看本文介绍。” 传感器介绍 智能驾驶...
    我从智车科技(IV_Technology)上转载来的,第一次发稿还不太会用。

    热文推荐:自动驾驶模拟软件


    无人驾驶汽车的研究越来越多,各环境感知传感器的分布位置也不同,到底这些传感器要遵循一个什么样的布置原则?请看本文介绍。


    传感器介绍


    智能驾驶汽车环境感知传感器主要有超声波雷达、毫米波雷达、激光雷达、单/双/三目摄像头、环视摄像头以及夜视设备。目前,处于开发中的典型智能驾驶车传感器配置如表 1所示。


    表 1 智能驾驶汽车传感器配置


    • 环视摄像头:主要应用于短距离场景,可识别障碍物,但对光照、天气等外在条件很敏感,技术成熟,价格低廉;


    • 摄像头:常用有单、双、三目,主要应用于中远距离场景,能识别清晰的车道线、交通标识、障碍物、行人,但对光照、天气等条件很敏感,而且需要复杂的算法支持,对处理器的要求也比较高;


    • 超声波雷达:主要应用于短距离场景下,如辅助泊车,结构简单、体积小、成本低;


    • 毫米波雷达:主要有用于中短测距的 24 GHz 雷达和长测距的 77 GHz 雷达 2 种。毫米波雷达可有效提取景深及速度信息,识别障碍物,有一定的穿透雾、烟和灰尘的能力,但在环境障碍物复杂的情况下,由于毫米波依靠声波定位,声波出现漫反射,导致漏检率和误差率比较高;


    • 激光雷达:分单线和多线激光雷达,多线激光雷达可以获得极高的速度、距离和角度分辨率,形成精确的 3D 地图,抗干扰能力强,是智能驾驶汽车发展的最佳技术路线,但是成本较高,也容易受到恶劣天气和烟雾环境的影响。


    不同传感器的感知范围均有各自的优点和局限性(见图 1),现在发展的趋势是通过传感器信息融合技术,弥补单个传感器的缺陷,提高整个智能驾驶系统的安全性和可靠性。


    图 1  环境感知传感器感知范围示意图



    全新奥迪A8配备自动驾驶系统的传感器包括

    -12个超声波传感器,位于前后及侧方

    -4个广角360度摄像头,位于前后和两侧后视镜

    -1个前向摄像头,位于内后视镜后方

    -4个中距离雷达,位于车辆的四角

    -1个长距离雷达,位于前方

    -1个红外夜视摄像头,位于前方

    -1个激光扫描仪Laser Scanner,位于前方



    传感器的布置原则


    无人车传感器的布置,需要考虑到覆盖范围和冗余性。


    覆盖范围:车体360度均需覆盖,根据重要性,前方的探测距离要长(100m),后方的探测距离稍短(80m),左右侧的探测距离最短(20m)。为了保证安全性,每块区域需要两个或两个以上的传感器覆盖,以便相互校验,如下图所示[1]:


    图2: 一种典型的传感器全覆盖、多冗余配置示意图


    Host Vehicle是无人车实体,ESR,RSDS是毫米波,UTM、LUX、HDL是激光,Camera是工业相机。从图中也可以看出,各个方向上均有多个传感器配置。为了简洁,图中的Camera只画出了前方的,实际上前后左右Camera配置了很多个,使得系统的冗余度更高。


    具体安装在车上,是这样样子的:


    图3:传感器在无人车上的实际安装。

    大部分传感器都是隐藏式安装(车前保、后保内),

    唯一的特例,三维激光安装在车顶上。


    前后探测距离的差异,主要是考虑一些特殊场景下的安全问题。


    例如,车辆刚驶出高速公路服务区,准备自动变道:初始车速 V1=60km/h;变道过程约需要 t = 3 s;变道完成时与后方车辆的车间时距 τ ≥ 2 s (注 1)左后方来车车速 V2 = 120 km/h;为保证变道安全,本车与左后方车辆的初始安全距离至少为


    (V2-V1)×(t+τ)=(120km/h-60km/h)×(3s+2s) ≈ 83m


    注1:目前自动变道无相关的法规要求, 故参考 GB /T20608-2006《智能运输系统自适应巡航控制系统性能要求与检测方法》中, 第5.2.2 条对自适应巡航的车间时距做出规定:τ_min 为可供选择的最小的稳态车间时距, 可适用于各种车速 v 下的 ACC 控制。τ_min ( v) 应大于或等于 1 s,并且至少应提供一个在 1.5 ~ 2.2 s 区间内的车间时距 τ。在自动变道场景的计算中,为保证安全,选取 τ = 2 s 进行计算。


    一般后向 24 GHz 毫米波雷达的探测距离为 60 m 左右,如果车后安装一台24GZ毫米波雷达,60~83 m 是危险距离。若前后车距在此范围内,开始变道时,系统误判为符合变道条件。随着左后方车辆高速接近,自动变道过程中安全距离不足,本车中途终止变道,返回本车道继续行驶。这种情况会干扰其他车辆的正常驾驶,存在安全隐患,也会给本车的乘员带来不安全感(见图 4)。


    图 4: 自动变道场景


    要解决这个极端场景下智能驾驶汽车自动变道的安全问题,可以考虑增加一个 77 GHz 后向毫米波雷达,它的探测距离可以达到 150 m 以上,完全能满足这个场景中 83 m 的探测距离要求。当然,可以采用探测距离达到 100 m 以上的 8 线激光雷达或摄像头( 如 Tesla 车型) 解决 24 GHz 毫米波雷达探测距离不足的问题, 还可以通过控制算法设定车辆必须加速到一定车速才允许自动变道。


    而前车安全距离要保证至少100米左右,也保证了车辆有足够的制动时间。


    冗余度:谁都不希望把自己的生命交付给一个/种传感器,万一它突然失效了呢?所谓的冗余度,也可以划分为硬件冗余,或软件冗余。


    如图1中,前方的障碍物有4类传感器覆盖,这样最大程度上保证前方障碍物检测不会漏检或者虚警。这属于硬件冗余。


    再比如车道线检测。现阶段大量的对车道线的检测均是基于视觉(此处不讨论基于激光的传感器),对它的冗余则遵循3选2,或少数服从多数的选择。通过多支算法来保证识别的正确性。


    算法设计上用到Sensor Fusion,下图是CMU的多传感器融合的障碍物检测/跟踪框架[2]:


    图5:CMU的障碍物检测、跟踪框架。主要分为两层,Sensor Layer负责收集各个传感器测量,并将其抽象为公共的障碍物特征表示;Fusion Layer接收障碍物特征表示,输出最终的障碍物结果(位置、速度、类别等)。


    除了要保证覆盖和冗余度,当然在实际安装中,还要符合每个传感器和车辆的安装条件。比如把激光雷达放置在高处,增大了扫描的面积。


    智能驾驶车辆的传感器中,以需要考虑因素较多的毫米波雷达布置为例进行介绍。


    毫米波雷达的布置


    毫米波雷达的位置


    (1)正向毫米波雷达


    正向毫米波雷达一般布置在车辆中轴线,外露或隐藏在保险杠内部。雷达波束的中心平面要求与路面基本平行,考虑雷达系统误差、结构安装误差、车辆载荷变化后,需保证与路面夹角的最大偏差不超过 5°。


    另外,在某些特殊情况下,正向毫米波雷达无法布置在车辆中轴线上时,允许正 Y 向最大偏置距离为 300 mm,偏置距离过大会影响雷达的有效探测范围。


    (2)侧向毫米波雷达


    侧向毫米波雷达在车辆四角呈左右对称布置,前侧向毫米波雷达与车辆行驶方向成 45° 夹角,后侧向毫米波雷达与车辆行驶方向成 30° 夹角,雷达波束的中心平面与路面基本平行,角度最大偏差仍需控制在 5° 以内。


    图 6:毫米波雷达位置


    (3)毫米波雷达的布置高度


    毫米波雷达在 Z 方向探测角度一般只有 ±5°,雷达安装高度太高会导致下盲区增大,太低又会导致雷达波束射向地面,地面反射带来杂波干扰,影响雷达的判断。因此,毫米波雷达的布置高度(即地面到雷达模块中心点的距离),一般建议在 500(满载状态)~800 mm(空载状态)之间(见图 6)。


    表面覆盖材料


    毫米波雷达大多数情况都是隐藏布置,采用某些不合适的表面覆盖材料会屏蔽毫米波或引起波束畸变、驻波变差,使雷达失效或灵敏度降低。因此选用的覆盖物材料有如下要求。


    (1)优先选用 PC、PP、ABS、TPO 等电解质传导系数小的材料,这些材料中不能夹有金属和碳纤维。如果材料表面有低密度金属涂层(如车漆),虽对雷达性能影响不是很大,但必须经过测试才可使用。


    (2)覆盖物的表面必须平滑且厚度均匀,不能出现料厚突变或结构复杂的情况,且厚度最好是雷达半波长的整数倍,以减少对雷达波的扭曲和衰减。


    另外,覆盖物与雷达面的距离也不能太大,否则雷达容易把覆盖物误判为障碍物。在实际布置中,一般把雷达和覆盖物之间的距离控制在 50~150 mm,如果在造型设计阶段就把毫米波雷达数据输入给造型设计师,经过造型优化,最小距离可控制在 15 mm 左右。


    毫米波雷达布置其他参考因素


    图 7: 毫米波雷达布置示例


    除以上毫米波雷达本身要求外,在布置时,还需要兼顾考虑其他因素,如:雷达区域外造型的美观性、对行人保护的影响、设计安装结构的可行性、雷达调试的便利性、售后维修成本等问题 [5]。以下是一些示例(见图 7)。


    智能驾驶车辆只能实现部分场景的自动驾驶,为了能适应更多场景,一方面,可以配置性能更好或数量更多的环境感知传感器;另一方面,从降低整车成本考虑,还可以从传感器的布置优化方向入手,充分发挥传感器的性能。


    参考文献:


    [1] J. Xue, D. Wang, S. Du, D. Cui, Y. Huang and N. Zheng, “A vision-centered multi-sensor fusing approach to self-localization and obstacle perception for robotic cars,” Frontier of Information Technology & Electronic Engineering (FITEE), 2017, 18(1), pp. 122-138, 10.1631/FITEE.1601873.

    [2] H. Cho, Y. W. Seo, B. V. K. V. Kumar and R. R. Rajkumar, "A multi-sensor fusion system for moving object detection and tracking in urban driving environments," 2014 IEEE International Conference on Robotics and Automation (ICRA), Hong Kong, 2014, pp. 1836-1843.

    [3] 王艺帆.自动驾驶汽车感知系统关键技术综述 [J].汽车电器,2016(12):12 ~ 16.

    [4]  沈峘.智能车辆视觉环境感知技术的研究 [D].南京:南京航空航天大学,2010.

    [5] 陈晓伟.汽车前方车辆识别的雷达和视觉信息融合算法开发 [D].吉林:吉林大学,2016.

    [6] Araki H,Yamada K,Hiroshima Y et al. Development of rear-end collision avoidance system [C]. Intelligent Vehicles Symposium Proceedings of IEEE, 2002: 224 ~ 229

    [7] 付银玲.长测距雷达在轿车上的布置应用 [J].上海汽车,2012(7):15 ~ 18.

    [8] 王群,钱焕延.车联网体系结构及感知层关键技术研究 [J].电信科学,2012,28(12):1-9.


    推荐阅读


    热文推荐:自动驾驶模拟软件


    无人驾驶汽车的研究越来越多,各环境感知传感器的分布位置也不同,到底这些传感器要遵循一个什么样的布置原则?请看本文介绍。


    传感器介绍


    智能驾驶汽车环境感知传感器主要有超声波雷达、毫米波雷达、激光雷达、单/双/三目摄像头、环视摄像头以及夜视设备。目前,处于开发中的典型智能驾驶车传感器配置如表 1所示。


    表 1 智能驾驶汽车传感器配置


    • 环视摄像头:主要应用于短距离场景,可识别障碍物,但对光照、天气等外在条件很敏感,技术成熟,价格低廉;


    • 摄像头:常用有单、双、三目,主要应用于中远距离场景,能识别清晰的车道线、交通标识、障碍物、行人,但对光照、天气等条件很敏感,而且需要复杂的算法支持,对处理器的要求也比较高;


    • 超声波雷达:主要应用于短距离场景下,如辅助泊车,结构简单、体积小、成本低;


    • 毫米波雷达:主要有用于中短测距的 24 GHz 雷达和长测距的 77 GHz 雷达 2 种。毫米波雷达可有效提取景深及速度信息,识别障碍物,有一定的穿透雾、烟和灰尘的能力,但在环境障碍物复杂的情况下,由于毫米波依靠声波定位,声波出现漫反射,导致漏检率和误差率比较高;


    • 激光雷达:分单线和多线激光雷达,多线激光雷达可以获得极高的速度、距离和角度分辨率,形成精确的 3D 地图,抗干扰能力强,是智能驾驶汽车发展的最佳技术路线,但是成本较高,也容易受到恶劣天气和烟雾环境的影响。


    不同传感器的感知范围均有各自的优点和局限性(见图 1),现在发展的趋势是通过传感器信息融合技术,弥补单个传感器的缺陷,提高整个智能驾驶系统的安全性和可靠性。


    图 1  环境感知传感器感知范围示意图



    全新奥迪A8配备自动驾驶系统的传感器包括

    -12个超声波传感器,位于前后及侧方

    -4个广角360度摄像头,位于前后和两侧后视镜

    -1个前向摄像头,位于内后视镜后方

    -4个中距离雷达,位于车辆的四角

    -1个长距离雷达,位于前方

    -1个红外夜视摄像头,位于前方

    -1个激光扫描仪Laser Scanner,位于前方



    传感器的布置原则


    无人车传感器的布置,需要考虑到覆盖范围和冗余性。


    覆盖范围:车体360度均需覆盖,根据重要性,前方的探测距离要长(100m),后方的探测距离稍短(80m),左右侧的探测距离最短(20m)。为了保证安全性,每块区域需要两个或两个以上的传感器覆盖,以便相互校验,如下图所示[1]:


    图2: 一种典型的传感器全覆盖、多冗余配置示意图


    Host Vehicle是无人车实体,ESR,RSDS是毫米波,UTM、LUX、HDL是激光,Camera是工业相机。从图中也可以看出,各个方向上均有多个传感器配置。为了简洁,图中的Camera只画出了前方的,实际上前后左右Camera配置了很多个,使得系统的冗余度更高。


    具体安装在车上,是这样样子的:


    图3:传感器在无人车上的实际安装。

    大部分传感器都是隐藏式安装(车前保、后保内),

    唯一的特例,三维激光安装在车顶上。


    前后探测距离的差异,主要是考虑一些特殊场景下的安全问题。


    例如,车辆刚驶出高速公路服务区,准备自动变道:初始车速 V1=60km/h;变道过程约需要 t = 3 s;变道完成时与后方车辆的车间时距 τ ≥ 2 s (注 1)左后方来车车速 V2 = 120 km/h;为保证变道安全,本车与左后方车辆的初始安全距离至少为


    (V2-V1)×(t+τ)=(120km/h-60km/h)×(3s+2s) ≈ 83m


    注1:目前自动变道无相关的法规要求, 故参考 GB /T20608-2006《智能运输系统自适应巡航控制系统性能要求与检测方法》中, 第5.2.2 条对自适应巡航的车间时距做出规定:τ_min 为可供选择的最小的稳态车间时距, 可适用于各种车速 v 下的 ACC 控制。τ_min ( v) 应大于或等于 1 s,并且至少应提供一个在 1.5 ~ 2.2 s 区间内的车间时距 τ。在自动变道场景的计算中,为保证安全,选取 τ = 2 s 进行计算。


    一般后向 24 GHz 毫米波雷达的探测距离为 60 m 左右,如果车后安装一台24GZ毫米波雷达,60~83 m 是危险距离。若前后车距在此范围内,开始变道时,系统误判为符合变道条件。随着左后方车辆高速接近,自动变道过程中安全距离不足,本车中途终止变道,返回本车道继续行驶。这种情况会干扰其他车辆的正常驾驶,存在安全隐患,也会给本车的乘员带来不安全感(见图 4)。


    图 4: 自动变道场景


    要解决这个极端场景下智能驾驶汽车自动变道的安全问题,可以考虑增加一个 77 GHz 后向毫米波雷达,它的探测距离可以达到 150 m 以上,完全能满足这个场景中 83 m 的探测距离要求。当然,可以采用探测距离达到 100 m 以上的 8 线激光雷达或摄像头( 如 Tesla 车型) 解决 24 GHz 毫米波雷达探测距离不足的问题, 还可以通过控制算法设定车辆必须加速到一定车速才允许自动变道。


    而前车安全距离要保证至少100米左右,也保证了车辆有足够的制动时间。


    冗余度:谁都不希望把自己的生命交付给一个/种传感器,万一它突然失效了呢?所谓的冗余度,也可以划分为硬件冗余,或软件冗余。


    如图1中,前方的障碍物有4类传感器覆盖,这样最大程度上保证前方障碍物检测不会漏检或者虚警。这属于硬件冗余。


    再比如车道线检测。现阶段大量的对车道线的检测均是基于视觉(此处不讨论基于激光的传感器),对它的冗余则遵循3选2,或少数服从多数的选择。通过多支算法来保证识别的正确性。


    算法设计上用到Sensor Fusion,下图是CMU的多传感器融合的障碍物检测/跟踪框架[2]:


    图5:CMU的障碍物检测、跟踪框架。主要分为两层,Sensor Layer负责收集各个传感器测量,并将其抽象为公共的障碍物特征表示;Fusion Layer接收障碍物特征表示,输出最终的障碍物结果(位置、速度、类别等)。


    除了要保证覆盖和冗余度,当然在实际安装中,还要符合每个传感器和车辆的安装条件。比如把激光雷达放置在高处,增大了扫描的面积。


    智能驾驶车辆的传感器中,以需要考虑因素较多的毫米波雷达布置为例进行介绍。


    毫米波雷达的布置


    毫米波雷达的位置


    (1)正向毫米波雷达


    正向毫米波雷达一般布置在车辆中轴线,外露或隐藏在保险杠内部。雷达波束的中心平面要求与路面基本平行,考虑雷达系统误差、结构安装误差、车辆载荷变化后,需保证与路面夹角的最大偏差不超过 5°。


    另外,在某些特殊情况下,正向毫米波雷达无法布置在车辆中轴线上时,允许正 Y 向最大偏置距离为 300 mm,偏置距离过大会影响雷达的有效探测范围。


    (2)侧向毫米波雷达


    侧向毫米波雷达在车辆四角呈左右对称布置,前侧向毫米波雷达与车辆行驶方向成 45° 夹角,后侧向毫米波雷达与车辆行驶方向成 30° 夹角,雷达波束的中心平面与路面基本平行,角度最大偏差仍需控制在 5° 以内。


    图 6:毫米波雷达位置


    (3)毫米波雷达的布置高度


    毫米波雷达在 Z 方向探测角度一般只有 ±5°,雷达安装高度太高会导致下盲区增大,太低又会导致雷达波束射向地面,地面反射带来杂波干扰,影响雷达的判断。因此,毫米波雷达的布置高度(即地面到雷达模块中心点的距离),一般建议在 500(满载状态)~800 mm(空载状态)之间(见图 6)。


    表面覆盖材料


    毫米波雷达大多数情况都是隐藏布置,采用某些不合适的表面覆盖材料会屏蔽毫米波或引起波束畸变、驻波变差,使雷达失效或灵敏度降低。因此选用的覆盖物材料有如下要求。


    (1)优先选用 PC、PP、ABS、TPO 等电解质传导系数小的材料,这些材料中不能夹有金属和碳纤维。如果材料表面有低密度金属涂层(如车漆),虽对雷达性能影响不是很大,但必须经过测试才可使用。


    (2)覆盖物的表面必须平滑且厚度均匀,不能出现料厚突变或结构复杂的情况,且厚度最好是雷达半波长的整数倍,以减少对雷达波的扭曲和衰减。


    另外,覆盖物与雷达面的距离也不能太大,否则雷达容易把覆盖物误判为障碍物。在实际布置中,一般把雷达和覆盖物之间的距离控制在 50~150 mm,如果在造型设计阶段就把毫米波雷达数据输入给造型设计师,经过造型优化,最小距离可控制在 15 mm 左右。


    毫米波雷达布置其他参考因素


    图 7: 毫米波雷达布置示例


    除以上毫米波雷达本身要求外,在布置时,还需要兼顾考虑其他因素,如:雷达区域外造型的美观性、对行人保护的影响、设计安装结构的可行性、雷达调试的便利性、售后维修成本等问题 [5]。以下是一些示例(见图 7)。


    智能驾驶车辆只能实现部分场景的自动驾驶,为了能适应更多场景,一方面,可以配置性能更好或数量更多的环境感知传感器;另一方面,从降低整车成本考虑,还可以从传感器的布置优化方向入手,充分发挥传感器的性能。


    参考文献:


    [1] J. Xue, D. Wang, S. Du, D. Cui, Y. Huang and N. Zheng, “A vision-centered multi-sensor fusing approach to self-localization and obstacle perception for robotic cars,” Frontier of Information Technology & Electronic Engineering (FITEE), 2017, 18(1), pp. 122-138, 10.1631/FITEE.1601873.

    [2] H. Cho, Y. W. Seo, B. V. K. V. Kumar and R. R. Rajkumar, "A multi-sensor fusion system for moving object detection and tracking in urban driving environments," 2014 IEEE International Conference on Robotics and Automation (ICRA), Hong Kong, 2014, pp. 1836-1843.

    [3] 王艺帆.自动驾驶汽车感知系统关键技术综述 [J].汽车电器,2016(12):12 ~ 16.

    [4]  沈峘.智能车辆视觉环境感知技术的研究 [D].南京:南京航空航天大学,2010.

    [5] 陈晓伟.汽车前方车辆识别的雷达和视觉信息融合算法开发 [D].吉林:吉林大学,2016.

    [6] Araki H,Yamada K,Hiroshima Y et al. Development of rear-end collision avoidance system [C]. Intelligent Vehicles Symposium Proceedings of IEEE, 2002: 224 ~ 229

    [7] 付银玲.长测距雷达在轿车上的布置应用 [J].上海汽车,2012(7):15 ~ 18.

    [8] 王群,钱焕延.车联网体系结构及感知层关键技术研究 [J].电信科学,2012,28(12):1-9.


    推荐阅读

    ▎本文为智车科技整理,部分内容摘自知乎,作者:王小迪SLAM和崔迪潇,厚势和厚势公号:iHoushi,如需转载请注明来源。

    请猛戳右边二维码





    公众号ID

    IV_Technology

    展开全文
  • LiDAR是一种传感技术,可发射低功率,人眼安全的激光进行脉冲测量,并测量激光完成传感器与目标之间往返所需的时间。所得的聚合数据用于生成3D点云图像,同时提供空间位置和深度信息以识别,分类和跟踪运动对象。 ...

    什么是LiDAR?

    LiDAR,是Light Detection and Ranging的缩写,常用作代表激光雷达。
    LiDAR是一种传感技术,可发射低功率,人眼安全的激光进行脉冲测量,并测量激光完成传感器与目标之间往返所需的时间。所得的聚合数据用于生成3D点云图像,同时提供空间位置和深度信息以识别,分类和跟踪运动对象。

    LiDAR工作原理

    LiDAR的工作原理是检测并测量返回传感器接收器的光。一些目标比其他目标反射的光线更好,这使它们更容易可靠地检测和测量到传感器的最大范围。比如,黑色表面善于吸收更多光,而白色表面能够反射更多的光。这样一来,与目标主题颜色相对较暗的目标相比,相对颜色较亮的目标更容易在更长的距离上受到可靠地检测或测量。
    对于窗户等像镜子一样的目标在检测和测量方面颇具挑战性,因为与在多个方向上分散光的漫射目标不同,类似镜子的物体只能反射很小的聚焦光束,而不会直接反射到传感器的接收器中。
    同时,诸如路标和车牌之类的可反光目标将高百分比的光返回接收器,并且是LiDAR传感器的良好目标。由于存在这些差异,LiDAR传感器的实际性能和最大有效范围可能会根据目标的表面反射率而有所不同。

    点云

    LiDAR的输出可以称为点云。点云是在同一空间参考系下表达目标空间分布和目标表面特性的海量点集合,在获取物体表面每个采样点的空间坐标后,得到的诸多特征点的集合,称之为“点云”(Point Cloud)。点云是由3D点数据组成的大型数据集,由激光测量原理得到。车载激光雷达产生的点云包含来自周围环境的原始数据,这些原始数据是从移动物体(例如车辆和人)以及静止物体(例如建筑物,树木和其他永久性结构)扫描而来的。 然后可以通过软件系统转换包含数据点的点云,以创建给定区域的基于LiDAR的3D图像。
    激光测量得到的点云内容包括三维坐标(XYZ)和激光反射强度(Intensity),强度信息与目标的表面材质、粗糙度、入射角方向,以及仪器的发射能量,激光波长有关参数等。

    LiDAR与其他传感器对比

    LiDAR和雷达均用于确定运动物体的速度,范围和角度。 雷达使用无线电波代替光,而相机则依靠数百万个像素或兆字节来处理2D图像。
    与雷达不同,LiDAR可以提供周围世界的完整实时3D图像。此外,与摄像机不同,LiDAR不提供PII(个人识别信息)风险,并且误报率较低。LiDAR可以在确定目标距离的同时创建目标的图像,从而提供目标的3D视图并精确计算目标的运动方向,而相机和雷达都无法提供。
    此外,无论是在黑暗中还是在雨天或雪天等天气条件下,雷达或摄像机都无法准确看到,这严重限制了它们的“视线”能力。LiDAR还可以提供一定范围内物体的表面测量和精确分辨率。

    LiDAR与其他传感器对比
    对于无人驾驶汽车,最强大且响应迅速的安全传感器系统将是全套LiDAR,雷达,摄像机,其中LiDAR作为主要传感器。

    LiDAR在自动驾驶中的地位

    与摄像机和雷达不同,LiDAR可以在白天或夜晚的任何光照条件下运行,这使其成为自动驾驶汽车必不可少的技术。摄像头,雷达和其他技术可以在一定程度上帮助车辆“看到”周围的环境。一旦天黑或下雨,摄像头技术就无法提供汽车准确看到并区分人与其他物体所需的高分辨率图像。LiDAR仍然是唯一提供最高范围精度和最佳角分辨率的传感器,因此LiDAR对于确保乘客和行人的安全至关重要。

    车用LiDAR种类

    车用LiDAR可以分为机械式和固态式两种。
    车用LiDAR种类
    目前,仅用于ADAS系统的机械式LiDAR已经商业化量产。用于L4级别以上的机械LiDAR往往安装与汽车顶部,进行360°机械式旋转扫描。但是机械扫描LiDAR会造成扫描盲区,即汽车周围近距离内是视野盲区。另外,在长时间的使用过程中,电动机械件容易故障,从而易产生安全问题。

    机械式激光雷达
    机械LiDAR优劣
    因此自动驾驶研究员开始重点研究固态激光雷达。我们重点介绍固态激光雷达。

    固态激光雷达,是指完全没有移动件的激光雷达。但近年来,一些带有微小移动部件的激光雷达也被统称为“固态激光雷达”,它们具备了固态激光雷达很多的性能特点,如分辨率高、有限水平FOV(前向而不是360°)等,但他们从严格意义上来说不能算纯固态激光雷达。代表为MEMS激光雷达。

    MEMS(Micro-Electro-Mechanical System) 指代的是将机械机构进行微型化、电子化的设计,将原本体积较大的机械结构通过微电子工艺集成在硅基芯片上,进行大规模生产。技术成熟,完全可以量产。主要是通过MEMS微镜来实现垂直方面的一维扫描,整机360度水平旋转来完成水平扫描,而其光源是采用光纤激光器,这主要是由于905纳米的管子重频做不高,重频一高平均功率就会太大,会影响激光管的寿命。

    从严格意义上来说,MEMS并不算是纯固态激光雷达,这是因为在MEMS方案中并没有完全消除机械,而是将机械微型化了,扫描单元变成了MEMS微镜。

    纯固态激光雷达主要有OPA方案激光雷达,Flash激光雷达。
    OPA(optical phased array)方案主要是采用多个光源组成阵列,通过控制各光源发光相位时间差,合成具有特定方向的主光束。然后再加以控制,主光束便可以实现对不同方向的扫描。雷达精度可以做到毫米级,且顺应了未来激光雷达固态化、小型化以及低成本化的趋势。其难点主要在于生产精度高,且需要提高单位时间内测量的点云数据量。不过,随着工业技术的进步,OPA方案的优势会越来越大。

    Flash方案激光雷达的原理是快闪,它不像MEMS或OPA方案扫描物体,而是短时间直接发射出一大片覆盖探测区域的激光,再以高度灵敏的接收器,来完成对环境周围图像的绘制。

    END
    欲了解更多关于自动驾驶,ADAS。欢迎关注公众号 自动驾驶解决方案

    在这里插入图片描述

    展开全文
  • 自动驾驶工具箱 嵌入式编码器 模型预测控制工具箱 Simulink控制设计 Simulink 开放式 此示例显示了如何使用传感器融合为在弯路上行驶的车辆实现基于传感器融合的汽车自适应巡航控制器。 在此示例中,您:...

    本文链接: https ://blog.csdn.net/KYJL888/article/details/102895481

    带传感器融合的自适应巡航控制

    本示例使用:

    开放式

    此示例显示了如何使用传感器融合为在弯路上行驶的车辆实现基于传感器融合的汽车自适应巡航控制器。

    在此示例中,您:

    1. 回顾结合了传感器融合和自适应巡航控制器(ACC)的控制系统。 提供了两种ACC变体:模型预测控制工具箱中的经典控制器和自适应巡航控制系统模块。

    2. 使用自动驾驶工具箱生成的综合数据,在闭环Simulink模型中测试控制系统。

    3. 配置用于软件在环仿真的代码生成设置,并自动生成用于控制算法的代码。

    介绍

    自适应巡航控制系统是一种控制系统,其可以响应于道路状况来改变自我车辆的速度。 与常规巡航控制一样,驾驶员可以为汽车设置所需的速度。 此外,如果在前面的车道中还有另一辆行驶速度较慢的车辆,则自适应巡航控制系统可以降低自我车辆的速度。

    为了使ACC正常工作,自我车辆必须确定其前方车道如何弯曲,以及哪辆车是“领头车”,即车道中的自我车辆前方。 下图显示了从自我车辆的角度来看的典型场景。 自我车辆(蓝色)沿着弯曲的道路行驶。 最初,领头车是粉红色车。 然后,紫色汽车切入自我车辆的车道,成为主导车辆。 过了一会儿,紫色的汽车改变到另一个车道,而粉色的汽车再次成为领头车。 之后,粉红色的汽车仍然是领先的汽车。 ACC设计必须对道路上有头车的变化做出反应。

     

     

    当前的ACC设计主要依赖于从雷达获得的距离和测距率测量,并且设计为在直路上最佳工作。 在使用模型预测控制的自适应巡航控制系统 (模型预测控制工具箱)和使用FMCW技术的汽车自适应巡航控制系统(相控阵系统工具箱)中给出了这样一个系统的示例。 从先进的驾驶员辅助系统(ADAS)设计过渡到更多的自治系统,ACC必须应对以下挑战:

    1. 估算靠近自我车辆且相对于自我车辆有明显横向运动的汽车的相对位置和速度。

    2. 估算自我车辆前方的车道,以找出自我车辆前方的哪辆车是同一车道中最接近的车。

    3. 对环境中其他车辆的侵略性动作做出反应,尤其是当另一辆车辆驶入自我车辆车道时。

    本示例演示了现有ACC设计中两个主要的补充,它们可以应对这些挑战:添加传感器融合系统和基于模型预测控制(MPC)更新控制器设计。 同时使用视觉和雷达传感器的传感器融合和跟踪系统具有以下优点:

    1. 它结合了从视觉传感器获得的更好的横向位置测量和速度测量结果,以及从雷达传感器获得的距离和测距率测量结果。

    2. 视觉传感器可以检测车道,提供车道相对于自我车辆的横向位置的估计,以及相对于自我车道将其他车辆定位在场景中。 本示例假设理想的车道检测。

    先进的MPC控制器增加了对环境中其他车辆做出的更猛烈反应做出反应的能力。 与使用具有恒定增益的PID设计的经典控制器相比,MPC控制器在保持严格的安全距离约束的同时调节自我车辆的速度。 因此,当环境以与人类驾驶员将执行的操作类似的方式快速变化时,控制器可以采取更具侵略性的操纵。

    将示例的文件夹添加到MATLAB®路径。

    addpath(fullfile(matlabroot,'examples','mpc','main')); 

    试验台模型和仿真结果概述

    要打开主要的Simulink模型,请使用以下命令:

    open_system('ACCTestBenchExample') 

    该模型包含两个主要子系统:

    1. 具有传感器融合功能的ACC,可对传感器融合进行建模并控制车辆的纵向加速度。 该组件允许您选择设计的经典或模型预测控制版本。

    2. 在车辆和环境子系统,自主车辆和模型环境的哪个模型运动。 雷达和视觉传感器的仿真将合成数据提供给控制子系统。

    要在运行模型之前运行关联的初始化脚本,请在Simulink模型中,单击“运行安装程序脚本”,或者在命令提示符下键入以下内容:

    helperACCSetUp 

    该脚本加载Simulink模型所需的某些常数,例如车辆和ACC设计参数。 默认的ACC是经典控制器。 该脚本还创建定义控制系统参考模型的输入和输出所需的总线。 在编译模型之前,必须在工作空间中定义这些总线。 编译模型时,其他Simulink总线将由其各自的模块自动生成。

    要绘制仿真结果并描绘自我车辆的周围环境(包括被跟踪的物体),请使用Bird-Eye Scope 。 Bird's-Eye Scope是一个模型级别的可视化工具,可以从Simulink工具栏中打开。 在“ 模拟”选项卡上的“ 查看结果”下 ,单击“ 鸟瞰范围” 。 打开示波器后,单击“ 查找信号”以设置信号。 以下命令将模拟运行15秒钟,以获取模拟中间的图片,然后再次运行直至模拟结束,以收集结果。

    sim('ACCTestBenchExample','StopTime','15') %Simulate 15 seconds sim('ACCTestBenchExample') %Simulate to end of scenario 
    ans = Simulink.SimulationOutput: logsout: [1x1 Simulink.SimulationData.Dataset] tout: [151x1 double] SimulationMetadata: [1x1 Simulink.SimulationMetadata] ErrorMessage: [0x0 char] 

     

     

     

    鸟瞰范围显示了传感器融合的结果。 它显示了雷达和视觉传感器如何在其传感器覆盖区域内检测到车辆。 它还示出了由多目标跟踪块保持的曲目。 黄色的轨道显示了最重要的对象(MIO):在其车道中,自我车辆前面最近的轨道。 我们看到,在场景开始时,最重要的对象是快速移动的汽车,其位置超过了自我车辆。 当经过的汽车靠近慢速行驶的汽车时,它会越过左车道,并且传感器融合系统将其识别为MIO。 这辆车离自我车近得多,但比它慢得多。 因此,ACC必须减慢自我车辆的速度。

    在对经典的ACC系统下面的结果,在:

    • 上图显示了自我车辆的速度。

    • 中间图显示了自我车辆与领头车之间的相对距离。

    • 下图显示了自我车辆的加速度。

    在这个例子中,从跟踪和传感器融合系统的原始数据被用于ACC设计无后处理。 由于传感器模型的不确定性,您可能会期望看到一些“尖峰”(中间图),尤其是当另一辆汽车驶入或驶出自我车辆车道时。

    要查看仿真结果,请使用以下命令。

    helperPlotACCResults(logsout,default_spacing,time_gap) 

    • 在第11秒时,领头的车是远远领先于自身车辆(中图)的。 自主车辆加速并达到驾驶员设定的速度V_set(上图)。

    • 当另一辆车驶入自我车辆车道(中间地段)时,它将在11到20秒内成为领头车。 当领头车与自我车辆之间的距离较大时(11-15秒),自我车辆仍会以驾驶员设定的速度行驶。 当距离变短(15-20秒)时,自我车辆减速以保持与有头车的安全距离(顶部图)。

    • 从20到34秒,前面的汽车移到另一个车道,并出现了一辆新的领先汽车(中间图)。 因为有头车与自我车辆之间的距离较大,所以自我车辆会加速直到达到驾驶员设定的速度(27秒)。 然后,自主车辆继续以驾驶员设定的速度行驶(上图)。

    • 该底部曲线表明加速度距离范围[-3,2]米/秒^ 2。 在平滑的过渡行为表明驾驶舒适性是令人满意的。

    在基于MPC的ACC设计中,潜在的优化问题是通过跟踪驾驶员设定的速度来制定的,该速度取决于与领先汽车的安全距离。 MPC控制器设计在“自适应巡航控制器”部分中进行了介绍。 要使用MPC设计运行模型,请首先激活MPC变体,然后运行以下命令。 此步骤需要Model Predictive Control Toolbox软件。 您可以使用下面的代码检查该许可证的存在。 如果不存在代码,将描述类似结果的样本。

    hasMPCLicense = license('checkout','MPC_Toolbox'); if hasMPCLicense controller_type = 2; sim('ACCTestBenchExample','StopTime','15') %Simulate 15 seconds sim('ACCTestBenchExample') %Simulate to end of scenario else load data_mpc end 
    -->Converting model to discrete time. -->Assuming output disturbance added to measured output channel #2 is integrated white noise. Assuming no disturbance added to measured output channel #1. -->The "Model.Noise" property of the "mpc" object is empty. Assuming white noise on each measured output channel. ans = Simulink.SimulationOutput: logsout: [1x1 Simulink.SimulationData.Dataset] tout: [151x1 double] SimulationMetadata: [1x1 Simulink.SimulationMetadata] ErrorMessage: [0x0 char] -->Converting model to discrete time. -->Assuming output disturbance added to measured output channel #2 is integrated white noise. Assuming no disturbance added to measured output channel #1. -->The "Model.Noise" property of the "mpc" object is empty. Assuming white noise on each measured output channel. 

     

     

    在基于MPC的ACC的仿真结果中,类似于经典ACC设计,可以实现速度和间距控制的目标。 与传统的ACC设计相比,基于MPC的ACC更具侵略性,因为它使用全油门或制动来加速或减速。 这种现象是由于在相对距离的明确约束。 当道路上突然发生变化时,例如当领先的汽车变成慢速汽车时,可能会倾向于具有侵略性。 要降低控制器的攻击性,请打开“自适应巡航控制系统”块的掩码,并减小“ 控制器行为”参数的值。 如前所述,中间图中的峰值是由于传感器模型中的不确定性所致。

    要查看模拟与基于MPC-ACC的结果,使用以下命令。

    helperPlotACCResults(logsout,default_spacing,time_gap) 

    在下文中,在试验台模型各子系统的功能更详细地描述。 具有传感器融合子系统的自适应巡航控制器包含两个主要组件:

    1. 跟踪和传感器融合子系统

    2. 自适应巡航控制器子系统

    open_system('ACCTestBenchExample/ACC with Sensor Fusion') 

    跟踪和传感器融合

    跟踪和传感器融合子系统处理来自“车辆和环境”子系统的视觉和雷达检测,并生成有关自我车辆周围环境的全面情况图片。 另外,它提供了最接近的汽车在车道自身车辆前面的估计ACC。

    open_system('ACCWithSensorFusionMdlRef/Tracking and Sensor Fusion') 

    跟踪和传感器融合子系统的主要块是多对象跟踪器块,其输入是所有传感器检测和预测时间的组合列表。 多对象跟踪器块的输出是已确认轨道的列表。

    检测级联”模块将视觉和雷达检测级联。 预测时间由“车辆和环境”子系统中的时钟驱动。

    “检测聚类”模块将多个雷达检测聚类,因为跟踪器希望每个传感器每个物体最多检测一次。

    MATLAB的findLeadCar功能块使用已确认的轨道和道路的曲率列表,在同一车道中找到最接近自我车辆并在其前方的汽车。 这辆车称为领头车,当汽车驶入和驶出自我车辆前方的车道时可能会发生变化。 该功能提供了领头车相对于自我车辆的位置和速度,以及最重要物体(MIO)轨迹的索引。

    自适应巡航控制器

    自适应巡航控制器有两个变体:经典设计(默认)和基于MPC的设计。 对于这两种设计,都应用以下设计原理。 配备ACC的车辆(自我车辆)使用传感器融合来估计与领头车的相对距离和相对速度。 在ACC使得在驾驶员设定的速度自车辆行驶,同时保持从引导车的安全距离。 引导汽车和自我车辆之间的安全距离被定义为

    默认间距 和时间间隔 是设计参数和 是自我车辆的纵向速度。 ACC根据以下输入生成自我车辆的纵向加速度:

    • 自主车辆的纵向速度

    • 铅车与自我车辆之间的相对距离(来自“跟踪和传感器融合”系统)

    • 领先车与自我车之间的相对速度(来自跟踪和传感器融合系统)

    考虑到自身车辆的物理限制,纵向加速度被限制在范围[-3,2]

    在经典ACC设计中,如果相对距离小于安全距离,则主要目标是放慢速度并保持安全距离。 如果相对距离大于安全距离,则主要目标是在保持安全距离的同时达到驾驶员设定的速度。 这些设计原则通过Min和交换机模块来实现的。

    open_system('ACCWithSensorFusionMdlRef/Adaptive Cruise Controller/ACC Classical') 

    在基于MPC的ACC设计中,通过跟踪受约束的驾驶员设定速度来表达潜在的优化问题。 约束要求相对距离始终大于安全距离。

     

     

    要配置自适应巡航控制系统模块,请使用helperACCSetUp文件中定义的参数。 例如,用于ACC设计的线性模型 从车辆动力学获得。 两个Switch块实现了简单的逻辑,以处理来自传感器的大量数字(例如,传感器在未检测到MIO时可能返回Inf )。

    open_system('ACCWithSensorFusionMdlRef/Adaptive Cruise Controller/ACC Model Predictive Control') 

    有关ACC的MPC设计的更多信息,请参阅使用模型预测控制的自适应巡航控制系统 (模型预测控制工具箱)。

    车辆与环境

    车辆和环境子系统由两部分组成:

    1. 车辆动力学和全局坐标

    2. 演员和传感器仿真

    open_system('ACCTestBenchExample/Vehicle and Environment') 

    车辆动力学子系统使用“自动驾驶工具箱”中的“自行车模型-力输入”模块对车辆动力学进行建模。 车辆动态,具有输入 (纵向加速度)和前转向角 ,近似为:

     

     

    在状态向量, 表示横向速度, 表示纵向速度, 表示偏航角。 车辆参数在helperACCSetUp文件中提供。

    车辆动力学的输出(例如纵向速度) 和横向速度 )基于身体固定的坐标。 为了获得车辆所经过的轨迹,通过以下关系将车身固定坐标转换为整体坐标:

    偏航角 和偏航角率 也转换为度单位。

    驾驶员转向模型的目标是通过控制前转向角使车辆保持在车道内并遵循弯道 。 通过驱动偏航角误差可以实现该目标 和横向位移误差 为零(请参见下图),其中

    所需的偏航角速率由下式给出 表示道路曲率的半径)。

    Actor和Sensor Simulation子系统生成跟踪和传感器融合所需的合成传感器数据。 在运行此示例之前,使用了Driving Scenario Designer应用程序来创建具有弯曲道路和多个参与者在道路上移动的场景。 然后,此场景中的道路和参与者被保存到场景文件ACCTestBenchScenario.mat 。 若要查看如何定义方案,请参阅“方案创建”部分。

    open_system('ACCTestBenchExample/Vehicle and Environment/Actors and Sensor Simulation') 

    自主车辆的运动由控制系统控制,并且不从脚本文件中读取。 取而代之的是,自车辆位置,速度,偏航角和偏航率作为输入从“车辆动力学”模块接收,并使用packEgo MATLAB功能模块打包为单个演员姿势结构。

    场景读取器块从场景文件ACCTestBenchScenario.mat读取角色姿势数据。 该块将演员的姿势从场景的世界坐标转换为自我车辆坐标。 演员姿势在由块生成的总线上流式传输。 在这个例子中,您使用的是视觉检测发生器模块和雷达探测发生器块。 两种传感器都具有远距离和前瞻性,并且可以根据ACC的需要很好地覆盖自我车辆的前部。 传感器使用自我车辆坐标中的角色姿势生成自我车辆前方的车辆检测列表。 最后,以时钟块为例,说明车辆如何具有集中的时间源。 该时间由“多对象跟踪器”块使用。

    场景创建

    Driving Scenario Designer应用程序可让您定义道路和在道路上行驶的车辆。 在这个例子中,可以定义常曲率的两条平行的道路。 要定义的路上,你定义的道路中心,道路宽度和倾斜角(如果需要)。 通过沿圆弧采样点(跨度为60度的恒定曲率半径)来选择道路中心。

    您定义方案中的所有载具。 要定义车辆的运动,您可以通过一组的航点和速度的定义他们的轨迹。 定义路点的一种快速方法是选择前面定义的道路中心的一个子集,并在道路中心的左侧或右侧偏移以控制车辆行驶的车道。

    此示例显示了四辆车:左车道上的快速行驶的汽车,右车道上的缓慢行驶的汽车,靠近道路另一侧的汽车以及从右车道开始但随后移动的汽车到左车道通过缓慢移动的车。

    可以使用Driving Scenario Designer应用程序修改该方案,并将其重新保存到同一方案文件ACCTestBenchScenario.mat 。 重新运行模拟后,“场景读取器”块将自动获取更改。 要以编程方式构建方案,可以使用helperScenarioAuthoring函数。

    plotACCScenario 

    生成控制算法的代码

    ACCWithSensorFusionMdlRef模型被配置成使用嵌入式编码软件,以支持生成C代码。 要检查是否有机会获得嵌入式编码器,运行:

    hasEmbeddedCoderLicense = license('checkout','RTW_Embedded_Coder') 

    您可以为模型生成一个C函数,并通过运行以下代码来探索代码生成报告:

    if hasEmbeddedCoderLicense rtwbuild('ACCWithSensorFusionMdlRef') end 

    您可以使用软件在环(SIL)仿真来验证编译的C代码是否按预期运行。 要在SIL模式下模拟ACCWithSensorFusionMdlRef引用的模型,请使用:

    if hasEmbeddedCoderLicense set_param('ACCTestBenchExample/ACC with Sensor Fusion',... 'SimulationMode','Software-in-the-loop (SIL)') end 

    当您运行ACCTestBenchExample模型时, ACCTestBenchExample模型生成,编译和执行代码。 这使您可以通过仿真来测试已编译代码的行为。

    结论

    此示例显示了如何在带有传感器融合功能的弯道上实施集成自适应巡航控制器(ACC),如何使用自动驾驶工具箱生成的合成数据在Simulink中对其进行测试,对其进行组件化并为其自动生成代码。

    从MATLAB路径中删除示例文件夹。

    rmpath(fullfile(matlabroot,'examples','mpc','main')); bdclose all 

    也可以看看

    职能

    积木

    对象

    相关话题

    展开全文
  • 如若要想在2021/2022的年度车型上实现SAE L4/L5的全自动驾驶功能,就需要应用多种传感器冗余系统。当今的半自动驾驶系统采用了各种各样数量和设计的雷达和摄像头系统。而高性能价格合理、能检测300米半径内信息的...

     

    如若要想在2021/2022的年度车型上实现SAE L4/L5的全自动驾驶功能,就需要应用多种传感器冗余系统。当今的半自动驾驶系统采用了各种各样数量和设计的雷达和摄像头系统。而高性能价格合理、能检测300米半径内信息的激光探测与测距系统开发,还处在预研阶段。大多数汽车制造商都认为,如果要实现全自动驾驶,摄像头、雷达和激光雷达这三大传感器系统缺一不可。

    目前,超声波雷达、毫米波雷达和多摄像头系统已经在高端汽车上应用,随着智能驾驶发展势如破竹,环境感知技术将快速发展,进一步发挥协同作用。虽然传感器仅仅是自动驾驶汽车的一部分,但是市场前景十分广阔。因此,相关机构预计到2020年左右全球车载摄像头、毫米波雷达和夜视系统等市场都将进入快速成长期。

    摄像头

    智能驾驶之慧眼

    车载摄像头是实现众多预警、识别类ADAS功能的基础。 在众多ADAS功能中,视觉影像处理系统较为基础,对于驾驶者也更为直观,而摄像头又是视觉影像处理系统的基础,因此车载摄像头对于智能驾驶必不可少。

    车道偏离预警(LDW)、前向碰撞预警(FCW)、交通标志识别(TSR)、 车道保持辅助(LKA)、行人碰撞预警(PCW)、全景泊车(SVP)、驾驶员疲劳预警等众多功能都可借助摄像头实现,有的功能甚至只能通过摄像头实现。

    摄像头可实现的ADAS功能

    车载摄像头价格持续走低,未来单车多摄像头将成为趋势。 相对于车载雷达等传感器价格更加低廉,易于普及应用。 特斯拉Autopilot 2.0的硬件系统中就包含8个摄像头,未来单车多摄像头将成为趋势。

    根据不同ADAS功能的要求,摄像头的安装位置也不尽相同。按摄像头的安装位置不同,可分为前视、侧视、后视和内置四个部分。未来要实现全套ADAS功能,单车需配备至少5个摄像头。据高工智能产业研究院(GGII)研究院预估,摄像头随着ADAS渗透率的提升,市场规模由2016年的20亿元增长到2020年的58亿元,年复合增长率为30%。

    车载摄像头的价格不断走低

    前视摄像头使用频率最高,单一摄像头可实现多重功能。 通过算法开发优化,单一前视摄像头可以实现多重功能,如行车记录、车道偏离预警、前向碰撞预警、行人识别等。未来也有望通过算法整合,实现更多ADAS功能。

    前视摄像头一般为广角镜头,安装在车内后视镜上或者前挡风玻璃上较高的位置,以实现较远的有效距离。

    侧视摄像头代替后视镜将成为趋势。 由于后视镜的范围有限,当另一辆在斜后方的车位于这个范围之外就“隐身”,这个范围之外的部分就叫做盲区。因为盲区的存在,大大增加了交通事故发生的几率。而在车辆两侧加装侧视摄像头可以基本覆盖盲区,当有车辆进入盲区时,就有自动提醒驾驶员注意,这就是盲区监测系统。

    目前还出现了新的潮流,那就是使用侧视广角摄像头取代后视镜,这样既能降低风阻,同时又可以获得更大更广的视角,避免在危险的盲区发生意外, 宝马i8 Mirrorless概念车就采用如此设计。

    汽车后视镜盲区

    全景泊车系统调用车身周围多个摄像头,助泊车开启“上帝视角”。 全景泊车系统通过安装在车身周围的多个超广角摄像头,同时采集车辆四周的影像,经过图像处理单元矫正和拼接之后,形成一副车辆四周的全景俯视图,实时传送至中控台的显示设备上。

    驾驶员坐在车中即可以“上帝视角”直观地看到车辆所处的位置以及车辆周报的障碍物,从容操纵泊车入位或通过复杂路面,有效减少刮蹭、碰撞等事故的发生。

    全景泊车系统的图像拼接技术

    车载摄像头应用广泛且价格相对低廉,是最基本最常见的传感器,未来市场空间将超百亿人民币。

    摄像头对于多个ADAS功能必不可少,未来单价也有望继续走低,将带动车载摄像头市场空间快速增长。根据的估算,全球车载摄像头出货量将从2014年的2800万枚增长到2020年的8300万枚,复合增长率达20%。

    据此估算,全球车载摄像头市场规模将从2015年的62亿人民币增长到2020年的133亿人民币,年复合增长率将达16%。消费区域主要在美洲、欧洲、亚太等地,其中亚太地区将成为增长最快的市场。

    2020年国内车载摄像头市场需求量测算

    摄像头产业链主要有镜头组、CMOS(Complementary metal-Oxide Semiconductor,即互补性金属氧化物半导体)、 DSP(Digital Signal Process 即数字信号处理器)、模组封装等环节组成。

    近几年,智能手机的高速增长带动了摄像头市场的蓬勃发展,但是从 2014年开始智能手机的增速已转缓,手机摄像头未来的增长率也必将放缓。随着车载摄像头市场的兴起,手机摄像头产业链各个环节的产能将向车载摄像头产业转移,预计未来CMOS、镜头、 模组封装等产业链环节将继续保持高增长。

    雷达

    测距测速必不可少的传感器

    雷达通过发射声波或者电磁波对目标物体进行照射并接收其回波,由此获得目标物体的距离、距离变化率(径向速度)、大小、方位等信息。雷达最先应用于军事中,后来逐渐民用化。

    随着汽车智能化的发展趋势,雷达开始出现在汽车上,主要用于测距、测速等功能。汽车雷达可分为超声波雷达、毫米波雷达、激光雷达等,不同雷达的原理不尽相同,性能特点也各有优势,可用于实现不同的功能。

    雷达传感器(仅进行原始数据收集)的基本架构

    (1)超声波雷达

    超声波雷达是利用传感器内的超声波发生器产生40KHz的超声波,再由接收探头接收经障碍物反射回来的超声波,根据超声波反射接收的时间差计算与障碍物之间的距离。超声波雷达成本较低,探测距离近精度高,且不受光线条件的影响,因此常用于泊车系统中。

    自动泊车功能离不开超声波雷达。宝马最新的i系列和7系列已经支持使用车钥匙遥控汽车自动泊车,在操作过程中用户只需要发出前进或后退两个指示,汽车就会持续使用超声波传感器检测车位和障碍物,自动操作方向盘和制动器,实现自动泊车。

    (2)毫米波雷达:ADAS核心传感器

    毫米波是指波长在1mm到10mm之间的电磁波,换算成频率后,毫米波的频率位于30GHz到300GHz之间。毫米波的波长介于厘米波和光波之间,因此毫米波兼有微波制导和光电制导的优点。

    毫米波雷达在导弹制导、目标监视和截获、炮火控制和跟踪、高速通信、卫星遥感等领域都有广泛的应用。近些年,随着毫米波雷达技术水平的提升和成本的下降,毫米波雷达开始应用于汽车领域。

    毫米波雷达关键技术主要由国外电子公司掌控。毫米波雷达系统主要包括天线、收发模块、信号处理模块,而MMIC(MonolithicMicrowaveIntegratedCircuit)芯片和天线PCB板(PrintedCircuitBoard)是毫米波雷达的硬件核心。

    目前毫米波雷达关键技术主要被Bosch、Continental、Denso、Autoliv等零部件巨头垄断,特别是77GHz产品技术只有Bosch、Continental、Denso、Delphi等少数几家公司掌握。

    激光雷达

    功能强大成本大幅降低可期

    激光雷达是军转民的高精度雷达技术。激光雷达的应用一开始主要为军事领域,受到了各国军事部门的极大关注。相比普通雷达,激光雷达可提供高分辨率的辐射强度几何图像、距离图像、速度图像。在民用领域中,激光雷达因其在测距测速、三维建模等领域的优越性能也被广泛应用。

    激光雷达性能精良,是无人驾驶的最佳技术路线。激光雷达相对于其他自动驾驶传感器具有非常优越的性能:

    1)分辨率高

    激光雷达可以获得极高的角度、距离和速度分辨率。通常激光雷达的角分辨率不低于0.1mard也就是说可以分辨3km距离上相距0.3m的两个目标,并可同时跟踪多个目标;距离分辨率可达0.1m;速度分辨率能达到10m/s以内。如此高的距离、速度分辨率意味着激光雷达可以利用多普勒成像技术获得非常清晰的图像。

    2)精度高

    激光直线传播、方向性好、光束非常窄,弥散性非常低,因此激光雷达的精度很高。

    3)抗有源干扰能力强

    与微波、毫米波雷达易受自然界广泛存在的电磁波影响的情况不同,自然界中能对激光雷达起干扰作用的信号源不多,因此激光雷达抗有源干扰的能力很强。

    激光雷达可以分为一维激光雷达、二维激光雷达、三维激光扫描仪、三维激光雷达等。其中一维激光雷达主要用于测距测速等,二维激光雷达主要用于轮廓测量、物体识别、区域监控等,三维激光雷达可以实现实时三维空间建模。

    车载三维激光雷达一般安装在车顶,可以高速旋转,以获得周围空间的点云数据,从而实时绘制出车辆周边的三维空间地图;同时,激光雷达还可以测量出周边其他车辆在三个方向上的距离、速度、加速度、角速度等信息,再结合GPS地图计算出车辆的位置,这些庞大丰富的数据信息传输给ECU分析处理后,以供车辆快速做出判断。

    全文转自:

    https://mp.weixin.qq.com/s/ZIZKnxmzy5RdQqf1vWKl2A

    展开全文
  • “自动泊车、公路巡航控制和自动紧急制动等自动驾驶汽车功能在很大程度上是依靠传感器来实现的。重要的不仅仅是传感器的数量或种类,它们的使用方式也同样重要。目前,大多数路面上行驶车辆内的ADAS都是独立工作的,...
  • 自动驾驶传感器产业链

    千次阅读 2020-03-22 21:14:45
    自动驾驶传感器产业链 智能驾驶的发展将大幅提升对传感器的需求量。超声波雷达、毫米波雷达和多摄像头系统已经在高端汽车上应用;随着智能驾驶发展势如破竹,环境感知技术将快速发展,进一步发挥协同作用。虽然...
  • “基于MEMS技术的激光雷达传感器价格较低,但其性能不足以用于自动驾驶车辆。”我们经常听到这样的说法。本文将解释我们的传感器如何使这一说法失效,我们如何为激光雷达开发MEMS技术,如何为激光雷达找到理想的镜面...
  • 汽车正在通过提供前所未有的个人移动性体验来改变我们的生活。... 在组件方面,激光雷达,雷达和摄像头系统是自动驾驶安全操作所需传感器套件中基本要素。而且,虽然雷达和激光雷达所服务的功能有很大的重叠,但
  • 自动驾驶汽车的发展已经见证了硬件传感器记录感官数据的容量和准确度的发展。传感器的数量增加了,新一代传感器正在记录更高的分辨率和更准确的测量结果。 在本文中,我们将探讨传感器融合如何在涉及环环相扣的数据...
  • 自动驾驶常用传感器介绍一、摄像头1. 概述2. 摄像头在自动驾驶中的应用3. 车规级摄像头性能要求4. 摄像头的优劣势分析5. 摄像头关键参数二、激光雷达1. 概述2. 工作原理3. 激光雷达的特性4. 激光雷达的分类5. 激光...
  • 自动驾驶传感器——激光雷达

    千次阅读 2018-04-21 11:05:17
    本文主要介绍了自动驾驶中激光雷达主流厂商的产品,参数,由于价格信息不全,待陆续补全。 激光雷达 激光雷达在自动驾驶中的两个核心功能: 3D的环境感知 SLAM加强定位 单线的激光雷达已经被广泛应用,...
  • 自动驾驶传感器评估 ——IMU惯性测量单元 前言 对于自动驾驶来说,高精度定位必不可少。为了让自动驾驶系统更高频率的获取定位信息,就必须引入更高频率的传感器,这时就体现出了惯性测量单元(Inertial Measurement...
  • 自动驾驶汽车利用传感器看见世界。但是它们如何处理通过传感器获得的数据呢? 用行业术语来说,问题的关键在于感知,即在行驶过程中,自动驾驶汽车处理和识别道路数据(从街道标识到行人,乃至周围交通环境)的能力...
  • 无人驾驶的多传感器融合技术

    千次阅读 2019-07-13 17:07:06
    “自动泊车、公路巡航控制和自动紧急制动等自动驾驶汽车功能在很大程度上是依靠传感器来实现的。重要的不仅仅是传感器的数量或种类,它们的使用方式也同样重要。目前,大多数路面上行驶车辆内的ADAS都是独立工作的,...
  • 想在 2021/2022 年推出达到 Level 4/5 级别(SAE)的全自动驾驶汽车,冗余传感器系统的大量应用必不可少。眼下,半自动驾驶系统已经用到了多种雷达和摄像头系统,真正起到决定性作用的高分辨率长探测距离(300 米)...
  • 在导航缺失的路段行驶自动驾驶汽车是一项艰巨的任务。实际上可供自动驾驶汽车行驶的路段也不多。像谷歌这样的公司只会在大城市测试车队,他们花了大量时间,精心制作了城市的车道、路缘、出口匝道和停车标志等位置的...
  • 毫米波雷达是测量被测物体相对距离、现对速度、方位的高精度传感器,早期被应用于军事领域,随着雷达技术的发展与进步,毫米波雷达传感器开始应用于汽车电子、无人机、智能交通等多个领域。 目前各个国家对车载毫米...
  • 自动驾驶技术之所需技术

    千次阅读 2017-09-03 11:44:14
    自动驾驶涉及到的技术:从大方面来说包括硬件和软件 《一》、首先我们来说硬件,有篇论文Development of Steering Control System for Autonomous Vehicle Using Geometry-Based Path Tracking Algorithm:里面详细...
  • 【感知】自动驾驶传感器汇总

    千次阅读 2018-11-08 15:59:51
    交通信号灯状态的感知能力对于城区行驶的无人驾驶汽车十分重要,这也是为什么百度Apollo 2.0实现“简单路况自动驾驶必须开放的功能。 2.2.2 定位能力 相信大家都对视觉SLAM技术都有所耳闻,根据提前建好的...
  • 利用计算机技术将多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需的决策和估计而进行的信息处理过程;多传感器信息融合是用于包含处于不同位置的多个或者多种传感器的信息处理技术; 1.2...
  • 自动驾驶感知和定位中传感器融合成了无人驾驶领域的趋势,融合按照实现原理分为硬件层的融合, 如禾赛和Mobileye等传感器厂商, 利用传感器的底层数据进行融合;数据层, 利用传感器各种得到的后期数据,即每个传感器...
  • 常见的超声波雷达有两种。第一种是安装在汽车前后保险杠上的,也就是用于测量汽车前后障碍物的倒车雷达,这种雷达业内称为UPA;第二种是安装在汽车侧面的,用于测量侧...在倒车入库,慢慢挪动车子的过程中,在驾驶室...
  • 鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI车上不用传感器,也能自动驾驶?听上去有些不可思议,但现在,百度Apollo&清华真的把这项技术搞了出来。就在清华大学智能产...
  • 自动驾驶现已成为人工智能技术应用落地的热门领域,但随着无人车迈出的步伐越大,面临的安全性方面的挑战也越大。而近期不断发生的自动驾驶车辆事故也将自动驾驶安全性的问题再次推向...
  • 文章目录 加载数据集 探索数据集 如何从Nuscene数据集中获取三维点云数据 毫米波雷达点云数据 本篇博文承接第一篇数据集介绍,请先按照前文指引下载相应的Python第三方库以及所需数据集。 【开始学习自动驾驶的第一...
  • 今天宣布,Optimus Ride将在其全部自动驾驶车辆上使用Velodyne的突破性激光雷达传感器。这些传感器提供丰富的计算机感知数据用于实时对象和自由空间检测,以实现安全导航和可靠操作。Optimus Ride是一家领先的自动...
  • 传感器标定是无人车中最基础也是最核心的模块之一。作为软件层提供的第一项...传感器标定算法通常覆盖了常规的 L2-L4 级别自动驾驶传感器配置和标定需求,其覆盖广,复杂性高。那么开发者如何更好地应用这项技术...
  • 利用计算机技术将多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需的决策和估计而进行的信息处理过程;多传感器信息融合是用于包含处于不同位置的多个或者多种传感器的信息处理技术; ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 6,840
精华内容 2,736
关键字:

自动驾驶所需传感器