精华内容
下载资源
问答
  • 多传感器融合详解

    2021-09-17 00:38:57
    点击上方“3D视觉工坊”,选择“星标”干货第一时间送达前言多传感器融合(Multi-sensor Fusion, MSF)是利用计算机技术,将来自传感器或多源的信息和数据以一定的准则进行...

    点击上方“3D视觉工坊”,选择“星标”

    干货第一时间送达

    170ec4b636b9e26ffa053d2c6362b05c.png

    前言

    多传感器融合(Multi-sensor Fusion, MSF)是利用计算机技术,将来自多传感器或多源的信息和数据以一定的准则进行自动分析和综合,以完成所需的决策和估计而进行的信息处理过程。和人的感知相似,不同的传感器拥有其他传感器不可替代的作用,当各种传感器进行多层次,多空间的信息互补和优化组合处理,最终产生对观测环境的一致性解释。


    具体来讲,多传感器数据融合处理:

    (1)多个不同类型传感器(有源或无源)收集观测目标的数据;

    (2)对传感器的输出数据(离散或连续的时间函数数据、输出矢量、成像数据或一个直接的属性说明)进行特征提取的变换,提取代表观测数据的特征矢量Yi;

    (3)对特征矢量Yi进行模式识别处理(如聚类算法、自适应神经网络或其他能将特征矢量Yi变换成目标属性判决的统计模式识别法等),完成各传感器关于目标的说明;

    (4)将各传感器关于目标的说明数据按同一目标进行分组,即关联;

    展开全文
  • 多传感器融合研究(一)论文研究一:稀疏时频 论文研究一:稀疏时频 《Sparse Time-Frequency-Frequency-RateRepresentation for Multicomponent Nonstationary Signal Analysis 》(分量非平稳信号分析的稀疏时间...

    论文研究一:D-S融合

    《基于毫米波雷达和CCD摄像机信息的D-S融合方法》

    • 摘要
        本文研究了毫米波雷达和CCD摄像机两种传感器信息的D-S融合方法,论述了毫米波雷达信息采集、滤波、计算障碍物的距离和方位及判断障碍物是否在无人地面平台ROI(Region of interested)内;CCD摄像机的信息处理、分割和障碍物的宽度、高度和方位角的计算。通过建立坐标系和坐标系间的齐次变换实现其空间配准。按D-S融合方法首先建立障碍物鉴别框架,通过实验确定它们对应于鉴别框架中障碍物指数的基本概率分配值,再根据D-S证据方法的组合规则计算所有证据联合作用下的融合结果,得到障碍物在无人地面平台ROI内的距离、方位和大小。在无人地面平台ROI内进行验证,本文的研究成果可行,并且具有较好的鲁棒性。
        毫米波雷达和图像传感器主要应用于汽车的自动驾驶和安全驾驶领域,毫米波雷达存在方位分辨率低,不能精确定位障碍物的问题,本文是根据该缺点做改进,提出了融合感知。

    • D-S融合算法流程
      1、 建立识别框架,对每个传感器计算基本概率分配函数;
      2、 根据D-S证据方法的组合规则计算基本概率分配函数;
      3、 根据给定的判决准则选择置信度最大的假设。

    • 论文实验图标分析
      在这里插入图片描述

    图片来源于论文

    1、 设计的鉴别框架包括了其中障碍目标指数的阈值设计; 2、 实际测量数据和融合结果数据图表,能够在误差范围内测量距离,高度,宽度,方位角信息。

    结论:
       本文基于毫米波雷达和CCD摄像机基础上,对它们的信息进行了D-S融合,其融合效果能正确识别障碍物及障碍物的距离、方位、宽度和高度,后续研究重点是光照和阴影影响。

    论文研究二:End to End

    论文链接:https://www.researchgate.net/publication/338511806_Multi-Task_Multi-Sensor_Fusion_for_3D_Object_Detection
    2019CVPR会议文章:《Multi-Task Multi-Sensor Fusion for 3D Object Detection》(基于多任务多传感器融合的三维目标探测)

    • 摘要
        在这篇论文中,提出了多个相关的任务来进行精确的多传感器三维目标检测。为了实现这一目标,我们提出了一个端到端可学习的架构,该架构考虑了2D和3D对象检测、地面估计和深度补全。本文的实验表明,所有这些任务都是互补的,并通过融合不同层次的信息来帮助网络更好地学习表示。重要的是,我们的方法领先于KITTI基准的2D, 3D和鸟瞰对象检测,同时是实时的。

    • 数据集:KITTI数据集。

    • 网络结构
      在这里插入图片描述
      在这里插入图片描述
      该网络框架包含4个模块,分别是对象检测器、特征提取器、邻接估计器和最小代价流优化器。
      (1)对象检测器:分别在图像序列中和3维点云数据中定位感兴趣的对象,即分别进行目标检测;
      (2)特征提取器:独立地从每个传感器提取对象特征,从图像中提取特征图,从激光雷达中提取BEV特征图(激光雷达离散化后投影后得到的特征图。)
      (3)ROI特征融合:分别提取感兴趣的区域,然后进行感兴趣区域的特征融合。
      (4)目标检测器:根据图像ROI特征图,监督激光雷达ROI特征图进行训练,激光雷达网络中实现目标分类,图像划分深度信息。

    • 特征融合模型
      在这里插入图片描述
         激光雷达与图像骨干网之间的点向特征融合。利用特征金字塔网络将多尺度图像特征映射进行组合,再通过连续融合层将图像特征映射映射到BEV空间中。特征融合是通过元素间的累加来实现的。

    测试结果:
    在这里插入图片描述

    展开全文
  • 多传感器融合定位技术

    千次阅读 2021-10-24 23:32:08
    多传感器融合系统简介1.1 多传感器融合系统体系结构1.2 多传感器融合系统分层2. 多传感器融合定位系统原理3. 多传感器融合误差分析4. 多传感器融合算法4.1 数据融合算法概述4.2 卡尔曼滤波算法 由于 GNSS 定位信息...

    由于 GNSS 定位信息更新频率低,不能满足自动驾驶中实时性的要求,且定位信号会因隧道、建筑群等障碍物的遮挡面而中断。而 INS(Inertial Navigation System) 中配备高频传感器,一定时间内可以提供连续的较高精度的汽车位置、速度和航向信息,但其定位误差会随着系统运行时间积累而剧增。将 GNSS 与 INS 相结合,可以利用 GNSS 提供的不随时间增加的高精度定位来纠正 INS 的累积定位误差。同时,INS 可以解决 GNSS 特定场景易受影响的问题。通过结合这两种系统的优点,就能得到实时和精准的定位。如果再与地图匹配技术相结合,利用高精度地图提供的信息,可进一步提高定位精度。

    要实现多个定位系统融合,提高定位精度,设计一种融合多个传感器数据的系统尤为重要。这里将从多传感器融合系统简介、系统原理、误差分析以及融合算法等方面对多传感器融合定位系统进行介绍。

    1. 多传感器融合系统简介

    多传感器数据融合是 20 世纪 80 年代出现的一门新兴学科,它是将不同传感器对某一目标或环境特征描述的信息融合成统一的特征表达信息及其处理的过程。在多传感器系统中,各种传感器提供的信息可能具有不同的特征,如模糊的与确定的、时变的与非时变的、实时的与非实时的等。多传感器数据融合实际上是模拟人脑综合处理复杂问题的过程,通过对各种传感器及其观测信息的合理支配与使用,将各种传感器在空间和时间上的互补与冗余信息,依据某种优化准则加以组合,产生对观测环境或对象的一致性解释和描述,实现多个传感器共同或联合操作,提高整个传感器系统的有效性。数据融合的目标是利用各种传感器的独立观测信息,对数据进行多级别、多方位和多层次的处理,产生新的有意义的信息,这种信息是最佳协同作用的结果,是任何单一传感器无法获得的。

    自动驾驶汽车定位的主要模式有 DR、GNSS、GNSS/DR 组合定位模式。在系统精度要求不高的前提条件下可以单独使用这 3 种定位模式。为了进一步提高定位系统的精度,保障自动驾驶的安全,在上述 3 种定位模式中引入了地图匹配,可组合产生出新的 3 种定位模式:DR/MM、GNSS/MM、GNSS/DR/MM。多传感器融合定位系统可在 6 种模式中自动切换以提高整个系统的定位精度和可靠性。接下来对多传感器融合系统体系结构以及系统分层进行介绍。

    1.1 多传感器融合系统体系结构

    多传感器融合系统体系结构主要包括松耦合(Loosely Coupled)、紧耦合(Tightly Coupled)以及深耦合(Deep Coupled)等组合结构。

    1. 松耦合:在松耦合系统里,GNSS 给 INS 提供位置信息,二者硬件上相互独立且随时断开连接,分别输出定位信息与速度信息到融合滤波器,融合滤波器进行优化处理后将结果反馈给惯性导航系统对其修正后进行输出。GNSS/INS 松耦合系统原理图如下所示:
      在这里插入图片描述

    2. 紧耦合:紧耦合系统是将由 GNSS 环码与载波跟踪环解算得到的伪距、伪距率与由惯性导航系统结合自身信息和卫星星历进行计算得到的伪距、伪距率做差,得到伪距与伪距率的测量残差,将其作为融合滤波器的输入观测量,得到惯性导航系统计算误差以及传感器偏差以完成对惯性导航系统的矫正并获得位置与速度的最优估计值。GNSS/INS 紧耦合系统原理图如下所示:
      在这里插入图片描述

    3. 深耦合:深耦合系统相对于紧耦合系统,增加了 INS 单元对 GNSS 接收机的辅助。利用 INS 单元结合星历信息可以对伪距和载波的多普勒频移进行估计,利用估计结果辅助接收机的捕获与跟踪环路,可以有效地提高 GNSS 接收机跟踪环路的动态性与灵敏度。

    1.2 多传感器融合系统分层

    如下图所示,按照信息处理的流程,可将多传感器融合系统划分为数据层融合特征层融合决策层融合
    在这里插入图片描述

    1. 数据层融合:数据层融合也称像素级融合,首先将传感器的观测数据融合,然后从融合的数据中提取特征向量,并进行判断识别。数据层融合需要传感器是同质的(传感器观测的是同一物理量),如果多个传感器是异质的(传感器观测的不是同一个物理量),那么数据只能在特征层或决策层进行融合。数据层融合不存在数据丢失的问题,得到的结果也是最准确的,但计算量最大,且对系统通信带宽的要求很高。
    2. 特征层融合:特征层融合属于中间层次,先从每种传感器提供的观测数据中提取有代表性的特征,这些特征融合成单一的特征向量,然后运用模式识别的方法进行处理。这种方法的计算量及对通信带宽的要求相对较低,但部分数据的舍弃使其准确性有所下降。
    3. 决策层融合:决策层融合指在每个传感器对目标做出识别后,再将多个传感器的识别结果进行融合,属于高层次的融合。决策层融合由于对可能包含误差的传感器数据进行再处理,产生的结果相对而言最不准确,但其计算量及对通信带宽的要求最低。

    2. 多传感器融合定位系统原理

    多传感器数据融合定位系统的输入主要来自 GNSS-RTK、惯性导航系统和地图匹配定位系统。融合定位系统对其数据进行预处理、数据配准和数据融合等处理后,可输出汽车自身的速度、位置和姿态信息。下图为多传感器数据融合定位流程示意图:
    在这里插入图片描述
    数据预处理可以考虑为传感器初始化及校准,传感器初始化相对于系统坐标独立地校准每一个传感器。一旦完成了传感器初始化,就可以利用各传感器对共同目标采集得到的数据进行数据配准。所谓数据配准,就是把来自一个或多个传感器的观测或点迹数据与已知或已经确认的事件归并到一起,保证每个事件集合所包含的观测与点迹数据来自同一个实体的概率较大(直白点说就是匹配嘛)。具体的说,就是要把每批目标的观测或点迹数据与事件集合中各自的数据配对。在传感器配准过程中,收集足够的数据点来计算系统偏差,计算得到的系统偏差用来调整随后得到的传感器数据。其次,传感器的配准主要包括时间配准空间配准两个方面。

    1. 时间配准:时间配准,就是将关于同一目标的各传感器不同步的量测信息同步到同一时刻。由于各传感器对目标的量测是相互独立进行的,且采样周期(如观星测量单元和激光雷达大采样周期)往往不同,所以它们向数据处理中心报告的时刻往往也是不同的。另外,由于通信网络的不同延迟,各传感器和融合处理中心之间传送信息所需的时间也各不相同,因此,各传感器上的数据的发送时间有可能存在时间差,所以融合处理前需将不同步的信息配准到相同的时刻。

      时间配准的一般做法是将各传感器数据统一到扫描周期较长的一个传感器数据上,目前,常用的方法包括最小二乘法(Least Squares, LS)和内插外推法。这两种方法都对目标的运动模型做了匀速运动的假设,对于做变加速运动的目标,配准效果往往很差。下面仅对基于最小二乘法的时间配准法做简单介绍:

      假设有两类传感器,分别表示为传感器1和传感器2,其采样周期分别为 τ \tau τ 和 T,且两者之比为 τ \tau τ

    2. 空间配准:空间配准,就是借助多传感器对空间共同目标的量测结果对传感器的偏差进行估计和补偿。对于同一系统内采用不同坐标系的各传感器的量测,定位时必须将它们转换成同一坐标系中的数据,对于多个不同子系统,各子系统采用的坐标系是不同的,所以在融合处理各子系统间信息前,也需要将它们转换到同一量测坐标系中,而处理后还需将结果转换成各子系统坐标系的数据,再传送给各子系统。

      如下图左所示,由于传感器1(传感器2)存在斜距和方位角偏差 Δ r 1 \Delta{r_1} Δr1 Δ θ 1 \Delta{\theta_1} Δθ1 Δ r 2 \Delta{r_2} Δr2 Δ θ 2 \Delta{\theta_2} Δθ2),导致在系统平面上出现两个目标,而实际上只有一个真实目标,所以需要进行空间配准,配准过程如下右图所示:

    上图中, r 1 r_1 r1 θ 1 \theta_1 θ1 分别表示传感器 1 的斜距和方位角量测值; r 2 r_2 r2 θ 2 \theta_2 θ2 分别表示传感器 2 的斜距和方位角量测值; ( x s 1 , y s 1 ) (x_{s1},y_{s1}) (xs1,ys1) 表示传感器 1 在导航坐标平面上的位置; ( x s 2 , y s 2 ) (x_{s2},y_{s2}) (xs2,ys2) 表示传感器 2 在导航坐标平面上的位置; ( x 1 , y 1 ) (x_1,y_1) (x1,y1) 表示传感器 1 在导航坐标系上的测量值; ( x 2 , y 2 ) (x_2,y_2) (x2,y2) 表示传感器 2 在导航坐标系上的测量值。从上图右可以推导出如下的基本方程:
    { x 1 = x s 1 + r 1 sin ⁡ θ 1 y 1 = y s 1 + r 1 cos ⁡ θ 1 x 2 = x s 2 + r 2 sin ⁡ θ 2 y 2 = y s 2 + r 2 cos ⁡ θ 2 \left\{\begin{array}{l} x_{1}=x_{\mathrm{s} 1}+r_{1} \sin \theta_{1} \\ y_{1}=y_{\mathrm{s} 1}+r_{1} \cos \theta_{1} \\ x_{2}=x_{\mathrm{s} 2}+r_{2} \sin \theta_{2} \\ y_{2}=y_{\mathrm{s} 2}+r_{2} \cos \theta_{2} \end{array}\right. x1=xs1+r1sinθ1y1=ys1+r1cosθ1x2=xs2+r2sinθ2y2=ys2+r2cosθ2如果忽略噪声,则有:
    { r 1 = r 1 ′ + Δ r 1 θ 1 = θ 1 ′ + Δ θ 1 r 2 = r 2 ′ + Δ r 2 θ 2 = θ 2 ′ + Δ θ 2 \left\{\begin{array}{l} r_{1}=r_{1}^{\prime}+\Delta r_{1} \\ \theta_{1}=\theta_{1}^{\prime}+\Delta \theta_{1} \\ r_{2}=r_{2}^{\prime}+\Delta r_{2} \\ \theta_{2}=\theta_{2}^{\prime}+\Delta \theta_{2} \end{array}\right. r1=r1+Δr1θ1=θ1+Δθ1r2=r2+Δr2θ2=θ2+Δθ2其中, r 1 ′ r'_1 r1 θ 1 ′ \theta'_1 θ1 分别表示目标相对于传感器 1 的真实斜距和方位角; r 2 ′ r'_2 r2 θ 2 ′ \theta'_2 θ2 分别表示目标相对于传感器 2 的真实斜距和方位角; Δ r 1 \Delta{r_1} Δr1 Δ θ 1 \Delta{\theta_1} Δθ1 表示传感器 1 的斜距和方位角偏差; Δ r 2 \Delta{r_2} Δr2 Δ θ 2 \Delta{\theta_2} Δθ2 表示传感器 2 的斜距和方位角偏差。将上面两式合并,并且将所得到的方程相对于 Δ r 1 \Delta{r_1} Δr1 Δ θ 1 \Delta{\theta_1} Δθ1 Δ r 2 \Delta{r_2} Δr2 Δ θ 2 \Delta{\theta_2} Δθ2 进行一阶泰勒级数展开,可得:
    { x 1 − x 2 ≈ sin ⁡ θ 1 Δ r 1 − sin ⁡ θ 2 Δ θ 2 + r 1 cos ⁡ θ 1 Δ θ 1 − r 2 cos ⁡ θ 2 Δ θ 2 y 1 − y 2 ≈ cos ⁡ θ 1 Δ r 1 − cos ⁡ θ 2 Δ r 2 − r 1 sin ⁡ θ 1 Δ θ 1 + r 2 sin ⁡ θ 2 Δ θ 2 \left\{\begin{array}{l} x_{1}-x_{2} \approx \sin \theta_{1} \Delta r_{1}-\sin \theta_{2} \Delta \theta_{2}+r_{1} \cos \theta_{1} \Delta \theta_{1}-r_{2} \cos \theta_{2} \Delta \theta_{2} \\ y_{1}-y_{2} \approx \cos \theta_{1} \Delta r_{1}-\cos \theta_{2} \Delta r_{2}-r_{1} \sin \theta_{1} \Delta \theta_{1}+r_{2} \sin \theta_{2} \Delta \theta_{2} \end{array}\right. {x1x2sinθ1Δr1sinθ2Δθ2+r1cosθ1Δθ1r2cosθ2Δθ2y1y2cosθ1Δr1cosθ2Δr2r1sinθ1Δθ1+r2sinθ2Δθ2该式对与目标运动航迹无关的偏差估计方法提供了基础。(这里是为啥)

    常用的与目标运动航迹无关的偏差估计方法主要有实时质量控制法(Real Time Quality Control,RTQC)、最小二乘法、极大似然法(Maximum Likelihood,ML)和基于卡尔曼滤波器的空间配准算法等。在给出的几种算法中,实时质量控制法和最小二乘法完全忽略了传感器量测噪声的影响,认为公共坐标系中的误差来源于传感器配准误差(传感器偏差,在下一节会讲)。广义最小二乘法(Generalized Least Square,GLS)和基于卡尔曼滤波器的方法虽然考虑了传感器量测噪声的影响,但只有在量测噪声相对小时,才会产生好的性能。为了克服前两种局限性,提出了精确极大似然(Exact Maximum Likelihood,EML)空间配准算法。

    尽管前面已经介绍了多种不同的配准算法,但它们都是基于立体投影在一个二维区域平面上实现的。更准确地说,首先通过立体投影技术把传感器量测投影到与地球正切的局部传感器坐标上,然后变换到区域平面,并利用不同传感器量测之间的差异来估计传感器偏差。虽然立体投影能够减轻单个配准算法的计算复杂度,但这一方法还有一些缺点。首先,立体投影给局部传感器和区域平面的量测都引入了误差。尽管更高阶的近似可以将变换的精度保证到几米,但由于地球本身是一个椭圆形球而不是一个圆柱,因此地球非正圆球体造成的误差仍然存在。其次,立体投影扭曲了数据,值得注意的是立体投影的保角性只能保留方位角,而不能保留斜距。由此可以断定系统偏差将会依赖于量测,而不再是时不变的。这样,在区域平面上的二维配准模型就不能正确地表示实际的传感器模型。这时,一种直接在三维空间中对传感器偏差进行估计的基于地心坐标系的空间配准(Earth Centered Earth Fixed,ECEF)算法被提出以解决上述问题。

    3. 多传感器融合误差分析

    在多传感器融合系统中,来自多个传感器的数据通常要变换到相同的时空参照系中。但由于存在量测误差直接进行变换很难保证精度来发挥多传感器的优越性,因此在对多传感器数据进行处理时需要寻求一些传感器的配准算法,但配准误差也随之而来。

    多传感器配准的主要误差来源有:

    1. 传感器的误差,也就是传感器本身因制造误差带来的偏差;
    2. 各传感器参考系中量测的方位角、高低角和斜距偏差。通常是因量测系统解算传感器数据时造成的误差;
    3. 相对于公共坐标系的传感器的位置误差和计时误差。位置误差通常由传感器导航系统的偏差引起,而计时误差由传感器的时钟偏差所致;
    4. 各传感器采用的定位算法不同,从而引起单系统内局部定位误差;
    5. 各传感器本身的位置不确定为融合处理而进行坐标转换时产生偏差;
    6. 坐标转换的精度不够,为了减少系统的计算负担而在投影变换时采用了一些近似方法(如将地球视为标准的球体等)所导致的误差。

    由于以上原因,同一个目标由不同传感器定位产生的航迹基友一定的偏差。这种偏差不同于单传感器定位时对目标的随机量测误差,它是一种固定的偏差(至少在较长时间段内不会改变)。对于单传感器来说,目标航迹的固定偏差对各个目标来说都是一样的,只是产生一个固定的偏移,并不会影响整个系统的定位性能。而对于多传感器系统来说,本来是同一个目标的航迹,却由于互相偏差较大而被认为是不同的目标,从而给航迹关联和融合带来了模糊和困难,使融合处理得到的系统航迹的定位精度下降,丧失了多传感器处理本身应有的优点。

    4. 多传感器融合算法

    实现多传感器融合定位的算法有很多种,下面首先简要介绍一下各种数据融合算法及其优缺点。其中,卡尔曼滤波算法作为一种经典算法,由于其实时性强、融合精度高等优点,在自动驾驶领域中被广泛使用,下面将重点介绍卡尔曼滤波技术。

    4.1 数据融合算法概述

    目前,融合算法可概括为随机类和人工智能类。随机类多传感器数据融合算法主要有综合估计法、贝叶斯估计法、D-S证据推理、最大似然估计、贝叶斯估计、最优估计、卡尔曼滤波算法及鲁棒估计等。人工智能类多传感器数据融合算法主要有模糊逻辑法、神经网络算法及鲁棒估计等。人工智能类多传感器数据融合算法主要有模糊逻辑法、神经网络算法以及专家系统等。下面简介上述算法:

    用某种适当的模型来描述一个实际的物理系统,对分析、研究该物理系统是非常重要的。在导航、信号处理、通信、雷达、声呐等许多实际工程应用中,经常采用动态空间模型来描述其中的许多问题。动态空间模型是一个很重要的统计分析工具,如卡尔曼滤波器采用的高斯-马尔可夫线性模型就是一个很好的例子,它用状态方程(动力学方程)来描述状态随时间演变的过程,而用观测方程来描述与状态有关的噪声变量。同样的,只要将高斯-马尔可夫线性模型写成一般的数学映射,就可以用这两个方程来描述更一般的动态系统了:

    状 态 方 程 : X k = f ( X k − 1 , W k ) 观 测 方 程 : L k = h ( X k , V k ) 状态方程: X_{k}=f\left(X_{k-1}, W_{k}\right) \\ 观测方程: L_{k}=h\left(X_{k}, V_{k}\right) :Xk=f(Xk1,Wk):Lk=h(Xk,Vk) 上式被称为动态空间模型。其中, X k ∈ R k x X_{k} \in \mathbf{R}^{k_{x}} XkRkx 为系统在 k k k 时刻的状态, L k ∈ R k x L_{k} \in \mathbf{R}^{k_{x}} LkRkx 为系统状态 X k X_{k} Xk 的观测值; W k W_{k} Wk V k V_{k} Vk 分别为过程和观测噪声。

    1. 综合平均法:该算法是把来自多个传感器的众多数据进行综合平均。它适用于用同样的传感器检测同一个目标的情况。如果对一个检测目标进行了 k k k 次检测,其平均值 S ˉ = ∑ i = 1 k W i S i / ∑ i = 1 k W i , W i \bar{S}=\sum_{i=1}^{k} W_{i} S_{i} / \sum_{i=1}^{k} W_{i}, W_{i} Sˉ=i=1kWiSi/i=1kWi,Wi 为分配给第 i i i 次检测的权值。
    2. 贝叶斯估计法:贝叶斯估计理论是较经典的统计估计理论,具有更大的优势,逐渐 成为科学界推理的一个重要工具,提供了一种与传统算法不同的概率分布形式的估计。贝 叶斯推理技术主要用来进行决策层融合。贝叶斯估计法通过先验信息和样本信息合成为后 验分布,对检测目标做出推断。因此贝叶斯估计是一个不断预测和更新的过程。这样就包 括了观测值和先验知识在内的所有可以利用的信息,得到的估计误差自然较小。
    3. D-S 证据推理:D-S 证据推理是目前数据融合技术中比较常用的一种算法,该算法通常用来对检测目标的大小、位置以及存在与否进行推断,采用概率区间和不确定区间决定多证据下假设的似然函数来进行推理。提取的特征参数构成了该理论中的证据,利用这些证据构造相应的基本概率分布函数,对于所有的命题赋予一个信任度。基本概率分布函数及其相应的分辨框合称为一个证据体。因此,每个传感器就相当于一个证据体。而多个 传感器数据融合,实质上就是在同一分辨框下,利用 Dempster 合并规则将各个证据体合并成一个新的证据体,产生新证据体的过程就是 D-S 证据推理数据融合。
    4. 卡尔曼滤波算法:卡尔曼滤波在控制领域得到广泛应用以后,也逐渐成为多传感器数据融合系统的主要技术手段之一。联合卡尔曼滤波器的设计思想是先分散处理、再全局融合,即在诸多非相似子系统中选择一个信息全面、输出速率高、可靠性绝对保证的子系统作为公共参考系统,与其他子系统两两结合,形成若干子滤波器。各子滤波器并行运行,获得建立在子滤波器局部观测基础上的局部最优估计,这些局部最优估计在主滤波器内按融合算法合成,从而获得建立在所有观测基础上的全局估计。
    5. 模糊逻辑法:针对数据融合中所检测的目标特征具有某种模糊性的现象,利用模 糊逻辑算法来对检测目标进行识别和分类。建立标准检测目标和待识别检测目标的模糊子 集是此算法的研究基础。
    6. 神经网络算法:神经网络是一种试图仿效生物神经系统处理信息方式的新型计算模型。一个神经网络由多层处理单元或节点组成,可以用各种方法互联。在指挥和控制多传感器数据融合的系统中,神经网络的输入可能是与一个目标有关的测量参数集,输出可能 是目标身份,也可能是推荐的响应或行动。基于神经网络的融合优于传统的聚类算法,尤其 是当输人数据中带有噪声和数据不完整时。然而,要使神经网络算法在实际的融合系统中得到应用,无论在网络结构设计或是算法规则方面,还有许多基砩工作要做,如网络模型、网络的层次和每层的节点数、网络学习策略、神经网络算法与传统分类算法的关系和综合应用等。
    7. 专家系统:专家系统是一组计算机程序,它获取专家们在某个特定领域内的知识,然后根据专家的知识或经验导出一组规则,由计算机做出本应由专家做出的结论。目前,专家系统已在军用和民用领域得到了广泛应用。

    此外,其他数据融合算法还有品质因数、模板算法、聚合分析、统计决策理论等。各种融合算法的特点比较如下表所示:

    融合算法运行环境信息类型信息表示不确定性融合技术适用范围
    综合平均法动态冗余原始读数值——加权平均低层融合
    贝叶斯估计法静态冗余概率分布高斯噪声贝叶斯估计高层融合
    D-S 证据推理静态冗余互补命题——逻辑推理高层融合
    卡尔曼滤波动态冗余概率分布高斯噪声系统模型滤波低层融合
    模糊逻辑法静态冗余互补命题隶属度逻辑推理高层融合
    神经网络算法动、静态冗余互补神经元输入学习误差神经元网络低/高层融合
    专家系统静态冗余互补命题置信因子逻辑推理高层融合

    4.2 卡尔曼滤波算法

    4.2.1 卡尔曼滤波

    4.2.2 扩展卡尔曼滤波

    4.2.3 无迹卡尔曼滤波

    4.2.4 联邦卡尔曼滤波

    展开全文
  • 进一步,针对其弱可观测性,采用个被动传感器集中式融合跟踪策略,提出了基于无迹卡尔曼滤波的被动多传感器融合跟踪算法.以3个被动站跟踪为例进行仿真研究,结果表明所提出的算法可达到比经典的扩展卡尔曼滤波算法更高...
  • 无线传感器网络(Wireless SeNSor Network,WSN)集数据的采集、传输、融合分析于一体,在环境监测、医疗监护、城市交通管理、军事侦察等领域具有广阔的应用前景。无线传感器网络是应用相关型网络,不同的应用对数据...
  • 小结 针对用户提出的三大痛点问题,本文结合多传感器融合和地图匹配,提出了一套车载多传感器融合定位方案,并应用于实际,提高了在城市峡谷中的定位精度,并且取得了不错的效果。 然而,城市峡谷的定位精度问题很...

    点击上方“3D视觉工坊”,选择“星标”

    干货第一时间送达

    导读


    高德定位业务包括云上定位和端上定位两大模块。其中,云上定位主要解决Wifi指纹库、AGPS定位、轨迹挖掘和聚类等问题;端上定位解决手机端和车机端的实时定位问题。近年来,随着定位业务的发展,用户对在城市峡谷(高楼、高架等)的定位精度提出了更高的要求。

    特别是车机端定位,由于定位设备安装在车上,一方面,它可以搭载更丰富的定位传感器来解决特殊场景的问题,另一方面,各个传感器之间相互固连,有利于高精度的算法设计。这两点为车机端进一步提高导航精度的提供了可能。

    城市峡谷一直是车机端定位的痛点。原因是城市峡谷的环境使用户无法接收到GPS信号或GPS信号受干扰,导致GPS无定位结果或定位精度差。这是“有源定位”固有的缺点,无法从算法上来克服。

    针对这个问题,以GPS+IMU的多传感器融合方案越来越受到重视,因为“无源定位”的IMU恰好可以弥补GPS的短板。此外,车机还可以搭载里程计、视觉设备形成更丰富的多传感器融合方案。

    对高德而言,地图数据是定位业务的灵魂。多传感器融合只是定位业务中的一部分,如何把多传感器与地图数据结合起来,始终是我们在思考的问题。

    针对车机应用,我们使用GPS、IMU、里程计等传感器,结合高德地图的地图优势,提出了一种结合地图匹配(Map Matching)的多传感器融合算法——GPS/IMU/MM融合(软件+硬件的解决方案)。

    本文概述了车载多传感器融合定位项目背景,该项目确立是为了向用户提供好的导航定位服务。为了解决用户反馈的三大痛点问题:偏航重算、无法定位和抓路错误,结合算法和数据,提出了一套软件+硬件的解决方案。最后,用实测数据验证对用户反馈问题的改善程度。

    2.

    车载应用的痛点


    • 偏航重算:是指在高架或城市峡谷,信号遮挡引起位置点漂移;

    • 无法定位:是指在无信号区域(停车场、隧道)推算的精度低,导致出口误差大;

    • 抓路错误:是指主辅路、高架上下抓路错误。

    其中,导致偏航重算和无法定位直接原因是GPS定位精度差和DR航位推算精度差。GPS定位精度由观测环境决定,难以改善;DR航位推算精度与DR算法性能有关,尤其是里程计系统误差和陀螺零偏的标定精度。对于抓路错误,直接原因是正确道路与误抓道路相隔太近,受定位精度限制无法区分;根本原因是只使用位置信息进行抓路,没有发挥其它数据的价值。

    图1 用户痛点问题

    3.

    相关名词


    GPS(GlobalPositioning System):指美国国防部研制的全球定位系统。用户设备通过接收GPS信号,得到用户设备和卫星的距离观测值,经过特定算法处理得到用户设备的三维坐标、航向等信息。使用不同类型的观测值和算法,定位精度为厘米级到10米级不等。GPS的优点是精度高、误差不随时间发散,缺点是要求通视,定位范围无法覆盖到室内。

    IMU(Inertial measurementunit):指惯性测量单元。包括陀螺仪和加速度计。陀螺仪测量物体三轴的角速率,用于计算载体姿态;加速度计测量物体三轴的线加速度,可用于计算载体速度和位置。IMU的优点是不要求通视,定位范围为全场景;缺点是定位精度不高,且误差随时间发散。GPS和IMU是两个互补的定位技术。

    MM(Map matching):指地图匹配。该技术结合用户位置信息和地图数据,推算用户位于地图数据中的哪条道路及道路上的位置。

    4.

    技术方案


    车机融合定位项目解决的是道路级的定位问题,受限于硬件性能,目前市场上通用的技术方案有两种,如下表1所示:

    表1 通用方案

    方案

    代表

    偏航重算

    无法定位

    抓路错误

    软件

    (GNSS+MM)

    •  Apple

    • Google

    部分可解

    不可解

    不可解

    硬件

    (GNSS+IMU)

    • 奔驰

    • Trimble Ublox

    部分可解

    可解

    不可解

    这两种技术方案涉及到3种技术手段,在场景覆盖和精度上,它们各有所长,互相补充。如表2所示:

    表2 技术手段

    优势

    局限

    卫星定位(GNSS

    • 全局、绝对定位

    • 低成本

    • 信号易受干扰

    • 不能解决头部问题

    地图匹配(MM

    • 位置约束

    • 场景化

    • 提升定位精度,本身无定位能力

    • 解决部分偏航重算问题

    惯性导航(IMU

    • 输出连续可靠

    • 无需外部依赖

    • 误差累积发散

    • 解决无法定位问题

    表1表明,目前市面上存在的通用方案并不能完全解决偏航重算、无法定位和抓路错误这三个问题,尤其是抓路错误。为此,在技术层面上,我们将两套通用方案进行融合,提出了一套软+硬(GNSS+MM+DR)方案;在算法层面上,依靠高德的数据优势,以数据融合模块为核心,一方面提高定位结果可靠性,弥补硬件性能上的不足,另一方面对抓路错误问题进行专门的算法设计。

    更进一步,将用户反馈的三个问题解构为算法上解决的三个问题:器件误差标定、场景识别和数据融合。如图2所示:

    图2 业务问题解构图

    5.

    功能模块


    车机融合定位包括数据适配层(DataAdaptive Layer)、算法支撑层(Aided Navigation Layer)和融合层(NavigationLayer)。数据适配层负责将不同输入标准化、将信号同步;算法支撑层计算中间结果,为融合层服务;融合层是整个系统的核心,它负责融合算法支撑层输出的数据,得到可靠的导航信息。图3列出了各层所处位置及每个层的具体功能模块:

    图3 算法框架

    下面,将功能模块分为基础模块特色功能两个部分分别进行介绍。

    5.1 基础模块

    5.1.1 GPS质量评估

    GPS质量评估模块的功能是计算GPS位置、速度、航向角和全局可靠性指标。根据可靠性指标的大小将其投影到状态空间(GOOD、DOUBT、BAD、ABNORMAL)中,状态空间的值表征GPS数据质量的好坏。如图4所示:

    图4 GPS质量评估模块

    评估GPS质量有两个目的:第一,决定是否使用GPS数据进行器件误差标定或某些状态的判断(如转弯行为、动静状态等);第二,在数据融合模块,为设定GPS观测量的方差—协方差阵提供参考。

    5.1.2 器件补偿

    无GPS信号环境时,定位只能依靠DR算法。DR算法精度主要取决于IMU(陀螺仪和加速度计)和测速仪的误差,陀螺仪误差将引起位置误差随时间的二次方增长,测速仪误差将引起位置误差随时间线性增长,如图5所示:

    图5 位置误差与陀螺仪误差的关系

    为改善无GPS信号环境的定位精度,必须进行器件误差补偿。

    补偿模块的主要功能是利用GPS数据来补偿速度敏感器误差参数(比例因子)和IMU的误差参数(陀螺仪天向比例因子和陀螺仪三轴零偏)。补偿的目的是在无GPS信号或弱GPS信号的场景,仅靠DR算法也能得到较为可靠的导航信息。

    5.1.3 DR算法

    DR(DeadReckoning,航位推算)算法是指已知上一时刻导航状态(状态、速度和位置),根据传感器观测值推算到下一时刻的导航状态。DR算法包括姿态编排和位置编排两个部分。

    姿态编排使用的是AHRS(Attitude andheading reference system )融合算法,处理后输出车机姿态信息。姿态编排流程如图6所示:

    图6 AHRS融合算法

    位置编排是指结合姿态编排结果,对测速仪观测值进行积分后得到车机位置。

    5.1.4 融合算法

    车机融合定位项目使用了GNSS、MM和DR三项技术,每项技术能够提供全部或部分车机导航信息,如表3所示。以位置信息为例,GNSS、MM和DR都输出车机位置,但由于不同技术手段有各自的误差源,致使不同技术的定位结果并不相同。

    表3 GNSS/MM/DR提供的导航信息

    技术

    位置

    速度

    姿态

    GNSS

    提供

    提供

    部分提供(航向角)

    MM

    提供

    ——

    ——

    DR

    提供

    提供

    提供

    因此,融合算法有两个目的:第一,将不同技术的导航信息融合成唯一导航信息,使之可靠性高于未融合前的;第二,估计器件误差(陀螺仪零偏、测速仪尺度误差和导航误差等)。

    融合算法基于Kalman滤波实现,其关键在于模型建立和模型参数设置。Kalman滤波模型由状态转移方程和观测方程构成。状态转移方程表示相邻导航状态之间的转移关系,它通过构建导航误差微分方程实现;模型参数是指状态转移噪声和观测噪声,观测噪声的设置与GPS质量评估模块相关。

    经Kalman滤波处理后,得到导航误差的最优估值,如图7所示。即经过补偿得到了导航信息的最优估值。

    图7 融合算法模块

    5.2 特色功能

    5.2.1 主辅路识别

    以往的主辅路识别策略是通过DR输出的位置和方向与两条候选路的关系,选择最接近的候选路作为输出。但对于道路级定位系统而言,DR输出误差与两条路的差异在同一量级,误判的概率较高,所以,需要从一些驾驶特征来解决此问题,例如,路口附近的转弯、变道等。

    图8 主辅路街景

    如图9所示,具体步骤为:

    • 提取驾驶行为特征,求特征信息的转移概率;

    • 根据DR精度分类计算卷积和,求最终概率。

    图9 主辅路识别算法

    5.2.2 高架识别

    过去,高架识别策略是通过高程积分和阈值法来判断,识别效果受坡角误差和速度误差的影响。其中,速度误差与高程积分误差成正比,是影响高架识别准确率的主要原因。为克服这一缺点,我们结合MM技术,计算道路坡度与输出pitch角的接近程度(如图11所示),以避免引入速度误差。高架识别流程如图12所示:

    图10 高架街景

    图11 估算角度与道路角度匹配

    图12 高架识别流程

    5.2.2 停车场识别

    停车场识别是新增模块,是停车场定位导航的前置工作。停车场定位导航的主要目的是将车机用户导航到指定的停车位,其中涉及到室内外场景地图切换、层与层地图切换和导航等一系列问题。停车场识别的目的就是为这地图切换提供支持。

    停车场内容包括进出停车场识别和跨层识别。进出停车场识别是指利用停车场无GPS信号、上下坡、低速、高程变化等一系列特征判断车机是否进出停车场。停车场跨层识别是指利用上下坡、高程变化等特征判断车机是否在停车场内有跨层行为。识别流程如图13所示:

    图13 停车场识别流程图 (左:进出停车场识别,右:跨层识别)

    6.

    效果


    为验证本项目算法的效果,我们采集了实测数据,并从以下两方面验证:

    • 验证算法对用户痛点问题(偏航重算、无法定位和)的改善程度;

    • 与竞品及高德手机定位端产品性能的比较。

    6.1 融合抗漂

    针对高架和城市峡谷的偏航重算(位置漂移)问题,车机算法做了以下两点改进:

    • 多元参考:结合运动趋势、传感器信息和地图数据,将GPS可靠性归一化;

    • 场景分类:参考地图道路属性和GPS信号分布判断是否有遮挡。

    在高架下采集两圈数据,使用车机软件和市场某款同类软件进行处理,效果如图14所示。从近半年的测试来看,在GPS受遮挡的场景下,本项目的抗漂能力明显优于传统方案。

    图14 融合抗漂效果(上图为车机算法,下图为市场某同类产品)

    6.2 器件标定

    为验证有无陀螺仪动态零偏估计对DR方向和位置解算精度的影响,本项目采集了望京soho停车场的数据,经解算,效果如下。测试表明,经动态零偏补偿后,DR精度明显提高:

    • 零偏:动态零偏估计保证陀螺仪误差量级为0.01度/s;

    • 方向:停车场出口出的方向误差减小至40%以内,方向精度提升2倍以上;

    • 位置:停车场出口处的位置误差减小至25%以内,位置精度提升4倍以上。

    图15 soho停车场(左:无动态零偏估计,右:有动态零偏估计)

    6.3 主辅路识别

    为计算主辅路识别的成功率,统计了近千条主辅路的识别效果,识别率达到90%以上,大于某厂商产品的75%。

    6.4 横/纵向对比

    最后,我们与市面的中高端竞品进行了横向对比,与高德手机端定位产品进行了纵向对比。横向对比结果表明,在器件成本不到竞品成本10%的情况下,不超过某一阈值的位置误差、方向误差和速度误差的占比均在90%以上,相对竞品,提高了1%~5%。主辅助路识别准确率优于90%,相对于竞品提高了15%。

    纵向对比结果表明,在不同场景(高架,城市峡谷,环岛,停车场出口等)下,不超过某一阈值的位置误差占比提升15%~60%不等,这是因为车机算法对特殊场景(无GPS或弱GPS场景)进行了专门的算法设计和优化。全场景下的位置误差占比提升约20%。

    7.

    小结


    针对用户提出的三大痛点问题,本文结合多传感器融合和地图匹配,提出了一套车载多传感器融合定位方案,并应用于实际,提高了在城市峡谷中的定位精度,并且取得了不错的效果。

    然而,城市峡谷的定位精度问题很难彻底解决,它似乎是一个没有终点的难题。为此,站在用户的角度,我们需要不停思考:需要什么样的传感器技术、应该设计什么样的算法、如何挖掘数据的最大价值。

    本文仅做学术分享,如有侵权,请联系删文。

    下载1

    在「3D视觉工坊」公众号后台回复:3D视觉即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

    下载2

    在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

    下载3

    在「3D视觉工坊」公众号后台回复:相机标定即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配即可下载独家立体匹配学习课件与视频网址。

    重磅!3DCVer-学术论文写作投稿 交流群已成立

    扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

    同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

    一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

    ▲长按加微信群或投稿

    ▲长按关注公众号

    3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

    学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

     圈里有高质量教程资料、可答疑解惑、助你高效解决问题

    觉得有用,麻烦给个赞和在看~  

    展开全文
  • 无线传感器网络(Wireless Sensor Network,WSN)集数据的采集、传输、融合分析于一体,在环境监测、医疗监护、城市交通管理、军事侦察等领域具有广阔的应用前景。无线传感器网络是应用相关型网络,不同的应用对数据...
  • 多传感器融合研究(三)

    千次阅读 2020-10-04 15:56:34
    多传感器融合研究(三)前言论文研究四:牛津大学自动驾驶数据集 前言   过去几个月找工作,有段时间没有推进传感器融合方面的研究了,最近工作基本已经定下来了,可以继续研究推进下研究。 论文研究四:牛津大学...
  • 【EKF】(一)多传感器融合

    千次阅读 2018-07-10 10:33:40
    多传感器融合:温度测量 参考:https://home.wlu.edu/~levys/kalman_tutorial/ 这个教程中的part13~part14解释的非常到位,这个例子中使用两个传感器同时测量温度,然后进行KF融合,下面是这个教程的亮点: 因为...
  • 首先,局部传感器节点采用自适应的量化策略将观测值量化成消息,并发送到融合中心;然后,融合中心利用状态方程恒等变换和Cholesky分解技术解除任意噪声的相关性;最后,引入强跟踪滤波技术、矩阵求逆引理和顺序滤波...
  • 这里展示双天线可用时,如何在原卡尔曼滤波上做变形,也就是我们常说的多传感器融合策略。 参考代码在这里: TightlyCoupledINSGNSS/TC_KF_Epoch.m at master · benzenemo/TightlyCoupledINSGNSS​github.com ...
  • 除了汽车传感器系统中的多传感器融合,复杂的信号处理和传感器数据融合策略对整个系统的可用性和稳定性具有非常重要的意义。在本文中,我们考虑原始传感器的数据融合(低层次)和预处理测量点(高层次)的数据融合...
  • 来源:传感器专家网今天,我们的生活高度依赖传感器传感器作为人类“五感”的延伸,去感知这个世界,甚至可以观察到我们人体感知不到的细节,这种能力也是未来智能化社会所必须的。不过,单个传感器的...
  • 多传感器融合(三)

    2020-05-26 08:12:54
    多传感器融合(三) 十三.前融合与后融合 多传感器融合技术中的前融合、后融合 后融合算法典型结构 后融合算法: 1、每个传感器各自独立处理生成的目标数据。 2、每个传感器都有自己独立的感知,比如激光雷达有激光...
  • 据此提出一种利用模糊技术进行多传感器数据融合的温度趋势判别方法, 并结 合现场实际归纳了进行融合的数据种类,建立了实时专家系统控制策略。工业实践表明,该方法鲁棒性 强、 准确率高, 具有很强的实用性...
  • 进一步,针对其弱可观测性,采用个被动传感器集中式融合跟踪策略,提出了基于无迹卡尔曼滤波的被动多传感器融合跟踪算法.以3个被动站跟踪为例进行仿真研究,结果表明所提出的算法可达到比经典的扩展卡尔曼滤波...
  • 作者提出一种集成了级联的深度模型来检测标准化的道路元素,通过深层关键点对路灯和路标进行建模,通过分段三次样条曲线对车道进行参数化,包括三个部分:图像处理前端,传感器融合策略,优化后端。 主要贡献:1....
  • 幸运的是,当今的自动驾驶系统主要使用多传感器融合(MSF)算法,通常认为该算法有可能解决GPS欺骗问题。但是,没有任何研究表明当下的MSF算法在GPS欺骗的情况下是否足够安全。本文专注于生产级别的MSF,并确定了两...
  • 多传感器融合 | R-LINS概述

    千次阅读 2020-10-12 07:00:00
    点击上方“3D视觉工坊”,选择“星标”干货第一时间送达在大规模场景下的地图构建时候,纯激光雷达传感器无法很好的完成地图构建工作,这时需要考虑使用不同的传感器,获取多种数据来进行传感器的融...
  • 2.1 多传感器数据关联时的数据准备 2.1.1.预处理 一、 点迹过滤:基本依据是运动目标和固定目标跨周期的相关特性不同。** (1)保留雷达扫描5周期的信息,包括各个障碍物的坐标信息; (2)新点迹与之前5圈的点迹按...
  • 来源:GR-Fusion Multi-Sensor Fusion SLAM for Ground Robots with High Robustness and Low Drift IROS 2021 单位:中科院沈阳自动化研究所 针对问题: 针对地面机器人的多传感器融合SLAM系统 提出方法: 系统融合...
  • 基于多传感器数据融合的乘用车AEB控制策略研究.caj
  • 该方法以不确定性理论为基础,首先利用不同空域的传感器,获取人体不同部位的置信度,其次结合不同的融合策略实现对人体目标的识别。融合策略分为两种,第一种策略首先使用同空域融合,然后使用同时域融合,这种策略充分...
  • 人们提出了多传感器融合技术多传感器融合又称传感器信息融合,有时也称作传感器数据融合。以增加各个传感器之间的信息互通,提高整个系统的可靠性和稳健性,增强数据的可信度,提高精度,扩展系统的时间、空间...
  • 引入数据融合率来定义传感器网络中节点的融合能力, 并提出一种基于数据融合技术的分布式最优路由算 法, 最大化网络的寿命. 将路由决策过程描述为线性规划问题, 采用子梯度算法求取最优解, 得到了分布式的优化算...
  • (一)什么是多传感器融合?         利用计算机技术将来自传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,以完成所需要的决策和估计而进行的信息处理...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,030
精华内容 2,812
关键字:

多传感器融合策略