精华内容
下载资源
问答
  • OpenCV单目视觉定位(测量)C++代码

    热门讨论 2017-08-23 21:29:14
    OpenCV单目视觉定位(测量),能检测识别出自定义的物体标签,并计算出自定义物体距离摄像头光心的X,Y方向距离, 用于无人机/机器人视觉定位。
  • 单目视觉定位测距的两种方式

    万次阅读 多人点赞 2017-05-05 16:12:55
    单目定位和双目定位的选择,我觉得主要还是成本和时间的考虑。之前也尝试过双目定位,感觉要更精准些,但双目测距需要对两幅图像进行图像变换和极线匹配,稍微耗时了一些。这几天尝试了一下单摄像头进行测距定位,...

      单目定位和双目定位的选择,我觉得主要还是成本和时间的考虑。之前也尝试过双目定位,感觉要更精准些,但双目测距需要对两幅图像进行图像变换和极线匹配,稍微耗时了一些。这几天尝试了一下单摄像头进行测距定位,主要有两个思路:
      1.定位测量插值得到每个像素的实际坐标  
      该方法总觉得有很大的问题:一个是摄像头安装后就必须固定不动,稍微的旋转都会导致之间测量的像素点对应的坐标偏移。另一个是人工测量的工程量之大,对于1024*1280像素的摄像头,准确的测量就应该是130万个点,而就算我们按米来分割地面,10*20m2的地面也要测量200个点,就算可以通过算法自动识别,做200个标志就算测量画线也是令人头疼的。考虑到针孔成像模型的等比例放大,我们通过直接打印布满等距阵列圆点的纸来进行测量。
      其原理如下:
            几何
      根据相似三角形的等比例关系,有:

    EGBD=AGAD  

    GFDC=AGAD  
       
      同时又有:
    EGEB=AEAB  
      
      通过等式传递有:
    EGBD=GFDC=AEAB  
      

      如此一来,可以在较高距离测量等距阵列点(如标定板),经过插值,再进行等比例放大即可得到每个像素点对应的实际地面的坐标。
      
      处理的示意图如下:


    几何

      这样操作可以省去人工在地面测量绘画标志。测量好纸上的点距后再进行H/h的放大就可以得到像素对应实际地面的坐标。但实际操作过程中遇到的问题是图像上边缘的梯形失真过于严重,导致打印纸上的标志点不容易识别,因此还需要准备不同距离的等距阵列圆点图。

      2.根据相似三角比例计算出对应像素点的实际坐标  
      这个方法对摄像机标定的要求比较高,同时要求镜头本身造成的畸变就比较小,但总体来说这种方法的可移植性和实用性都较强。其主要的思路还是小孔成像的模型。
       模型一:假设测量的点都在Y轴上,此时无X轴分量  
    这里写图片描述
      该图主要有三个坐标系,分别是图像坐标系 UO1V ,以 O2 为原点的摄像机坐标系,世界坐标系 XO3Y 。(相关的内容我就不复述了,不懂的百度和知乎上都有,搜搜相机标定的知识)
      我们可以看到,世界坐标中的点通过光轴成像在图像坐标的点是成比例的,其比例媒介就是相机镜头中心在图像上的像素点O1与其在世界坐标中的实际点M,通过推导可以求解 O3P 的长度。(注意,由于相机安装一般都有误差,所以镜头中心点不一定是图像的中点,所以ucenter,vcenter不一定为0) 

      一步步推导如下:
      已知量:摄像机高度H
          图像坐标中心对应的世界坐标点与摄像头在y轴上的距离 O3M
          镜头中心点的图像坐标 (ucentervcenter)
          测量像素点的图像坐标 P1(u0       
          实际像素的长度xpix
          实际像素的宽度ypix。
          摄像头焦距f
          (镜头中心点图像坐标,焦距,像素长宽都可以由标定直接求解出来,通过halcon的标定助手可以很容易的得到,openCV也有相应的程序)
           α=arctan(HO3M)

           γ=arctan(O1P1×ypixf)=(vvcenter)ypixf

           β=αγ

           O3P=Htan(β)
      
      这样就可以得到垂直方向的坐标  Y=O3P
      
       模型二:假设测量的点有X轴、Y轴分量  

      针对以下模型图我们将进行说明:
    这里写图片描述
      一步步推导如下:
      已知量:摄像机高度H
          图像坐标中心对应的世界坐标点与摄像头在y轴上的距离 O3M
          镜头中心点的图像坐标 O1(ucentervcenter)
          测量像素点的图像坐标 P1(u0Q1uv       
          实际像素的长度xpix
          实际像素的宽度ypix
          摄像头焦距f
    (y轴方向计算和上一个模型相同,x轴计算是y轴坐标通过比例计算得到)
           α=arctan(HO3M)

           γ=arctan(O1P1×ypixf)=(vvcenter)ypixf

           β=αγ

           O3P=Htan(β)
      
      这样就可以得到垂直方向的坐标  Y=O3P

           O2P1=(vvcenter)xpix)2+f2

           O2P=Hsin(β)

      由 PQP1Q1=O2PO2P1  得到  PQ=O2P×P1Q1O2P1
      
      这样就可以得到垂直方向的坐标  X=PQ
       模型三:假设测量的点有X轴、Y轴分量,且物体有高度h    
      
      针对以下模型图我们将进行说明:
    这里写图片描述
      由于物体有高度,因此还需要进行一个投影变换,其实也还是相似变换 
      
      设真实的坐标 (X,Y) ,模型二求出的坐标 (X,Y)
      
      则 (X,Y)=(X,Y)×(1hH)
       模型评价    

      实际操作过程中,发现该模型在畸变较小的图像中误差较小,且在矫正畸变后的图像中测量的图像坐标可以得到更准确的值。另一方面,在实际操作过程中,发现由于镜头有稍微歪曲或者内置感光区域安装歪了,可能导致我们找不到真正的X,Y轴,所以在测量验证的时候会有稍许误差,但即便如此,在10米的定位下,误差也不到5%,效果还是可以接受的。如果有人知道如何找到真正的X,Y轴,请博客留言告知一下,先谢谢了。

    展开全文
  • 单目摄像头实时视觉定位 单目摄像头实时视觉定位 单目摄像头实时视觉定位 单目摄像头实时视觉定位 单目摄像头实时视觉定位 单目摄像头实时视觉定位
  • 针对多种单目视觉SLAM算法进行对比研究,分析了近10年来流行的单目视觉定位算法的主要思路及其分类,指出基于优化方法正取代滤波器方法成为主流方法。从初始化、位姿估计、地图创建、闭环检测等功能组件的角度分别...
  • 增强现实是一种在现实场景中无缝地融入虚拟物体或信息的技术, 能够比传统的... 然后介绍几个代表性的基于单目视觉的同时定位与地图构建方 法并做深入分析和比较; 最后讨论近年来研究热点和发展趋势, 并做总结和展望.
  • 单目视觉测距的原理与模型的介绍,重点介绍单目视觉测距的原理
  • 单目定位和双目定位的选择,我觉得主要还是成本和时间的考虑。之前也尝试过双目定位,感觉要更精准些,但双目测距需要对两幅图像进行图像变换和极线匹配,稍微耗时了一些。这几天尝试了一下单摄像头进行测距定位,...

             单目定位和双目定位的选择,我觉得主要还是成本和时间的考虑。之前也尝试过双目定位,感觉要更精准些,但双目测距需要对两幅图像进行图像变换和极线匹配,稍微耗时了一些。这几天尝试了一下单摄像头进行测距定位,主要有两个思路:

    1.定位测量插值得到每个像素的实际坐标

            该方法总觉得有很大的问题:一个是摄像头安装后就必须固定不动,稍微的旋转都会导致之间测量的像素点对应的坐标偏移。另一个是人工测量的工程量之大,对于1024*1280像素的摄像头,准确的测量就应该是130万个点,而就算我们按米来分割地面,10*20m2的地面也要测量200个点,就算可以通过算法自动识别,做200个标志就算测量画线也是令人头疼的。考虑到针孔成像模型的等比例放大,我们通过直接打印布满等距阵列圆点的纸来进行测量。
    其原理如下:

            如此一来,可以在较高距离测量等距阵列点(如标定板),经过插值,再进行等比例放大即可得到每个像素点对应的实际地面的坐标。

    处理的示意图如下:

    几何

            这样操作可以省去人工在地面测量绘画标志。测量好纸上的点距后再进行H/h的放大就可以得到像素对应实际地面的坐标。但实际操作过程中遇到的问题是图像上边缘的梯形失真过于严重,导致打印纸上的标志点不容易识别,因此还需要准备不同距离的等距阵列圆点图。

    2.根据相似三角比例计算出对应像素点的实际坐标

             这个方法对摄像机标定的要求比较高,同时要求镜头本身造成的畸变就比较小,但总体来说这种方法的可移植性和实用性都较强。其主要的思路还是小孔成像的模型。

    模型一:假设测量的点都在Y轴上,此时无X轴分量

    这里写图片描述
             该图主要有三个坐标系,分别是图像坐标系UO1V,以O2为原点的摄像机坐标系,世界坐标系XO3Y。(相关的内容我就不复述了,不懂的百度和知乎上都有,搜搜相机标定的知识)
             我们可以看到,世界坐标中的点通过光轴成像在图像坐标的点是成比例的,其比例媒介就是相机镜头中心在图像上的像素点O1与其在世界坐标中的实际点M,通过推导可以求解O3P的长度。(注意,由于相机安装一般都有误差,所以镜头中心点不一定是图像的中点,所以ucenter,vcenter不一定为0)

    一步步推导如下:

    已知量:

    摄像机高度H
    图像坐标中心对应的世界坐标点与摄像头在y轴上的距离O3M

    镜头中心点的图像坐标(ucenter,vcenter)
    测量像素点的图像坐标P1(u,0)
    实际像素的长度xpix
    实际像素的宽度ypix。
    摄像头焦距f
    (镜头中心点图像坐标,焦距,像素长宽都可以由标定直接求解出来,通过halcon的标定助手可以很容易的得到,openCV也有相应的程序)


    这样就可以得到垂直方向的坐标 Y=O3P

    模型二:假设测量的点有X轴、Y轴分量

    针对以下模型图我们将进行说明:这里写图片描述

    一步步推导如下:
    已知量:

    摄像机高度H
    图像坐标中心对应的世界坐标点与摄像头在y轴上的距离O3M

    镜头中心点的图像坐标O1(ucenter,vcenter)
    测量像素点的图像坐标P1(u,0)、Q1(u,v)
    实际像素的长度xpix
    实际像素的宽度ypix
    摄像头焦距f
    (y轴方向计算和上一个模型相同,x轴计算是y轴坐标通过比例计算得到)


    这样就可以得到垂直方向的坐标 Y=O3P

    这样就可以得到垂直方向的坐标 X=PQ
    模型三:假设测量的点有X轴、Y轴分量,且物体有高度h

    针对以下模型图我们将进行说明:
    这里写图片描述这里写图片描述
    由于物体有高度,因此还需要进行一个投影变换,其实也还是相似变换

    设真实的坐标(X′,Y′),模型二求出的坐标(X,Y)


    模型评价

           实际操作过程中,发现该模型在畸变较小的图像中误差较小,且在矫正畸变后的图像中测量的图像坐标可以得到更准确的值。另一方面,在实际操作过程中,发现由于镜头有稍微歪曲或者内置感光区域安装歪了,可能导致我们找不到真正的X,Y轴,所以在测量验证的时候会有稍许误差,但即便如此,在10米的定位下,误差也不到5%,效果还是可以接受的。如果有人知道如何找到真正的X,Y轴,请博客留言告知一下,先谢谢了。

        matlab计算代码下载http://download.csdn.net/download/sillykog/10048668

    展开全文
  • 一种单目视觉实时定位的方法【专利摘要】本发明涉及一种单目视觉实时定位的方法。本发明首先对摄像头进行标定,以获取内参数矩阵。然后标定好摄像头后,根据基本的小孔成像原理,通过几何变换求解出需要测量的地面...

    一种单目视觉实时定位的方法

    【专利摘要】本发明涉及一种单目视觉实时定位的方法。本发明首先对摄像头进行标定,以获取内参数矩阵。然后标定好摄像头后,根据基本的小孔成像原理,通过几何变换求解出需要测量的地面指定点到参考点的距离和向量与小车中心线的角度。本发明在一般的几何换算定位基础上,考虑到摄像头主点一般不在图像中心,进行了几何修正,提高了测量精度。

    【专利说明】一种单目视觉实时定位的方法【技术领域】

    [0001]本发明属于计算机几何学领域,适合于实时测量二维平面上目标点到参考点的距离以及角度。

    【背景技术】

    [0002]目标定位的方法有激光测距法,GPS定位法,还有图像处理法等。在激光测距这种主动测距方法,往往会因为被测物体的形状不规则,或者激光束偏离被测物体而造成测量精度偏低,无法在实际生活中运用;GPS定位虽然比较准确,但是成本比较高,需要在被测物体上搭建GPS系统,如果对于测量未知障碍物的距离就不适合了。在基于图像的定位上,有基于单目视觉定位和多目视觉定位方法。多目定位通常是匹配多个摄像头拍摄图像的特征点序列,用三角测量法求解视差,最后恢复被测物体在世界坐标系下的坐标,这种方法虽然可以比较准确的恢复出三维场景,但是在匹配上可能因为特征点的误配,造成测量不准。单目定位结构简单,实时性比较高,可以在短时间内快速得到比较准确的结果。

    【发明内容】

    [0003]本发明的目地是为了解决当前一些定位方法的实时性不高、成本过高的问题,提出一种单目视觉实时定位的方法,与多目视觉定位相比本发明结构简单易于实现;与其他的单目视觉定位相比,本发明精准度高,且实时性强。

    [0004]本发明采用的具体技术方案如下:

    [0005]将广角摄像头固定在一辆小车上,让摄像头以一定的俯角朝下,确定测量摄像头到地面的高度h,小车的长度I,摄像头俯仰角Y C1,小车正前方的参考点M到小车的距离D,以及摄像头的水平视角2α和垂直视角2β ;在获取以上参数后,设摄像头拍摄的图片大小HXW,目标P点在图像中为P,参考点M在图像中为m,摄像头光轴与地面交点G在图像中为主点g,采用如下步骤标定摄像头,以获取内参数矩阵R:

    [0006]第一步,制作标定板。

    [0007]打印出7X8正方形黑白格标定模版,将其固定在一个平整的方形板上,测量任意一个方形格的长度I1。

    [0008]第二步,标定摄像头。

    [0009]按不同的方位摆放标定板,保证摄像头把全部的方形格都拍到,得到N张图像;用Matlab标定工具箱载入全部的图像,输入I1的大小,标定摄像头;最后得到摄像头内参数矩阵R,其中R包括主点图像平面坐标(cx,cy),以及摄像头的X轴方向的焦距fx与I轴方向的焦距fy。

    [0010]标定好摄像头后,根据基本的小孔成像原理,通过几何变换求解出需要测量的地面指定点P到参考点M的距离D1和向量元?与小车中心线的角度angle,具体求解方案如下:

    [0011]第一步:建立P点和M点,以及交点G的二维坐标计算式,具体是:[0012]以G为原点,Y轴为光轴的投影线,X轴垂直Y轴以小车右侧为正,建立直角坐标系XGY ;根据简单的几何变换,得出地面上任何一点i在此坐标下的坐标:

    【权利要求】

    1.一种单目视觉实时定位的方法,其特征在于: 将广角摄像头固定在一辆小车上,让摄像头以一定的俯角朝下,确定测量摄像头到地面的高度h,小车的长度1,摄像头俯仰角Ytl,小车正前方的参考点M到小车的距离D,以及摄像头的水平视角2α和垂直视角2β ;在获取以上参数后,设摄像头拍摄的图片大小HXW,目标P点在图像中为ρ,参考点M在图像中为m,摄像头光轴与地面交点G在图像中为主点g,采用如下步骤标定摄像头,以获取内参数矩阵R: 第一步,制作标定板; 打印出7X8正方形黑白格标定模版,将其固定在一个平整的方形板上,测量任意一个方形格的长度I1 ; 步,标定摄像头 按不同的方位摆放标定板,保证摄像头把全部的方形格都拍到,得到N张图像;用Matlab标定工具箱载入全部的图像,输入I1的大小,标定摄像头;最后得到摄像头内参数矩阵R,其中R包括主点图像平面坐标(cx,cy),以及摄像头的X轴方向的焦距fx与I轴方向的焦距fy ; 标定好摄像头后,根据基本的小孔成像原理,通过几何变换求解出需要测量的地面指定点P到参考点M的距离D1和向量巧?与小车中心线的角度angle,具体求解方案如下:第一步:建立P点和M点,以及交点G的二维坐标计算式,具体是: 以G为原点,Y轴为光轴的投影线,X轴垂直Y轴以小车右侧为正,建立直角坐标系XGY ;根据简单的几何变换,得出地面上任何一点i在此坐标下的坐标:

    【文档编号】G01C3/10GK104034305SQ201410255274

    【公开日】2014年9月10日 申请日期:2014年6月10日 优先权日:2014年6月10日

    【发明者】戴国骏, 曾虹, 周天宝, 童辉, 郑嘉强 申请人:杭州电子科技大学

    展开全文
  • 为解决基于单目视觉的像机空间定位问题, 基于射影几何原理, 提出了一种利用特殊标志 点的空间几何信息和光学像机实现像机与标志点的相对位姿测量, 进而推算像机的空间坐标位置 的方法。该方法避免了计算过程中对每帧...
  • <p> 单目定位和双目定位的选择,我觉得主要还是成本和时间的考虑。之前也尝试过双目定位,感觉要更精准些,但双目测距需要对两幅图像进行图像变换和极线匹配,稍微耗时了一些。这几天尝试了一下单摄像头进行测距...
    版权声明:本文为陈默含原创文章,未经博主允许不得转载。 https://blog.csdn.net/sillykog/article/details/71214107
                                            <div class="markdown_views">
                <p>  单目定位和双目定位的选择,我觉得主要还是成本和时间的考虑。之前也尝试过双目定位,感觉要更精准些,但双目测距需要对两幅图像进行图像变换和极线匹配,稍微耗时了一些。这几天尝试了一下单摄像头进行测距定位,主要有两个思路: <br>
    

      1.定位测量插值得到每个像素的实际坐标  
      该方法总觉得有很大的问题:一个是摄像头安装后就必须固定不动,稍微的旋转都会导致之间测量的像素点对应的坐标偏移。另一个是人工测量的工程量之大,对于1024*1280像素的摄像头,准确的测量就应该是130万个点,而就算我们按米来分割地面,10*20m2的地面也要测量200个点,就算可以通过算法自动识别,做200个标志就算测量画线也是令人头疼的。考虑到针孔成像模型的等比例放大,我们通过直接打印布满等距阵列圆点的纸来进行测量。
      其原理如下:
            几何
      根据相似三角形的等比例关系,有:

    http://www.w3.org/1998/Math/MathML&quot;>EGBD=AGAD” role=”presentation” style=”position: relative;”>EGBD=AGADEGBD=AGAD 

    http://www.w3.org/1998/Math/MathML&quot;>GFDC=AGAD” role=”presentation” style=”position: relative;”>GFDC=AGADGFDC=AGAD 
       
      同时又有:
    http://www.w3.org/1998/Math/MathML&quot;>EGEB=AEAB” role=”presentation” style=”position: relative;”>EGEB=AEABEGEB=AEAB 
      
      通过等式传递有:
    http://www.w3.org/1998/Math/MathML&quot;>EGBD=GFDC=AEAB” role=”presentation” style=”position: relative;”>EGBD=GFDC=AEABEGBD=GFDC=AEAB 
      

      如此一来,可以在较高距离测量等距阵列点(如标定板),经过插值,再进行等比例放大即可得到每个像素点对应的实际地面的坐标。
      
      处理的示意图如下:


    几何

      这样操作可以省去人工在地面测量绘画标志。测量好纸上的点距后再进行H/h的放大就可以得到像素对应实际地面的坐标。但实际操作过程中遇到的问题是图像上边缘的梯形失真过于严重,导致打印纸上的标志点不容易识别,因此还需要准备不同距离的等距阵列圆点图。

      2.根据相似三角比例计算出对应像素点的实际坐标  
      这个方法对摄像机标定的要求比较高,同时要求镜头本身造成的畸变就比较小,但总体来说这种方法的可移植性和实用性都较强。其主要的思路还是小孔成像的模型。
       模型一:假设测量的点都在Y轴上,此时无X轴分量  
    这里写图片描述
      该图主要有三个坐标系,分别是图像坐标系UO1V” role=”presentation” style=”position: relative;”>UO1VUO1V。(相关的内容我就不复述了,不懂的百度和知乎上都有,搜搜相机标定的知识)
      我们可以看到,世界坐标中的点通过光轴成像在图像坐标的点是成比例的,其比例媒介就是相机镜头中心在图像上的像素点O1与其在世界坐标中的实际点M,通过推导可以求解O3P” role=”presentation” style=”position: relative;”>O3PO3P的长度。(注意,由于相机安装一般都有误差,所以镜头中心点不一定是图像的中点,所以ucenter,vcenter不一定为0) 

      一步步推导如下:
      已知量:摄像机高度H
          图像坐标中心对应的世界坐标点与摄像头在y轴上的距离O3M” role=”presentation” style=”position: relative;”>O3MO3M
          镜头中心点的图像坐标(ucenter&#xFF0C;vcenter)” role=”presentation” style=”position: relative;”>(ucentervcenter)(ucenter,vcenter)
          测量像素点的图像坐标P1(u&#xFF0C;0&#xFF09;” role=”presentation” style=”position: relative;”>P1(u0P1(u,0)      
          实际像素的长度xpix
          实际像素的宽度ypix。
          摄像头焦距f
          (镜头中心点图像坐标,焦距,像素长宽都可以由标定直接求解出来,通过halcon的标定助手可以很容易的得到,openCV也有相应的程序)
          &#x3B1;=arctan(HO3M)” role=”presentation” style=”position: relative;”>α=arctan(HO3M)α=arctan(HO3M)

          &#x3B3;=arctan(O1P1&#x00D7;ypixf)=(v&#x2212;vcenter)&#x2217;ypixf” role=”presentation” style=”position: relative;”>γ=arctan(O1P1×ypixf)=(vvcenter)ypixfγ=arctan(O1P1×ypixf)=(v−vcenter)∗ypixf

          &#x3B2;=&#x3B1;&#x2212;&#x3B3;” role=”presentation” style=”position: relative;”>β=αγβ=α−γ

          O3P=Htan(&#x3B2;)” role=”presentation” style=”position: relative;”>O3P=Htan(β)O3P=Htan(β)
      
      这样就可以得到垂直方向的坐标 Y=O3P” role=”presentation” style=”position: relative;”>Y=O3PY=O3P
      
       模型二:假设测量的点有X轴、Y轴分量  

      针对以下模型图我们将进行说明:
    这里写图片描述
      一步步推导如下:
      已知量:摄像机高度H
          图像坐标中心对应的世界坐标点与摄像头在y轴上的距离O3M” role=”presentation” style=”position: relative;”>O3MO3M
          镜头中心点的图像坐标O1(ucenter&#xFF0C;vcenter)” role=”presentation” style=”position: relative;”>O1(ucentervcenter)O1(ucenter,vcenter)
          测量像素点的图像坐标P1(u&#xFF0C;0&#xFF09;&#x3001;Q1&#xFF08;u&#xFF0C;v&#xFF09;” role=”presentation” style=”position: relative;”>P1(u0Q1uvP1(u,0)、Q1(u,v)      
          实际像素的长度xpix
          实际像素的宽度ypix
          摄像头焦距f
    (y轴方向计算和上一个模型相同,x轴计算是y轴坐标通过比例计算得到)
          &#x3B1;=arctan(HO3M)” role=”presentation” style=”position: relative;”>α=arctan(HO3M)α=arctan(HO3M)

          &#x3B3;=arctan(O1P1&#x00D7;ypixf)=(v&#x2212;vcenter)&#x2217;ypixf” role=”presentation” style=”position: relative;”>γ=arctan(O1P1×ypixf)=(vvcenter)ypixfγ=arctan(O1P1×ypixf)=(v−vcenter)∗ypixf

          &#x3B2;=&#x3B1;&#x2212;&#x3B3;” role=”presentation” style=”position: relative;”>β=αγβ=α−γ

          O3P=Htan(&#x3B2;)” role=”presentation” style=”position: relative;”>O3P=Htan(β)O3P=Htan(β)
      
      这样就可以得到垂直方向的坐标 Y=O3P” role=”presentation” style=”position: relative;”>Y=O3PY=O3P

          O2P1=(v&#x2212;vcenter)&#x2217;xpix)2+f2” role=”presentation” style=”position: relative;”>O2P1=(vvcenter)xpix)2+f2−−−−−−−−−−−−−−−−−−−−−−√O2P1=(v−vcenter)∗xpix)2+f2

          O2P=Hsin(&#x3B2;)” role=”presentation” style=”position: relative;”>O2P=Hsin(β)O2P=Hsin(β)

      由PQP1Q1=O2PO2P1” role=”presentation” style=”position: relative;”>PQP1Q1=O2PO2P1PQP1Q1=O2PO2P1
      
      这样就可以得到垂直方向的坐标 X=PQ” role=”presentation” style=”position: relative;”>X=PQX=PQ
       模型三:假设测量的点有X轴、Y轴分量,且物体有高度h    
      
      针对以下模型图我们将进行说明:
    这里写图片描述
      由于物体有高度,因此还需要进行一个投影变换,其实也还是相似变换 
      
      设真实的坐标(X&#x2032;,Y&#x2032;)” role=”presentation” style=”position: relative;”>(X,Y)(X′,Y′)
      
      则(X&#x2032;,Y&#x2032;)=(X,Y)&#x00D7;(1&#x2212;hH)” role=”presentation” style=”position: relative;”>(X,Y)=(X,Y)×(1hH)(X′,Y′)=(X,Y)×(1−hH)
       模型评价    

      实际操作过程中,发现该模型在畸变较小的图像中误差较小,且在矫正畸变后的图像中测量的图像坐标可以得到更准确的值。另一方面,在实际操作过程中,发现由于镜头有稍微歪曲或者内置感光区域安装歪了,可能导致我们找不到真正的X,Y轴,所以在测量验证的时候会有稍许误差,但即便如此,在10米的定位下,误差也不到5%,效果还是可以接受的。如果有人知道如何找到真正的X,Y轴,请博客留言告知一下,先谢谢了。

    转载自:https://blog.csdn.net/sillykog/article/details/71214107

    展开全文
  • 单目视觉移动机器人目标定位改进方法,彭磊,张赤斌,为了实现单目视觉移动机器人对目标物体的定位,本文提出了一种基于相机针孔成像模型与几何坐标映射变换原理的目标定位方法。通过
  • 1 单目视觉SLAM分类方法 1.1 基于概率框架的单目视觉SLAM 1.2 基于非概率框架的单目视觉SLAM方法 SLAM最先由Smith Self 和 Cheeseman于1987年提出,被认为是实现移动机器人真正自主的关键。 视觉传感器信息量大...
  • 介绍了单目视觉跟踪定位系统的原理、组成,采用Hough变换提取运动目标的特征圆进行检测,基于邻域线性搜索与卡尔曼滤波器相结合的跟踪算法,准确实现运动目标的跟踪定位和运动轨迹的三维重建,并进行了相应的实验验证...
  • 单目视觉的运动目标跟踪定位

    万次阅读 2017-04-12 08:10:00
    欢创科技CEO周琨,详细讲解单目定位技术
  • 单目视觉里程计–基于视差角的单目视觉里程计MPVO 图像预处理说明 在介绍本算法之前,先说明图像处理的基本知识。环境中的地图点,地图点的集合就是点云,地图点就是图像处理时的特征点。地图点在相机上的观测点,...
  • 摘要: 增强现实是一种在现实场景中无缝地融入虚拟物体或信息的技术, 能够比传统的文字、图像和视频等方式 ...先简述基于视觉的同时定位与地图构建的基本原理; 然后介绍几个代表性的基于目视...
  • 【机器视觉】 单目视觉测距

    万次阅读 多人点赞 2018-01-25 15:54:47
    单目视觉测距 2016-03-05 23:43 1800人阅读 评论(0) 收藏 举报  分类: 视觉(6)  版权声明:本文为博主原创文章,未经博主允许不得转载。 1、引言 近年来,由于无人机、
  • VI-SLAM加入GPS通过求解优化如下目标函数三、代表性单目V-SLAM系统3.1 基于滤波的V-SLAM3.2 基于关键帧BA的V-SLAM总结 摘要 增强现实是一种在现实场景中无缝地融入虚拟物体或信息的技术,能够比传统的文字、图像和...
  • Python-OpenCV的单目视觉测距

    千次阅读 2020-08-08 11:06:49
        前言:        ...视觉测距作为机器视觉领域内基础技术之一而受到广泛的关注,其在机器人领域内占有重要的地位,广泛应用...而单目视觉结构简单,运算速度快而具有
  • 非滤波单目视觉

    2018-03-06 15:24:11
    非滤波单目视觉slam主要分为以下8部分数据类型数据关联初始化位姿估计地图维护地图生成失效恢复回环检测数据类型直接法(稠密,半稠密)基本原理是亮度一致性约束,J(x,y)=I(x+u(x,y)+v(x,y)) ,x,y是图像的像素坐标...
  • 非滤波单目视觉SLAM系统研究 转载 2017年01月11日 16:31:34 标签:SLAM /monocular salm /SVO /ORB /PTAM 997 非滤波单目视觉SLAM系统研究 A survey on non-filter-based monocular Visual SLAM ...
  • 上回说到,我们回顾了机器视觉的基础知识,然后一顿操作之后得到了相机内参A和畸变系数dist. 现在我们开始定位目标的坐标。 这个过程包括几个子部分: 1. 标记检测 2. 指定世界坐标系,求相机外参 3. 确定目标的...
  • 单目摄像头: 识别目标 — 测距 需要大量的数据,并且不断更新和维护 应用于自动驾驶的路况判断 双目摄像头: 通过两幅图像的视差计算来确定距离,类似人的双眼,不需要知道障碍物是什么。 靠计算来进行测距,...
  • 本着开放共享的精神,以及为挽救同胞们的头发着想,有必要把原理和过程写下来。所以本文将叙述:如何使用五毛钱成本搭建一个基于视觉的目标测量平台。 目的和环境 人为指定空房间的坐标系,例如左下角是原点,...
  • 为获取视觉交互系统中人机距离信息, 利用摄像头检测人脸特征区域、完成人脸与摄像机距离测量。首先通过改进的AdaBoost算法快速检测并定位特征区域, 其次利用系统约束条件、摄像机标定原理和面积映射关系推导像距...
  • 机器视觉测量主要分为:单目视觉测量、双目视觉测量、结构光视觉测量等。结构光由于光源的限制,应用的场合比较固定;双目视觉难点在于特征点的匹配,影响了测量的精度和效率,其理论研究的重点集中于特征的匹配上;...
  • 非滤波单目视觉SLAM系统研究

    千次阅读 2017-01-11 16:31:34
    非滤波单目视觉SLAM系统研究 A survey on non-filter-based monocular Visual SLAM systems Taylor Guo, 2016年9月12日   摘要 滤波(卡尔曼滤波,粒子滤波)视觉SLAM更通用,非滤波(运动结构估计)方案更有效率。...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,296
精华内容 918
关键字:

单目视觉定位原理