精华内容
下载资源
问答
  • 视差图测量距离
    万次阅读
    2018-10-24 09:46:41

    视差图推出深度图

    相机成像的模型如下图所示:
    P为空间中的点,P1和P2是点P在左右像平面上的成像点,f是焦距,OR和OT是左右相机的光心。由下图可见左右两个相机的光轴是平行的。XR和XT是两个成像点在左右两个像面上距离图像左边缘的距离。
    在这里插入图片描述
    若两个相机已经校正完成即达到极线平行,两条光轴方向也平行。则视差和物体深度的关系式如下:
    在这里插入图片描述
    可推导
    在这里插入图片描述
    其中d为视差
    根据公式易得,b,f是常数,Z与d成反比,即深度越小视差越大,距离近的物体视差大。这也就是视差图中近的的物体颜色越深的原因。
    由上面两幅图,可知距离像面越近的点,它在左右相机中的视差越大,距离像面越远的点,它在左右相机中的视差越小。
    深度Z和视差的关系图如下:
    在这里插入图片描述

    更多相关内容
  • 视差图转为深度

    千次阅读 热门讨论 2020-06-16 11:09:46
    有人容易把视差图跟深度搞混,一切还是要从这个公式说起:Z=f*B/d Z是深度,B是双目相机的光心间距(基线长度),f是相机焦距,d就是视差(左右相机对应特征像素坐标差值)。 而我们说的视差图就是灰度的灰度值...

    有人容易把视差图跟深度图搞混,一切还是要从这个公式说起:Z=f*B/d
    Z是深度,B是双目相机的光心间距(基线长度),f是相机焦距,d就是视差(左右相机对应特征像素坐标差值)。
    而我们说的视差图就是灰度图的灰度值为d的时候,想转化为Z就变成了深度图,所以这是个并不复杂的问题。
    代码里fx是内参的值,x方向的焦距,baseline是基线长。
    这里要注意深度图的类型,不同图像类型的尺度范围是不一样的,那么如果直接用于距离测量得到的只是一个相对深度,而不是精确的距离。如果图像的类型是CV_8UC1,那么对应的标识符要变成uchar ,CV_8S对应的是char, CV_16U对应的标识符应该是ushort.也就是说标识符要和图像数据类型相对应。short d = img.ptr<uchar>(row)[col];
    下面三个图就是在不同数据类型下产生的效果,坑也挺多的,这里生成的深度图的数值还不是真实的距离,因为在进行数据类型变换的时候数值尺度变了,OpenCV里面reprojectImageTo3D(disp, xyz, Q, true)这个函数得到的才是真实的三坐标值它计算出来的结果CV_16S或者CV_32S类型的, sgbm立体匹配算法出来的结果是CV_16S 类型的,在转换的过程中要确保前后尺度一致,可以简单的思考一下,d是视差值,大小不可能超过图像的分辨率,如果视差图的像素值超过了说明在类型变换的时候尺度变了。

    关于这些细节我懂的也不多,欢迎补充。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    根据Mat.type()输出的值判断图像的类型

    #include <iostream>
    #include <opencv2/core/core.hpp>
    #include <opencv2/highgui/highgui.hpp>
    
    using namespace std;
    using namespace cv;
    
    const double fx = 4152.073;
    const double baseline = 176.252;
    
    
    int main(int argc, char** argv)
    {
            Mat img = imread("E:\\intern\\depth\\disp0.png",0);
        cout << img.type();
    
       // Mat img = imread("E:\\intern\\depth\\disp0.png");
        Mat depth(img.rows, img.cols, CV_16S);  //深度图
        cout<< depth.type()<<endl;//https://blog.csdn.net/sysleo/article/details/96445786   查看图像类型,输出的数值去网站查表
        //视差图转深度图
        for (int row = 0; row < depth.rows; row++)
        {
            for (int col = 0; col < depth.cols; col++)
            {
                short d = img.ptr<uchar>(row)[col];
    
    
                if (d == 0)
                    continue;
    
                depth.ptr<short>(row)[col] = fx * baseline / d;
            }
        }
        namedWindow("img", 0);
        namedWindow("depth", 0);
        imshow("img", img);
        imshow("depth", depth);
        waitKey(0);
    }
    

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    毕竟是灰度图看起来不舒服,可以参考我的另外一篇文章转为伪彩色深度图
    在这里插入图片描述

    展开全文
  • 目录一、视差计算原理1.1NCC视差匹配方法1.2 双目立体匹配二、实验内容2.1不同窗口对匹配结果的影响2.2 分析三、实验代码四、总结一、视差计算原理1.1NCC视差匹配方法归一化相关性(normalization cross-correlation)...

    目录

    一、视差计算原理

    1.1 NCC视差匹配方法

    1.2 双目立体匹配

    二、实验内容

    2.1 不同窗口对匹配结果的影响

    2.2 分析

    三、实验代码

    四、总结

    一、视差计算原理

    1.1 NCC视差匹配方法

    归一化相关性(normalization cross-correlation),简称NCC。其是对图像内的像素点来构建一个n

    n的邻域作为匹配窗口,然后对目标像素位置同样的构建一个n

    n大小的匹配窗口,对两个窗口进行相似度度量。对于两幅图像来说,在进行NCC计算之前要对图像进行处理,也就是讲两帧图像进行极线校正,使两帧图像的光心处于同一水平线上。通过校正极线可以方便NCC操作。

    NCC计算公式如下:

    为匹配窗口;

    为原始图像的像素值;

    I1​​(px​,py​)为原始窗口内像素的均值,

    为原始图像在目标图像上对应点位置在x方向上偏移d之后的像素值,I2​​(px​+d,py​)为目标图像匹配窗口像素均值。

    公式通过归一化将匹配结果限制在 [-1,1]的范围内,可以非常方便得到判断匹配窗口相关程度:当NCC= -1,表示两个匹配窗口完全不相关,相反的当NCC=1时,表示两个匹配窗口相关程度非常高。

    视差:左右双目图像中,两个匹配块中心像素的水平距离。

    1.2 双目立体匹配

    双目立体匹配流程如下:

    1. 采集图像:通过标定好的双目相机采集图像,当然也可以用两个单目相机来组合成双目相机。(标定方法下次再说)

    2. 极线校正:校正的目的是使两帧图像极线处于水平方向,或者说是使两帧图像的光心处于同一水平线上。通过校正极线可以方便后续的NCC操作。

    3.特征匹配:这里便是我们利用NCC做匹配的步骤啦,匹配方法如上所述,右视图中与左视图待测像素同一水平线上相关性最高的即为最优匹配。完成匹配后,我们需要记录其视差d,即待测像素水平方向xl与匹配像素水平方向xr之间的差值d = xr - xl,最终我们可以得到一个与原始图像尺寸相同的视差图D。

    4. 深度恢复:通过上述匹配结果得到的视差图D,我们可以很简单的利用相似三角形反推出以左视图为参考系的深度图。计算原理如下图所示:

    如上图,Tx为双目相机基线,f为相机焦距,这些可以通过相机标定步骤得到。而xr - xl就是视差d。

    通过公式 z = f * Tx / d可以很简单地得到以左视图为参考系的深度图了。

    二、实验内容

    左右两张图像:

    2.1 不同窗口对匹配结果的影响

    wid=3

    wid=6

    wid=9

    wid=12

    2.2 分析

    从图上不同的wid值,总体看的话窗口值取值很小的时候杂点很多,窗口值过大的时候图像中物体的轮廓特点又被隐去了,不能突出。我们从每张图片右下角的区域分析,在wid=3的时候,很多噪点以至于物体的形状都不能够看清,轮廓很细,在wid=12的时候看到右下角区域轮廓很泛,基本看不出原来的样子,视差图效果也很差。同时每个实验结果我们都能够发现越是靠前的位置图像越亮,即靠近相机的地方越明亮。

    三、实验代码

    # -*- coding: utf-8 -*-

    from PIL import Image

    from pylab import *

    import cv2

    from numpy import *

    from numpy.ma import array

    from scipy.ndimage import filters

    import scipy.misc

    import imageio

    def plane_sweep_ncc(im_l, im_r, start, steps, wid):

    """ 使用归一化的互相关计算视差图像 """

    m, n = im_l.shape

    # 保存不同求和值的数组

    mean_l = zeros((m, n))

    mean_r = zeros((m, n))

    s = zeros((m, n))

    s_l = zeros((m, n))

    s_r = zeros((m, n))

    # 保存深度平面的数组

    dmaps = zeros((m, n, steps))

    # 计算图像块的平均值

    filters.uniform_filter(im_l, wid, mean_l)

    filters.uniform_filter(im_r, wid, mean_r)

    # 归一化图像

    norm_l = im_l - mean_l

    norm_r = im_r - mean_r

    # 尝试不同的视差

    for displ in range(steps):

    # 将左边图像移动到右边,计算加和

    filters.uniform_filter(np.roll(norm_l, -displ - start) * norm_r, wid, s) # 和归一化

    filters.uniform_filter(np.roll(norm_l, -displ - start) * np.roll(norm_l, -displ - start), wid, s_l)

    filters.uniform_filter(norm_r * norm_r, wid, s_r) # 和反归一化

    # 保存 ncc 的分数

    dmaps[:, :, displ] = s / sqrt(s_l * s_r)

    # 为每个像素选取最佳深度

    return np.argmax(dmaps, axis=2)

    # def plane_sweep_gauss(im_l, im_r, start, steps, wid):

    # """ 使用带有高斯加权周边的归一化互相关计算视差图像 """

    # m, n = im_l.shape

    # # 保存不同加和的数组

    # mean_l = zeros((m, n))

    # mean_r = zeros((m, n))

    # s = zeros((m, n))

    # s_l = zeros((m, n))

    # s_r = zeros((m, n))

    # # 保存深度平面的数组

    # dmaps = zeros((m, n, steps))

    # # 计算平均值

    # filters.gaussian_filter(im_l, wid, 0, mean_l)

    # filters.gaussian_filter(im_r, wid, 0, mean_r)

    # # 归一化图像

    # norm_l = im_l - mean_l

    # norm_r = im_r - mean_r

    # # 尝试不同的视差

    # for displ in range(steps):

    # # 将左边图像移动到右边,计算加和

    # filters.gaussian_filter(np.roll(norm_l, -displ - start) * norm_r, wid, 0, s) # 和归一化

    # filters.gaussian_filter(np.roll(norm_l, -displ - start) * np.roll(norm_l, -displ - start), wid, 0, s_l)

    # filters.gaussian_filter(norm_r * norm_r, wid, 0, s_r) # 和反归一化

    # # 保存 ncc 的分数

    # dmaps[:, :, displ] = s / np.sqrt(s_l * s_r)

    # # 为每个像素选取最佳深度

    # return np.argmax(dmaps, axis=2)

    im_l = array(Image.open(r'C:/Users/asus/Pictures/window/shicha/conesF/im4.ppm').convert('L'), 'f')

    im_r = array(Image.open(r'C:/Users/asus/Pictures/window/shicha/conesF/im5.ppm').convert('L'), 'f')

    # imshow(im_l)

    # imshow(im_r)

    # 开始偏移,并设置步长

    steps = 12

    start = 4

    # ncc 的宽度

    wid = 12

    res = plane_sweep_ncc(im_l, im_r, start, steps, wid)

    # scipy.misc.imsave('depth.png', res)

    imageio.imsave('C:/Users/asus/Pictures/window/shicha/conesF/depth1.png', res)

    imshow(res)

    show()

    四、总结

    实验中不同的窗口对匹配结果有一定的影响,窗口设置较大的时候,图像变得比较的糊,不能够清晰的看到细节;但是窗口设置过小的话会产生很多其他的点,对于图像中物体的体现有一定的干扰。所以经过多次窗口值的比较找到合适的值。

    问题:实验准备的时候下载过来的图片很大,每次运行就很卡,一直与电脑自己就关掉很多东西都没有了。后面去下载了比较小的图片运行就不卡了,随便改变像素的大小的话是有影响的,所以可以下载图片相对小一点的。

    参考:https://www.cnblogs.com/yepeichu/p/7354083.html

    展开全文
  • 视差Disparity与深度

    千次阅读 2021-02-03 19:57:14
    双目立体视觉,在百度百科里的解释是这样解释的:双目立体视觉(BinocularStereoVision)是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被物体的两幅图像,通过计算图像对应点间的...

    转自:http://www.elecfans.com/d/863829.html

    双目立体视觉,在百度百科里的解释是这样解释的:双目立体视觉(BinocularStereoVision)是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。

    一、视差Disparity与深度图

    提到双目视觉就不得不提视差图:双目立体视觉融合两只眼睛获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作视差(Disparity)图像。

    对于视差的理解自己可以体验一下:将手指头放在离眼睛不同距离的位置,并轮换睁、闭左右眼,可以发现手指在不同距离的位置,视觉差也不同,且距离越近,视差越大。

    那么提到视差图,就有深度图,深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离(深度)值作为像素值的图像。获取方法有:激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法。

    那么这里引申一下深度图与点云的区别,点云:当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。

    深度图像经过坐标转换可以计算为点云数据;有规则及必要信息的点云数据可以反算为深度图像。两者在一定条件下是可以相互转化的,之前的博客里,有使用PCL库实现过点云提取深度图,当然给出相机参数也是可以由深度图转为点云的。截图一个深度图:

    所以深度与视差的关系如下

    比如绝对差值法绝对差值图的计算方法如下:

    D=|L-R|

    式中,L、R和D分别代表左视图、右视图和对应的绝对差值图的亮度值。绝对差值图并不是严格意义上的视差图,但是它的计算方法最为简单,速度快,它给出的结果可以作为参考

    那么我们知道视差又有另外一个概念就是UV-disparitymapping,简单的给个图表示:

    是怎么得到这个结果的呢?原来是统计统计视差的个数,比如V-disparityMap中的第一行分别统计视差为0,1,2,3,4,5的个数,所以得到了V-disparityMap的第一行分别为

    0,2,0,1,1,1,那么在真实的图喜爱那个中得到的结果如下:

    那么利用视差可以做很多有用的功能,比如列举一篇文章

    UVdisparitybasedobstacledetectionandpedestrianclassificationinurbantrafficscenarios

    二Rays

    ray就是连接图像上一点到光心形成的一条射线。这个也是之后的对极约束的基础。

    那么建立世界坐标系,我们的两条rays是相交的。如下图所示,接下来就是利用rays的相交关系,来解释対极几何(Epipolargeometry)了。

    以上的图文说明明了对极几何(EpipolarGeometry)描述的是两幅视图之间的内在射影关系,与外部场景无关,只依赖于摄像机内参数和这两幅试图之间的的相对姿态。

    有以下几种概念

    1.基线(baseline):直线Oc-Oc'为基线。

    2.对极平面束(epipolarpencil):以基线为轴的平面束。

    3.对极平面(epipolarplane):任何包含基线的平面都称为对极平面。

    4.对极点(epipole):摄像机的基线与每幅图像的交点。比如,上图中的点e和e'。

    5.对极线(epipolarline):对极平面与图像的交线。比如,上图中的直线l和l'。

    6.5点共面:点x,x',摄像机中心OcOc',空间点X是5点共面的。

    7.极线约束:两极线上点的对应关系。

    说明:

    直线l是对应于点x'的极线,直线l'是对应于点x的极线。极线约束是指点x'一定在对应于x的极线l'上,点x一定在对应于x'的极线l上。

    根据以上原理就得出了基础矩阵F和本质矩阵E等,网上有很多资料的

    这里直接将推导公式贴出来就好了

    本质矩阵E的基本性质:秩为2,且仅依赖于外部参数R和T。其中,P表示世界坐标点矢量,p表示像素点矢量

    那么基础矩阵求法:由于本质矩阵E并不包含相机内参信息,且E是面向相机坐标系的。实际上,我们更感兴趣的是在像素坐标系上去研究一个像素点在另一视图上的对极线,这就需要用到相机内参信息将相机坐标系和像素坐标系联系起来。假设Pl和Pr是世界坐标值,其对应的像素坐标值为Ql和Qr

    相机内参矩阵为M,那么

    根据

    那么

    令基础矩阵

    那么

    也就是我们在下图的第一幅图找到一个特征点,通过以上対极几何的知识推导出,该点在第二幅图位于图喜的哪个位置

    举个例子,比如kinect

    无论是双目还是kinect都是类似的原理

    f=Focallength

    b=Baseline

    d=Disparityvalue

    ps=Pixelsize

    D=Depth

    Focallength

    Baseline

    Pixelsize

    Disparity

    备注:

    (Pixelsize)像素大小是图像传感器中单个像素的大小。像素大小用微米表示。由于立体视觉系统使用两个摄像机,图像传感器的像素大小必须相同。随着像素尺寸的减小,系统的深度范围增大。

    (Disparityvalue)视差是指在两个摄像机图像之间的像素位置的差异。假设立体视觉相机中的左图像在位置(1,30)具有像素,并且相同的像素在右图像中的位置(4,30)存在,视差值或差值为(4-1)=3。视差值与上述公式的深度成反比。

    展开全文
  • 计算机视觉——计算视差图

    千次阅读 多人点赞 2020-04-26 17:19:34
    计算视差图1. 立体视差2. 极线矫正3. 归一化互相关(NCC)4 . 计算视差图的步骤5. 实验过程5.1 实验代码5.2 实验结果及分析5.2.1 视差图...立体视差测量包括三个步骤: (1)必须从一幅图像中选出位于场景中一个表面上...
  • 本期话题:深度内容要点1. 深度基础知识2. 不同的技术路径传统方法早期...顾名思义,深度是用来反映深度信息的图像,而其中的深度信息指的就是距离信息。它用来描述相机拍摄到的场景图像中每个像素点到相机的...
  • 计算视差图一、立体图像1.1概念1.2关于图像配准算法二、立体重建之计算视差图2.1归一化及算法概念2.2匹配流程三、实验测试3.1实验要求3.2实验代码3.3实验结果分析3.4实验总结和遇到的问题 此次实验的内容主要有关于...
  • 【python计算机视觉】计算视差图

    千次阅读 2020-04-26 14:26:37
    计算视差原理 1.1 立体图像 一个多视图成像的特殊例子是立体视觉(或者立体成像),即使用两台只有水平(向 一侧)偏移的照相机观测同一场景。当照相机的位置如上设置,两幅图像具有相同 的图像平面,图像的行是...
  • 视差图Disparity与深度Depth Map的一点知识

    万次阅读 多人点赞 2020-05-07 08:39:51
    双目立体视觉,在百度百科里的i解释是这样解a释的:双目立体视觉(Binocular Stereo Vision)是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被物体的两幅图像,通过计算图像对应点间...
  • 计算机视觉python--计算视差图

    千次阅读 2020-04-26 18:07:52
    立体视差测量包括三个步骤: (1)必须从一幅图像中选出位于场景中一个表面上的某一特定位置; (2)必须在另一幅图像中鉴别出同一个位置; (3)出这两个对应像点之间的视差。 在一组重复摄影的两张照片上(立体模式)...
  • 以下程序使用同一物体的两幅图像来计算视差图距离摄像头近的点在视差图中会有更明亮的颜色。黑色区域代表两幅图像的差异部分。 import numpy as np import cv2 def update(val = 0): stereo.setBlo
  • 点击上方“3D视觉工坊”,选择“星标”干货第一时间送达作者:Ali Yasin Eser编译:ronghuaiyang(AI 公园)导读双目立体视觉的第二部分,视差图计算算法。大家好!欢迎...
  • liuxu8337@163.com程序有问题发邮件 环境vs2017+opencv3.49 双目测距,可以用鼠标选择测量两个点,以及两个点间距离
  • 文章目录一、什么是立体图像二、以窗口代价计算视差的原理三、归一化互相关(NCC)算法匹配原理 一、什么是立体图像 一个多视图成像的特殊例子是立体视觉(或者立体成像),即使用两台只有水平(向一侧)偏移的...
  • 视差图和深度有何关系I bet it’s more powerful than you think… 我敢打赌,它比您想像的还要强大…… Photo by Pereanu Sebastian on Unsplash Pereanu Sebastian在Unsplash上拍摄的照片 The question comes ...
  • 计算视差图

    千次阅读 2020-04-26 17:20:04
    一、计算视差原理1.1立体图像1.2计算视图差1.3双目立体匹配二、代码实现2.1图片集2.2结果展示2.3代码三、实验结果分析 一、计算视差原理 1.1立体图像 一个多视图成像的特殊例子是立体视觉(或者立体成像),即使用两台...
  • OpenCV视差图计算

    千次阅读 热门讨论 2018-05-14 21:43:52
    OpenCV视差图计算 如今立体视觉越来越多的被应用到工业检测、机器人、自动驾驶、AR/VR领域,因为目前自己也在一个产品研发期,自己倒腾了几天做了一些通过双目进行避障的小实验,把一些比较流程化的代码以及相应...
  • 实现NCC 视差匹配方法,即给定左右两张视图,根据NCC计算视差图 分析不同窗口值对匹配结果的影响,重点考查那些点(或者哪些类型的点)在不同窗口大小下的匹配精度影响 文章目录1. 实验原理1.1 立体图像1.2 计算...
  • ,因为在后续的视差图转换为三维时的Q矩阵只有一个f值。所以必须要求至少焦距相近。而且立体成像的三角测量(Learning OpenCV书中提到)的前提假设就是fl=fr。(调整两个摄像头的焦距相同的方法:离两个相机相同...
  • 机模型和双目立体匹配...运行方法: 在build目录下,打开终端 ./imagebinoculartest 结果如下: 原始左右两: SGBM计算得到的视差图: 根据视差图得到的点云图: 可以用鼠标左键点击,让它旋转,让实验效果更突出。
  • 简单的视差模型如 a所示,相机运动模型在拍摄景物时仅仅存在着简单的位移,这种情况下的视差是单一方向的,能够通过全 局单应性矩阵实现精准的图像变换。复杂的视差模型如 b所示,此时相机运动模型不仅.
  • 使用 Matlab 生成双目视差及点云图像

    千次阅读 多人点赞 2020-06-05 21:22:20
    最近需要验证一下双相机的成像效果,一开始使用了opencv + python/cpp 代码采集、标定并生成视差图,效果不是很理想,所以决定先用 matlab 标定相机,生成图像点云,查看效果,如果不错的话,以此为基准优化 open.
  • 而深度的应用范围非常广泛,由于其能够记录场景中物体距离摄像机的距离,可以用以测量、三维重建、以及虚拟视点的合成等。 为了模拟人眼对立体场景的捕捉和对不同景物远近的识别能力,立体匹配算法要求采用两...
  • 双目相机视差测距

    2022-04-06 11:33:04
    双目相机视差测距
  • //视差图 //SAD mySAD; SAD mySAD(7, 30); Disparity = mySAD.computerSAD(Img_L, Img_R); imshow("Img_L", Img_L); imshow("Img_R", Img_R); imshow("Disparity", Disparity); waitKey(); return 0; ...
  • 那么匹配代价就 会变得很大,而NCC在计算互相关系数的时候做了归一化操作,相当于重新标定,这样就可以排除光线线性变换带来的影响,所以当左右的亮度相 差越大,那么用NCC处理出来视差图就比SSD的更精确. 4.3 ASW和NCC...
  • 计算视觉——视差计算

    千次阅读 2020-12-24 03:48:32
    背景介绍立体匹配也称作视差估计(disparity estimation),或者双目深度估计。其输入是一对在同一时刻捕捉到的,经过极线校正的...当给定摄像机的基线距离b和焦距f之后,我们就可以从视差图中自动计算出深度,。所...
  • 学习笔记:经过一段时间双目视觉的学习,做到stereo_match,达到较好双目极线矫正的效果,其中RMS=0.21,得到视差图与pointcloud.txt文件,但不知道txt文件的含义,用matlab处理后得到锥形三维图像。明显不是物体...
  • 基于双目图像的视差估计方法研究及实现第一章 绪论1.1 课题的研究背景与意义1.2 双目视差估计的研究现状1.2.1 传统立体匹配方法研究现状1.2.2 统计学习方法研究现状1.2.3 深度学习方法研究现状 第一章 绪论 1.1 课题...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,267
精华内容 2,106
关键字:

视差图测量距离