精华内容
下载资源
问答
  • NYU Depth Dataset V2 is provided by NYU.本数据集由纽约大学提供。 indoorsegmentationandsupportinferencefromRGBDImages.pdf
  • NYU V2数据集提取数据

    万次阅读 多人点赞 2018-09-03 17:02:48
    NYU v2数据集官方下载地址:https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html NYU v2数据集百度云下载地址:https://pan.baidu.com/s/1rIUbsEUjkZJheEZ5wTb5aA 密码: bfi4 转成图片格式的NYU v2数据集...

    NYU v2数据集官方下载地址:https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html

    NYU v2数据集百度云下载地址:https://pan.baidu.com/s/1rIUbsEUjkZJheEZ5wTb5aA 密码: bfi4

    转成图片格式的NYU v2数据集百度云下载地址:https://pan.baidu.com/s/1Ut4wk4wwIubB9ZERfbg5Vw 提取码: f1n8

        选择 Labeled dataset(~2.8G)

    对下载的mat文件(nyu_depth_v2_labeled.mat)提取数据

    提取RGB图像

    #!/usr/bin/env python2
    # -*- coding: utf-8 -*-
    import numpy as np
    import matplotlib.pyplot as plt
    import scipy.io as sio
    import h5py
    import os 
    f=h5py.File("nyu_depth_v2_labeled.mat")
    images=f["images"]
    labels=f["labels"]
    images=np.array(images)
    
    path_converted='./nyu_images'
    if not os.path.isdir(path_converted):
        os.makedirs(path_converted)
    
    from PIL import Image
    images_number=[]
    for i in range(len(images)):
        images_number.append(images[i])
        a=np.array(images_number[i])
        r = Image.fromarray(a[0]).convert('L')
        g = Image.fromarray(a[1]).convert('L')
        b = Image.fromarray(a[2]).convert('L')
        img = Image.merge("RGB", (r, g, b))
        img = img.transpose(Image.ROTATE_270)
        iconpath='./nyu_images/'+str(i)+'.jpg'
        img.save(iconpath,optimize=True)

    提取depth图像

    #!/usr/bin/env python2
    # -*- coding: utf-8 -*-
    import numpy as np
    import h5py
    import os
    from PIL import Image
    
    f=h5py.File("nyu_depth_v2_labeled.mat")
    depths=f["depths"]
    depths=np.array(depths)
    
    path_converted='./nyu_depths/'
    if not os.path.isdir(path_converted):
        os.makedirs(path_converted)
    
    max = depths.max()
    print(depths.shape)
    print(depths.max())
    print(depths.min())
    
    depths = depths / max * 255
    depths = depths.transpose((0,2,1))
    
    print(depths.max())
    print(depths.min())
    
    for i in range(len(depths)):
        print(str(i) + '.png')
        depths_img= Image.fromarray(np.uint8(depths[i]))
        depths_img = depths_img.transpose(Image.FLIP_LEFT_RIGHT)
        iconpath=path_converted + str(i)+'.png'
        depths_img.save(iconpath, 'PNG', optimize=True)
    

    提取labels

    #!/usr/bin/env python2
    # -*- coding: utf-8 -*-
    import numpy as np
    import h5py
    import os
    from PIL import Image
    
    f=h5py.File("nyu_depth_v2_labeled.mat")
    labels=f["labels"]
    labels=np.array(labels)
    
    path_converted='./nyu_labels/'
    if not os.path.isdir(path_converted):
        os.makedirs(path_converted)
    
    labels_number = []
    for i in range(len(labels)):
        labels_number.append(labels[i])
        labels_0 = np.array(labels_number[i])
        label_img = Image.fromarray(np.uint8(labels_number[i]))
        label_img = label_img.transpose(Image.ROTATE_270)
    
        iconpath = './nyu_labels/' + str(i) + '.png'
        label_img.save(iconpath, 'PNG', optimize=True)

     

    展开全文
  • NYU-V2数据集预处理

    千次阅读 2018-12-19 10:13:39
    我下载的是带标签的NYUV2数据集,下载写来的格式是.mat 原图,深度图,labels的提取方式参考此博客 提取各类名称保存为txt # -*- coding: utf-8 -*- import numpy as np import matplotlib.pyplot as plt import ...

    我下载的是带标签的NYUV2数据集,下载写来的格式是.mat
    原图,深度图,labels的提取方式参考此博客

    提取各类名称保存为txt

    # -*- coding: utf-8 -*-
    import h5py
    
    f=h5py.File("./nyu_depth_v2_labeled.mat")
    
    ft = open('names.txt', 'w+')
    #print(f["names"].shape) #打印查看类别个数,共894类
    for j in range (894):
        name = f["names"][0][j]
        obj = f[name]
        strr = "".join(chr(i) for i in obj[:])
        ft.write(strr + '\n')
    
    ft.close()
    

    结果图
    在这里插入图片描述

    提取原图images(RGB图)

    import numpy as np
    import matplotlib.pyplot as plt
    import scipy.io as sio
    import h5py
    import os
    f=h5py.File("./nyu_depth_v2_labeled.mat")
    images=f["images"]
    images=np.array(images)
     
    path_converted='./nyu_images'
    if not os.path.isdir(path_converted):
        os.makedirs(path_converted)
     
    from PIL import Image
    images_number=[]
    for i in range(len(images)):
        print(i)
        images_number.append(images[i])
        a=np.array(images_number[i])
    #    print len(img)
        #img=img.reshape(3,480,640)
     #   print img.shape
        r = Image.fromarray(a[0]).convert('L')
        g = Image.fromarray(a[1]).convert('L')
        b = Image.fromarray(a[2]).convert('L')
        img = Image.merge("RGB", (r, g, b))
        img = img.transpose(Image.ROTATE_270)
       # plt.imshow(img)
       # plt.axis('off')
       # plt.show()
        iconpath='./nyu_images/'+str(i)+'.jpg'
        img.save(iconpath,optimize=True)
    
    

    RGB图提取

    提取深度图(depth map)

    import numpy as np
    import matplotlib.pyplot as plt
    import scipy.io as sio
    import h5py
    import os
    from PIL import Image
     
    f=h5py.File("./nyu_depth_v2_labeled.mat")
    depths=f["depths"]
    depths=np.array(depths)
    path_converted='./nyu_depths/'
    if not os.path.isdir(path_converted):
        os.makedirs(path_converted)
    max=depths.max()
    print (depths.shape)
    print (depths.max())
    print (depths.min())
     
    depths=depths/max*255
    depths=depths.transpose((0,2,1))
    print (depths.max())
    print (depths.min())
     
    for i in range(len(depths)):
        print (str(i)+'.png')
        depths_img=Image.fromarray(np.uint8(depths[i]))
        depths_img=depths_img.transpose(Image.FLIP_LEFT_RIGHT)
     
        iconpath = path_converted + str(i) + '.png'
        depths_img.save(iconpath, 'PNG', optimize=True)
    
    

    深度图提取

    提取labels

    # -*- coding: utf-8 -*-
    import numpy as np
    import matplotlib.pyplot as plt
    import scipy.io as sio
    import h5py
    import os
    from PIL import Image
    f=h5py.File("./nyu_depth_v2_labeled.mat")
    labels=f["labels"]
    labels=np.array(labels)
     
    path_converted='./nyu_labels'
    if not os.path.isdir(path_converted):
        os.makedirs(path_converted)
     
    labels_number=[]
    for i in range(len(labels)):
        labels_number.append(labels[i])
        labels_0=np.array(labels_number[i])
        #print labels_0.shape
        print (type(labels_0))
        label_img=Image.fromarray(np.uint8(labels_number[i]))
        #label_img = label_img.rotate(270)
        label_img = label_img.transpose(Image.ROTATE_270)
     
        iconpath='./nyu_labels/'+str(i)+'.png'
        label_img.save(iconpath, 'PNG', optimize=True)
    
    

    labels提取

    展开全文
  • NYU-Depth数据集

    千次阅读 2019-04-14 21:53:55
    数据集地址:https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html 数据集包含以下几个部分: 有标签的:视频数据的一个子集,1449张处理好的有标签和补全深度的。伴随着密集多标签。此数据也已经被预处理,...

    论文:https://cs.nyu.edu/~silberman/papers/indoor_seg_support.pdf

    数据集地址:https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html

    数据集包含以下几个部分:

    1. 有标签的:视频数据的一个子集,1449张处理好的有标签和补全深度的。伴随着密集多标签。此数据也已经被预处理,以填补缺少的深度标签。
    2. 原始数据集:利用Kinect测得的原始的RGB、Depth、加速度数据。
    3. 工具箱:用于操作数据和标签的有用的工具。
    4. 用于评估的训练和测试部分。

    有标签的数据集

    RGB图像(左) 预处理后的深度(中) 图像的一组标签(右)

     

    有标签的数据集是原始数据集的子集。它是由成对的RGB和深度帧同步组成的,并且每个图像都有多个标签。除了加上标签的深度地图之外(右),还包含了一组预处理的深度地图(中),该预处理的深度地图已经利用Colorization方法把确实数据填充了。与原始数据集不同,有标签数据集是一个matlab中的mat文件,有如下几个变量:

    • accelData – Nx4 matrix of accelerometer values indicated when each frame was taken. The columns contain the roll, yaw, pitch and tilt angle of the device.
    • depths – HxWxN matrix of depth maps where H and W are the height and width, respectively and N is the number of images. The values of the depth elements are in meters.
    • images – HxWx3xN matrix of RGB images where H and W are the height and width, respectively, and N is the number of images.
    • labels – HxWxN matrix of label masks where H and W are the height and width, respectively and N is the number of images. The labels range from 1..C where C is the total number of classes. If a pixel’s label value is 0, then that pixel is ‘unlabeled’.
    • names – Cx1 cell array of the english names of each class.
    • namesToIds – map from english label names to IDs (with C key-value pairs)
    • rawDepths – HxWxN matrix of depth maps where H and W are the height and width, respectively, and N is the number of images. These depth maps are the raw output from the kinect.
    • scenes – Cx1 cell array of the name of the scene from which each image was taken

    原始数据集

    RGB图像(左) 深度图像(右)

     

    原始数据集包含利用Kinect得到的原始的图像以及加速度存储(accelerometer dumps)。RGB相机和深度相机采样率是20至30 FPS(帧/秒)(随着时间会有变化)。因为帧不是同步的,所以在每个文件夹里都包含了每个rgb图像、深度图以及加速计的时间戳。t。数据集分为不同的文件夹,这对应于每个场景的拍摄,都被命名为‘living_room_0012′ 或者 ‘office_0014′。文件结构如下所示:

    /
    ../bedroom_0001/
    ../bedroom_0001/a-1294886363.011060-3164794231.dump
    ../bedroom_0001/a-1294886363.016801-3164794231.dump
    ...
    ../bedroom_0001/d-1294886362.665769-3143255701.pgm
    ../bedroom_0001/d-1294886362.793814-3151264321.pgm
    ...
    ../bedroom_0001/r-1294886362.238178-3118787619.ppm
    ../bedroom_0001/r-1294886362.814111-3152792506.ppm

    • a-开头的是 accelerometer dumps
    • d-开头的是深度图像
    • r-开头的是原始rgb图像
      Note:由于原始数据集没有经过预处理,所以原始深度图像需要投影到RGB坐标系使得其对齐。

    工具箱

    • demo_synched_projected_frames.m – Demos synchronization of the raw rgb and depth images as well as alignment of the rgb and raw depth.
    • eval_seg.m – Evaluates the predicted segmentation against the ground truth label map.
    • get_projected_depth.m – Projects the raw depth image onto the rgb image plane. This file contains the calibration parameters that are specific to the kinect used to gather the data.
    • get_accel_data.m – Extracts the accelerometer data from the binary files in the raw dataset.
    • get_projection_mask.m – Gets a mask for the images that crops areas whose depth had to be inferred, rather than directly projected from the Kinect signal.
    • get_synched_frames.m – Returns a list of synchronized rgb and depth frames from a given scene in the raw dataset.
    • get_train_test_split.m – Splits the data in a way that ensures that images from the same scene are not found in both train and test sets.

     

    展开全文
  • 该存储库为NYU深度数据集V2提供了单眼深度估计的简单PyTorch Lightning实现。 依存关系 Docker 20.10.2 1.28.3 的Python 3.8.0 0.1.3 1.6.0 1.2.5 2.0.6 偏见0.10.25 有关其他库的版本,请参见 。 方法 细分...
  • 论文:Indoor Segmentation and Support Inference from RGBD Images数据集NYU Depth Dataset V2数据集Samples of the RGB image, the raw depth image, and the class labels from the dataset.一、概述NYU-Depth...

    论文:Indoor Segmentation and Support Inference from RGBD Images

    数据集:NYU Depth Dataset V2数据集

    打不开或者下载慢的可以用这个,【链接】用了两年了一直挺好用的。

    v2-f92a4aad42db081699933dd41f58983f_b.jpg
    Samples of the RGB image, the raw depth image, and the class labels from the dataset.

    一、概述

    NYU-Depth V2数据集由各种室内场景的视频序列组成,该数据集是使用Microsoft Kinect的RGB和深度相机采集的。 它具有以下特点:

    • 1449张经过标注的RGB和深度图像
    • 采集自3个城市的464个场景
    • 407024张没有标注的图片
    • 每个目标都有一个类别和一个标号(cup1、cup2、cup3等)

    数据集包括以下几个部分:

    • 标注数据:带有详细标注的视频数据子集。该数据经过了预处理,补全了缺失的深度标注。
    • 原始数据:使用Kinect采集的原始RGB、Depth及加速度计数据。
    • 工具箱:用于处理数据和标注的一些工具

    二、标注数据集

     

    v2-026bcd27081aea514c2093871645a108_b.jpg
    RGB相机的输出(左),预处理深度(中心)和图像的一组标签(右)。

    标注数据集是原始数据集中的子集。它由一对RGB图像和深度图像组成,每张图像都经过精细的标注。除了投射采集到的深度图,还包含了一组预处理的深度图,这些深度图采用Levin等人的着色方案补全了缺失的深度标注。与原始数据集不同,标注数据集的文件格式为Matlab.mat,具有以下参数:

     

    v2-05227db5fbb395676434163e5b88d69c_b.jpg
    • accelData:Nx4的加速度计值矩阵,用来显示每一帧是何时采集的。矩阵的列为设备的滚动觉,偏航角,俯仰角和倾斜角。
    • depths:绘制深度图的HxWxN矩阵,其中H和W分别是高度和宽度,N是图像序号。 深度元素的值以米为单位。
    • images:HxWx3xN的RGB图像矩阵,其中H和W分别是高度和宽度,3为通道数,N是图像序号。
    • instances:HxWxN的实例分割图像矩阵。 在工具箱中使用get_instance_masks.m可以恢复场景中每个对象实例的蒙版。
    • labels:HxWxN的对象标注蒙版矩阵,其中H和W分别是高度和宽度,N是图像序号。 标注的范围是1~C,其中C是类别的总数。 如果像素的标签值为0,则该像素为“未标注”。
    • names:Cx1数组,每种标签的名称。
    • namesToIds:从英文标签名称到类别序号的映射(C个映射对)
    • rawDepths:原始深度图的HxWxN矩阵,其中H和W分别是高度和宽度,N是图像序号。 在投影到RGB图像平面之后、补全丢失深度值之前,这些depth maps捕获深度图像。
    • rawDepthFilenames:文件名的Nx1单元格数组(在Raw数据集中),用于标记的数据集中的每个深度图像。
    • rawRgbFilenames:标签数据集中用于每个RGB图像的文件名(在Raw数据集中)的Nx1数组。
    • scenes:拍摄每张图像的场景名称的Nx1数组。
    • sceneTypes:拍摄每个图像的场景类型的Nx1数组。

     

    展开全文
  • NYUD V2数据集下载网址如下: https://cs.nyu.edu/~silberman/datasets/nyu_depth_v2.html V1和V2的区别:
  • 用KITTI做单目深度估计的时候需要用NYU Depth Toolbox工具处理KITTI数据集中原始的深度图,得到补全后的深度图。网上这方面的教程比较少,记录一下在此过程中踩的坑。 首先在官网https://cs.nyu.edu/~silberman/...
  • 数据集】——NYU Depth Dataset V2简介

    千次阅读 2020-10-28 18:45:13
    NYU-Depth V2数据集由微软Kinect的RGB和Depth摄像机记录的各种室内场景的视频序列组成。它的特点: 1449张标注的RGB图片和深度图 来自3个城市,464个场景 407024张没有标注的图片 每个对象都有一个类和一个实例号...
  • 在之前的博客已经讲过deeplabv2源码解析、基于VOC2012数据集的训练与基于pascal-context数据集的训练,本博客基于nyu数据集进行fine tuning官方源码地址如下:...但是此源码只是为deeplab网络做相应变形的caffe,如果...
  • nyu = load('nyu_depth_v2_labeled.mat'); h = 240; w = 320; test_data_size = 363; train_data_size = 1086; test_image = uint8(zeros(h, w, 3, 363)); test_depth = single(zeros(h, w, 363));
  • 最近在看论文时看到一篇关于法向量预测的论文,其中训练集所用的是NYU Depth数据集。然而网上NYU Depth相关的资料极少,对于如何将dataset转换为输入数据几乎没有相关资料,在网上逛了一大圈后,总算找到了一些零碎...
  • [深度数据]·深度学习数据集大全

    千次阅读 2019-05-29 15:35:13
    [深度数据]·深度学习数据集大全 数据来自 skymind.ai 整理 最近新增数据集 开源生物识别数据:http://openbiometrics.org/ Google Audioset:扩展了 632 个音频分类样本,并从 YouTube 视频中提取了 2,084,...
  • 深度学习】语义分割 NYUv2 数据集

    千次阅读 热门讨论 2019-06-23 13:15:59
    去到NYU Depth V2 官网下载数据集,如下图所示。这里我们只是用RGB数据,不使用RGB-D数据(带深度信息),所以只需要下载Labeled dataset (~2.8 GB)即可。 原始数据集使用.mat格式,这里需要将其转换为常见的RGB...
  • 深度学习开源数据集大全

    千次阅读 2019-01-01 19:48:11
    skymind.ai网站上有一份十分全面的开源数据集,涵盖自然图像数据集、面部数据集等多个领域,为方面大家找到自己需要的数据集,将skymind.ai整理的数据集编译如下:     自然图像数据集   MNIST: handwritten...
  • NYU-V2 RawDataset的数据提取

    千次阅读 热门讨论 2019-12-30 16:50:58
    最近做实验需要用到NYU-V2数据集,官网可以直接下载,分别是2.8G的labeled dataset 和428G的Raw dataset. 很多博客写了labeled dataset的提取方法,但没有Raw dataset相关内容。 Raw dataset 为以下形式: / ....
  • 深度学习数据集

    千次阅读 2018-09-16 19:53:05
    大学公开数据集 (Stanford)69G大规模无人机(校园)图像数据集【Stanford】 http://cvgl.stanford.edu/projects/uav_data/ 人脸素描数据集【CUHK】 ... 自然语言推理(文本蕴含标记)数据集NYU】 https://www.ny...
  • 深度学习数据集大全

    2020-05-22 06:43:21
    深度学习数据集大全最近新增数据集自然图像数据集地理空间数据人工数据集无人驾驶图象视频数据集人脸数据集视频数据集文本数据集问答数据集情感数据集推荐和排名系统网络和图形语音数据集音符音乐数据集政府&...
  • 深度估计数据集

    千次阅读 2020-01-02 15:31:34
    iBims-1 100 RGB-D image pairs of various indoor scenes https://www.bgu.tum.de/lmf/ibims1/ 下载链接 ... NYU Depth Dataset V2(激光雷达) 1449 densely labeled pairs of...
  • MNIST创建人: Yann LeCun, Courant Institute, NYU Corinna Cortes, Google Labs, New York ...类型:手写数字数据库,深度学习入门级经典数据集 数据量:60000,含10000条测试 网站:http://yann.
  • 数据集上应用单目深度估计时,我们应该自己生成RGB图像和密集深度图,过程方法如下。 要求 这些代码在 Ubuntu 16.04 LTS 和 MATLAB 2015b 和 Python2.7 上进行了测试。 数据集准备 下载400G以上的原始数据,请确保您...
  • MNIST 是一个手写数字数据库,它有60000...最早的深度卷积网络LeNet便是针对此数据集的,当前主流深度学习框架几乎无一例外将MNIST数据集的处理作为介绍及入门第一教程,其中Tensorflow关于MNIST的教程非常详细。 ...
  • 深度学习开源数据集整理

    千次阅读 2020-07-04 16:51:59
    Images Analysis 数据集 介绍 备注 网址 Flickr30k 图片描述 31,783 image...
  • MIT fast-depth论文所用的数据集nyu-depth-v2_labled.mat。文件2.77G,百度网盘自己下载,永久链接
  • 深度学习数据集(一)

    千次阅读 2015-07-01 09:45:36
    深度学习 常用数据集
  • 深度学习数据集汇总

    2017-06-10 15:40:24
    最早的深度卷积网络LeNet便是针对此数据集的,当前主流深度学习框架几乎无一例外将MNIST数据集的处理作为介绍及入门第一教程,其中Tensorflow关于MNIST的教程非常详细。 数据集大小:~12MB 下载地址: ...
  • 1 ISPRS数据集 ISPRS官方提供了航空、无人机、倾斜影像数据进行密集匹配和三维重建,以下给出相应的数据获取地址。注意这三组数据的下载都是免费的,但是需要填写登记表并用邮件发给数据提供方,提供方会将最终的...
  •  1、 免费数据集下载(持续更新中...)  2、[导读] “大数据时代”,数据为王!无论是数据挖掘还是目前大热的深度学习领域都离不开“大数据”。大公司们一般会有自己的数据,但对于创业公司或是高校老师、学生...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,597
精华内容 638
关键字:

nyu2深度数据集