精华内容
下载资源
问答
  • google Drive下载较大数据集方法
    2022-01-26 17:25:16

    首先下载IDM infernetdownloadmanager.com
    安装前关闭google浏览器
    安装完成后在google浏览器 设置-扩展程序 中找到IDM,点击"详情",找到"在无痕模式下启用"并启用。
    如果在google drive网页下载时显示文件过大不支持下载,就需要登陆谷歌云盘账号,再下载就可以了

    更多相关内容
  • DRIVE数据集.rar

    2021-10-23 15:30:42
    DRIVE数据集.rar
  • T-drive数据集

    2019-01-21 14:50:01
    由微软研究研究提供的出租车公开数据集,郑宇博士在出租车领域发表论文使用的数据集
  • DRIVE数据集,用于视网膜图像分割,里面一半是训练集,一半是测试集。
  • DRIVE数据集的关键点的groundtruth,这是荷兰的一个团队标记的,是广泛流传的一个.其涉及到的算法主要有MICCAI的论文Multi-task那篇,BICROS算法等. 注意:这里只有点的坐标以及一位专家的手动分割图,想要原图的...
  • 眼底图像分割\关键点检测\动静脉区分常用数据集,是眼底最广泛的数据集之一,甚至可以去掉'之一'二字.这里面含有分割图的groundtruth,原图以及mask,没有关键点坐标的groundtruth,关键点在另...
  • 建立DRIVE数据库,对视网膜图像血管分割进行比较研究。视网膜血管分割和描绘视网膜血管的形态属性,如长度、宽度、弯曲度、分支模式和角度,可以用于诊断、筛选、治疗和评价各种心血管和眼科疾病。 DRIVE Digital ...
  • 数据集共包含40张视网膜血管图像,这40张图像已分为训练和测试集,均包含20张图像。如果没有积分,可关注我然后在评论区留下邮箱,将发送至邮箱。
  • 使用Pytorch搭建U-Net网络并基于DRIVE数据集训练(语义分割)学习笔记 https://www.bilibili.com/video/BV1rq4y1w7xM?spm_id_from=333.1007.top_right_bar_window_custom_collection.content.click 1. up提到这里为了...

    使用Pytorch搭建U-Net网络并基于DRIVE数据集训练(语义分割)学习笔记

    https://www.bilibili.com/video/BV1rq4y1w7xM?spm_id_from=333.1007.top_right_bar_window_custom_collection.content.click
    1.
    up提到这里为了进行了BN所以把上面的bias设置成了False,这个是为啥?
    在这里插入图片描述
    2.
    现在都是比较流行对于一个层内部,不对图像的长和宽进行维度的改变
    在这里插入图片描述
    3.
    上采样使用双线性差值

    在这里插入图片描述

    U_Net原论文中的上采样方式,转置卷积方法
    在这里插入图片描述
    5.
    U_Net原论文的框架结构图
    在这里插入图片描述
    6.

    在这里插入图片描述

    下面的代码是为了防止输入的图片的长和宽不是32的倍数,那么在进行才采样的时候,由于下采样,会导致,最后与上采样,需要与之拼接的图片的维度不一样,所以进行了padding,让上采样得到的图片的长和宽,和对应的下采样得到的图片的长和宽保持一样,这样才能够进行拼接操作。
    在这里插入图片描述
    7.

    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述

    上面的1*1卷积层是通过下面这行代码实现的。
    在这里插入图片描述
    9.
    4.

    在这里插入图片描述
    base_c:指的是下面的64,

    在这里插入图片描述
    5.
    传统U_Net结构图中,只是对对应的特征矩阵进行简单的cat拼接操作,
    在这里插入图片描述

    但是在CVPR2022的那篇论文中,使用的是
    下面这种操作,它是与它对应的阶段的特征矩阵的上一个图像特征矩阵进行cat拼接的,然后进行一个1*1卷积,把channels数减少一倍。

    在这里插入图片描述
    6.

    这里传入的是进行拼接之后的channels数,
    在这里插入图片描述

    白色的像素值是255,黑色的像素值是0

    在这里插入图片描述
    8.

    root是指数据集的路径。
    train赋值为true,就载入training数据集,如果赋值为test,就载入test数据集

    在这里插入图片描述

    判断data_root这个路径是否存在
    在这里插入图片描述
    10.
    路径的拼接
    在这里插入图片描述
    11.

    将图片转化成RGB图片

    在这里插入图片描述
    12.、

    转换成灰度图片

    在这里插入图片描述
    13.

    把前景的像素值设置成1,因为这个人工标记的人眼球毛细血管是黑白的,白色是我们要的,所以我们把这个叫做前景,把后面我们不要的叫做背景,又由于前景都是白色,白色的像素值是255,没搞懂为什么前景的像素值要从1开始,所以我们在这里除以了255.
    在这里插入图片描述
    在这里插入图片描述
    14.

    在这里插入图片描述

    在这里插入图片描述
    15.

    在这里插入图片描述
    16.

    在这里插入图片描述
    17.

    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    GT好像是背景

    GT标签:应该指的是背景标签

    在这里插入图片描述

    需要为每一个类别分别计算一个dice
    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述
    24.
    在这里插入图片描述
    就是下面图片的实现
    在这里插入图片描述

    在下面中,我们最终的目标是分出来那些是前景,那些是背景。
    就是一个2分类任务,我们把背景编码为1 0,把前景编码成0 1
    在这里插入图片描述在这里插入图片描述
    在这里插入图片描述

    把之前找到的255区域的数值又重新填回255
    在这里插入图片描述
    在这里插入图片描述
    这样我们在分别计算不同类别(背景和前景)的dice loss时就还是只计算非255的区域

    上面一系列的操作,最终会为特征矩阵增增加channels数,但你的任务中最后需要分成多少个类别时,就需要变成多少个channels,其实无论你最终是进行几分类的,最后都是进行2分类。
    在这里插入图片描述

    又由于我们的操作,把channels放在了最后,所以我们需要把channels重新放在第2位上,所以需要对维度进行修改。
    在这里插入图片描述

    x:网络模型预测得到的类别
    dice_target:我们上面一系列处理得到的
    最终计算这两者的dice_loss
    在这里插入图片描述
    30.

    在这里插入图片描述

    我们这里对每一个channels进行一个softmax,而通过上面构建target矩阵可以知道,每一个channels都对应的着一个类别的判断,而我们这儿dim=1,就是判断所有的channels,而每一个channels对应着一个类别是否是的矩阵,那么对所有的channels进行softmax,就是判断这张图片,最有可能是哪个类别。
    在这里插入图片描述

    对于一个高维的矩阵,softmax是怎样计算的啊?(比如对于一个[5, 8, 9, 5]大小的张量,在这里插入图片描述
    上面代码中的操作怎样进行的,

    在这里插入图片描述
    33.
    在这里插入图片描述
    34.

    将第i张图片变成向量的格式
    在这里插入图片描述
    把对于图片的target也变成向量的格式
    在这里插入图片描述

    找出区域中我们感兴趣的区域,也就是不是255的区域
    在这里插入图片描述
    从向量x和向量t中得到我们感兴趣的区域
    在这里插入图片描述

    对这两个向量进行内积操作,相应元素相乘,然后求和的一种操作,也就是下面分子计算的过程
    在这里插入图片描述

    在这里插入图片描述
    37.

    这就是分母的代码实现操作

    在这里插入图片描述

    在这里插入图片描述
    38.
    sets_sum=0,那么就说明x_i和t_i都是等于0的,那么就说明我们进行的预测都是对的

    在这里插入图片描述

    也就是时候下面的公式中X和Y是相同的,那么DICE=1 dice loss=0,既然dice loss=0,那么就说明没有误差,这也就反向说明了,预测全部都是对的。

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    这表示每张图片对于某个类别的dice_coefficient的均值
    在这里插入图片描述

    补充:

    1.下面的test图片,是经过predict.py代码预测出来的图片
    在这里插入图片描述

    而下面这张是之前彩色图片通过人手工弄的,上面那个是根据彩色图骗预测出来的。

    在这里插入图片描述
    2.

    展开全文
  • 加拿大Whitemud Drive高速公路数据集可以进行的研究主要包括: (1)交通流预测及相关模型分析 (2)出行时间预测及相关模型分析 (3)短期出行需求预测及相关模型分析 (4)可变限速控制对高速公路交通流的影响...
  • DRIVE数据库.zip

    2019-12-09 11:04:22
    人眼视网膜血管数据集,亲测可用
  • 自定义语义分割的数据集DRIVE为例

    千次阅读 2022-03-08 17:02:43
    语义分割任务中 自定义数据集 的摸索

    先介绍一下数据集DRIVE(视网膜血管)

    数据集结构

    Mask中的白色,像素值是255,为感兴趣区域,相反黑色为0,为不感兴趣区域(直接就是不考虑区域)

    ist_manual,白色为255的前景,黑色为0的背景,前景就是医生标注出来的groudtruth。

    对于图像上像素的处理:前景 背景 感兴趣区域 不感兴趣区域 (其中255是不参与计算的)

     
    

     

     摸索阶段ing  轻喷!!

    
    
    
    import os
    from PIL import Image
    from torch.utils.data import Dataset
    import numpy as np
    from torch.utils.data.dataset import T_co
    
    class DRIVE(Dataset): # Drive数据集下 2个文件: training/test
        # 初始化数据集属性
        def __init__(self,
                     root:str,      # 定义的数据集的路径位置
                     train:bool,    # train=True时,读取数据集中的训练数据,train=False时,读取test数据
                     transforms = None # 设置数据预处理的方式
                     ):
            super(DRIVE, self).__init__()
            # 设置一个标志,用于读取数据时是训练集还是验证集
            self.flag = 'training' if train else 'test'
            # os.path.join:将数据的路径进行拼接
            data_root = os.path.join(root,'DRIVE(数据所在的文件名)',self.flag)
            # 做一个断言,看当前的路径是否存在,不存在则报错
            assert os.path.exists(data_root),f"path '{data_root}' does not exist"
            self.transforms = transforms
            # 使用i: for i in os.listdir( file_path )方法遍历路径下的数据文件
            # i.endswith(条件) 保留遍历到的i,以endswith条件结尾的文件
    
            # 此时获取的是复合条件的数据的名称(带后缀的) img_name
            img_name = [i for i in os.listdir(os.path.join(data_root,'images')) if i.endswith("tif")]
            # 将获取的数据的名字与data_root等file_path拼接,得到 每个数据的路径
            self.img_list = [os.path.join(data_root,"images",i) for i in img_name]
            # 获取1st_manual中每个数据的数据路径
            self.manual = [os.path.join(data_root,"1st_manual",i.split('_')[0]+"_manual1.gif") for i in img_name]
            # 检查一下每个遍历到的manual文件是否存在
            for i in self.manual:
                if os.path.exists(i) is False:
                    raise FileNotFoundError(f"file {i} does not exists")
            # 同样的方法获取mask文件的路径(此时mask分为training与test)
            self.roi_mask = [os.path.join(data_root,"mask",i.split("_")[0]+"_"+self.flag+"_mask.gif") for i in img_name]
            # 检查获取的mask文件是否存在
            for i in self.roi_mask:
                if os.path.exists(i) is False:
                    raise FileNotFoundError(f"file{i}does not exists")
    
        def __getitem__(self, idx):
            # 根据传入的索引,return要训练的img以及mask(此时的mask是groundtruth)
    
            # 根据传入的索引idx打开img图片,并转换成RGB图像
            img = Image.open(self.img_list[idx]).convert('RGB')
            # 根据传入的索引idx打开manual图片,并转换成灰度图像
            manual = Image.open(self.manual[idx]).convert('L')
    
            # 在设置mask中的类别时,0是背景,1是前景,而此时的mask中的前景像素值是255,所以÷255,令其为1
            # 此时mask中的类别就是从0开始的(连续)
            manual = np.array(manual) / 255
            # roi_mask的图像,并转化成灰度图
            roi_mask = Image.open(self.roi_mask[idx]).convert('L')
            # 将不感兴趣区域的no_roi区域的像素值设置成255(不参与计算LOSS)
            roi_mask = 255 - np.array(roi_mask)
            # 使用np.clip()方法,为叠加了manual(GT)与roi_mask后的像素设置像素的上下限
            mask = np.clip(manual+roi_mask, a_min=0,a_max=255)
            # 此时的感兴趣区域中的前景像素值=1,后景=0,不感兴趣区域像素值=255
    
            # 将numpy格式转回PIL格式的原因:由于预处理transform中的方法处理的是PIL格式
            mask = Image.fromarray(mask)
            if self.transforms is not None:
                img,mask = self.transforms(img,mask)
            # 最后将根据idx所以读取的图片,经过预处理及像素值的处理后,返回
            return img,mask # (PIL格式)
    
        def __len__(self):
            return len(self.img_list)   # 返回当前数据集的数量
    
        @staticmethod
        # 固定方法,将获取的img及mask构建打包构建成tensor
        def collate_fn(batch):
            # 将对应batch数量的图像进行打包
            images, targets = list(zip(*batch))
            #
            batched_imgs = cat_list(images,fill_value=0)
            batched_targets = cat_list(targets,fill_value=255)
            return batched_imgs,batched_targets
    
    def cat_list(images,fill_value):
    
        # 计算输入的图像中channel、H、W的最大值
    
        # 原因:train时,所有的图像会被resize到一个固定的大小
        # 而在test时,每张图像的大小可能不同,所以需要计算一下,设置一个合适尺寸的tensor
        max_size = tuple(max(s) for s in zip(*[img.shape for img in images]))
        # 给batch前面再增加一个batc_size维度
        # 此时的len(images)=batch_size
        batch_shape = (len(images,) + max_size)
    
        # 构建新的tensor  batch_imgs
        batched_imgs = images[0].new(*batch_shape).fill_(fill_value)
    
        # 遍历每张img及在对于构建的张量中的每个切片pad_img
        for img,pad_img in zip(images,batched_imgs):
            pad_img[..., :img.shape[-2], :img.shape[-1]].copy_(img)
        return batched_imgs
    
    # 验证是否写对:
    dataset = DRIVE(root=r'所有数据的',
                    train=True,
                    transforms=None)
    d1 = dataset[0]
    print(d1)
    
    
    
    
    
     
    

    展开全文
  • 眼底视网膜血管训练,有手工分割和掩膜图像
  • 微软研究研究提供的出租车数据集,最近打国赛的时候去微软官网发现链接挂了。
  • 视网膜眼底血管分割的STARE数据集,可作为深度学习的训练集。
  • 视网膜数据集(1)DRIVE

    千次阅读 多人点赞 2021-02-23 14:51:10
    DRIVE: training: image: 20张,21_training.tif——40_training.tif mask: 20张,21_training_masl.gif——40_training_mask.gif 1st_manual: 20张,21_manual1.gif——40_manual1.gif: test: images: ...

    DRIVE数据集,视网膜图像中对血管分割进行比较研究,数据来源与糖尿病视网膜病变筛查项目,40张视网膜图片,20张样本用作训练,20张样本用做测试,图像的原始大小为565x584。
    数据集目录:

    DRIVE:
    	training:
    		image: 20张, 21_training.tif——40_training.tif
    		mask: 20张, 21_training_masl.gif——40_training_mask.gif
    		1st_manual: 21_manual1.gif——40_manual1.gif:
    	test:	
    		images: 20张 01_test.tif——20_test.tif
    		1st_manual:20张 01_manual.gif——20_manual.gif
    		2nd_manual:20张 01_manual.gif——20_manual.gif
    		mask: 20张 01_test_mask.gif——20_test_mask.gif
    

    DRIVE Dataset 获取添加QQ :1056593553

    展开全文
  • DRIVE: Digital Retinal Images for Vessel ...把数据集转到码云上了,不用翻墙就可以下载,在DRIVE文件夹里。 https://gitee.com/zongfang/retina-unet 比赛官网链接 https://drive.grand-challenge.org ...
  • kitti raw_data 数据集 2011_09_30_drive系列, 2011_09_30_drive_0072_extract(1).zip 2011_09_30_drive_0034_sync.zip 2011_09_30_drive_0034_extract(1).zip 2011_09_30_drive_0033_sync.zip 2011_09_30_drive_...
  • 1. 上传数据数据上传到Google云端硬盘,您可以使用 (a)Google云端硬盘网络浏览器或 (b)云端硬盘API(https://developers.google.com/drive/api/v3/quickstart/python)。 2. 代码中挂载云端硬盘 挂载驱动器中的...
  • 用Google colab链接Google drive ...已经有了谷歌账号后,Google drive有免费15G的空间,Google colab也可以白嫖12小时,12小时后自动断线而且所有训练的数据都会消失,10美元一个月可以享受最高端的GPU,某某云学着点! ...
  • 中国森林和非森林区域年度数据集1km分辨率2007/2008/2009/2010/2015/2016/2017年 全球森林/非森林地图(FNF)是通过对全球25米分辨率PALSAR-2/PALSAR马赛克中的SAR图像(背散射系数)进行分类,使强背散射和低背...
  • 训练卷积神经网络进行视网膜血管分割的数据集DRIVE,训练集40张,RGB图像。分为原始图和专家手工分割的ground truth。
  • 视网膜数据集.rar

    2020-05-22 23:41:13
    视网膜数据集,包含CHASEDB,DRIVE,STARE,需要使用这些数据集对视网膜分割的可以使用,
  • T-Drive trajectory.zip

    2021-01-23 10:11:28
    oneDrive登不上去无法下载。出租车轨迹数据集已上传。
  • 所以需要用到自定义的数据载入,本文参考了一下博客:https://blog.csdn.net/tuiqdymy/article/details/84779716?utm_source=app,一开始是做的眼底图像分割,由于使用的是DRIVE数据集,所以数据量很少,之前也是...
  • 12k Drive End Bearing Fault data---DE驱动端12k数据集
  • dc-数据集

    2021-03-26 06:55:52
  • Berkeley发布了最大,最多样化的驾驶视频数据集,其中包含丰富的BDD100K注释。您现在可以访问bdd-data.berkeley.edu上的数据进行研究。研究者最近发布了arXiv报告。现在仍然有机会参加CVPR 2018挑战。 精彩视频点击...
  • 常用的交通流数据集,持续更新~~

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,813
精华内容 7,525
关键字:

drive数据集

友情链接: ZTE_Drivers_64bit.zip