2018-01-26 20:44:29 fengtanyu3470 阅读数 500
  • 深度学习--实现图片分析及目标定位视频教学

    基于深度学习实现图片分析及目标定位视频教程,通过计算机视觉和大数据、深度学习的结合,将积累的医学数据转化为可用的模型,利用图像处理和机器学习算法对图像进行分析,检测异常部分,利用AI技术克服不同操作人员之间的主观性差异,减轻人工处理的工作量,让计算机在精确度和速度上帮助医生提高诊断效率。

    1276 人正在学习 去看看 CSDN讲师

找的一些DL数据集,可以用来试模型:
1. 医学图像数据库的汇总(有些需要注册,大部分公开的): https://github.com/beamandrew/medical-data
2. 比赛数据库:https://grand-challenge.org/All_Challenges/
3. CIFAR-10/100:http://www.cs.toronto.edu/~kriz/cifar.html
4. PASCAL VOC数据集镜像网站:https://pjreddie.com/projects/pascal-voc-dataset-mirror/,以及最新排名:http://host.robots.ox.ac.uk:8080/leaderboard/displaylb.php?challengeid=11&compid=6
5. UCSB的生物图像数据集:http://bioimage.ucsb.edu/research/bio-segmentation
6. https://lmb.informatik.uni-freiburg.de/resources/datasets/tem.en.html

2018-10-11 18:54:34 shareviews 阅读数 401
  • 深度学习--实现图片分析及目标定位视频教学

    基于深度学习实现图片分析及目标定位视频教程,通过计算机视觉和大数据、深度学习的结合,将积累的医学数据转化为可用的模型,利用图像处理和机器学习算法对图像进行分析,检测异常部分,利用AI技术克服不同操作人员之间的主观性差异,减轻人工处理的工作量,让计算机在精确度和速度上帮助医生提高诊断效率。

    1276 人正在学习 去看看 CSDN讲师

深度学习-13:开源深度学习数据集汇总

深度学习原理与实践(开源图书)-总目录

1 机器视觉图形图像数据集

1.1 Mnist

Mnist数据集:深度学习领域的“Hello World!”,入门必备!MNIST是一个手写数字数据库,它有60000个训练样本集和10000个测试样本集,每个样本图像的宽高为28*28。

1.2 ImageNet

ImageNet数据集:对深度学习的浪潮起了巨大的推动作用。深度学习领域大牛Hinton在2012年发表的论文《ImageNet Classification with Deep Convolutional Neural Networks》在计算机视觉领域带来了一场“革命”,此论文的工作正是基于Imagenet数据集。

Imagenet数据集有1400多万幅图片,涵盖2万多个类别;其中有超过百万的图片有明确的类别标注和图像中物体位置的标注,具体信息如下:

  • Total number of non-empty synsets: 21841
  • Total number of images: 14,197,122
  • Number of images with bounding box annotations: 1,034,908
  • Number of synsets with SIFT features: 1000
  • Number of images with SIFT features: 1.2 million

1.3 COCO

COCO(Common Objects in Context):是一个新的图像识别、分割和图像语义数据集。COCO数据集由微软赞助,其对于图像的标注信息不仅有类别、位置信息,还有对图像的语义文本描述,COCO数据集的开源使得近两三年来图像分割语义理解取得了巨大的进展,也几乎成为了图像语义理解算法性能评价的“标准”数据集。COCO数据集具有如下特点:

  • Object segmentation
  • Recognition in Context
  • Multiple objects per image
  • More than 300,000 images
  • More than 2 Million instances
  • 80 object categories
  • 5 captions per image
  • Keypoints on 100,000 people

1.4 CIFAR

CIFAR数据集是一个知名的图像识别数据集。CIFAR-10包含10个类别,50,000个训练图像,彩色图像大小:32x32,10,000个测试图像。CIFAR-100与CIFAR-10类似,包含100个类,每类有600张图片,其中500张用于训练,100张用于测试;这100个类分组成20个超类。图像类别均有明确标注。CIFAR对于图像分类算法测试来说是一个非常不错的中小规模数据集。

1.5 Open Image

Open Image是一个包含~900万张图像URL的数据集,里面的图片通过标签注释被分为6000多类。该数据集中的标签要比ImageNet(1000类)包含更真实生活的实体存在,它足够让我们从头开始训练深度神经网络。

2 视频数据集

Youtube-8M为谷歌开源的视频数据集,视频来自youtube,共计8百万个视频,总时长50万小时,4800类。为了保证标签视频数据库的稳定性和质量,谷歌只采用浏览量超过1000的公共视频资源。为了让受计算机资源所限的研究者和学生也可以用上这一数据库,谷歌对视频进行了预处理,并提取了帧级别的特征,提取的特征被压缩到可以放到一个硬盘中(小于1.5T)。

CDVL(TheConsumer Digital Video Library) 消费者数字视频库对外提供高质量的源视频序列,可供研究和开发免费使用。CDVL还托管了几个视频质量数据集,包括五个VQEG HD Phase I数据集,BVI-HD,CCRIQ,its4s和T1A1。

LIVE database 出自德克萨斯大学的图像&视频工程实验室。该实验室的视觉科学家和视频工程师对图片和视频质量进行大规模主观和客观研究,对相关数据库做了严格的视觉检测/筛选。该数据库包含15+细分的自数据库。该数据库还包含若干视频质量评估的背景知识。

IVC数据库包含图像质量评价和视频质量评价数据库。IVC数据库由法国南特大学(Université de Nantes)的南特通信与网络研究所主持构建和维护。南特通信与网络研究所在图像&视频质量评价、离散信息表示、人类世界感知、机器学习和模式识别、网络和系统等方面具有深刻而广泛的研究。

3 音频数据集

谷歌发布的大规模一品数据集,AudioSet 包括 632 个音频事件类的扩展类目和从YouTube视频绘制的 2084320 个人类标记的10秒声音剪辑的集合。类目被指定为事件类别的分层图,覆盖广泛的人类和动物声音,乐器和风格以及常见的日常环境声音。

2000 HUB5 English Evaluation Transcripts由NIST(国家标准与技术研究院)2000年发起的HUB5评估中使用的40个英语电话对话的成绩单组成,其仅包含英语的语音数据集,百度最近的论文《深度语音:扩展端对端语音识别》使用的是这个数据集。

TED-LIUM是TED Talk的音频数据集,包含1495个录音和音频会议、159848条发音词典和部分WMT12公开的语料库。

4 综合数据集

系列文章

参考文献

  • [1] Ian Goodfellow, Yoshua Bengio. Deep Learning. MIT Press. 2016.
  • [2] 焦李成等. 深度学习、优化与识别. 清华大学出版社. 2017.
  • [3] 佩德罗·多明戈斯. 终极算法-机器学习和人工智能如何重塑世界. 中信出版社. 2018.
  • [4] 雷.库兹韦尔. 人工智能的未来-揭示人类思维的奥秘. 浙江人民出版社. 2016.
2019-10-15 22:28:12 JYZhang_CVML 阅读数 288
  • 深度学习--实现图片分析及目标定位视频教学

    基于深度学习实现图片分析及目标定位视频教程,通过计算机视觉和大数据、深度学习的结合,将积累的医学数据转化为可用的模型,利用图像处理和机器学习算法对图像进行分析,检测异常部分,利用AI技术克服不同操作人员之间的主观性差异,减轻人工处理的工作量,让计算机在精确度和速度上帮助医生提高诊断效率。

    1276 人正在学习 去看看 CSDN讲师

用于医学图像分割的数据增强方法 —— 标准 imgaug 库的使用方法

前言 —— imgaug 库简介

在机器学习算法尤其是 deep learning 盛行的如今,数据增强是实现深度学习不可避免的一个重要环节。相比于 tensorflow 或者 pytorch 自带的数据增强库而言,基于 imgaug 库的数据增强具有更加友好的 API 和更加丰富的功能。
下面主要介绍在医学图像分割算法中,imgaug 库中常用的数据增强方法,包括

  • 标准的使用流程 (如何同时变换图像和对应的分割金标准)
  • 医学图像分割中常用的增强方法 (包括 API 简述)

imgaug 基本 (足够) 的快速入门

下面的代码可以直接套用,具体原理不必深究。

import imgaug.augmenters as iaa  # 导入iaa
import cv2
# 导入原图和分割金标准
images = cv2.imread(filename='img.png')[:,:,:1]
images = np.expand_dims(images, axis=0).astype(np.float32)  # 尤其注意这里数据格式 (batch_size, H, W, C)
segmaps = cv2.imread(filename='seg.png')[:,:,:1]/255
segmaps = np.expand_dims(segmaps, axis=0).astype(np.int32)  # segmentation 需要时 int 型
# 定义数据增强策略
seq = iaa.Sequential([
    iaa.Fliplr(p=0.5),  # 这里写按照顺序执行的数据增强策略 (这里是依次进行水平和垂直翻转)
    iaa.Flipud(p=0.5),
])
# 同时对原图和分割进行数据增强
images_aug, segmaps_aug = seq(images=images, segmentation_maps=segmaps)

分割中常用的数据增强方法API (定义在 iaa.Sequential([…]))

iaa.GaussianBlur(sigma=(0, 3.0))

  • 参数 sigma 表示高斯模糊的强度,一般 sigma = 0 表示没有高斯模糊,sigma = 3.0 表示很强的模糊。采用 tripe 输入,表示 sigma 值在 (0, 0.03) 之间随机取。
    在这里插入图片描述

iaa.CropAndPad(px=(-10, 0), percent=None, pad_mode='constant', pad_cval=0, keep_size=False)

  • px:表示距离图像边缘的像素距离,此处随机在 (-10, 0) 之间取。 负数表示 crop,正数表示 pad。
  • percent:不可和 px 同时赋值,是 px 的分数版本。
  • pad_mode:此处取 constant,表示用一个常数来 padding 图像
  • pad_cval:和 pad_mode 配合,用 pad_cval=0 来 padding。
  • keep_size:是否缩放到原图大小。
    在这里插入图片描述

iaa.Resize(size=[200, 200], interpolation='nearest')

  • size:表示缩放最后的尺度。
  • interpolation:表示插值方法。
    在这里插入图片描述

iaa.Fliplr(p=0.5), iaa.Flipud(p=0.5)

  • p:以一定概率 flip 图像。
    在这里插入图片描述

iaa.Affine(scale=(0.9, 1), translate_percent=(0, 0.1), rotate=(-40, 40), cval=0, mode='constant')

进行缩放、平移和旋转操作。

  • scale:缩放的尺度。
  • translate_percent:平移比例 (也可以用 translate_px 这个参数是平移像素个数)。
  • rotate:旋转角度
  • cval 和 mode:表示填充方式。
    在这里插入图片描述

iaa.PiecewiseAffine(scale=(0, 0.1), nb_rows=4, nb_cols=4, cval=0)

以控制点的方式随机形变。

  • scale:形变强度,个人感觉 0.1 的形变已经非常大了,因此建议取值小一些。
  • nb_rows, nb_cols:控制点分布行数和列数。
  • cval:以给定的值填充。
    在这里插入图片描述

iaa.ElasticTransformation(alpha=(0, 50), sigma=(4.0, 6.0))

以像素点随机位移来进行形变。

  • alpha:值越大表示像素点位移越大 -> 即形变越大。
  • sigma:表示形变场平滑程度。
    在这里插入图片描述

总结

这篇文章是比较功利的快速使用 imgaug库 的方法,介绍的一些增强方法都是非常常用的增强方法在分割中,尤其是形变类的方法。如果有需求更加复杂的增强方法,可以参考 https://github.com/aleju/imgaug 这个库的源码。

2016-08-17 16:13:33 Richard_More 阅读数 17398
  • 深度学习--实现图片分析及目标定位视频教学

    基于深度学习实现图片分析及目标定位视频教程,通过计算机视觉和大数据、深度学习的结合,将积累的医学数据转化为可用的模型,利用图像处理和机器学习算法对图像进行分析,检测异常部分,利用AI技术克服不同操作人员之间的主观性差异,减轻人工处理的工作量,让计算机在精确度和速度上帮助医生提高诊断效率。

    1276 人正在学习 去看看 CSDN讲师

近年来,以深度学习为代表的机器学习在健康医疗领域越来越多。按照处理的数据种类可以分为数值型,文本型以及图片数据;本文主要集中在文本数据。

临床诊断决策:

(Miotto R,et al;2016)[1]提出了一种新的无监督深度特征学习方法即为三层堆叠的降噪自动解码器,它可以从电子健康病历数据中获取一个通用的病人表征,从而让临床预测性建模更加方便。用于捕捉西奈山数据仓库中70万患者聚合电子健康病历中的层次规律性( hierarchical regularities )及依存关系。 结果显著优于其他使用了基于原始电子健康档案数据表征的研究方法,以及其他特征学习策略。在对严重糖尿病、精神分裂症以及各种癌症的预测表现上,“深度患者”遥遥领先。发现表明将深度学习应用到电子健康病历中,可以得到病人表征,这些表征可以帮助我们改善临床预测,研究也为增强临床决策系统提供了深度学习框架。类似地(Nguyen P,et al;2016)[2] 基于深度卷积网络构建“深度记录”(Deeppr)用于提高临床诊断。(Nie L, Wang M, Zhang L, et al;2015)[3]提出了一个稀疏深度学习框架用来建立基于用户的提出健康表征信息,推断可能出现的疾病。

知识库构建

(Savova G K, Masanz J J, Ogren P V, et al;2010)针对如何从临床文本中提取知识在架构设计,模块以及评估应用方面给出了全面的阐述,该系统主要集中在临床领域自然语言处理的分词,命名体识别以及浅层次语法解析方面。(de Bruijn B,et al; 2010)[5]在对健康领域的实体名识别以及关系分析方面给出了基准的效果。主要是通过构建自然语言特征以及外部知识特征并辅助以SVM,CRF等机器学习模型。(Lei J, Tang B, Lu X, et al,2014)针对中文诊断文本,测度了CRF,SVM,ME,SSVM模型在命名体识别的效果,结果SSVM在入院小结文本和出院诊断单上F值有93.51%和90.01%的效果。随着深度学习在自然语言的深入应用(Collobert R, Weston J, Bottou L, et al,2011),一些传统的自然语言任务也从深度学习的特征生成机制中获得一定程度的提升。比如(Wu Y, Jiang M, Lei J, et al;2015)发现针对于传统的医学的命名体识别任务,以无监督的词向量为输入层,在建立深度神经网络框架可以胜过传统的CRF模型。




 [1]Miotto R, Li L, Kidd B A, et al. Deep Patient: An Unsupervised Representation to Predict the Future of Patients from the Electronic Health Records[J]. Scientific reports, 2016, 6.

 [2]Nguyen P, Tran T, Wickramasinghe N, et al. Deepr: A Convolutional Net for Medical Records[J]. arXiv preprint arXiv:1607.07519, 2016.

 [3]Nie L, Wang M, Zhang L, et al. Disease inference from health-related questions via sparse deep learning[J]. IEEE Transactions on Knowledge and Data Engineering, 2015, 27(8): 2107-2119.

 [4]Savova G K, Masanz J J, Ogren P V, et al. Mayo clinical Text Analysis and Knowledge Extraction System (cTAKES): architecture, component evaluation and applications[J]. Journal of the American Medical Informatics Association, 2010, 17(5): 507-513.

 [5]Uzuner Ö, South B R, Shen S, et al. 2010 i2b2/VA challenge on concepts, assertions, and relations in clinical text[J]. Journal of the American Medical Informatics Association, 2011, 18(5): 552-556.

 [6]Lei J, Tang B, Lu X, et al. A comprehensive study of named entity recognition in Chinese clinical text[J]. Journal of the American Medical Informatics Association, 2014, 21(5): 808-814.

 [7]Wu Y, Jiang M, Lei J, et al. Named entity recognition in Chinese clinical text using deep neural network[J]. Studies in health technology and informatics, 2015, 216: 624.

[8]Collobert R, Weston J, Bottou L, et al. Natural language processing (almost) from scratch[J].  Journal of Machine Learning Research, 2011, 12(Aug): 2493-2537.

2017-08-02 11:44:00 weixin_34185320 阅读数 97
  • 深度学习--实现图片分析及目标定位视频教学

    基于深度学习实现图片分析及目标定位视频教程,通过计算机视觉和大数据、深度学习的结合,将积累的医学数据转化为可用的模型,利用图像处理和机器学习算法对图像进行分析,检测异常部分,利用AI技术克服不同操作人员之间的主观性差异,减轻人工处理的工作量,让计算机在精确度和速度上帮助医生提高诊断效率。

    1276 人正在学习 去看看 CSDN讲师

在《深度学习下的医学图像分析》系列的第一篇文章中,我们介绍了一些使用OpenCV和DICOM图像基础知识进行图像处理的过程。本文,我们将从“卷积神经网络”的角度讨论深度学习。在系列的第三部分,我们将利用Kaggle的肺癌数据库,重新查看肺癌DICOM图像中的关键内容和信息,并且利用Kera开发一个肺癌预测模型。

  • “卷积神经网络”(CNN)

在了解“卷积神经网络”之前,我们要先知道什么是“卷积”。

何为“卷积”?

维基百科对“卷积”的定义是:一个关于两个函数的数学运算。这个数学运算将会产生两个原始函数之外的第三个函数,这个函数通常被看作是两个原始函数之一的修正版,实际上是这两个原始函数的点乘式相乘的积分。我们可以简单地将第三个函数理解为“一个矩阵上的滑动窗口函数”。深度学习下的医学图像分析(二)

图片来源:deeplearning.stanford.edu/wiki/index.php/Feature_extraction_using_convolution

如上图所示,绿色表示的是滑动窗口,红色的是滑动窗口矩阵,输出的结果是带有卷积特性的矩阵。下图是两个方形脉冲的卷积及其输出结果。

深度学习下的医学图像分析(二)

图片来源:维基百科

Jeremy Howard在他的MOOC课程里,利用一个Excel表格很好地解释了“卷积”。f和g两个矩阵的卷积输出是第三个矩阵卷积的第一层,也是这两个矩阵的点乘结果。这两个矩阵的点乘结果是下图所示的“标量矩阵”,也是一个数学函数的来源

深度学习下的医学图像分析(二)

两个矩阵的点乘结果

像Jeremy一样,我们也来利用Excel表格。我们输入的矩阵是函数f(),滑动窗口矩阵是函数g()。两个函数的点乘结果是表格中的两个矩阵的和积,如下图所示:深度学习下的医学图像分析(二)

两个矩阵的卷积

接下来,我们把这个规律用到大写字母A的一张图像。大家都知道,所有图像都是由像素构成的。因此,我们输入的矩阵f是“A”,把滑动窗口函数定为任意的矩阵g。然后,我们就得到了两个函数的点乘结果,如下图:深度学习下的医学图像分析(二)

何为“卷积神经网络”?

深度学习下的医学图像分析(二)

图片来源: cs231n.github.io/convolutional-networks/

在我看来,一个简单的卷积神经网络CNN是所有层的一个序列。每一层都有一些特定的函数。每个卷积层都是三维的,所以我们用体积来作为度量标准。再进一步,卷积神经网络的每一层都会通过一个可微函数来将激活量转化为另一个,这个函数叫做“激活”或者“转化函数”。

“卷积神经网络”包含的不同实体分别是:输入层、过滤器(或内核)、卷积层、激活层、聚积层、批处理层。虽然这些层的组合排列各异,但是在不同的排列中还是存在一些规律的,给我们提供了不同的深度学习架构。
输入层:一般情况下,我们输入至“卷积神经网络”的通常是一个n维数组。如果是一张图像,我们有彩色通道的三维输入——长、宽、高。

深度学习下的医学图像分析(二)

图片来源: http://xrds.acm.org/blog/2016/06/convolutional-neural-networks-cnns-illustrated-explanation/

过滤器(或内核):如下图所示,一个过滤器或内核会滑动到图像的所有位置,将一个新像素作为所有像素的加权总和来进行计算。正如上面Excel表格的示例,我们的过滤器g移动到了输入的矩阵f处。

深度学习下的医学图像分析(二)

来源: intellabs.github.io/RiverTrail/tutorial/

卷积层:输入矩阵的点乘结果与内核共同创造出的新矩阵就是“卷积矩阵”,也被称作“卷积层”。

深度学习下的医学图像分析(二)

来源: https://docs.gimp.org/en/plug-in-convmatrix.html

下面这张非常清晰的视觉图表能够帮助你能更好地了解卷积填充和卷积转置的具体过程:

深度学习下的医学图像分析(二)

来源: https://github.com/vdumoulin/conv_arithmetic

激活层:“激活函数”能分成两类——“饱和激活函数”和“非饱和激活函数”。

深度学习下的医学图像分析(二)

sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点:

1.首先,“非饱和激活函数”能解决所谓的“梯度消失”问题。

2.其次,它能加快收敛速度。

Sigmoid函数需要一个实值输入压缩至[0,1]的范围

σ(x) = 1 / (1 + exp(−x))

tanh函数需要讲一个实值输入压缩至 [-1, 1]的范围

tanh(x) = 2σ(2x) − 1

ReLU

ReLU函数代表的的是“修正线性单元”,它是带有卷积图像的输入x的最大函数(x,o)。ReLU函数将矩阵x内所有负值都设为零,其余的值不变。ReLU函数的计算是在卷积之后进行的,因此它与tanh函数和sigmoid函数一样,同属于“非线性激活函数”。这一内容是由Geoff Hinton首次提出的。

ELUs

ELUs是“指数线性单元”,它试图将激活函数的平均值接近零,从而加快学习的速度。同时,它还能通过正值的标识来避免梯度消失的问题。根据一些研究,ELUs分类精确度是高于ReLUs的。下面是关于ELU细节信息的详细介绍:

深度学习下的医学图像分析(二)

图片来源: http://image-net.org/challenges/posters/JKU_EN_RGB_Schwarz_poster.pdf

深度学习下的医学图像分析(二)

图片来源:维基百科

Leaky ReLUs

ReLU是将所有的负值都设为零,相反,Leaky ReLU是给所有负值赋予一个非零斜率。Leaky ReLU激活函数是在声学模型(2013)中首次提出的。以数学的方式我们可以表示为:

深度学习下的医学图像分析(二)

图片来源:《卷积网络中整流激活函数的实证评估》

上图中的ai是(1,+∞)区间内的固定参数。

参数化修正线性单元(PReLU)

PReLU可以看作是Leaky ReLU的一个变体。在PReLU中,负值部分的斜率是根据数据来定的,而非预先定义的。作者称,在ImageNet分类(2015,Russakovsky等)上,PReLU是超越人类分类水平的关键所在。

随机纠正线性单元(RReLU)

“随机纠正线性单元”RReLU也是Leaky ReLU的一个变体。在RReLU中,负值的斜率在训练中是随机的,在之后的测试中就变成了固定的了。RReLU的亮点在于,在训练环节中,aji是从一个均匀的分布U(I,u)中随机抽取的数值。形式上来说,我们能得到以下结果:

深度学习下的医学图像分析(二)

下图是ReLU、Leaky ReLU、PReLU和RReLU的比较:

深度学习下的医学图像分析(二)

图片来源 :https://arxiv.org/pdf/1505.00853.pdf

PReLU中的ai是根据数据变化的;Leaky ReLU中的ai是固定的;RReLU中的aji是一个在一个给定的范围内随机抽取的值,这个值在测试环节就会固定下来。

噪声激活函数

这些是包含了Gaussian噪声的激活函数,下图能帮助你了解“噪声”是如何与激活函数相结合的:

深度学习下的医学图像分析(二)

图片来源:维基百科

聚积层

“聚积层”的目的就是通过逐渐缩减矩阵的空间大小,减少参数和网络内计算的数量,进而控制过度拟合。“聚积层”在输入中独立运行,然后利用最大值或平均值的操作来调整输入矩阵的空间大小。“聚积层”最常见的形式就是带有应用于输入的两个样本中的2x2过滤器的“聚积层”。在这种形式中,每一次最大值操作都会取超过4个的最大数量,深度维数保持不变。更常见的“聚积层”如下图:

深度学习下的医学图像分析(二)

图片来源: http://cs231n.github.io/convolutional-networks/#pool

深度学习下的医学图像分析(二)

图片来源: https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/

注意:这里我们把2 x 2窗口移动了两个单元格,然后取每个区域的最大值。

批规范化层

“批规范化”是将每个过渡层,包括激活函数,标准化的有效方法。“批规范化”操作的两个主要优点是:

1.在一个模型中添加“批规范”能够加快训练的速度

2.规范化操作大大降低了少数外围输入对训练的制约影响,同时减少了过度拟合的发生。

Jeremy的网络公开课中有更多关于“批规范化”的细节。

全连接层

“全连接层”是一个传统的“多层感知器”,这个感知器在输出层中使用了一个“柔性最大值激活函数”。顾名思义,“全连接”意味着上一层的每一个神经元都与下一层的每个神经元相连接。一个“柔性最大值函数”是逻辑函数的泛化,该函数将一个任意实值的K维向量转化为一个实值在(0,1)范围之间的K维向量。

深度学习下的医学图像分析(二)

图片来源:维基百科

“柔性最大值激活函数”一般被用于最后的全连接层,获取实值在0到1之间的概率。现在,我们对“卷积神经网络”中的不同层已经有所了解了,那么具备了这些知识,我们就能建立起肺癌检测所需的深度学习架构了。关于肺癌检测的深度学习架构,我们将在下一篇文章中讨论。



====================================分割线================================


本文作者:图普科技

本文转自雷锋网禁止二次转载,原文链接

数据库并发

阅读数 18

知识体系结构

阅读数 41

没有更多推荐了,返回首页