精华内容
下载资源
问答
  • CNN及其可解释性

    2018-09-16 17:35:00
    https://www.tensorflow.org/tutorials/images/deep_cnn https://www.coursera.org/learn/convolutional-neural-networks Unsupervised representation learning with deep convolutional generative ...

    https://stats385.github.io/readings

    https://arxiv.org/pdf/1311.2901.pdf

    https://calculatedcontent.com/2017/02/24/why-deep-learning-works-3-backprop-minimizes-the-free-energy/

    http://yann.lecun.com/exdb/publis/pdf/lecun-06.pdf

    https://calculatedcontent.com/2015/03/25/why-does-deep-learning-work/

    https://calculatedcontent.com/2015/04/01/why-deep-learning-works-ii-the-renormalization-group/

    https://pdfs.semanticscholar.org/a0d1/6f0e99f7ce5e6fb70b1a68c685e9ad610657.pdf?_ga=2.60835948.1949072808.1537707280-971327580.1499580321

    https://www.semanticscholar.org/paper/A-Learning-Algorithm-for-Boltzmann-Machines-Ackley-Hinton/2e3e09e48a7a62dc30efd8ef7fc4665a53e84d7a

    https://www.quora.com/What-is-a-convolutional-neural-network

    https://distill.pub/2017/feature-visualization/

    https://colah.github.io/posts/2014-07-Conv-Nets-Modular/

    http://neuralnetworksanddeeplearning.com/chap6.html

    http://kvfrans.com/visualizing-features-from-a-convolutional-neural-network/

    https://distill.pub/2018/building-blocks/

    https://cs231n.github.io/neural-networks-1/

    https://distill.pub/2016/deconv-checkerboard/

    https://www.tensorflow.org/tutorials/images/deep_cnn

    https://www.coursera.org/learn/convolutional-neural-networks

    Unsupervised representation learning with deep convolutional generative adversarial networks  [PDF]025

     

      1. Inceptionism: Going deeper into neural networks  [HTML]
        Mordvintsev, A., Olah, C. and Tyka, M., 2015. Google Research Blog. Retrieved June, Vol 20.
      2. https://github.com/google/deepdream/blob/master/dream.ipynb
      3. Geodesics of learned representations  [PDF]
        Henaff, O.J. and Simoncelli, E.P., 2015. arXiv preprint arXiv:1511.06394.
      4. DeepDreaming with TensorFlow  [link]
      1. A guide to convolution arithmetic for deep learning  [PDF]
      1. Dumoulin, V. and Visin, F., 2016. arXiv preprint arXiv:1603.07285.
      2. Is the deconvolution layer the same as a convolutional layer?  [PDF]
        Shi, W., Caballero, J., Theis, L., Huszar, F., Aitken, A., Ledig, C. and Wang, Z., 2016. arXiv preprint arXiv:1609.07009.
      3. Conditional generative adversarial nets for convolutional face generation  [PDF]
        Gauthier, J., 2014. Class Project for Stanford CS231N: Convolutional Neural Networks for Visual Recognition, Winter semester, Vol 2014.
    展开全文
  • CNN可视化/可解释性

    千次阅读 多人点赞 2019-05-21 19:10:56
    凭什么相信你,我的CNN模型?(篇一:CAM和Grad-CAM) 凭什么相信你,我的CNN模型?(篇二:万金油LIME) 在当前深度学习的领域,有一个非常不好的风气:一切以经验论,好用就行,不问为什么,很少深究问题背后的深...

    在当前深度学习的领域,有一个非常不好的风气:一切以经验论,好用就行,不问为什么,很少深究问题背后的深层次原因。从长远来看,这样做就埋下了隐患。举个例子,在1980年左右的时候,美国五角大楼启动了一个项目:用神经网络模型来识别坦克(当时还没有深度学习的概念),他们采集了100张隐藏在树丛中的坦克照片,以及另100张仅有树丛的照片。一组顶尖的研究人员训练了一个神经网络模型来识别这两种不同的场景,这个神经网络模型效果拔群,在测试集上的准确率尽然达到了100%!于是这帮研究人员很高兴的把他们的研究成果带到了某个学术会议上,会议上有个哥们提出了质疑:你们的训练数据是怎么采集的?后来进一步调查发现,原来那100张有坦克的照片都是在阴天拍摄的,而另100张没有坦克的照片是在晴天拍摄的……也就是说,五角大楼花了那么多的经费,最后就得到了一个用来区分阴天和晴天的分类模型。

    大家不妨思考下,假如我们手里现在有一家医院所有医生和护士的照片,我们希望训练出一个图片分类模型,能够准确的区分出医生和护士。当模型训练完成之后,准确率达到了99%,你认为这个模型可靠不可靠呢?大家可以自己考虑下这个问题。
    好在学术界的一直有人关注着这个问题,并引申出一个很重要的分支,就是模型的可解释性问题。

    从可视化的内容来分,主要的三种可视化模式:

    1. 特征可视化:又可分为两类—(1)直接将卷积核输出的feature map可视化,即可视化卷积操作后的结果,帮助理解卷积核的抽取到了什么特征。(2)与第一种方法类似,但不再是可视化卷积层输出的feature map,而是使用反卷积与反池化来可视化输入图像的激活特征。
    2. 卷积核参数的可视化,对卷积核本身进行可视化,对卷积核学习到的行为进行解释。
    3. 类激活图可视化(CAM/grad-CAM),通过热度图,了解图像分类问题中图像哪些部分起到了关键作用,同时可以定位图像中物体的位置。

    反卷积和导向反向传播

    “看懂”卷积神经网(Visualizing and Understanding Convolutional Networks)
    Visualizing and Understanding Convolutional Networks翻译总结
    关于CNN模型的可解释问题,很早就有人开始研究了,姑且称之为CNN可视化吧。比较经典的有两个方法,反卷积(Deconvolution)和导向反向传播(Guided-backpropagation),通过它们,我们能够一定程度上“看到”CNN模型中较深的卷积层所学习到的一些特征。当然这两个方法也衍生出了其他很多用途,以反卷积为例,它在图像语义分割中有着非常重要的作用。(ps:目前网上有一些关于反卷积的文章,我感觉没有说的特别到位的,当然也有可能是大家理解的角度不同,但是另外一些解读那就是完全错误的了,包括某乎。不得不说,真正要深入理解反卷积还是要去啃论文,很多人嫌麻烦总是看些二手的资料,得到的认识自然是有问题的。当然这些都是题外话,我也有写一篇关于反卷积的文章的计划。看以后的时间安排)
    从本质上说,反卷积和导向反向传播的基础都是反向传播,其实说白了就是对输入进行求导,三者唯一的区别在于反向传播过程中经过ReLU层时对梯度的不同处理策略。在论文《STRIVING FOR SIMPLICITY:
    THE ALL CONVOLUTIONAL NET》
    中有着非常详细的说明,如下图所示:
    在这里插入图片描述
    在这里插入图片描述
    虽然过程上的区别看起来没有非常微小,但是在最终的效果上却有很大差别。如下图所示:
    在这里插入图片描述

    • 使用普通的反向传播得到的图像噪声较多,基本看不出模型的学到了什么东西。
    • 使用反卷积可以大概看清楚猫和狗的轮廓,但是有大量噪声在物体以外的位置上。
    • 导向反向传播基本上没有噪声,特征很明显的集中猫和狗的身体部位上。

    虽然借助反卷积和导向反向传播我们“看到”了CNN模型神秘的内部,但是却并不能拿来解释分类的结果,因为它们对类别并不敏感,直接把所有能提取的特征都展示出来了。在刚才的图片中,模型给出的分类结果是猫,但是通过反卷积和导向反向传播展示出来的结果却同时包括了狗的轮廓。换句话说,我们并不知道模型到底是通过哪块区域判断出当前图片是一只猫的。要解决这个问题,我们必须考虑其他办法。

    CAM(class activation map) 类激活图

    为了解决反卷积和导向反向传播对类别不敏感的问题,提出了CAM

    在这里插入图片描述
    CAM图与上图(热成像仪的图像)类似,当我们需要模型解释其分类的原因时,它以热力图(Saliency Map)的形式展示它的决策依据,如同在黑夜中告诉我们哪有发热的物体。

    对一个深层的卷积神经网络而言,通过多次卷积和池化以后,它的最后一层卷积层包含了最丰富的空间和语义信息,再往下就是全连接层和softmax层了,其中所包含的信息都是人类难以理解的,很难以可视化的方式展示出来。所以说,要让卷积神经网络的对其分类结果给出一个合理解释,必须要充分利用好最后一个卷积层
    在这里插入图片描述

    CAM借鉴了很著名的论文Network in Network中的思路,利用GAP(Global Average Pooling)替换掉了全连接层。可以把GAP视为一个特殊的average pool层,只不过其pool size和整个特征图一样大,其实说白了就是求每张特征图所有像素的均值。
    在这里插入图片描述
    GAP的优点在NIN的论文中说的很明确了:

    1. 由于没有了全连接层,输入就不用固定大小了,因此可支持任意大小的输入;
    2. 此外,引入GAP更充分的利用了空间信息,且没有了全连接层的各种参数,鲁棒性强,也不容易产生过拟合;
    3. 还有很重要的一点是,在最后的 mlpconv层(也就是最后一层卷积层)强制生成了和目标类别数量一致的特征图(有N个类别,就有N个特征图),经过GAP以后再通过softmax层得到结果,这样做就给每个特征图赋予了很明确的意义,也就是categories confidence maps

    我们重点看下经过GAP之后与输出层的连接关系(暂不考虑softmax层),实质上也是就是个全连接层,只不过没有了偏置项,如图所示:
    在这里插入图片描述
    从图中可以看到,经过GAP之后,我们得到了最后一个卷积层每个特征图的均值,通过加权和得到输出(实际中是softmax层的输入)。需要注意的是,对每一个类别C,每个特征图k的均值都有一个对应的w,记为 w k c w_{k}^{c} wkc。CAM的基本结构就是这样了,下面就是和普通的CNN模型一样训练就可以了。
    训练完成后才是重头戏:我们如何得到一个用于解释分类结果的热力图呢?其实非常简单,具体步骤为:

    (1)比如说我们要解释为什么分类的结果是羊驼,我们把羊驼这个类别对应的所有 w k c w_{k}^{c} wkc取出来,求出它们与自己对应的特征图的加权和即可。
    (2)由于这个结果的大小和特征图是一致的,我们需要对它进行上采样,叠加到原图上去,如下所示。
    在这里插入图片描述
    这样,CAM以热力图的形式告诉了我们,模型是重点通过哪些像素确定这个图片是羊驼了。

    GAP-CAM tensorflow实现
    https://github.com/jazzsaxmafia/Weakly_detector
    GAP-CAM pytorch实现
    https://github.com/metalbubble/CAM/blob/master/pytorch_CAM.py

    grad-CAM

    源码地址
    https://github.com/Ankush96/grad-cam.tensorflow
    https://github.com/kazuto1011/grad-cam-pytorch

    前面看到CAM的解释效果已经很不错了,但是它有一个致死伤,就是CAM要求修改原模型的结构,导致需要重新训练该模型,这大大限制了它的使用场景。如果模型已经上线了,或着训练的成本非常高,我们几乎是不可能为了它重新训练的。于是乎,Grad-CAM横空出世,解决了这个问题。
    Grad-CAM的基本思路和CAM是一致的,也是通过得到每对特征图对应的权重,最后求一个加权和。但是它与CAM的主要区别在于求权重 w k c w_{k}^{c} wkc的过程。

    • CAM通过替换全连接层为GAP层,重新训练得到权重
    • 而Grad-CAM另辟蹊径,用梯度的全局平均来计算权重。
    • 事实上,经过严格的数学推导,Grad-CAM与CAM计算出来的权重是等价的。

    在这里插入图片描述

    grad-CAM整体框架图
    注意这里和CAM的另一个区别是,Grad-CAM对最终的加权和加了一个ReLU,**加这么一层ReLU的原因在于我们只关心对类别c有正影响的那些像素点**,如果不加ReLU层,最终可能会带入一些属于其它类别的像素,从而影响解释的效果。

    实现方法:

    1)在CAM中,我们根据最后一层的FC学到的权重作为对应feature map的权重,而后upsampling到原像素空间,看起来利索应当,但当我们在最后一次适用conv之后,得到对应的feature map,之后多次使用FC,我们如何计算feature map对应的权重呢?
     这里有一个小问题,我们为什么使用conv阶段最后一次得到的feature map呢?因为最后一次conv得到的feature map是前面多次conv+ReLU+pooling的结果,具有最强的空间信息和语义信息,随后的FC和softmax所提取的信息已经很难理解,所以我们若想实现CNN的可视化,必须好好利用最后一次conv得到的feature map。

     # Get last convolutional layer gradient for generating gradCAM visualization
     #用预测对卷积最后一层输出求梯度
          target_conv_layer = vgg.vgg19_net['pool5']
          target_conv_layer_grad = tf.gradients(y_c, target_conv_layer)[0]
    

    在这里插入图片描述

    Guided Grad-CAM(导向反向传播和Grad-CAM的结合)

    1)问题:虽然Grad-CAM可以很好的类别判别能力,也可以将相关区域定位出来,但是其不具备像素空间梯度可视化(比如导向反向传播和反卷积这种细粒度重要性可视化)的方法
     2)解决问题:
      2.1)首先对图像使用插值法进行上采样
      2.2)然后将导向反向传播和Grad-CAM结合起来,实现可视化

    grad-CAM与guided grad-CAM 直观效果

    使用Grad-CAM对分类结果进行解释的效果如下图所示:
    在这里插入图片描述

    guided Grad-CAM: Grad-CAM 还可以与其他经典的模型解释方法如导向反向传播相结合,得到更细致的解释。
    在这里插入图片描述

    扩展

    其实无论是CAM还是Grad-CAM,除了用来对模型的预测结果作解释外,还有一个非常重要的功能:就是用于物体检测。大家都知道现在物体检测是一个非常热门的方向,它要求在一张图片中准确的识别出多个物体,同时用方框将其框起来。物体检测对训练数据量的要求是非常高的,目前常被大家使用的有 PASCAL、COCO,如果需要更多数据,或者想要识别的物体在这些数据库中没有话,那就只能人工来进行标注了,工作量可想而知。
    仔细想想我们不难发现,Grad-CAM在给出解释的同时,不正好完成了标注物体位置的工作吗?虽然其标注的位置不一定非常精确,也不一定完整覆盖到物体的每一个像素。但只要有这样一个大致的信息,我们就可以得到物体的位置,更具有诱惑力的是,我们不需要人工标注的方框就可以做到了。

    LIME

    但如果我们面对的是一个黑盒,对其内部一无所知,只能提供一个输入并得到相应的输出值(比如别人的某个模型部署在线上,我们只有使用它的权利),在这种情况下,我们如何判断这个模型是否靠谱?能不能像Grad-CAM那样对分类结果给出一个解释呢?
    针对这个问题,LIME作为另一套办法,即使我们对模型一无所知也能够对它的行为作出解释。

    参考文献:

    凭什么相信你,我的CNN模型?(篇一:CAM和Grad-CAM)
    凭什么相信你,我的CNN模型?(篇二:万金油LIME)
    Yes, Deep Networks are great, but are they Trustworthy?
    在这里插入图片描述

    展开全文
  • 近年来,对深度神经网络可解释性和可解释性方法的研究和探索已经取得了很大进展。目前,人工智能正被越来越多的关键任务部门所接受。但是应用在这些关键性人物的深度学习或基于人工智能的系统,哪怕是最轻微的计算...

    近年来,对深度神经网络可解释性和可解释性方法的研究和探索已经取得了很大进展。目前,人工智能正被越来越多的关键任务部门所接受。但是应用在这些关键性人物的深度学习或基于人工智能的系统,哪怕是最轻微的计算错误,都可能导致信任丧失、金钱损失、社会经济稳定甚至人命损失。

    我们迫切需要打破深度学习模型的黑盒子特性,让更大的用户,尤其是普通用户更容易理解它们。因为自从深度学习的发展以来,对模型可理解性的需求并不是模型本身要解决的的问题。还有一个关于AI公平性的更普遍的研究正在进行,但是在这篇文章中,我们不会深入研究这个研究的细节。相反,我将视图找到一个非常精确的模型是否能达到人类层次的视觉。

    在寻找答案的过程中,我针对MNIST数字数据训练了一个简单的CNN模型,并尝试回答一些类似的问题。

    1. 图像的哪一部分对分类结果很重要?
    2. 高精度是否意味着可靠性?
    3. 模型会像人类一样思考吗?

    为了找到这些答案,我采用了一些已经流行的解释性方法和一个基于自定义高级片段的可视化解释性方法。

    模型

    MNIST可能是最简单的计算机视觉数据集之一。 因此,我们不需要非常深的网络就可以在分类任务中实现非常高的准确性(> 90%)。 为此,我创建了一个非常简单的模型,并对其进行了训练,以实现96.25%的验证准确度和95.15%的测试准确度。


    传统可解释性研究

    现在采用一些流行的可解释性方法来解释分类器的预测。 我已使用“ tf_explain”库执行任务。 确切地说,我使用了库中的SmoothGrad,积分梯度和遮挡敏感度方法。 测试是在测试数据集的第一个图像上执行的,该图像最终是数字7。

    CNN模型正确地将输入类别预测为7,得分为0.9993(softmax)。 以下是用于运行上述三种方法的方法和输出的代码。

    可解释性方法的可视化

    基于归因的可解释性方法为基于单个像素梯度的模型结果提供推理。 每个像素均被视为模型的单独输入(独立)变量。 遮挡敏感度通过使用在输入图像上方的滑动窗口告诉我们输入图像的不同部分如何影响模型的决策。 对于我们的实验,窗口大小为3x3。 除了图像的强度之外,单像素本身对图像没有太多高级功能。

    因此,问题仍然在于这种可解释性是否可以与人类的视觉相媲美。

    基于高级分割的可解释性

    人类视觉与计算机视觉的区别主要体现在两个方面。首先,人类大脑是先验知识的巨大来源,这些先验知识由各种感觉器官、经验和记忆获得。深度学习模型缺乏这种视觉相关任务的先验知识。其次,当我们看到一张图片时,我们不是聚焦于完整的图片,而是聚焦于图片的不同区域,收集高级特征,然后整合所有这些高级特征来决定这张图片。如果我们问自己为什么输入的是数字7的图像。我们可能会这样回答:它有一条水平线和一条相连的倾斜的垂直线,并且它与我们之前知道的数字7相匹配,因此这个输入图像实际上是7的分类。

    我们能从CNN模型中得到这个层次的解释吗?为了找出答案,我使用了一种特殊的技术。我使用’ skimage ‘库使用’ Felzenszwalb '方法对输入图像进行分段,而不是将整个图像作为模型的输入,我将单个片段作为模型的输入,并预测类和分数。

    我发现这个实验的结果不同寻常。如果您查看前三个部分,它们只是数字7的实际图像的水平线,那么模型可以将它们预测为class 7,并获得近乎完美的分数。这些段和数字7一点也不像。而第四部分,有点像数字7,预测分数下降到0.913。

    这一发现进一步强调了这个问题,网络实际上在学习什么。它是否能够像人类一样学习高级别的特征或者它只是找到一些低层次的像素不同强度模式的交互作用然后根据这些模式的存在或不存在对图像进行分类?

    结论

    这个文章的目的是要证明这样一个事实,即高精度并不意味着这个模型是可靠的,或者它已经达到了人类对图像的理解水平。结果恰恰相反。因此,作为深度学习的实践者,我们必须确保模型确实能够基于可靠的高级特性执行与视觉相关的任务。在我们将所有任务移交给基于人工智能或深度学习的系统之前,这种可靠性是非常必要的。我认为,寻找更可靠的可解释性或可靠性方法仍处于初期阶段,未来我们将能够为与视觉相关的任务建立更可靠的模型。

    译者注

    我们翻译这篇文章的目的并不是因为我们同意这篇文章的观点,而是因为这篇文章给出了一个非常好的研究方法,在文章中说到我们人类具有最大特点就是我们的先验知识,其实这才是现阶段AI和人类的差距。

    以这篇文章最后的分割举例,第一张图,在们有任何背景的条件下,我们肯定认为他是中文的 “一”,而对于外国人来说可能就是减号,这就是我们的先验知识。但是对于我们训练的模型,因为仅有10个分类 0,1,2,3,4,5,6,7,8,9,我特意将这些数字打出,大家可以看一看,如果只从这10个数字里面挑选的话,7是不是与第一张图最相似?

    但是为什么能得到0.999的得分呢?我个人理解的原因是因为softmax函数的原因,具体可以去看看label smooth,如果让两端的极值往中间凑,显示结果应该会好很多。

    以上也只是我们的想法,欢迎讨论

    作者:Arnab Das

    原文地址:https://towardsdatascience.com/segmentation-based-interpretability-of-cnn-classification-6de02f9a8303

    deephub翻译组

    展开全文
  • CNN模型的可解释性——可视化

    千次阅读 2019-04-13 16:38:21
    中间层特征图可视化: CAM Grad-CAM LIME https://www.cnblogs.com/charlotte77/p/8343700.html CNNVis: http://shixialiu.com/publications/cnnvis/demo/ deep-visualization-toolbox: ...

    中间层特征图可视化:

    CAM Grad-CAM

    LIME

    https://www.cnblogs.com/charlotte77/p/8343700.html

     

    CNNVis:

    http://shixialiu.com/publications/cnnvis/demo/   

     

    deep-visualization-toolbox:

    github地址:https://github.com/yosinski/deep-visualization-toolbox

    论文地址:https://arxiv.org/pdf/1506.06579.pdf

    工具使用讲解:https://www.bilibili.com/video/av7405645/

     

    特征聚类可视化:

    python-sklearn-TSNE,聚类结果可视化工具

     

    网络结构可视化:

    Netron

    https://github.com/lutzroeder/Netron

     

    参考博文:

    https://blog.csdn.net/zchang81/article/details/78095378

    https://blog.csdn.net/fate_fjh/article/details/52882134 图像卷积与反卷积

    论文:

    Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift

    Visualizing and Understanding Convolutional Networks

    展开全文
  • CNN模型解释性(可视化)及实现 ---- Guided-backpropagation, Deconvolution, CAM, Grad-CAM,Grad-CAM++ 目录 CNN模型解释性(可视化)及实现 ---- Guided-backpropagation, Deconvolution, CAM, Grad-CAM,...
  • 可解释CNN中清晰的知识表示可以帮助人们理解CNN内部的逻辑,即,基于CNN做出决定的模式。 实验表明,可解释CNN中的过滤器比传统CNN中的过滤器在语义上更有意义。 引文 如果使用此代码,请引用以下论文。 张全石...
  • 本文提出了一种学习深度卷积神经网络(CNN)中可解释卷积滤波器的通用方法,用于对象分类,每个可解释滤波器都对一个特定对象部分的特征进行编码。我们的方法不需要额外的注释对象部分或纹理的监督。相反,我们使用与...
  • 卷积神经网络可视化与可解释性

    千次阅读 2018-05-05 14:59:24
    对卷积网络可视化与可解释性相关资料的一些整理,不断更新中~ 主要作用 进一步理解CNN 帮助我们分析训练好的网络 学会如何生成热力图,如下图: 博客 Distill 非常推荐的一个网站 Global Average ...
  • CNN 究竟“看”到了什么?曲线检测器是否为可解释性带来了出路?.pdf
  • 只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义CNN的目的简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要...
  • 机器学习模型可解释性的详尽介绍

    千次阅读 多人点赞 2019-11-26 12:22:00
    机器之心平台来源:腾讯技术工程模型可解释性方面的研究,在近两年的科研会议上成为关注热点,因为大家不仅仅满足于模型的效果,更对模型效果的原因产生更多的思考,这样的思考有助于模型和特征的优化,更能够帮助更...
  • 模型的可解释性初识

    千次阅读 2019-01-24 11:20:09
    模型的可解释性即让CNN模型自己解释预测的结果。比如分类任务,需要解释分类的原因,即通过图片的哪些像素做出了判断。 关于CNN模型的可解释性,比较经典的有:反卷积(Deconvolution)和导向反向传播(Guided-...
  • CNN入门——CNN各层功能解释

    千次阅读 2019-11-21 19:45:35
    众所周知,CNN是一种特殊的深层前馈网络,CNN模型主要包含输入层、卷积层、激励函数、池化层、全连接层以及输出层。接下来将为大家细化分析每一层结构的作用。 输入层(INPUT):用于数据的输入。 当输入一张3232的...
  • 在这篇文章中:可解释性是什么?我们为什么需要可解释性?有哪些可解释性方法?在建模之前的可解释性方法建立本身具备可解释性的模型在建模之后使用解释性性方法作出解释关于 BIGSCity参考文献不以人类可以理解的...
  • 凭什么相信你,我的CNN模型?(篇一:CAM和Grad-CAM):https://www.jianshu.com/p/1d7b5c4ecb93 凭什么相信你,我的CNN模型?(篇二:万金油LIME):http://bindog.github.io/blog/2018/02/11/model-explanation-2/ ...
  • 本文是周博磊大神CVPR 2017年的文章,主要关注网络的可解释性。神经网络的可解释性一直是一个很有趣也很有用的东西。很多情况下大家都把神经网络作为一个黑箱来用,而近年来也有越来越多的工作希望能够探索神经网络...
  • 指数 申请及口译 解释神经网络以提高礼貌理解 解释的语义文本相似性:发现和解释句子之间的差异 流式弱次模量:动态解释神经网络 通过可视化因果注意来理解自动驾驶汽车的可解释性...确定CNN可解释性 网络解剖:量
  • 深度学习的可解释性

    千次阅读 2021-02-12 22:00:00
    一、深度学习的可解释性研究概述随着深度学习模型在人们日常生活中的许多场景下扮演着越来越重要的角色,模型的「可解释性」成为了决定用户是否能够「信任」这些模型的关键因素(尤其是当我们需要机器为...
  • 凭什么相信你,我的CNN模型?(篇一:CAM和Grad-CAM):https://www.jianshu.com/p/1d7b5c4ecb93 凭什么相信你,我的CNN模型?(篇...
  • 模型可解释性-LIME

    千次阅读 2020-09-08 19:25:24
    模型可解释性 LIME的原理 LIME的想法很简单, 我们希望使用简单的模型来对复杂的模型进行解释. 这里简单的模型可以是线性模型, 因为我们可以通过查看线性模型的系数大小来对模型进行解释. 在这里,LIME只会对每一...
  • 可解释性机器学习:从入门到实战

    千次阅读 多人点赞 2019-12-09 19:43:53
    机器学习的巨大成功导致AI应用的爆炸式增长。 研究人员已经将AI用于了各种任务。 不断持续的进步有望产生一个自主系统,它...如果用户要理解,信任和有效管理新兴的人工智能”合作伙伴“,那么可解释的AI将至关重要。
  • 可解释性人工智能粗读

    千次阅读 2020-04-20 11:24:43
    然而,这一架构在“端到端”模式下、通过计算大量数据来进行误差后向传播而优化参数的学习方法被比喻为一个“黑盒子”,可解释性较弱,人们普遍难以相信一个不解释的黑盒子模型做出的决策。虽然我们造出了准确度极...
  • 点击上方“机器学习与生成对抗网络”,关注"星标"获取有趣、好玩的前沿干货!《深度学习的可解释性研究概览》包含3篇内容,作者将用尽可能浅显的语言带领大家了解可解释性的概念与...
  • 详解深度学习的可解释性研究(上篇)

    万次阅读 多人点赞 2018-06-24 21:33:34
    作者 | 王小贱来源 | BIGSCity知乎专栏摘要:《深度学习的可解释性研究》系列文章希望能用尽可能浅显的语言带领大家了解可解释性的概念与方法,以及关于深度学习解释...
  • R-CNN: (1)输入测试图像; (2)利用selective search 算法在图像中从上到下提取2000个左右的Region Proposal; (3)将每个Region Proposal缩放(warp)成227*227的大小并输入到CNN,将CNN的fc7层的输出作为特征; (4...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 26,055
精华内容 10,422
关键字:

cnn的可解释性