精华内容
参与话题
问答
  • (Paper)Network in Network网络分析

    万次阅读 多人点赞 2016-06-23 20:03:27
    Network in Network》论文笔记1.综述这篇文章有两个很重要的观点: 1×1卷积的使用 文中提出使用mlpconv网络层替代传统的convolution层。mlp层实际上是卷积加传统的mlp(多层感知器),因为convolution是线性的,...

    本文地址:http://blog.csdn.net/mounty_fsc/article/details/51746111

    《Network in Network》论文笔记

    1.综述

    这篇文章有两个很重要的观点:

    1. 1×1卷积的使用
      文中提出使用mlpconv网络层替代传统的convolution层。mlp层实际上是卷积加传统的mlp(多层感知器),因为convolution是线性的,而mlp是非线性的,后者能够得到更高的抽象,泛化能力更强。在跨通道(cross channel,cross feature map)情况下,mlpconv等价于卷积层+1×1卷积层,所以此时mlpconv层也叫cccp层(cascaded cross channel parametric pooling)。

    2. CNN网络中不使用FC层(全连接层)
      文中提出使用Global Average Pooling取代最后的全连接层,因为全连接层参数多且易过拟合。做法即移除全连接层,在最后一层(文中使用mlpconv)层,后面加一层Average Pooling层。

    以上两点,之所以重要,在于,其在较大程度上减少了参数个数,确能够得到一个较好的结果。而参数规模的减少,不仅有利用网络层数的加深(由于参数过多,网络规模过大,GPU显存等不够用而限制网络层数的增加,从而限制模型的泛化能力),而且在训练时间上也得到改进。

    2.网络结构

    • 传统的convolution层

    • 单通道mlpconv层

    • 跨通道mlpconv层(cccp层)

    • 由图可知,mlpconv=convolution+mlp(图中为2层的mlp)。

    • 在caffe中实现上,mlpconv=convolution+1×1convolution+1×1convolution(2层的mlp)

    3.Caffe中的实现

    原文3层mlpconv的完整网络结构

    Caffe中4层网络示意图(ImageNet)

    说明:

    1.方框为网络层,椭圆为blob
    2.黄色pool4为Average Pooling

    caffe网络数据数据如下(crop size=224)

    Layer channels Filter size Filter stride Padding size Input size
    conv1 96 11 4 - 224×224
    cccp1 96 1 1 - 54×54
    cccp2 96 1 1 - 54×54
    pool1 96 3 2 - 54×54
    conv2 256 5 1 2 27×27
    cccp3 256 1 1 - 27×27
    cccp4 256 1 1 - 27×27
    pool2 256 3 2 - 27×27
    conv3 384 3 1 1 13×13
    cccp5 384 1 1 - 13×13
    cccp6 384 1 1 - 13×13
    pool3 384 3 2 - 13×13
    conv4-1024 1024 3 1 1 6×6
    cccp7-1024 1024 1 1 - 6×6
    cccp8-1000 1000 1 1 - 6×6
    pool4-ave 1000 6 1 - 6×6
    accuracy 1000 - - - 1×1
    • 对于crop size = 227,则input size的变化为227, 55, 27, 13, 6, 1。

    4. 1×1卷积的作用

    以下内容摘抄自:http://www.caffecn.cn/?/question/136

    问:发现很多网络使用了1X1卷积核,这能起到什么作用呢?另外我一直觉得,1X1卷积核就是对输入的一个比例缩放,因为1X1卷积核只有一个参数,这个核在输入上滑动,就相当于给输入数据乘以一个系数。不知道我理解的是否正确

    答1:
    对于单通道的feature map和单个卷积核之间的卷积来说,题主的理解是对的,CNN里的卷积大都是多通道的feature map和多通道的卷积核之间的操作(输入的多通道的feature map和一组卷积核做卷积求和得到一个输出的feature map),如果使用1x1的卷积核,这个操作实现的就是多个feature map的线性组合,可以实现feature map在通道个数上的变化。接在普通的卷积层的后面,配合激活函数,就可以实现network in network的结构了(本内容作者仅授权给CaffeCN社区(caffecn.cn)使用,如需转载请附上内容来源说明。)

    答2:
    我来说说我的理解,我认为1×1的卷积大概有两个方面的作用吧:
    1. 实现跨通道的交互和信息整合
    2. 进行卷积核通道数的降维和升维

    下面详细解释一下:
    1. 这一点孙琳钧童鞋讲的很清楚。1×1的卷积层(可能)引起人们的重视是在NIN的结构中,论文中林敏师兄的想法是利用MLP代替传统的线性卷积核,从而提高网络的表达能力。文中同时利用了跨通道pooling的角度解释,认为文中提出的MLP其实等价于在传统卷积核后面接cccp层,从而实现多个feature map的线性组合,实现跨通道的信息整合。而cccp层是等价于1×1卷积的,因此细看NIN的caffe实现,就是在每个传统卷积层后面接了两个cccp层(其实就是接了两个1×1的卷积层)。
    2. 进行降维和升维引起人们重视的(可能)是在GoogLeNet里。对于每一个Inception模块(如下图),原始模块是左图,右图中是加入了1×1卷积进行降维的。虽然左图的卷积核都比较小,但是当输入和输出的通道数很大时,乘起来也会使得卷积核参数变的很大,而右图加入1×1卷积后可以降低输入的通道数,卷积核参数、运算复杂度也就跟着降下来了。以GoogLeNet的3a模块为例,输入的feature map是28×28×192,3a模块中1×1卷积通道为64,3×3卷积通道为128,5×5卷积通道为32,如果是左图结构,那么卷积核参数为1×1×192×64+3×3×192×128+5×5×192×32,而右图对3×3和5×5卷积层前分别加入了通道数为96和16的1×1卷积层,这样卷积核参数就变成了1×1×192×64+(1×1×192×96+3×3×96×128)+(1×1×192×16+5×5×16×32),参数大约减少到原来的三分之一。同时在并行pooling层后面加入1×1卷积层后也可以降低输出的feature map数量,左图pooling后feature map是不变的,再加卷积层得到的feature map,会使输出的feature map扩大到416,如果每个模块都这样,网络的输出会越来越大。而右图在pooling后面加了通道为32的1×1卷积,使得输出的feature map数降到了256。GoogLeNet利用1×1的卷积降维后,得到了更为紧凑的网络结构,虽然总共有22层,但是参数数量却只是8层的AlexNet的十二分之一(当然也有很大一部分原因是去掉了全连接层)。

    最近大热的MSRA的ResNet同样也利用了1×1卷积,并且是在3×3卷积层的前后都使用了,不仅进行了降维,还进行了升维,使得卷积层的输入和输出的通道数都减小,参数数量进一步减少,如下图的结构。(不然真不敢想象152层的网络要怎么跑起来TAT)

    [1]. https://gist.github.com/mavenlin/d802a5849de39225bcc6
    [2]. http://www.caffecn.cn/?/question/136

    展开全文
  • QT的网络东西也蛮多的,我们今天先学一部分,然后后面在学一部分吧一个能使用网络的应用,...QT += network然后我们来看下这一段代码void MainWindow::getHost() { //获取主机名 QString localHostName = QHostInfo

    QT的网络东西也蛮多的,我们今天先学一部分,然后后面在学一部分吧

    一个能使用网络的应用,我们需要在项目工程中的pro文件里进行标记

    QT       += core gui
    #标记 网络
    QT       += network

    然后我们来看下这一段代码

    void MainWindow::getHost()
    {
        //获取主机名
        QString localHostName = QHostInfo::localHostName();
        qDebug() << "主机名:" + localHostName;
    
        //获取Ip
        QHostInfo info = QHostInfo::fromName(localHostName);
        QList<QHostAddress> list = info.addresses();
        if(!list.isEmpty())
        {
            qDebug() << "ip:" + list.first().toString();
        }
    
        //我们还可以获取更多
    
        //返回在主机上找到的所有网络接口的列表
        QList<QNetworkInterface> listImpl = QNetworkInterface::allInterfaces();
        if(!listImpl.isEmpty())
        {
            for (int i = 0; i < listImpl.length(); ++i) {
                QNetworkInterface interface = listImpl.at(i);
                qDebug() << "设备:" + interface.name();
                qDebug() << "硬件地址:" + interface.hardwareAddress();
                //返回该接口所拥有的IP地址列表及其相关的网络掩码和广播地址。
                QList<QNetworkAddressEntry> enrtyList = interface.addressEntries();
                for (int j = 0; j < enrtyList.length(); ++j) {
                    QNetworkAddressEntry entry = enrtyList.at(j);
                    qDebug() << "IP:" + entry.ip().toString();
                    qDebug() << "子网掩码:" + entry.netmask().toString();
                    qDebug() << "广播地址:" + entry.broadcast().toString();
                }
            }
        }
    }
    

    这一段代码实际上很简单就是调用了对应的函数,我们include的类也很多

    #include <QDebug>
    #include <QString>
    #include <QList>
    #include <QHostInfo>
    #include <QHostAddress>
    #include <QNetworkInterface>

    我就来简单的说一下这些的作用吧

    我们首先通过QHostInfo的静态函数localHostName获取到主机名,关于localHostName,我们可以看下助手上的解释

    这里写图片描述

    返回的就是主机名,好,我们接下来呢,又通过fromName来获取ip地址,来看下关于fromName的解释

    这里写图片描述

    他需要传一个name,翻译过来的意思就是:

    查找给定主机名的IP地址,在查找过程中,函数会阻塞,这意味着程序的执行会暂停,直到查找的结果就绪为止。返回在QHostInfo对象中查找的结果,如果您传递一个文字IP地址而不是主机名,QHostInfo将搜索IP的域名(即QHostInfo将执行反向查找。在成功时,返回的QHostInfo将包含解析的域名和主机名的IP地址。

    可以发现这里返回的是一个list,我们便能获取到所有的IP地址了,我这里只打印了第一个而已,紧接着我们通过QNetworkInterface的静态函数allInterfaces获取到所有的我们想要的信息了,可以看下运行结果

    这里写图片描述

    接下来我们看下如何去实现GET请求吧!

    我们会使用的三个类

    #include <QNetworkAccessManager>
    #include <QNetworkRequest>
    #include <QNetworkReply>

    我们也是通过一个信号去做处理的

    connect(this->manger,SIGNAL(finished(QNetworkReply*)),this,SLOT(parsingJson(QNetworkReply*)));

    这里用到的manager是一个指针,需要先初始化一下

    this->manger = new QNetworkAccessManager(this);

    然后我们看一下怎么去调用

    void MainWindow::getNetData()
    {
        //设置发送数据
        this->network_request.setUrl(QUrl("http://gank.io/api/data/Android/10/1"));
        //发送信息
        this->manger->get(this->network_request);
    }

    嗯,很简单,只要设置url然后调用get即可,随后我们在槽函数中可以接受到返回的结果

    void MainWindow::parsingJson(QNetworkReply * reply)
    {
        QString all = reply->readAll();
        qDebug() << all ;
    }
    

    这样就能获取到json了

    好的,这些知识点还都比较浅,我们后续一步步的来实现更多的技巧。

    有兴趣的可以加群:690351511

    展开全文
  • 【模型解读】深度学习网络只能有一个输入吗 继续我们之前的专栏《模型解读》,今天说多输入网络,很久没写了因为实在是有更重要的事情。 平常我们所见的深度学习模型,都是输入一个图像或者视频序列,输出分类,...

    文章首发于微信公众号《有三AI》

    【模型解读】深度学习网络只能有一个输入吗

    继续我们之前的专栏《模型解读》,今天说多输入网络,很久没写了因为实在是有更重要的事情。

    平常我们所见的深度学习模型,都是输入一个图像或者视频序列,输出分类,分割,目标检测等结果,但是还有一种模型需要输入两张,或者多张图片,这就是多输入网络结构。

    作者 | 言有三

    编辑 | 言有三

     

    01 多输入网络的应用背景

    首先我们说说在什么情况下,需要多个输入,只以纯图像应用为例。

    1.1 图像验证与匹对

    早在上个世纪90年代的时候,LeCun等研究人员就开始利用神经网络陆续进行一些研究,比如我们熟知的大名鼎鼎的LeNet5,但这绝不是唯一,今天我们来说他们的另一种网络结构,Siamese Network,网络细节我们后面这些,这里先说应用背景。

    签名验证:

    无独有偶,还是从手写字开始,同样是用于银行,用于验证签名是否一致。两个网络都是同样规格的图像输入,最后输出一个相似度。

    看到这里,你应该能够想起来如今它的更加广泛的应用,没错,就是人脸验证,或者说人脸识别了。

    其实用的时候都不需要两个输入,因为可以建立一个离线数据集专门用于检索匹配。

    而且,你可以在此基础上拓展出非常多的玩法,什么夫妻脸之类的。

    1.2 目标跟踪

    目标跟踪是一个什么过程?就是在时序帧中搜索目标的过程,本质上就是检索。

    不管是传统的目标跟踪中的生成模型和判别模型,还是用深度学习来做目标跟踪,本质上都是来求取目标区域与搜索区域的相似度,这就是典型的多输入。

    用深度学习来做,就是一个小图像和一个大图像分别输入网络,输出相似度。

    1.3 排序

    还有一类问题,可以用多输入网络来做,那就是排序。有的时候,我们很难估计一个人的实际年龄或者颜值,但是估计相对年龄和颜值就简单多了。

    而且,在此之上,做些什么谁更可爱,谁更成熟之类的,可以想出无数花样,解释的通就行了。

     

    02 多输入网络

    在这里,给大家介绍两个常见的网络,一个是siamese网络,一个是triplet网络。

    2.1 siamese network                        

    Siamese本意是“暹罗”人或“泰国”人,后在英语中指“孪生”、“连体”,这是一个外来词,来源于十九世纪泰国出生的一对连体婴儿,具体的故事我们就不说了,挺有看头,大家可以自己去了解。

    顾名思义,有两个输入,两个网络,根据这两个网络是否共享权重,可以分为真孪生网络siamese network和伪孪生网络pseudo-siamese network

    真孪生网络siamese network的结构示意图如下:

    伪孪生网络pseudo-siamese network的结构示意图如下:

    可以看出差别就在于是否共享权重,loss的选择就多了,相似度计算方法就多少,它的计算方法就有多少,交叉熵,欧式距离,余弦距离等都很常用。

    那么是否需要共享权重呢?这就看研究的问题而定了,很明显不共享权重有更大的发挥空间,这个问题本文不展开讲。

    2.2 triplet network

    如果将上面的二输入拓展为三输入怎么样?做人脸识别的同学想必不陌生。

    没错,就是triplet network。

    大家都知道,训练人脸识别网络的时候需要输入图像对来判断是不是同一个人,loss是两个样本之间的相似度。不过,光是相似度是不够的。

    我们以前有一篇文章,专门讲述了人脸识别中的softmax损失的变种,可以回顾。

    【技术综述】一文道尽softmax&nbsp;loss及其变种

    大家在研究的是同一个问题,如果想得到更优良的性能,不仅要将正负样本区分开,还要让类内更加紧凑(方差小),类间更加疏远(方差大)

    triplet network将输入改成三个,训练的时候使用一个正例+两个负例,或者一个负例+两个正例。

    训练的目标就是上面的:同类别间的距离尽可能的小,不同类别间的距离尽可能的大。

    基准样本x和负样本x-之间的距离定义如下:

    基准样本x和正样本x+之间的距离定义如下:

    然后优化目标就等于:

    我们假如网络训练的特别好,令margin=1,此时

    那么上面的距离:

    损失也就趋向于0,当然这种要求是不可能达到的,也不合理,因为有的正样本的确不那么相似,有的负样本的确很相似,强行学习过拟合风险就增加了

    所以实际用的时候,这个margin应该取一个合理的值,而且样本的选择也很有技巧,所以triplet network没有看起来那么好训练。Anyway,这还是很优雅的思想的。

    今天就这么多,更多的并行的输入也是有的,就作为大家的延伸阅读吧。

     

    总结

    好像文章越写越简单了,不过这是好事。

    咱们这个系列未完待续,尽情期待,不要忘了领取我们的卡片噢。

     

    深度学习模型

     

    转载文章请后台联系

    侵权必究

    本系列的完整目录:

    【模型解读】从LeNet到VGG,看卷积+池化串联的网络结构

    【模型解读】network in network中的1*1卷积,你懂了吗

    【模型解读】GoogLeNet中的inception结构,你看懂了吗

    【模型解读】说说移动端基准模型MobileNets

    【模型解读】pooling去哪儿了?

    【模型解读】resnet中的残差连接,你确定真的看懂了?

    【模型解读】“不正经”的卷积神经网络

    【模型解读】“全连接”的卷积网络,有什么好?

    【模型解读】从“局部连接”回到“全连接”的神经网络

    【模型解读】深度学习网络只能有一个输入吗

    【模型解读】从2D卷积到3D卷积,都有什么不一样

    【模型解读】浅析RNN到LSTM

    感谢各位看官的耐心阅读,不足之处希望多多指教。后续内容将会不定期奉上,欢迎大家关注有三公众号 有三AI

     

    展开全文
  • centos7重启network网络服务失败

    千次阅读 2019-09-09 09:53:54
    问题描述: [root@localhost]# service network...Restarting network (via systemctl): Job for network.service failed because the control process exit ed with error code. See “systemctl status network.se...

    问题描述:
    [root@localhost]# service network restart
    Restarting network (via systemctl): Job for network.service failed because the control process exit
    ed with error code. See “systemctl status network.service” and “journalctl -xe” for details.
    [FAILED]

    [root@localhost]# systemctl status network.service
    network.service: control process exited, code…=1
    Failed to start LSB: Bring up/down networking .
    Unit network . service entered failed state。
    network . service failed .

    解决方法:
    1、HWADDR错误 ,查到正确的HWADDR(这个很重要)
    输入 ip addr,查找到HWADDR
    centos7重启network网络服务失败
    编辑对应的 vim /etc/sysconfig/network-scripts/ifcfg-ensXX
    设置HWADDR
    重启 service network restart
    有的到这就OK了
    如果不行重新下ip配置

    2、配置相关IP
    编辑对应的 vim /etc/sysconfig/network-scripts/ifcfg-ensXX
    centos7重启network网络服务失败
    systemctl stop firewalld.service 停止防火墙
    systemctl disable firewalld.service 开机不启动防火墙
    service network restart 重启网络服务
    centos7重启network网络服务失败

    展开全文
  • Embedding Nodes Encoder-decoder View Encoding Methods 1 Factorization based 2 Random Walk based ...网络表示学习(Representation Learning on Network),一般说的就是向量化(Embedding)技术,简单来说,就是
  • CISCO认证初级课程-网络技术入门-CCNA

    万人学习 2017-01-11 10:35:10
    CCNA(Cisco Certified Network Associate)认证是Cisco售后工程师认证体系的入门认证,也是Cisco各项认证中级别低的技术认证,通过CCNA认证可证明你已掌握网络的基本知识,并能初步安装、配置和操作Cisco路由器、...
  • 深度学习: NIN (Network in Network) 网络

    千次阅读 2018-01-31 11:16:12
    出自新加坡国立大学2014年的论文Network In Network。 该设计后来为 ResNet 和 Inception 等网络模型所借鉴。 Improvement 先前CNN中 简单的 线性卷积层 [蓝框部分] 被替换为了 多层感知机(MLP,多层全连接层和...
  • NIN网络-Network In Network

    千次阅读 2019-01-09 19:44:54
    0、BP前反馈神经网络原理详解 1、Lenet详解 2、Alexnet详解 3、VGG网络结构 4、NIN网络结构 5、Googlenet inception v1 结构详解、inception v2 和 inception v3   参考 ...
  • NETWORK06 - 企业网络拓扑图

    万次阅读 2018-09-09 15:17:43
    二层交换机分别创建VLAN10、20、30、40sw1将f0/5接口加入vlan10Switch(config)#interfacefastEthernet 0/5Switch(config-if)#switchportaccess vlan 10sw2将f0/5接口加入vlan20Switch(config)#interfacefastEthernet...
  • Kubernetes网络隔离NetworkPolicy实验

    千次阅读 2017-11-28 09:58:39
    前言Kubernetes的一个重要特性就是要把不同node节点的pod(container)连接起来...幸好,Kubernetes提供了NetworkPolicy,支持按Namespace级别的网络隔离。使用NetworkPolicy需要kubernetes1.8以及calico2.6.2。实验步
  • (RegionProposal Network)RPN网络结构及详解

    万次阅读 多人点赞 2018-05-23 17:40:38
    RPN(RegionProposal Network)区域生成网络 Faster-RCNN的核心。在这里整理。 1.anchors。 特征可以看做一个尺度51*39的256通道图像,对于该图像的每一个位置,考虑9个可能的候选窗口:三种面积{128,256,512}×{...
  • Siamese network孪生网络

    千次阅读 2018-06-06 19:09:35
    Siam是古时候泰国的称呼,中文译作暹罗。Siamese也就是“暹罗”人或“泰国”人。Siamese在英语中是“孪生”、“连体”的意思,这是为什么呢?十九世纪泰国出生了一对连体婴儿,当时的医学技术无法使两人分离出来,...
  • Network Emulation 网络模拟

    千次阅读 2012-03-04 22:57:47
    As part of Unity's Networking feature set, you can choose to emulate slower internet connection speeds to test out your game experience for users in low...作为Unity 的网络功能设置的一部分,你可以选择来模
  • 神经网络 neural network

    万次阅读 2016-04-17 11:02:46
    神经网络之BP算法,梯度检验,参数随机初始化 neural network(BackPropagation algorithm,gradient checking,random initialization) 一、代价函数(cost function) 对于训练集,代价函数(cost function)定义为...
  • 阶梯网络Ladder Network

    千次阅读 2018-07-30 19:55:35
    在这里主要讲一下用于半监督学习的ladder network。网上别人分享的资料太少了,也不知道对不对,下面内容请带着怀疑的角度阅读,如有问题,欢迎指出。 在讲半监督学习之前,先简单聊聊监督学习。 在监督学习中,...
  • 残差网络 residual network

    千次阅读 2018-08-23 18:08:31
    残差网络公式推导 其中x为上一层输出到该神经元的值;w为x传到该神经元经过的权重;y为x在某神经元内由激活函数求得的输出值。残差网络在神经网络中的表示如下图 注意,输入的w和x可以有多个分支,最后经过...
  • NetWork——描述一次完整的网络请求过程

    万次阅读 多人点赞 2017-01-10 18:53:05
    0. 前言 从我们在浏览器的地址栏输入http://blog.csdn.net/seu_calvin后回车,到我们看到该博客的主页,这中间经历了什么呢?简单地回答这个问题,大概是经历了域名解析、TCP的三次握手、建立TCP连接后...下面分别...
  • 本篇是为了方便以后使用,无需再百度 这是对应的参数类型/** * GPRS 2G(2.5) General Packet Radia Service 114kbps * EDGE 2G(2.75G) Enhanced Data Rate for GSM Evolution 384kbps * UMTS 3G WCDMA 联通3G ...
  • Network Representation 网络节点嵌入

    万次阅读 2016-08-10 21:21:07
    Network Representation ...Network Representation可以翻译为网络(节点)表征、网络(节点)向量、网络(节点)嵌入等… Aim to learn distributed vector representation for each vertex in a network.
  • 今天的学习资料是这篇文章,写的非常详细,有理论有代码,本文是补充一些小细节,可以二者结合看效果更好: ...本文结构: 模型 训练算法 基于 RNN 的语言模型例子 代码实现 ...和全连接网络的区别 更
  • 什么是雷电网络Raiden网络是一种脱机扩展解决方案,可实现近即时,低费用和可扩展的支付。 它与Ethereum块链互补,并与任何ERC20兼容的令牌一起使用。 Raiden项目正在进行中。 其目标是研究状态通道技术,定义协议并...
  • 我在用systemctl restart network.service启动网络链接的时候发生了错误。 我现在使用的是无线网络。journalctl -xe显示的结果如下: -- network.service 单元已开始启动。 2月 10 15:17:32 localhost....
  • network: android 网络判断

    万次阅读 多人点赞 2011-10-10 18:04:29
    直接上代码,没有什么好说的! package mark.zhang; import java.util.List; import android.content.Context; import android.location.LocationManager; import android.net....import android.ne
  • 1. 网络通信与Socket前言 TCP/IP协议族中网络层的IP地址可以唯一标识网络中的主机,而传输层的端口可以唯一标识主机中的应用程序。Socket通常也称作"套接字",用于描述IP地址和端口,是一个通信链的句柄...
  • linux设置网络network configuration

    千次阅读 2017-08-27 00:35:40
    1:输入 setup 回车,看到下面的界面,选择Network configuration ,回车后在选择Device configuration。 2:设置虚拟机的IP 首先查询本机的Ip ,win+r 输入cmd ,进入dos 界面,输入 ipconfig /all 查看本...
  • docker network网络设置)

    千次阅读 2018-11-23 11:12:00
    2019独角兽企业重金招聘Python工程师标准>>> ...
  • 神经网络:Residual Network

    万次阅读 2016-11-16 16:36:37
    《Deep Residual Learning for Image Recognition》论文解读。本文来自于MSRA,作者是大神何凯明。概述本文提出了一种Residual learning的框架,...随着网络结构的加深,带来了两个问题:一是vanishing/exploding gradi

空空如也

1 2 3 4 5 ... 20
收藏数 1,756,205
精华内容 702,482
关键字:

network