精华内容
下载资源
问答
  • net 系列

    千次阅读 2004-08-05 13:41:00
    NET ACCOUNTS NET HELPNET SHARENET COMPUTERNET HELPMSGNET STARTNET CONFIGNET LOCALGROUPNET STATISTICSNET CONFIG SERVERNET NAMENET STOPNET CONFIG WORKSTATIONNET PAUSENET TIMENET CONTINUENET PRINTNET USE

    NET ACCOUNTS
    NET HELP
    NET SHARE
    NET COMPUTER
    NET HELPMSG
    NET START
    NET CONFIG
    NET LOCALGROUP
    NET STATISTICS
    NET CONFIG SERVER
    NET NAME
    NET STOP
    NET CONFIG WORKSTATION
    NET PAUSE
    NET TIME
    NET CONTINUE
    NET PRINT
    NET USE
    NET FILE
    NET SEND
    NET USER
    NET GROUP
    NET SESSION
    NET VIEW


    1.net view

    NET VIEW [//computername [/CACHE] | /DOMAIN[:domainname]]
    NET VIEW /NETWORK:NW [//computername]

    Net view
    显示域列表、计算机列表或者由指定计算机共享的资源。

    net view [//computername | /domain[:domainname]]

    net view /network:nw [//computername]

    参数

    如果在没有参数的情况下使用,则 net view 显示当前域中的计算机列表。

    //computername

    指定要查看其共享资源的计算机。

    /domain[:domainname]

    指定要查看其可用计算机的域。如果省略了 domainname,将显示网络中所有的域。

    /network:nw

    显示 NetWare 网络上所有可用的服务器。如果指定了计算机名,将显示 NetWare 网络中该计算机上的可用资源。添加到该系统的其他网络也可以使用该开关指定。

    Net view
    范例
    要查看由 //Production 计算机共享的资源列表,请键入:

    net view //production

    要查看 NetWare 服务器 //Marketing 上的可用资源,请键入:

    net view /network:nw //marketing

    要查看销售域或工作组中的计算机列表,请键入:

    net view /domain:sales

    要查看 NetWare 网络中的所有服务器,请键入:

    net view /network:nw

    Net view
    说明
    使用 net view 命令显示计算机列表。显示内容与以下相似:


    Server Name Remark


    -------------------------------------------------


    //Production Production file server


    //Print1 Printer room, first floor


    //Print2 Printer room, second floor


    2.NET USE

    Net USE
    将计算机与共享资源连接或断开,或者显示关于计算机连接的信息。该命令还控制持久网络连接。

    net use [devicename | *] [//computername/sharename[/volume]] [password | *]] [/user:[domainname/]username] [[/delete] | [/persistent:{yes | no}]]

    net use devicename [/home[password | *]] [/delete:{yes | no}]

    net use [/persistent:{yes | no}]

    参数

    如果在没有参数的情况下使用,则 net use 检索网络连接列表。

    devicename

    指派名称以便连接到资源或指定断开的设备。有两种设备名称:磁盘驱动器(D: 到 Z:)和打印机(LPT1: 到 LPT3:)。键入星号代替特定设备名,指派下一个可用的设备。

    //computername/sharename

    指定服务器和共享资源的名称。如果 computername 包含空白字符,则将计算机名从双反斜杠 (//) 到计算机名结尾用引号 (" ") 括起来。计算机名长度可以是 1 到 15 个字符。

    /volume

    指定服务器上的 NetWare 卷。必须安装了 NetWare 客户服务 (Windows 2000 Professional) 或 NetWare 网关服务 (Windows 2000 Server),并且正在运行连接到 NetWare 服务器。

    password

    指定访问共享资源所需的密码。

    *

    生成密码提示行。在密码提示行处键入密码时不显示密码。

    /user

    指定建立连接的不同用户名。

    domainname

    指定其他域。例如,net use d://server/share /user:admin/mariel 会连接用户标识符 mariel,就好象该连接是从 admin 域建立一样。如果省略了 domainname,将使用当前登录的
    域。

    username

    指定登录时使用的用户名。

    /delete

    取消指定的网络连接。如果用户使用星号指定连接,则所有网络连接均将取消。

    /home

    将用户连到主目录。

    /persistent

    控制持久网络连接的使用。默认值为最后一次使用的设置。非设备连接不会持久。

    yes

    按其建立时的原样保存所有连接,并在下次登录时还原它们。

    no

    不保存已建立的连接或后续连接。现存的连接在下一次登录时还原。使用 /delete 开关删除
    持久连接。

    Net use

    要将磁盘驱动器设备名 E:指派给 //Financial 服务器上的 Letters 共享目录,请键入:

    net use e://financial/letters

    要将磁盘驱动器设备名 M: 指派(映射)给 //Financial NetWare 服务器上 Letters 卷中的目录 Maria,请键入:

    net use m://financial/letters/maria

    要将设备名 LPT1:指派给 //Accounting 服务器上的 Laser2 共享打印机队列,请键入:

    net use lpt1://accounting/laser2

    要从 LPT1 打印机队列断开连接,请键入:

    net use lpt1:/delete

    要将磁盘驱动器设备名 H:指派给主目录作为用户 mariel,请键入:

    net use h:/home /user:mariel

    要将磁盘驱动器设备名 F:指派给 //Financial 服务器的 Scratch 共享目录,该目录需要密码 hctarcs,但是不建立持久连接,请键入:

    net use f://financial/scratch hctarcs /persistent:no

    要与 //Financial/Scratch 目录断开,请键入:

    net use f://financial/scratch /delete

    要与 //Financial 2 服务器上共享的资源连接,请键入:

    net use k:"//financial 2" /memos

    包含空格的服务器名必须使用引号括起来。如果省略了引号,Windows 2000 将显示错误消息。

    要在每次登录时还原当前连接而不考虑将来的更改,请键入:

    net use /persistent:yes


    Net use
    说明
    使用 net use 命令连接或断开网络资源,并查看当前与网络资源的连接。如果共享目录作为当前驱动器使用,或者正在由活动进程使用,则不能从该共享目录断开。

    得到有关连接的信息

    键入 net use devicename 获得有关指定连接的信息。
    键入 net use 获得所有计算机连接的列表。
    非设备连接不会持久。

    连接到 NetWare 服务器

    安装并运行了 NetWare 客户端或网关服务软件后,您就可以连接到 Novell 网络的 NetWare 服务器上。除了必须包含要连接的卷外,与连接到 Windows 网络服务器时使用的语法相同。

    3.Net group
    在 Windows 2000 Server 的域中添加、显示或修改全局组。该命令只有在 Windows 2000 Server 域控制器上才可用。

    net group [groupname [/comment:"text"]] [/domain]

    net group groupname {/add [/comment:"text"] | /delete} [/domain]

    net group groupname username[ ...]{/add | /delete[/domain]

    参数

    键入不带参数的 net group 命令显示服务器名和服务器上组的名称。

    groupname

    指定要添加、扩展或删除的组的名称。只提供组名以查看组中的用户列表。

    /comment:"text"

    为新建或已经存在的组添加注释。注释可以包含多达 48 个字符。给文本加上引号。

    /domain

    对当前域的主域控制器执行操作。否则,操作在本地计算机上执行。

    该参数只应用于 Windows 2000 Server 域中成员的 Windows 2000 Professional 计算机。默认情况下,Windows 2000 Server 计算机在主域控制器上执行操作。

    username

    列出一个或多个用户名以添加到组或从组中删除。用空格分隔多个用户名项。

    /add

    添加组,或向组中添加用户名称。使用此命令添加到组中的用户必须建立帐户。

    /delete

    删除组,或从组中删除用户。

    Net group

    要显示本地服务器上所有组的列表,请键入:

    net group

    要将组 exec 添加到本地用户帐户数据库,请键入:

    net group exec /add

    要将组 exec 添加到安装 Windows 2000 Professional 软件计算机的 Windows 2000 Server 域用户帐户数据库,请键入:

    net group exec /add /domain

    要将现有用户帐户 stevev、ralphr(来自 SALES 域)和 jennyt 添加到本地计算机上的 exec 组,请键入:

    net group exec stevev ralphr jennyt /add

    要将现有用户帐户 stevev、ralphr(来自 SALES 域)和 jennyt 添加到安装 Windows 2000 Professional 软件计算机上的“Windows 2000 Server”域的 exec 组,请键入:

    net group exec stevev ralphr jennyt /add /domain

    要显示 exec 组中的用户,请键入:

    net group exec

    要将备注添加到 exec 组记录,请键入:

    net group exec /comment:"The executive staff."

    Net group

    该命令也可以键入为 net groups。

    使用 net group 命令将以相同或相似方式使用网络的用户分组。在对组指定权限时,组的每个成员都自动获得这些权限。

    显示在服务器上的组与下面出现的内容相似:


    Group Accounts for //PRODUCTION
    ________________________________________


    *Domain Admins *Domain Users

    注意每个组名之前有一个星号 (*)。星号区分显示包含用户和组的组。

     

    4.Net localgroup
    添加、显示或修改本地组。

    net localgroup [groupname [/comment:"text"]] [/domain]

    net localgroup groupname {/add [/comment:"text"] | /delete} [/domain]

    net localgroup groupname name [ ...] {/add | /delete} [/domain]

    参数

    键入不带参数的 net localgroup 命令显示服务器名和计算机上本地组的名称。

    groupname

    指定要添加、扩展或删除的本地组的名称。只提供 groupname 以查看用户列表或本地组中的
    全局组。

    /comment:"text"

    为新建或已经存在的组添加注释。注释可以包含多达 48 个字符。给文本加上引号。

    /domain

    对当前域的主域控制器执行操作。否则,操作在本地计算机上执行。

    该参数只应用于 Windows 2000 Server 域中成员的 Windows 2000 Professional 计算机。
    默认情况下,Windows 2000 Server 计算机在主域控制器上执行操作。

    name [ ...]

    列出一个或多个用户名或组名以添加或从本地组中删除。用空格分隔多项。名称可以是本地
    用户、其他域的用户或全局组,但不能是其他本地组。如果用户来自另一个域,请在用户名的
    开头添加域名(例如 SALES/RALPHR)。

    /add

    添加全局组名称或者向本地组中添加用户名称。用户或全局组必须在使用此命令加入本地组
    之前先建立帐户。

    /delete

    从本地组中删除组名称或用户名。

    Net localgroup
    范例
    要显示本地服务器上所有本地组的列表,请键入:

    net localgroup

    要将本地组 exec 添加到本地用户帐户数据库,请键入:

    net localgroup exec /add

    要将本地组 exec 添加到 Windows 2000 Server 域用户帐户数据库,请键入:

    net localgroup exec /add /domain

    要将现有用户帐户 stevev、ralphr(来自 SALES 域)和 jennyt 添加到本地计算机上的 e
    xec 本地组,请键入:

    net localgroup exec stevev sales/ralphr jennyt /add

    要将现有用户帐户 stevev、ralphr(来自 SALES 域)和 jennyt 添加到本地计算机上的 exec 组,请键入:

    net localgroup exec stevev ralphr jennyt /add /domain

    要显示 exec 本地组中的用户,请键入:

    net localgroup exec

    要将注释添加到 exec 本地组记录,请键入:

    net localgroup exec /comment:"The executive staff."

    Net localgroup

    使用 net localgroup 命令将以相同或相似方式使用计算机或网络的用户分组。在对本地组指定权限时,本地组的每个成员都自动获得相同的权限。

    5.Net user
    添加或修改用户帐户或者显示用户帐户信息。

    net user [username [password | *] [options]] [/domain]

    net user username {password | */add [options] [/domain]

    net user username [/delete] [/domain]

    参数

    如果在没有参数的情况下使用,则 net user 将显示计算机上用户帐户的列表。

    username

    指定要添加、删除、修改或查看的用户帐户名。用户帐户名最多可有 20 个字符。

    password

    为用户帐户指派或更改密码。密码必须满足 net accounts 命令的 /minpwlen 选项设置的最小长度。最多可有 127 个字符。但是,如果网上既有 Windows 2000 计算机,也有 Windows95 或 Windows 98 计算机,则密码不要超过 14 个字符。Windows 95 和 Windows 98 支持的密码长度最大为 14 个字符。如果密码太长,将无法从 Windows 98 或 Windows 95 计算机上登录到网络。

    *

    生成该密码的提示符。在密码提示符处键入密码时不显示密码。

    /domain

    在计算机主域的主域控制器执行操作。

    该参数只适用于属 Windows 2000 Server 域成员的 Windows 2000 Professional 计算机。默认情况下,Windows 2000 Server 计算机在主域控制器上执行操作。

    注意

    该操作在计算机主域的主域控制器上执行。该域可能不是登录域。
    /add

    将用户帐户添加到用户帐户数据库。

    /delete

    从用户帐户数据库中删除用户帐户。

    options

    指定以下选项:

    /active:{no | yes_

    启用或禁用用户帐户。如果用户帐户不活动,该用户就无法访问计算机中的资源。默认设置
    为 yes(活动)。

    /comment:text

    提供关于用户账户的描述性说明。该注释最多可以有 48 个字符。给文本加上引号。

    /countrycode:nnn

    使用操作系统“国家(地区)”代码为用户帮助和错误消息实现指定的语言文件。数值 0 代表默认的“国家(地区)”代码。

    /expires:{date | never}

    如果设置了 date,会使用户帐户过期;不要给用户帐户设置时间限制。到期时间的格式可以是 mm/dd/yy、 dd/mm/yy 或 mmm,dd,yy,这取决于“国家/地区”代码。注意,帐户在指定日期开始时到期。月份可以是数字、拼写或三个字母的缩写。年份可以是两位或四位数字。使用逗号和斜杠分隔日期的各部分(不使用空格)。如果省略了 yy,将假定为下一次出现的日期(根据计算机的日期和时间)。例如,如果输入的日期在 1994 年 1 月 10 日到 1995 年 1月 8 日之间,则下列 date 项相等:

    jan,9
    1/9/95
    january,9,1995
    1/9

    /fullname:"name"

    指定用户的全名而不是用户名。将名称用引号括起来。

    /homedir:path

    设置用户主目录的路径。该路径必须存在。

    /passwordchg:{yes | no}

    指定用户是否可以更改自己的密码。默认设置为 yes。

    /passwordreq:{yes | no}

    指定用户帐户是否必须有密码。默认设置为 yes。

    /profilepath:[path]

    设置用户登录配置文件的路径。该路径指向注册表配置文件。

    /scriptpath:path

    设置用户登录脚本的路径。path 值不能是绝对路径;path 相对于 %systemroot%/System32/Repl/Import/Scripts。

    /times:{times | all}

    指定允许用户使用计算机的时间。times 值表示为 day [-day][,day[-day]],time[-time][,time[-time]],增量限于 1 小时。日期可以拼写或缩写 (M,T,W,Th,F,Sa,Su)。小时可以使用 12 或 24 制表示法。对于 12 小时表示法,请使用 AM、PM 或 A.M.、P.M.。数值 all意味着用户总是可以登录。空值(空白)意味着用户永远不能登录。用逗号分隔日期和时间,用分号分隔日期和时间单元(例如,M,4AM-5PM;T,1PM-3PM)。指定时间时不要使用空格。

    /usercomment:"text"

    指定管理员添加或更改帐户的“用户注释”。给文本加上引号。

    /workstations:{computername[,...] | *}

    最多列出 8 个用户可以登录到网络的工作站。用逗号分隔列表中的多个项。如果 /workstations 没有列表,或列表为 *,则该用户可以从任何计算机登录。

    Net user

    要显示本地计算机上所有用户帐户的列表,请键入:

    net user

    要查看有关用户帐户 jimmyh 的信息,请键入:

    net user jimmyh

    要添加 Henry James 的用户帐户,登录权限从星期一到星期五的早晨 8 点到下午 5 点(时间指定中没有间隔),使用强制密码 (henryj) 和用户全名,请键入:

    net user henryj henryj /add /passwordreq:yes /times:monday-friday,8am-5pm/fullname:"Henry James"

    要使用 24 小时制表示法设置 johnsw 的登录时间(早晨 8 点到下午 5 点),请键入:

    net user johnsw /time:M-F,08:00-17:00

    要使用 12 小时制表示法设置 johnsw 的登录时间(早晨 8 点到下午 5 点),请键入:

    net user johnsw /time:M-F,8am-5pm

    要指定 marysl 的登录时间为星期一的早晨 4 点到下午 5 点、星期二的下午 1 点到 3 点以及星期三到星期五的上午 8 点到下午 5 点,请键入:

    net user marysl /time:M,4am-5pm;T,1pm-3pm;W-F,8:00-17:00

    Net user

    该命令也可以键入为 net users。

    使用 net user 命令创建和控制域中用户的用户帐户。用户帐户信息存储在用户帐户数据库中。

    注意

    在运行 Windows 2000 Server 的计算机上键入 net user 命令时,对用户帐户数据库的更改自动发生在主域控制器上,然后复制到备份域控制器上。这只适用于 Windows 2000 服务器域。

    6.Net share
    创建、删除或显示共享资源。

    net share sharename

    net share sharename=drive:path [/users:number| /unlimited] [/remark:"text"]

    net share sharename [/users:number| unlimited ] [/remark:"text"]

    net share {sharename | drive:path} /delete

    参数

    键入不带参数的 net share 显示关于本地计算机上共享的所有资源的信息。

    sharename

    是共享资源的网络名称。键入带参数 sharename 的 net share 命令只显示有关该共享的信息。

    drive:path

    指定要共享目录的绝对路径。

    /users:number

    设置可以同时访问共享资源的最多用户数。

    /unlimited

    指定可以同时访问共享资源的、数量不受限制的用户。

    /remark:"text"

    添加关于资源的描述注释。将文本包括在引号中。

    /delete

    停止共享资源。

    Net share

    要显示有关计算机上共享资源的信息,请键入:

    net share

    要使用共享名 SECRETARY 共享计算机的 C:/LETTERS 目录并包括注释,请键入:

    net share secretary=c:/letters /remark:"For department 123."

    要停止共享 LETTERS 目录,请键入:

    net share secretary /delete

    要使用共享名 LIST 共享计算机的 C:/ART LST 目录并包括注释,请键入:

    net share list="c:/art lst"

    Net share

    使用 net share 命令共享资源。

    要共享带有包含空格字符路径的目录,请使用双引号 (" ") 包括目录的驱动器和路径。

    当显示计算机上的所有共享资源时,Windows 2000 报告资源的共享名、与资源相关的设备名或路径,以及与资源有关的描述性注释。

    显示与以下相似:


    share name resource remark
    ------------------------------------------------------
    ADMIN$ C:/WINNT Remote Admin
    C$ C:/ Default Share for Internal Use
    print$ C:/WINNT/SYSTEM/SPOOL
    IPC$ Remote IPC
    LASER LPT1 Spooled Laser printer

    在服务器上创建共享时,这些共享将被保存。在停止 Server 服务时,所有共享都断开,但是在下一次启动 Server 服务或者重新启动计算机时将自动重新连接它们。

    7.Net start
    启动服务,或显示已启动服务的列表。两个或多个词组成的服务名,例如 Net Logon 或 Computer Browser,必须两边加引号 (")。

    net start [service]

    参数

    键入不带参数的 net start 显示正在运行服务的列表。

    service

    包括 alerter、client service for netware、clipbook server、content index、computer browser、dhcp client、directory replicator、eventlog、ftp publishing service、hypermedia object manager、logical disk manager、lpdsvc、media services management, messenger、Fax Service、Microsoft install server、net logon、network dde、network dde dsdm、nt lm security support provider、ole、plug and play、remote access connection manager、remote access isnsap service、remote access server、remote procedure call (rpc) locator、remote procedure call (rpc) service、schedule、server、simple tcp/ip services、site server ldap service、smartcard resource manager、snmp、spooler、task scheduler、tcp/ip netbios helper、telephony service、tracking service、tracking (server) service、ups、Windows time service 和 workstation。

    下面服务只有在 Windows 2000 上可用:file service for macintosh、gateway service for netware、microsoft dhcp service、print service for macintosh、windows internet name service。

    Net start

    使用 net start service 命令启动 Windows 2000 服务。有些服务取决于其他服务。也可以使用“服务”管理单元将服务配置为自动停止和启动。同时使用该管理单元手工停止、启动、暂停和继续网络服务。两个或多个词组成的服务名,例如 Net Logon 或 Computer Browser,必须两边加引号 (")。该命令也将启动 Windows 2000 不提供的网络服务。

     

    展开全文
  • GoogLeNet系列解读

    万次阅读 多人点赞 2016-02-25 15:56:29
    本文介绍的是著名的网络结构GoogLeNet及其延伸版本,目的是试图领会其中的思想而不是单纯关注结构。GoogLeNet Incepetion V1 Motivation Architectural Details GoogLeNet Conclusion GoogLeNet Inception V2 ...

    本文介绍的是著名的网络结构GoogLeNet及其延伸版本,目的是试图领会其中的思想而不是单纯关注结构

    GoogLeNet Incepetion V1

    这是GoogLeNet的最早版本,出现在2014年的《Going deeper with convolutions》。之所以名为“GoogLeNet”而非“GoogleNet”,文章说是为了向早期的LeNet致敬。

    Motivation

    深度学习以及神经网络快速发展,人们不再只关注更给力的硬件、更大的数据集、更大的模型,而是更在意新的idea、新的算法以及模型的改进。

    一般来说,提升网络性能最直接的办法就是增加网络深度和宽度,这也就意味着巨量的参数。但是,巨量参数容易产生过拟合也会大大增加计算量

    文章认为解决上述两个缺点的根本方法是将全连接甚至一般的卷积都转化为稀疏连接。一方面现实生物神经系统的连接也是稀疏的,另一方面有文献1表明:对于大规模稀疏的神经网络,可以通过分析激活值的统计特性和对高度相关的输出进行聚类来逐层构建出一个最优网络。这点表明臃肿的稀疏网络可能被不失性能地简化。 虽然数学证明有着严格的条件限制,但Hebbian准则有力地支持了这一点:fire together,wire together。

    早些的时候,为了打破网络对称性和提高学习能力,传统的网络都使用了随机稀疏连接。但是,计算机软硬件对非均匀稀疏数据的计算效率很差,所以在AlexNet中又重新启用了全连接层,目的是为了更好地优化并行运算。

    所以,现在的问题是有没有一种方法,既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能。大量的文献表明可以将稀疏矩阵聚类为较为密集的子矩阵来提高计算性能,据此论文提出了名为Inception 的结构来实现此目的。

    Architectural Details

    Inception 结构的主要思路是怎样用密集成分来近似最优的局部稀疏结构。
    作者首先提出下图这样的基本结构:
    这里写图片描述
    对上图做以下说明:
    1 . 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合;
    2 . 之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别设定pad=0、1、2,那么卷积之后便可以得到相同维度的特征,然后这些特征就可以直接拼接在一起了;
    3 . 文章说很多地方都表明pooling挺有效,所以Inception里面也嵌入了。
    4 . 网络越到后面,特征越抽象,而且每个特征所涉及的感受野也更大了,因此随着层数的增加,3x3和5x5卷积的比例也要增加。

    但是,使用5x5的卷积核仍然会带来巨大的计算量。 为此,文章借鉴NIN2,采用1x1卷积核来进行降维
    例如:上一层的输出为100x100x128,经过具有256个输出的5x5卷积层之后(stride=1,pad=2),输出数据为100x100x256。其中,卷积层的参数为128x5x5x256。假如上一层输出先经过具有32个输出的1x1卷积层,再经过具有256个输出的5x5卷积层,那么最终的输出数据仍为为100x100x256,但卷积参数量已经减少为128x1x1x32 + 32x5x5x256,大约减少了4倍。

    具体改进后的Inception Module如下图:
    这里写图片描述

    GoogLeNet

    GoogLeNet的整体结构如下图:

    这里写图片描述

    对上图做如下说明:
    1 . 显然GoogLeNet采用了模块化的结构,方便增添和修改;
    2 . 网络最后采用了average pooling来代替全连接层,想法来自NIN,事实证明可以将TOP1 accuracy提高0.6%。但是,实际在最后还是加了一个全连接层,主要是为了方便以后大家finetune;
    3 . 虽然移除了全连接,但是网络中依然使用了Dropout ;
    4 . 为了避免梯度消失,网络额外增加了2个辅助的softmax用于向前传导梯度。文章中说这两个辅助的分类器的loss应该加一个衰减系数,但看caffe中的model也没有加任何衰减。此外,实际测试的时候,这两个额外的softmax会被去掉。

    下图是一个比较清晰的结构图:

    这里写图片描述

    Conclusion

    GoogLeNet是谷歌团队为了参加ILSVRC 2014比赛而精心准备的,为了达到最佳的性能,除了使用上述的网络结构外,还做了大量的辅助工作:包括训练多个model求平均、裁剪不同尺度的图像做多次验证等等。详细的这些可以参看文章的实验部分。

    本文的主要想法其实是想通过构建密集的块结构来近似最优的稀疏结构,从而达到提高性能而又不大量增加计算量的目的。GoogleNet的caffemodel大小约50M,但性能却很优异。

    GoogLeNet Inception V2

    GoogLeNet凭借其优秀的表现,得到了很多研究人员的学习和使用,因此Google团队又对其进行了进一步发掘改进,产生了升级版本的GoogLeNet。这一节介绍的版本记为V2,文章为:《Rethinking the Inception Architecture for Computer Vision》

    Introduction

    14年以来,构建更深的网络逐渐成为主流,但是模型的变大也使计算效率越来越低。这里,文章试图找到一种方法在扩大网络的同时又尽可能地发挥计算性能

    首先,GoogLeNet V1出现的同期,性能与之接近的大概只有VGGNet了,并且二者在图像分类之外的很多领域都得到了成功的应用。但是相比之下,GoogLeNet的计算效率明显高于VGGNet,大约只有500万参数,只相当于Alexnet的1/12(GoogLeNet的caffemodel大约50M,VGGNet的caffemodel则要超过600M)。

    GoogLeNet的表现很好,但是,如果想要通过简单地放大Inception结构来构建更大的网络,则会立即提高计算消耗。此外,在V1版本中,文章也没给出有关构建Inception结构注意事项的清晰描述。因此,在文章中作者首先给出了一些已经被证明有效的用于放大网络的通用准则和优化方法。这些准则和方法适用但不局限于Inception结构。

    General Design Principles

    下面的准则来源于大量的实验,因此包含一定的推测,但实际证明基本都是有效的。

    1 . 避免表达瓶颈,特别是在网络靠前的地方。 信息流前向传播过程中显然不能经过高度压缩的层,即表达瓶颈。从input到output,feature map的宽和高基本都会逐渐变小,但是不能一下子就变得很小。比如你上来就来个kernel = 7, stride = 5 ,这样显然不合适。
    另外输出的维度channel,一般来说会逐渐增多(每层的num_output),否则网络会很难训练。(特征维度并不代表信息的多少,只是作为一种估计的手段)

    2 . 高维特征更易处理。 高维特征更易区分,会加快训练。

    3. 可以在低维嵌入上进行空间汇聚而无需担心丢失很多信息。 比如在进行3x3卷积之前,可以对输入先进行降维而不会产生严重的后果。假设信息可以被简单压缩,那么训练就会加快。

    4 . 平衡网络的宽度与深度。

    上述的这些并不能直接用来提高网络质量,而仅用来在大环境下作指导。

    Factorizing Convolutions with Large Filter Size

    大尺寸的卷积核可以带来更大的感受野,但也意味着更多的参数,比如5x5卷积核参数是3x3卷积核的25/9=2.78倍。为此,作者提出可以用2个连续的3x3卷积层(stride=1)组成的小网络来代替单个的5x5卷积层,(保持感受野范围的同时又减少了参数量)如下图:
    这里写图片描述
    然后就会有2个疑问:

    1 . 这种替代会造成表达能力的下降吗?
    后面有大量实验可以表明不会造成表达缺失;

    2 . 3x3卷积之后还要再加激活吗?
    作者也做了对比试验,表明添加非线性激活会提高性能

    从上面来看,大卷积核完全可以由一系列的3x3卷积核来替代,那能不能分解的更小一点呢。文章考虑了 nx1 卷积核
    如下图所示的取代3x3卷积:
    这里写图片描述

    于是,任意nxn的卷积都可以通过1xn卷积后接nx1卷积来替代。实际上,作者发现在网络的前期使用这种分解效果并不好,还有在中度大小的feature map上使用效果才会更好。(对于mxm大小的feature map,建议m在12到20之间)。

    总结如下图:

    这里写图片描述

    (1) 图4是GoogLeNet V1中使用的Inception结构;

    (2) 图5是用3x3卷积序列来代替大卷积核;

    (3) 图6是用nx1卷积来代替大卷积核,这里设定n=7来应对17x17大小的feature map。该结构被正式用在GoogLeNet V2中。

    未完待续


    1. Sanjeev Arora, Aditya Bhaskara, Rong Ge, and Tengyu Ma. Provable bounds for learning some deep representations. CoRR, abs/1310.6343, 2013.
    2. Min Lin, Qiang Chen, and Shuicheng Yan. Network in network. CoRR, abs/1312.4400, 2013.
    展开全文
  • GoogleNet系列笔记

    2018-12-18 19:58:40
    GoogleNet系列笔记包括: Inception v1 Inception v2 Inception v3 Inception v4 Inception resnet v1 Inception resnet v2

    GoogLeNet系列笔记包括:

    1. Inception v1
    2. Batch Normalization
    3. Inception v2,Inception v3
    4. Inception v4,Inception resnet v1,Inception resnet v2

    总结

    网络 架构 参数 特点1 特点2 特点3 特点4 特点5
    VGG 架构简洁高效 计算成本高,是v1的数十倍
    Inception v1 架构复杂,更宽更深 参数少,计算成本低 1* 1降维减少计算量,在concate前用大卷积核汇总特征 并行pool 多尺度卷积 分支分类器,防止梯度消失
    Inception v2 提出三个新的架构 图3:两个小卷积替换大卷积(3x3代替5x5) ; 图5:小卷积再分解(先1x3再3x1代替3x3); 图6:并行非对称卷积(1x3,3x1并行),仅用在最后 证明 Relu 比起 linear激活函数效果好一点
    Inception v3 42层网络,计算量是v1的2.5倍 inception-v2结构中的分支分类器上加上BN
    Inception v4
    Inception resnet v1
    Inception resnet v2

    1.Inception v1

    2014年提出Inception 结构 ,这个架构的主要特点是提高了网络内部计算资源的利用率,其中在ILSVRC14提交中应用的一个特例被称为GoogLeNet,一个22层(加池化层27层)的深度网络。
    作者采用一系列不同大小的滤波器来处理多尺度,但Inception结构中所有的滤波器是学习到的,且Inception结构重复了很多次,得到了一个22层的深度模型,即GoogLeNet,如表1所示。
    作者主要借鉴了以下两个网络的方法:

    1. NIN中添加额外的1* 1的卷积层(每个1* 1卷积后都紧跟Relu激活函数),增加网络深度的方法,目的主要是用它们来作为降维模块来移除 computational bottlenecks(即使前后网络通道数一致)。这不仅允许了深度的增加,而且允许网络的宽度增加但没有明显的性能损失。
    2. 借鉴了R-CNN,分两阶段,第一阶段利用分割边框检测,第二阶段结合边框利用CNN分类。
    表1:

    表1中,

    • #3x3 reduce和#5x5 reduce分别表示3x3和5x5的卷积前,缩减层中1x1滤波器的个数;
    • pool proj表示嵌入的max-pooling之后的投影层中1x1滤波器的个数;
    • 缩减层和投影层都要用ReLU;

    Inception架构

    Inception架构主要是想通过设计一个稀疏的网络结构,利用稀疏矩阵聚类为较为密集的子矩阵来提高计算性能。既有优秀的网络性能,又能节约计算资源。
    随着Inception架构的堆叠,特征越到后来越集中,所以感受野的尺寸也应增大才能获得较全面的特征,所以网络后面会使用3×3和5×5卷积汇总特征。
    在具有大量滤波器的卷积层上,即使加适量的5* 5卷积也可能造成几个阶段内计算量爆炸,所以Inception架构一直使用1×1卷积用来降维,以减少计算量的增加,保持信息的稀疏,只有在concate之前,才会使用大的卷积压缩信息,获取更完整的图像特征的信息。
    1* 1的卷积用处:降维,引入非线性(非线性激活函数ReLu)

    图1:

    所有的卷积都使用了ReLu作为激活函数,
    作者发现平均池化比全连接,提高了大约top-1 %0.6的准确率,作者使用平均池化时保留了dropout的使用。

    图2:

    作者添加了辅助分类器(图2)
    目的:提高初始阶段分类器的判别能力,同时克服梯度消失的问题。
    实验证实:影响较小,约0.5,只需一个辅助分类器就可以出同样效果,多了没用
    结构如下:

    • 一个滤波器大小5×5,步长为3的平均池化层,具有128个滤波器的1×1卷积。
    • 一个全连接层,具有1024个单元和修正线性激活。
    • dropout70%。
    • 使用softmax损失的线性层作为分类器。

    同时Inception中提出新的图像裁剪方式,虽然效果稍好,但实际应用中不必要使用这个方法。

    2. Batch Normalization

    李宏毅课程

    batch normalization 的目的是,原先如这个图所示,网络训练就如几个小人传话筒,只有三个话筒都接起来才能传声,起初左边的小人告诉中间的小人手放低点,右边的小人告诉中间的手放高些,一次迭代后,小人照做了,还是无法连接。所以batch normalization的目的就是不让整个数据集一起变化学习,而一个batch一个batch的学习,防止整体学习出错,无法拟合的情况。

    一个batch作为一个整体输入到网络中去训练,它的均值和方差会迭代的,是其中某一层的输出,网络训练的时候,输出也会改变,进而改变均值方差,再进而影响Zi的值。Zi与均值方差相关。
    batch normalization 的使用前提是这个batch要够大,如果batch很小的话,它不能代表一个整体的均值和方差,使用这个值做Normalization就会有很大偏差

    3. Inception v2-v3

    作者将v2的版本的修改的集大成者的模型称为v3

    提出修改Inception 网络的通用设计原则:
    1. 避免出现特征bottlenecks,尤其是在网络的早期,即早期卷积核的尺寸不要有太夸张的变化,Pooling也是一种,会导致很多特征丢失。
    2. 更多相互独立的特征聚集在一起收敛的越快。
    3. Inception模块在concate之前先利用卷积降维,各分支是高度相关的,所以降维可以在减少计算量的同时保证图像特征不会有很多损失。
    4. 平衡网络的宽度和深度。通过平衡每个阶段的滤波器数量和网络的深度可以达到网络的最佳性能。网络的宽度和深度并行增加,则可以达到恒定计算量的最佳改进。
    后续作者根据上述原则改进网络的到下列网络框架,也证实了上述原则的合理性。

    图3即将 Inception v1 按照原则3,将5* 5卷积用两个3* 3代替。

    图3:

    使用并行结构优化pooling ,解决规则1中提到的特征瓶颈的问题,解决方法是在pooling前用1x1卷积把特征数加倍(见图8右侧),这种加倍可以理解加入了冗余的特征,然后再作Pooling就只是把冗余的信息重新去掉????, 没有减少信息量。这种方法有很好的效果但因为加入了1x1卷积会极大的增大计算量。替代的方法是使用两个并行的支路,一路1x1卷积,由于特征维度没有加倍计算量相比之前减少了一倍,一路是Pooling,最后再在特征维度拼合到一起(见图9)。这种方法有很好的效果,又没有增大计算量。

    图8:
    图9:
    图4,图5使用非对称卷积

    通过1×n卷积和后面接一个n×1卷积可以替换任何n×n卷积,并且随着n增长,节省更多计算成本,作者通过测试发现非对称卷积用在网络中靠中间的层级才有较好的效果(特别是feature map的大小在12x12~20x20之间时)
    作者发现将大卷积分解为非对称卷积比2* 2 卷积效果更好。如图4所示,使用3×1卷积后接一个1×3卷积,相当于以与3×3卷积相同的感受野滑动两层网络,但计算量少很多。

    图4:
    图5:

    图6这种架构被用于最粗糙的(8×8)网格,以提升高维表示,如原则2所建议的那样。我们仅在最粗糙的网格上使用了此解决方案,因为这是产生高维度的地方,稀疏表示是最重要的,因为与空间聚合相比,局部处理(1×1 卷积)的比率增加。?????

    图6:

    提出Inception v2 架构,证明只要遵照那四个原则修改网络,变化网络的质量就相对稳定。Inception v2 结构(图7)就是将图3,图5,图6组合在一个网络架构中。inception-v2的结构中如果Auxiliary Classifier上加上BN,就成了inception-v3

    图7:
    辅助分类器

    辅助分类网络最初的动机是将有用的梯度推向较低层,使其立即有用,并通过抵抗非常深的网络中的消失梯度问题来提高训练过程中的收敛,事实上它对训练前期无任何改善,在接近训练结束的时候开始超越没有辅助分支的网络,推翻Inception v1中的说法,证明这些辅助分类器对低级特征的演变可能没有什么作用,而是起着正则化的作用,正则化作用的原因没说。

    使用Label Smoothing来对网络输出进行正则化。

    整个训练过程收敛时Softmax的正确分类的输入是无穷大,这是一种极其理想的情况,如果让所有的输入都产生这种极其理想的输出,就会造成overfit。为了克服overfit,防止最终出来的正确分类p(k)=1,在输出p(k)时加了个参数delta,生成新的q’(k),再用它替换原本的q(k)来计算loss。

    4. Inception v4-ResNet-v1-ResNet-v2

    待补充。。。

    5. 说明

    bottleneck :瓶颈,表征瓶颈个人理解为卷积核突然变很大,导致图像信息损失很多。

    参考文献

    1. GoogLeNet论文翻译——中英文对照
    2. Inception-V3论文翻译——中英文对照
    3. Inception-v2/v3结构解析(原创)
    展开全文
  • pointnet 系列论文总结

    千次阅读 2019-09-05 16:14:22
    目录pointnetpointnet++voxelnetfrustum-pointnetfrustum proposal3D instance segmentationamodal 3D ...本文旨在对之前看的 pointnet 系列点云目标检测论文进行总结,包括 pointnet, pointnet++, frustum-pointnet...


    本文旨在对之前看的 pointnet 系列点云目标检测论文进行总结,包括 pointnet, pointnet++, frustum-pointnet, voxelnet, votenet。虽然 voxelnet 不属于 pointnet 系列,但其中特征提取的模块跟 pointnet 还是很类似的,这里也就一并介绍了。下面就按照论文的时间顺序依次进行总结。

    pointnet

    本文主要的创新点在于仔细研究了点云的结构特点,提出了一种面向原始点云的端到端网络。这里总结的点云结构特点主要有两个:

    1. 点的顺序无关性
    2. 点云的刚体变换不变性

    这里的顺序无关性是指每个点存放在数组中的位置是任意的,因为最终将其映射到三维空间中起作用的是点的 xyz 维度,最终得到的点云是一样的,跟其在数组中的下标是没有关系的。而在传统的处理图像的 CNN 中,像素的下标是很重要的,因为那里主要就是通过下标得到相邻像素的,而不是通过像素在图像中的 uv 位置。

    刚体变换不变性比较容易理解了,我们对点云进行旋转平移,其内部的结构是不变的。

    实现刚体变换不变性,我们可以先将点云减去质心,然后训练一个 spatial transformer network 得到一个归一化旋转矩阵,将其施加在点云上就可以了。而要想实现顺序无关性,我们只要能找到一个与输入数据顺序无关的对称函数就行了,文章里用的是 maxpool。

    网络的主体结构如下所示:

    在这里插入图片描述

    可以看到网络结构还是比较简单的,特征提取主要就是依靠两组 mlp,总共 5 层,其中会训练两个 T-Net 进行旋转归一化,然后直接 max-pool 得到 global feature,继续两层 mlp 然后全连接分类。分割网络也比较简单,就是将 global feature 连接到每个点上,然后再来两组 mlp 进行 pointwise 的分类。

    文章还有一系列的训练和数据增强技巧,这里就先不写了。其中在训练 T-Net 的时候还增加了旋转矩阵是正交矩阵的正则项约束。

    pointnet++

    pointnet++ 主要是解决了 pointnet 没有考虑点云局部结构的问题,这可能导致网络在识别一个细粒度的 pattern 时泛化能力不够,另一方面 pointnet 在训练时会对点云进行均匀采样,着同样会对细粒度的 parttern 有消极的影响。作者提出的解决方法就是增加一个采样分组网络,将点云聚类成 K 个点云簇,也就是说通过点与点之间的空间距离对点云的局部特征进行归类,然后对每个点云簇使用 pointnet 进行特征提取,这样我们就得到了点云在局部的特征了。并且通过组合多层这样的采样/分组/pointnet(set abstraction)网络,set abstraction 的感知野也越来越大,这对提取局部特征是有帮助的。

    文中点簇的 centroid 的选取是通过 farthest point sampling 算法选取的。

    最终的网络结构如图所示:

    在这里插入图片描述

    可以看到在分类网络上,相当于是将 pointnet 前期的两组 mlp 特征提取用 hierarchical point set feature learning (两组 set abstraction)网络替换掉了;在分割网络上,是将 centroid 的特征分别连接到对应点簇中点云的特征后面,文章说是插值,其实跟之前 pointnet 的做法是类似的。

    具体的 centroid 选取和 grouping 操作也有一些不同的效果,作者也做了很多实验,这里就不一一介绍了。其中 multi-scale grouping 是作者最终使用的 grouping 方法,具体操作就是对点簇设置不同的 dropout ratio,然后按照这个 dropout ratio 对点簇中的点进行随机采样,这样就得到了该 dropout ratio 对应的尺度的特征,然后将多个尺度的特征 concatenate 作为该 centroid 的 multi-scale feature。

    同时文章也提到了非欧尺度空间的点云分类问题,这在识别行人和动物的时候比较有用,因为这些物体并不是刚性的,做法就是增加一些传统方法获取的非欧特征(intrinsic feature)。

    voxelnet

    这篇文章是苹果公司的员工发表的,用的方法是 pointnet 作者 diss 的 volumetric CNN 方法,这里也将其介绍一下是因为它的特征提取模块跟 pointnet 思想比较类似,同时里面一些针对自动驾驶的训练技巧和数据增强技巧也值得一学。还有一点是 pointnet 和 pointnet++ 都是在 1k 左右的点云规模上进行训练的,而 lidar 点云一般都在 20k ~ 100k 之间,因此本文也解决了大规模 3D 点云特征学习和检测任务的问题。其网络结构如图所示:

    在这里插入图片描述

    先来介绍下它的 feature learning network,可以看到它首先是将点云按照 voxel 进行分组,随机采样,然后对每个组内的点云(没有归一化到局部,而是将归一化坐标增强到点的特征中)使用 VFE layer 增加每个点云的特征维度,重复多次这个步骤,最后进行一次全连接和 maxpool 得到每个 voxel 的特征。之后就是针对这些 voxel 进行 3D 的 CNN 和 RPN 得到类别和 box了。

    在这里插入图片描述
    VFE 的结构如上图所示,可以看到跟 pointnet 还是很类似的,就是全连接-maxpool-concatenate,也是比较精简的。

    文中的 loss function 也是比较新颖的,通过 box 对角线长度对 center loss 进行了归一化。具体的网络细节、训练技巧和数据增强技巧这里就先不介绍了。

    frustum-pointnet

    这篇文章思路就比较简单了,只要做过摄像头和激光雷达数据融合的人都很容易能够理解。这篇文章也是作者与 Nuro 公司的员工合作发表的,因此是面向自动驾驶的,最后也是用的 kitti 数据集。同时也利用了很多自动驾驶中的先验信息,例如只关心物体的 yaw 轴朝向。

    首先大致的 pipeline 和网络结构如下图所示:

    在这里插入图片描述
    在这里插入图片描述

    1. 利用成熟的图像目标检测将物体检测出来
    2. 通过相机的投影模型将该 2D bounding box 对应的视锥框出来,框出来的目的就是将对该视锥内部的点云进行二分类,找到属于该物体的点云
    3. 计算 3D box。这里在计算 3D box 时提到了一个 amodal 的概念比较有意思,就是说人仅通过感知物体的一部分就是能感知出物体的整体。这对激光点云的 3D box 计算是很有帮助的,因为不管是这里的视锥划分还是激光雷达的固有特性,一个被扫描的物体注定只有一部分表面能呈现在点云中,如果只根据这些点云划分 box 很可能是不对的。例如,只有车头被雷达扫描到的 box 可能只包含了车头,但我们应该通过 amodal 的方法将 box 延长一部分,即使延长的这一部分中可能没有该物体的点云。

    所以这篇文章的网络有两个,一个用来分割,一个用来回归 bounding box。下面分别简单介绍下 pipleline 中的各个模块。

    frustum proposal

    这没什么好介绍的,就是图像目标检测,然后将视锥中的点云提取出来,提取出来之后会进行旋转归一化,如下图 b 所示:

    在这里插入图片描述

    3D instance segmentation

    这里提到为什么直接在深度图上用 2D CNN 回归物体位置不可取,因为前景遮挡和背景 clutter 问题,所以这里还是用的 3D segmentation。分割也是用的 pointnet,在分割时利用了上阶段的物体类别信息,就是 concatenate 一个 one-hot class vector。然后将分割的点云进行坐标归一化,如上图 c 所示,文中提到,实验发现上节的旋转归一化和本节的坐标归一化是很重要的

    amodal 3D box estimation

    在这里插入图片描述
    这里先通过 T-Net 回归了 amodal box center,如图 4.c 所示,然后再通过一个 amodal 3D box estimation pointnet 来回归 box,如图 5 所示。这里在回归 box 时还是利用了物体物理模型的先验信息,也就是 pre-define NS 个 size 模板和 NH 个朝向模板。并且对物体按照高度、宽度、长度划分成 NS 类,对朝向划分 NH 类。最终网络的输出维度为 3 + 4 * NS + 2 * NH。文中还提到了训练这些 multi-task loss 的技巧,就是增加了一个 corner loss 正则项,将原本独立的 center、长宽高和朝向 loss 联系起来,方法就是构造 NS * NH 个 anchor boxes,然后根据回归的 center 将这些 anchor box 的 corner 旋转平移到 center 对应的 box 上,度量这 8 个 corner 与 ground truth 的 corner 的距离,如下图所示:

    在这里插入图片描述
    其中 δij\delta_{ij} 表示 ij 的 size/heading 为 ground truth 时为 1,否则为 0;min 函数防止 box flipped 导致的错误 loss。

    votenet

    这篇文章还是思考的点云物体检测所存在的问题,问题跟 frustum pointnet 里提到的 amodal box 问题比较类似,不过这里不是通过划分多个模板然后将 box 分类到不同的模板中,而是利用霍夫投票这个老方法来解决这里的新问题。不过为了将这个老方法整合到端到端的网络中,作者也对其进行了重新设计。

    首先还是看下网络的结构:

    在这里插入图片描述

    1. 使用 pointnet 选取一些 seed 并学习其局部特征,类似 set abstraction layer,每个 seed 产生一个 vote;
    2. 使用 deep network 产生 votes;
    3. 对 votes 进行聚类、box proposal 和分类;
    4. 最后进行一个 3D NMS 得到 box 输出。

    文章也介绍了为什么要用霍夫投票:1. 投票比较适合稀疏集合,而点云正是空间稀疏的;2. 投票是自底向上的,局部的信息通过投票聚合成关于物体的全局信息,而神经网络虽然从一个更大的感知野聚合信息,但点云在物体的 amodal center 附近是很少的,直接进行 context aggregation 的话是不好的。

    具体的投票网络这里就不仔细介绍了。

    reference

    1. Qi C R, Su H, Mo K, et al. Pointnet: Deep learning on point sets for 3d classification and segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 652-660.
    2. Qi C R, Yi L, Su H, et al. Pointnet++: Deep hierarchical feature learning on point sets in a metric space[C]//Advances in neural information processing systems. 2017: 5099-5108.
    3. Qi C R, Liu W, Wu C, et al. Frustum pointnets for 3d object detection from rgb-d data[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 918-927.
    4. Qi C R, Litany O, He K, et al. Deep Hough Voting for 3D Object Detection in Point Clouds[J]. arXiv preprint arXiv:1904.09664, 2019.
    5. Zhou Y, Tuzel O. Voxelnet: End-to-end learning for point cloud based 3d object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 4490-4499.
    展开全文
  • 基于U-Net系列算法的医学图像分割(课程设计) 参考论文: **U-Net:ConvolutionalNetworksforBiomedicalImageSegmentation**https://arxiv.org/abs/1505.04597 **...
  • PointNet系列论文解读

    2020-12-07 16:16:35
    PointNet系列论文解读 1.简介 此系列论文首先提出了一种新型的处理点云数据的深度学习模型-PointNet,并验证了它能够用于点云数据的多种认知任务,如分类、语义分割和目标识别。不同于图像数据在计算机中的表示...
  • 在这个项目中,我将使用谷歌TensorFlow2.0框架逐一重现经典的卷积神经网络:LeNet-5,AlexNet,VGG系列,GooLeNet,ResNet系列,DenseNet系列,以及现在比较流行的:RCNN系列,SSD ,YOLO系列等。 教程目录 图像分类...
  • resnet和densenet系列模型结构图可视化

    千次阅读 2020-01-17 11:16:40
    最近正好在做实验,就找时间画了一下实践效果比较好的resnet和densenet两个系列的各个经典模型的结果示意图,这里先贴出来,后续找时间整理下代码出来,我们先来一睹为快吧。... 接下来是DenseNet系列的。 ...
  • 程序静默安装的参数总结,_Net技术文章,Asp_net系列教程,Asp_net
  • 图像分割的 U-Net 系列方法 在图像分割任务特别是医学图像分割中,U-Net[1]无疑是最成功的方法之一,该方法在2015年MICCAI会议上提出,目前已达到四千多次引用。其采用的编码器(下采样)-解码器(上采样)结构和...
  • GoogLeNet系列解读[转发]http://blog.csdn.net/shuzfan/article/details/50738394
  • 1.我觉得非常好的东西 GoogLeNet系列解读
  • 图像分割的U-Net系列方法

    千次阅读 2020-03-25 23:19:53
    图像分割的U-Net系列方法在图像分割任务特别是医学图像分割中,U-Net[1]无疑是最成功的方法之一,该方法在2015年MICCAI会议上提出,目前已达到四千多次引用。其采用的编码器(下采样)-解码器(上采样)结构和跳跃...
  • GoogLeNet系列解读 Inception v1 Inception v2 Inception v3 Inception v4 简介 在介绍Inception v4之前,首先说明一下Inception v4没有使用残差学习的思想。大部分小伙伴对Inception v4存在一个误解,认为它...
  • GoogLeNet系列论文

    2020-07-21 20:44:00
    GoogLeNet Incepetion V1 这是GoogLeNet的最早版本,出现在2014年的《Going deeper with convolutions》。之所以名为“GoogLeNet”而非“GoogleNet”,文章说是为了向早期的LeNet致敬。 Motivation 深度学习以及...
  • GoogLeNet系列解读 Inception v1 Inception v2 Inception v3 Inception v4 简介 GoogLeNet凭借其优秀的表现,得到了很多研究人员的学习和使用,因此Google又对其进行了改进,产生了GoogLeNet的升级版本,也...
  • GoogLeNet系列解读 Inception v1 Inception v2 Inception v3 Inception v4 简介 GoogLeNet网络核心模块是Inception module,一共经历了4代,其中第一代网络获得了2014年ILSVRC竞赛的分类任务第一名,因此促使...
  • Net系列框架-Dapper+AutoFac 基于接口  工作将近6年多了,工作中也陆陆续续学习和搭建了不少的框架,后续将按由浅入深的方式,整理出一些框架源码,所有框架源码本人都亲自调试通过,如果有问题,欢迎联系我,供...
  • GoogLeNet系列解读 Inception v1 Inception v2 Inception v3 Inception v4 Inception v3 Inception v3整体上采用了Inception v2的网络结构,并在优化算法、正则化等方面做了改进,总结如下: 1. 优化算法使用...
  • 三维深度学习之pointnet系列详解(二) 2018年05月21日 20:37:19 痛并快乐着呦西 阅读数:1876 上一篇(pointnet网络)主要引入了三维深度学习相关的一些背景知识,并介绍了pointnet整体思想和框架,那这一篇来...
  • Net系列框架-Dapper+简单三层架构  工作将近6年多了,工作中也陆陆续续学习和搭建了不少的框架,后续将按由浅入深的方式,整理出一些框架源码,所有框架源码本人都亲自调试通过,如果有问题,欢迎联系我,供大家...
  • Pointnet系列(二)Pointnet++

    万次阅读 2018-08-22 20:02:03
    作者在先前的研究中提出了Pointnet,此论文是Pointnet的改进版Pointnet++。提出改进的理由是因为Pointnet无法很好地捕捉由度量空间引起的局部结构问题,由此限制了网络对精细场景的识别以及对复杂场景的泛化能力。 ...
  • GoogleNet系列介绍,包括Inception v1到v4的原理、差异及其结构的详细解析,文章略长,PC端阅读更佳哦。
  • 三维深度学习之pointnet系列详解(一) 置顶 2018年05月09日 23:25:06 痛并快乐着呦西 阅读数:4429 标签: pointnet 三维深度学习 更多 个人分类: 3D Deep Learning 目前二维深度学习取得了很大的进步...
  • net系列框架整合

    2013-08-08 19:53:17
    第一章 网站框架搭建 第二章 网站后台管理之母版框架搭建 第三章 网站后台管理之数据输入和验证 第四章 网站后台管理之数据列表绑定、删除和修改 第五章 网站前台之母版框架搭建 ...再加一个博客例题

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,535
精华内容 1,814
关键字:

net系列