精华内容
下载资源
问答
  • Anaconda创建环境、删除环境、激活环境、退出环境

    万次阅读 多人点赞 2017-08-18 15:27:04
    Anaconda创建环境: //下面是创建python=3.6版本的环境,取名叫py36 conda create -n py36 python=3.6 ...激活环境 //下面这个py36是个环境名 source activate py36 (conda4的是:conda activa...

     

    Anaconda创建环境:

    //下面是创建python=3.6版本的环境,取名叫py36

    conda create -n py36 python=3.6 

     

    删除环境(不要乱删啊啊啊)

    conda remove -n py36 --all

     

    激活环境

    //下面这个py36是个环境名

    conda activate py36      (conda4之前的版本是:source activate py36 )

     

    退出环境

    conda deactivate    (conda4之前的版本是:source deactivate )

    展开全文
  • 首先去官网下载对应版本的UnityHub ... ... 选择微信登录 ...登录成功后,会提示激活,选择【手动激活】 点击【保存许可证申请】 选择本地的某个目录,保存Unity_lic.alf 然后点击license.unity.cn...

    一、下载Unity

    首先去官网下载对应版本的UnityHub
    Unity官网地址: https://unity.cn/releases
    在这里插入图片描述

    二、登录账号(可用微信号登录)

    安装完UnityHub,运行会提示登录Unity账号,可以用微信登录,点击右上角的这个按钮
    在这里插入图片描述
    选择微信登录
    在这里插入图片描述
    然后用手机微信扫码即可
    在这里插入图片描述
    激活许可证有两种,一种是激活新许可证,一种是手动激活。

    三、激活新许可证(推荐)

    1、点击激活新许可证

    登录成功后,会提示激活,选择【激活新许可证】
    在这里插入图片描述

    2、许可协议

    然后勾选 【Unity个人版】 和 【我不以专业身份使用Unity】,最后点击【完成】。
    在这里插入图片描述

    3、完成激活

    即可看到许可证激活成功了,可以正常使用Unity
    在这里插入图片描述
    注意:个人版7天就到期了,到时候重新激活就行了

    四、手动激活(步骤较多)

    1、点击手动激活

    点击【手动激活】
    在这里插入图片描述

    2、保存许可证申请(.alf)

    点击【保存许可证申请】
    在这里插入图片描述
    选择本地的某个目录,保存Unity_lic.alf
    在这里插入图片描述

    3、跳转到激活页面获取许可证文件

    点击license.unity.cn/manual
    在这里插入图片描述
    此时会打开浏览器,进入激活页面,也是用相同的微信号登录,然后点击【Browse】按钮,选择刚刚保存的Unity_lic.alf文件
    在这里插入图片描述
    然后点击【Next】
    在这里插入图片描述
    选择【Unity Personal Editor】,再选择【I don’t use Unity in a professional capacity】,然后点击【Next】
    在这里插入图片描述

    4、保存许可证文件(.ulf)

    在这里插入图片描述

    5、加载许可证文件

    回到UnityHub,点击【下一步】,然后点击【···】,选择刚刚保存的许可证文件
    在这里插入图片描述
    点击【确定】
    在这里插入图片描述

    6、完成激活

    此时UnityHub中就可以看到我们的许可证了。

    7、为什么要搞一个手动激活的功能

    你可以在有网络的环境下保存许可证文件(.ulf文件),在无网络的环境下,就可以直接手动加载这个许可证文件了。

    五、愉快地使用Unity

    点击返回偏好选项,即可开始创建Unity工程了
    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述
    开始愉快地编程吧
    在这里插入图片描述

    展开全文
  • Winows Server 2019 激活正确姿势!

    万次阅读 多人点赞 2018-11-05 09:30:34
    发现到处找不到激活码,搜到一个CSDN博客的给提供了两个激活码,但是对正式版都不能用。 我这里安装的是Windows Server 2019 Standard版本 Windows Server 2019 Datacenter WMDGN-G9PQG-XVVXX-R3X43-63DFG Windows ...

    前两天发现Server2019出了正式版,准备安装一个玩玩。发现到处找不到激活码,搜到一个CSDN博客的给提供了两个激活码,但是对正式版都不能用。

    我这里安装的是Windows Server 2019 Standard版本

    Windows Server 2019 Datacenter WMDGN-G9PQG-XVVXX-R3X43-63DFG
    Windows Server 2019 Standard N69G4-B89J2-4G8F4-WWYCC-J464C
    Windows Server 2019 Essentials WVDHN-86M7X-466P6-VHXV7-YY726

    打开CMD输入下面几条命令就可以了

    slmgr /upk
    slmgr /ipk N69G4-B89J2-4G8F4-WWYCC-J464C
    slmgr /skms zh.us.to
    slmgr /ato
    

    附一张激活成功的图片
    在这里插入图片描述

    输入命令查看激活过期时间,slmgr /xpr

    在这里插入图片描述

    上面所有激活码和激活步骤均来自微软官方提供,请参考:
    https://docs.microsoft.com/en-us/windows-server/get-started/kmsclientkeys

    展开全文
  • 常用激活函数(激励函数)理解与总结

    万次阅读 多人点赞 2018-05-13 23:07:19
    学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。那么我们就来详细了解下激活函数方方面面的知识。本文的内容包括几个部分: 什么是...

    引言

    学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。那么我们就来详细了解下激活函数方方面面的知识。本文的内容包括几个部分:

    1. 什么是激活函数?
    2. 激活函数的用途(为什么需要激活函数)?
    3. 有哪些激活函数,都有什么性质和特点?
    4. 应用中如何选择合适的激活函数?

    如果你对以上几个问题不是很清楚,下面的内容对你是有价值的。

    什么是激活函数?

    首先要了解神经网络的基本模型。(不熟悉的同学请去看本人另外一篇介绍:人工神经网络基本原理
    单一神经元模型如下图所示。
    这里写图片描述
    神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经元节点会将输入属性值直接传递给下一层(隐层或输出层)。在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)。

    激活函数的用途(为什么需要激活函数)?

    如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层节点的输入都是上层输出的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了,那么网络的逼近能力就相当有限。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样深层神经网络表达能力就更加强大(不再是输入的线性组合,而是几乎可以逼近任意函数)。

    有哪些激活函数,都有什么性质和特点?

    早期研究神经网络主要采用sigmoid函数或者tanh函数,输出有界,很容易充当下一层的输入。
    近些年Relu函数及其改进型(如Leaky-ReLU、P-ReLU、R-ReLU等)在多层神经网络中应用比较多。下面我们来总结下这些激活函数:

    Sigmoid函数

    Sigmoid 是常用的非线性的激活函数,它的数学形式如下:
    f(z)=11+e−z f(z)=\frac{1}{1+e^{-z}}f(z)=1+ez1
    Sigmoid的几何图像如下:
    这里写图片描述
    特点:
    它能够把输入的连续实值变换为0和1之间的输出,特别的,如果是非常大的负数,那么输出就是0;如果是非常大的正数,输出就是1.
    缺点:
    sigmoid函数曾经被使用的很多,不过近年来,用它的人越来越少了。主要是因为它固有的一些 缺点。
    缺点1:在深度神经网络中梯度反向传递时导致梯度爆炸和梯度消失,其中梯度爆炸发生的概率非常小,而梯度消失发生的概率比较大。首先来看Sigmoid函数的导数,如下图所示:
    这里写图片描述
    如果我们初始化神经网络的权值为 [0,1][0,1][0,1] 之间的随机值,由反向传播算法的数学推导可知,梯度从后向前传播时,每传递一层梯度值都会减小为原来的0.25倍,如果神经网络隐层特别多,那么梯度在穿过多层后将变得非常小接近于0,即出现梯度消失现象;当网络权值初始化为 (1,+∞)(1,+∞)(1,+) 区间内的值,则会出现梯度爆炸情况。
    详细数学分析见文章:http://neuralnetworksanddeeplearning.com/chap5.html 中文译文:深度神经网络为何很难训练
    缺点2:Sigmoid 的 output 不是0均值(即zero-centered)。这是不可取的,因为这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入。 产生的一个结果就是:如x>0, f=wTx+bx>0, \ f= w^Tx+bx>0, f=wTx+b,那么对w求局部梯度则都为正,这样在反向传播的过程中w要么都往正方向更新,要么都往负方向更新,导致有一种捆绑的效果,使得收敛缓慢。 当然了,如果按batch去训练,那么那个batch可能得到不同的信号,所以这个问题还是可以缓解一下的。因此,非0均值这个问题虽然会产生一些不好的影响,不过跟上面提到的梯度消失问题相比还是要好很多的。
    缺点3:其解析式中含有幂运算,计算机求解时相对来讲比较耗时。对于规模比较大的深度网络,这会较大地增加训练时间。

    tanh函数

    tanh函数解析式:
    tanh(x)=ex−e−xex+e−xtanh(x)=\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}}tanh(x)=ex+exexex
    tanh函数及其导数的几何图像如下图:
    tanh(x)及其导数的几何图像
    tanh读作Hyperbolic Tangent,它解决了Sigmoid函数的不是zero-centered输出问题,然而,梯度消失(gradient vanishing)的问题和幂运算的问题仍然存在。

    Relu函数

    Relu函数的解析式:
    Relu=max(0,x)Relu=max(0,x)Relu=max(0,x)
    Relu函数及其导数的图像如下图所示:
    这里写图片描述
    ReLU函数其实就是一个取最大值函数,注意这并不是全区间可导的,但是我们可以取sub-gradient,如上图所示。ReLU虽然简单,但却是近几年的重要成果,有以下几大优点:
    1) 解决了gradient vanishing问题 (在正区间)
    2)计算速度非常快,只需要判断输入是否大于0
    3)收敛速度远快于sigmoid和tanh

    ReLU也有几个需要特别注意的问题:
    1)ReLU的输出不是zero-centered
    2)Dead ReLU Problem,指的是某些神经元可能永远不会被激活,导致相应的参数永远不能被更新。有两个主要原因可能导致这种情况产生: (1) 非常不幸的参数初始化,这种情况比较少见 (2) learning rate太高导致在训练过程中参数更新太大,不幸使网络进入这种状态。解决方法是可以采用Xavier初始化方法,以及避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法。

    尽管存在这两个问题,ReLU目前仍是最常用的activation function,在搭建人工神经网络的时候推荐优先尝试!

    Leaky ReLU函数(PReLU)

    函数表达式:f(x)=max(αx,x)f(x)=max(\alpha x,x)f(x)=max(αx,x)
    Leaky Relu函数及其导数的图像如下图所示:
    (有同学在评论中反映下图有误,其实没有错误,左半边直线斜率非常接近0,所以看起来像是平的。就不改了,α=0.01\alpha=0.01α=0.01看起来就是这样的。感谢大家提意见 ^ _ ^)
    这里写图片描述
    人们为了解决Dead ReLU Problem,提出了将ReLU的前半段设为αx\alpha xαx而非0,通常α=0.01\alpha=0.01α=0.01。另外一种直观的想法是基于参数的方法,即ParametricReLU:f(x)=max⁡(αx,x)Parametric ReLU:f(x) = \max(\alpha x, x)ParametricReLU:f(x)=max(αx,x),其中α\alphaα
    可由方向传播算法学出来。理论上来讲,Leaky ReLU有ReLU的所有优点,外加不会有Dead ReLU问题,但是在实际操作当中,并没有完全证明Leaky ReLU总是好于ReLU。

    ELU (Exponential Linear Units) 函数

    函数表达式:
    f(x)={x,if x>0α(ex−1),otherwisef(x)= \begin{cases}x,& \text{if } x > 0\\ \alpha(e^x - 1), & \text{otherwise} \end{cases}f(x)={x,α(ex1),if x>0otherwise
    函数及其导数的图像如下图所示:
    这里写图片描述

    ELU也是为解决ReLU存在的问题而提出,显然,ELU有ReLU的基本所有优点,以及:

    不会有Dead ReLU问题
    输出的均值接近0,zero-centered
    

    它的一个小问题在于计算量稍大。类似于Leaky ReLU,理论上虽然好于ReLU,但在实际使用中目前并没有好的证据ELU总是优于ReLU。

    MaxOut函数

    这个函数可以参考论文《maxout networks》,Maxout是深度学习网络中的一层网络,就像池化层、卷积层一样等,我们可以把maxout 看成是网络的激活函数层,我们假设网络某一层的输入特征向量为:X=(x1,x2,……xd),也就是我们输入是d个神经元。Maxout隐藏层每个神经元的计算公式如下:
    这里写图片描述

    上面的公式就是maxout隐藏层神经元i的计算公式。其中,k就是maxout层所需要的参数了,由我们人为设定大小。就像dropout一样,也有自己的参数p(每个神经元dropout概率),maxout的参数是k。公式中Z的计算公式为:

    这里写图片描述

    权重w是一个大小为(d,m,k)三维矩阵,b是一个大小为(m,k)的二维矩阵,这两个就是我们需要学习的参数。如果我们设定参数k=1,那么这个时候,网络就类似于以前我们所学普通的MLP网络。
    我们可以这么理解,本来传统的MLP算法在第i层到第i+1层,参数只有一组,然而现在我们不这么干了,我们在这一层同时训练n组的w、b参数,然后选择激活值Z最大的作为下一层神经元的激活值,这个max(z)函数即充当了激活函数。

    应用中如何选择合适的激活函数?

    这个问题目前没有确定的方法,凭一些经验吧。
    1)深度学习往往需要大量时间来处理大量数据,模型的收敛速度是尤为重要的。所以,总体上来讲,训练深度学习网络尽量使用zero-centered数据 (可以经过数据预处理实现) 和zero-centered输出。所以要尽量选择输出具有zero-centered特点的激活函数以加快模型的收敛速度。
    2)如果使用 ReLU,那么一定要小心设置 learning rate,而且要注意不要让网络出现很多 “dead” 神经元,如果这个问题不好解决,那么可以试试 Leaky ReLU、PReLU 或者 Maxout.
    3)最好不要用 sigmoid,你可以试试 tanh,不过可以预期它的效果会比不上 ReLU 和 Maxout.

    参考资料

    1.聊一聊深度学习的activation function—夏飞
    2.http://blog.csdn.net/cyh_24/article/details/50593400
    3.http://www.cnblogs.com/tornadomeet/p/3428843.html
    4.《maxout networks》

    展开全文
  • ReLU激活函数:简单之美

    万次阅读 多人点赞 2016-11-13 17:46:24
    导语在深度神经网络中,通常使用一种叫修正线性单元(Rectified linear unit,ReLU)作为神经元的激活函数。
  • 激活函数Sigmoid

    万次阅读 2020-03-18 19:53:54
    激活函数Sigmoid系列文章:   上一节激活函数中已经讨论了激活函数的重要性,和大致发展路径。本文直接讨论SIgmoid激活函数,这是比较早的激活函数了,使用也非常广泛,这个函数又叫Logistic函数,因为这个激活...
  • PyCharm专业版激活 使用学生邮箱激活 如下图所示:
  • 激活函数maxout

    万次阅读 2020-03-18 19:56:22
    激活函数maxout系列文章:   maxout函数相对于其他的激活函数有很大的区别,可以看做是在神经网络中激活函数的地方加入一个激活函数层。maxout可以看做是一个可学习的分段线性函数,因为可学习所以是需要参数的,...
  • 激活函数ReLU

    万次阅读 2020-03-18 19:55:16
    激活函数ReLUReLUPReLU(Parametric)E(Exponential)LU系列文章: ReLU   Relu(Rectified Linear Unit)函数也可谓是一个里程碑式的激活函数。我们之前已经谈到过sigmoid函数和tanh函数的缺点,我们接下来就看relu...
  • visio2016永久激活密钥

    万次阅读 多人点赞 2018-12-06 20:49:21
    visio2016永久激活密钥 visio2016专业版激活码 正版visio2016零售版产品密钥 发布时间:2018-10-12 17:47发布者:系统城-xtcjh浏览数:10370 有用户找小编要最新visio2016激活密钥,visio2016是一个...
  • KMS 激活命令

    万次阅读 2018-05-08 14:24:50
    第一部分 win10 方法:在win10桌面状态下,右击windows徽标或按快捷键windows+x,点击命令提示符(管理员) 用到的命令是slmgr,手动kms激活命令如下: slmgr.vbs /upk slmgr /ipk W269N-WFGWX-YV...
  • 激活函数Tanh

    万次阅读 2020-03-18 19:54:46
    激活函数Tanh系列文章:   Tanh的诞生比Sigmoid晚一些,sigmoid函数我们提到过有一个缺点就是输出不以0为中心,使得收敛变慢的问题。而Tanh则就是解决了这个问题。Tanh就是双曲正切函数。等于双曲余弦除双曲正弦。...
  • 激活函数Swish

    万次阅读 2020-05-21 18:36:23
    激活函数Swish系列文章:   Swish函数先对来说是比较新的一些激活函数,算是由之前的激活函数复合而成出来的。也是由Google提出的,毕竟资力雄厚,承担的起搜索的任务。而且这个算法感觉曝光率还算比较高,就在...
  • MATLAB R2015b完全激活(含激活文件以及激活步骤说明)

    千次下载 热门讨论 2015-10-04 14:29:54
    MATLAB R2015b完全激活(含激活文件以及激活步骤说明) 这里测试的是win 8.1 企业版 x64 位操作系统 注意,要安装操作说明来操作,我当时是这么操作的,其它顺序的就没有尝试,不知能否成功。祝你激活顺利!
  • 激活函数之sigmoid激活

    万次阅读 2017-03-24 09:18:46
    1 sigmoid激活激活函数(activation function)的作用: 1)线性模型表达能力不足,通过激活函数来编码非线性表达,从而捕捉数据的非线性因素; 2)在深层卷积神经网络中,激活函数在每一层除了扮演非线性单元的...
  • GELU 激活函数

    万次阅读 多人点赞 2020-04-16 18:15:53
    最近在看bert源码,发现里边的激活函数不是Relu等常见的函数,是一个新的激活函数GELUs, 这里记录分析一下该激活函数的特点。 不管其他领域的鄙视链,在激活函数领域,大家公式的鄙视链应该是:Elus &...
  • 例如,服务器生成激活码,程序内激活,只能使用一次,激活码判断多种方法。![图片](https://img-ask.csdn.net/upload/201708/18/1503061583_182780.png)
  • 神经网络之激活函数

    万次阅读 2020-03-18 19:52:57
    激活函数是为了模拟神经元的激活和抑制状态的一个组件,自然界的神经活动都是通过一部分神经元的激活,一部分神经元受到抑制而实现的,同时激活的神经元也会在一定条件抑制,抑制也会转换为激活,这种状态之间的切换...
  • Matlab 激活,反激活

    千次阅读 2019-05-20 10:15:59
    激活;1. 2. 3. 4.删除激活标签 激活: cmd 输入:vol c: setuserna 输入磁盘序列号和主机ID
  • 激活函数ReLU、Leaky ReLU、PReLU和RReLU

    万次阅读 多人点赞 2018-05-13 16:16:11
    激活函数”能分成两类——“饱和激活函数”和“非饱和激活函数”。 sigmoid和tanh是“饱和激活函数”,而ReLU及其变体则是“非饱和激活函数”。使用“非饱和激活函数”的优势在于两点: 1.首先,“非饱和激活...
  • UltraEdit 18 破解激活

    千次下载 热门讨论 2012-03-08 21:18:23
    激活方式: 1. 断开网络,启动UltraEdit 18,进入注册界面 2. 不用输入用户ID和密码直接激活,错误后进入离线激活界面 3. 启动UltraEdit_keygen.exe,输入相关信息获得激活码 4. 在离线激活界面界面输入激活码,离线...
  • 帆软公司对免费版用户非常友好,下面就来介绍一下怎么免费获取帆软9.0激活码,帆软8.0激活码以及如何激活。 一、免费获取帆软9.0激活码,帆软8.0激活码 在FineReport官网上可以看到很多“免费试用”的按钮,点击...
  • office2016激活教程 一:激活秘钥 [Key]:2KBDJ-V84CF-YWTPX-W726F-6CPJV [Key]:34BCY-QMR8R-T779J-KFF4R-C28YF [Key]:36MDV-B48XY-7F2VX-KH9FC-YDKDW [Key]:38977-FFR38-X9FMX-WHXMQ-JF8WF [Key]:3W6GX-...
  • 激活pycharm方法(采用激活激活

    千次阅读 2018-11-07 09:37:27
    1.在C:\Windows\System32\drivers\etc目录下hosts文件中最后... 2.打开PyCharm选择Activation code激活,然后复制下面的激活码点击激活。 K71U8DBPNE-eyJsaWNlbnNlSWQiOiJLNzFVOERCUE5FIiwibGljZW5zZWVOYW1lIjoi...
  • MindManager2020注册码-激活码-序列号相关问题解答

    万次阅读 多人点赞 2020-05-09 15:14:13
    MindManager 2020注册码生成器是专门针对同名软件“Mindjet MindManager 2020”而研发制作的注册生成工具软件,从而可以生成Mindjet MindManager 2020所需的注册...为此小编特别制作研发这款注册激活码工具软件,需要的
  • idea激活激活教程

    千次阅读 2019-07-16 09:12:28
    idea激活激活教程 出现这个说明激活码失效,This license 56zs5pq1f has been canclled 可以在这获取:http://idea.lanyus.com/ 修改host文件 第一步:用#住注释host中的 0.0.0.0 account.jetbrains.com 第二步:...
  • goland激活

    万次阅读 2019-03-06 19:19:44
    golang激活码: http://idea.youbbs.org 只限于18.2以下版本的使用,激活码从18.2开始失效,可使用的最高版本:goland-2018.1.7.exe
  • 在电脑上安装了Office2016办公软件以后,很多朋友关心的是我们安装的Office2016软件激活了没有,如果是激活的状态,到底是临时激活还是永久激活了呢,在这里我来介绍下具体怎么查看Office2016是否激活以及Office2016...
  • 1. 下载Navicat for MySQL 12安装包和激活工具 点击下方链接下载,保证好用,很良心 Navicat for MySQL 12安装包和激活工具下载地址 2. 安装Navicat for MySQL 12 完成安装 二、Navicat for MySQL 12...
  • anaconda无法使用activate激活环境

    万次阅读 多人点赞 2018-08-21 12:43:38
    并且使用Anaconda Navigator管理器也是可以成功激活环境的: 但是问题来了:我在windows自带的WindowsPowerShell里使用activate命令切换环境时,命令明明已经成功执行,但却没有成功切换环境,如图: 经过.....

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 94,286
精华内容 37,714
关键字:

激活