2019-06-06 22:38:37 qq_33431972 阅读数 168
  • 如何自学人工智能

    当前自学人工智能的人员很多,但大多数同学在学习了不到半年之后就放弃了。如何能像美国那样先培养大量的人工智能企业的入门人才,在掌握了人工智能的必要知识之后再在工作中提高。就成为我国人工智能领域人才队伍建设必须首先解决的问题。 本门课程由CSDN 学院联合信息技术研究所研究员吴龙在全网独家推出、为大家详细讲解了人工智能的知识体系、系统架构、实现方式和学习方式,能够帮助大家通过自学在最短的时间内达到人工智能企业的入职要求。

    478 人正在学习 去看看 吴龙


配置:64位liunx python3.5

一、准备工作

1.安装虚拟机

2.安装Ubuntu

2.1虚拟机无法复制黏贴

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
最后重启虚拟机,即可复制黏贴。

2.2终端安装python3.6

打开终端输入命令
1.wget https://www.python.org/ftp/python/3.6.0/Python-3.6.0.tar.xz
2.tar xJf Python-3.6.0.tar.xz
3.cd Python-3.6.0
4. ./configure
5.make && make install
5. which python3
6. python3 -v
7. 即可使用python3

3.安装anaconda

.sh文件是可执行的脚本文件,需要用命令bash来进行安装
(1)
在这里插入图片描述

(2)
在这里插入图片描述
(3)
在这里插入图片描述
(4)
在这里插入图片描述

(5)
在这里插入图片描述

(6)出现无法使用conda命令

添加

echo'export PATH="/home/lhr/anaconda3/bin:$PATH"' >> ~/.bashrc

再执行

source ~/.bashrc

(7)
在这里插入图片描述

3.1环境py3.6

	建立:conda create -n py36 python=3.6
	删除:conda remove -n py36 --all
	激活:source activate py36
	退出:source deactivate
	列出所有环境:conda info -e
	复制一个环境:conda create -n flowers --clone py36
	查看已安装包:conda list

3.2离线安装tensorflow

由于镜像不能用了,下载速度慢的像乌龟。
采用傻瓜式办法,一个个下载

官网https://pypi.org/

在这里插入图片描述

要在虚拟环境的site-packages里建新的tensorflow
把下载的tensorflow包放进去,运行终端。
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
由于网络会出现卡住的情况,这是卡住那行显示正在下载某个包,这是侯就去官网自己手动下载,手动安装,不断重复不断重复,弄个半小时就差不多能把tensorflow所需要的包全部装完

4.安装pycharm

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

4.1输入激活码

56ZS5PQ1RF-eyJsaWNlbnNlSWQiOiI1NlpTNVBRMVJGIiwibGljZW5zZWVOYW1lIjoi5q2j54mI5o6I5p2DIC4iLCJhc3NpZ25lZU5hbWUiOiIiLCJhc3NpZ25lZUVtYWlsIjoiIiwibGljZW5zZVJlc3RyaWN0aW9uIjoiRm9yIGVkdWNhdGlvbmFsIHVzZSBvbmx5IiwiY2hlY2tDb25jdXJyZW50VXNlIjpmYWxzZSwicHJvZHVjdHMiOlt7ImNvZGUiOiJJSSIsInBhaWRVcFRvIjoiMjAyMC0wMy0xMCJ9LHsiY29kZSI6IkFDIiwicGFpZFVwVG8iOiIyMDIwLTAzLTEwIn0seyJjb2RlIjoiRFBOIiwicGFpZFVwVG8iOiIyMDIwLTAzLTEwIn0seyJjb2RlIjoiUFMiLCJwYWlkVXBUbyI6IjIwMjAtMDMtMTAifSx7ImNvZGUiOiJHTyIsInBhaWRVcFRvIjoiMjAyMC0wMy0xMCJ9LHsiY29kZSI6IkRNIiwicGFpZFVwVG8iOiIyMDIwLTAzLTEwIn0seyJjb2RlIjoiQ0wiLCJwYWlkVXBUbyI6IjIwMjAtMDMtMTAifSx7ImNvZGUiOiJSUzAiLCJwYWlkVXBUbyI6IjIwMjAtMDMtMTAifSx7ImNvZGUiOiJSQyIsInBhaWRVcFRvIjoiMjAyMC0wMy0xMCJ9LHsiY29kZSI6IlJEIiwicGFpZFVwVG8iOiIyMDIwLTAzLTEwIn0seyJjb2RlIjoiUEMiLCJwYWlkVXBUbyI6IjIwMjAtMDMtMTAifSx7ImNvZGUiOiJSTSIsInBhaWRVcFRvIjoiMjAyMC0wMy0xMCJ9LHsiY29kZSI6IldTIiwicGFpZFVwVG8iOiIyMDIwLTAzLTEwIn0seyJjb2RlIjoiREIiLCJwYWlkVXBUbyI6IjIwMjAtMDMtMTAifSx7ImNvZGUiOiJEQyIsInBhaWRVcFRvIjoiMjAyMC0wMy0xMCJ9LHsiY29kZSI6IlJTVSIsInBhaWRVcFRvIjoiMjAyMC0wMy0xMCJ9XSwiaGFzaCI6IjEyMjkxNDk4LzAiLCJncmFjZVBlcmlvZERheXMiOjAsImF1dG9Qcm9sb25nYXRlZCI6ZmFsc2UsImlzQXV0b1Byb2xvbmdhdGVkIjpmYWxzZX0=-SYSsDcgL1WJmHnsiGaHUWbaZLPIe2oI3QiIneDtaIbh/SZOqu63G7RGudSjf3ssPb1zxroMti/bK9II1ugHz/nTjw31Uah7D0HqeaCO7Zc0q9BeHysiWmBZ+8bABs5vr25GgIa5pO7CJhL7RitXQbWpAajrMBAeZ2En3wCgNwT6D6hNmiMlhXsWgwkw2OKnyHZ2dl8yEL+oV5SW14t7bdjYGKQrYjSd4+2zc4FnaX88yLnGNO9B3U6G+BuM37pxS5MjHrkHqMTK8W3I66mIj6IB6dYXD5nvKKO1OZREBAr6LV0BqRYSbuJKFhZ8nd6YDG20GvW6leimv0rHVBFmA0w==-MIIElTCCAn2gAwIBAgIBCTANBgkqhkiG9w0BAQsFADAYMRYwFAYDVQQDDA1KZXRQcm9maWxlIENBMB4XDTE4MTEwMTEyMjk0NloXDTIwMTEwMjEyMjk0NlowaDELMAkGA1UEBhMCQ1oxDjAMBgNVBAgMBU51c2xlMQ8wDQYDVQQHDAZQcmFndWUxGTAXBgNVBAoMEEpldEJyYWlucyBzLnIuby4xHTAbBgNVBAMMFHByb2QzeS1mcm9tLTIwMTgxMTAxMIIBIjANBgkqhkiG9w0BAQEFAAOCAQ8AMIIBCgKCAQEAxcQkq+zdxlR2mmRYBPzGbUNdMN6OaXiXzxIWtMEkrJMO/5oUfQJbLLuMSMK0QHFmaI37WShyxZcfRCidwXjot4zmNBKnlyHodDij/78TmVqFl8nOeD5+07B8VEaIu7c3E1N+e1doC6wht4I4+IEmtsPAdoaj5WCQVQbrI8KeT8M9VcBIWX7fD0fhexfg3ZRt0xqwMcXGNp3DdJHiO0rCdU+Itv7EmtnSVq9jBG1usMSFvMowR25mju2JcPFp1+I4ZI+FqgR8gyG8oiNDyNEoAbsR3lOpI7grUYSvkB/xVy/VoklPCK2h0f0GJxFjnye8NT1PAywoyl7RmiAVRE/EKwIDAQABo4GZMIGWMAkGA1UdEwQCMAAwHQYDVR0OBBYEFGEpG9oZGcfLMGNBkY7SgHiMGgTcMEgGA1UdIwRBMD+AFKOetkhnQhI2Qb1t4Lm0oFKLl/GzoRykGjAYMRYwFAYDVQQDDA1KZXRQcm9maWxlIENBggkA0myxg7KDeeEwEwYDVR0lBAwwCgYIKwYBBQUHAwEwCwYDVR0PBAQDAgWgMA0GCSqGSIb3DQEBCwUAA4ICAQAF8uc+YJOHHwOFcPzmbjcxNDuGoOUIP+2h1R75Lecswb7ru2LWWSUMtXVKQzChLNPn/72W0k+oI056tgiwuG7M49LXp4zQVlQnFmWU1wwGvVhq5R63Rpjx1zjGUhcXgayu7+9zMUW596Lbomsg8qVve6euqsrFicYkIIuUu4zYPndJwfe0YkS5nY72SHnNdbPhEnN8wcB2Kz+OIG0lih3yz5EqFhld03bGp222ZQCIghCTVL6QBNadGsiN/lWLl4JdR3lJkZzlpFdiHijoVRdWeSWqM4y0t23c92HXKrgppoSV18XMxrWVdoSM3nuMHwxGhFyde05OdDtLpCv+jlWf5REAHHA201pAU6bJSZINyHDUTB+Beo28rRXSwSh3OUIvYwKNVeoBY+KwOJ7WnuTCUq1meE6GkKc4D/cXmgpOyW/1SmBz3XjVIi/zprZ0zf3qH5mkphtg6ksjKgKjmx1cXfZAAX6wcDBNaCL+Ortep1Dh8xDUbqbBVNBL4jbiL3i3xsfNiyJgaZ5sX7i8tmStEpLbPwvHcByuf59qJhV/bZOl8KqJBETCDJcY6O2aqhTUy+9x93ThKs1GKrRPePrWPluud7ttlgtRveit/pcBrnQcXOl1rHq7ByB8CFAxNotRUYL9IF5n3wJOgkPojMy6jetQA5Ogc8Sm7RG6vg1yow==

4.2pycharm关联anaconda

在这里插入图片描述

在这里插入图片描述

参考:

2.1 https://blog.csdn.net/weixin_42109679/article/details/80717336
2.2 https://www.jb51.net/article/108938.htm

2017-12-23 21:18:38 xuyaoqiaoyaoge 阅读数 641
  • 如何自学人工智能

    当前自学人工智能的人员很多,但大多数同学在学习了不到半年之后就放弃了。如何能像美国那样先培养大量的人工智能企业的入门人才,在掌握了人工智能的必要知识之后再在工作中提高。就成为我国人工智能领域人才队伍建设必须首先解决的问题。 本门课程由CSDN 学院联合信息技术研究所研究员吴龙在全网独家推出、为大家详细讲解了人工智能的知识体系、系统架构、实现方式和学习方式,能够帮助大家通过自学在最短的时间内达到人工智能企业的入职要求。

    478 人正在学习 去看看 吴龙

人工智能

机器学习
神经网络
前馈神经网络:没有回路的
反馈神经网络:有回路的
DNN 深度神经网络
CNN 卷积神经网络
RNN 循环神经网络
LSTM 是RNN的一种,长短期记忆网络
自然语言处理

神经网络

这里写图片描述

神经元-分类器
Hebb 学习方法,随机 –类似SGD

一篇神经网络入门
这里写图片描述

BP反向传播,表示很复杂的函数/空间分布
从最后一层往前调整参数,反复循环该操作

y=a(wx+b) x输入 y输出 a激活函数 b偏移 w权重
每一层网络都是这样

神经网络训练权重–使损失函数最小–SGD
BP是求梯度的一种方法

权重要初始化:均匀分布初始化权重

前馈神经网络:多个感知器组合,由不同激活函数控制

激活函数:把线性–非线性的,一般用ReLU y=max(x,0)

输入层与输出层节点是固定的
圆圈是神经元,连线代表权重

两层神经网络可以无限逼近任意连续函数
多层神经网络本质就是复杂函数拟合

隐藏层的数量,每层的节点数都是手工调的,根据经验来判断

神经网络防止过拟合–正则化–权重衰减
正则化–Dropout

多层神经网络–深度学习
参数一样的情况下,更深的网络比浅层网络有更好的识别效率

Keras

1、Dense层
Dense就是常用的全连接层,第一层指定输入维度和输出维度,后面的层只需要指定输出维度。

2、Activation层
激活层对一个层的输出施加激活函数。一般用relu。
有 relu、tanh、sigmoid

sigmoid:未激活是0,激活是1。[0,1]。容易饱和,输出不是0均值的–收敛慢

tanh:[-1,1] 。梯度饱和–梯度为0

relu:f(x)=max(0,x)。
优点:收敛快,梯度不会饱和,计算简单
缺点:神经元坏死,x<0时梯度为0,该神经元就无效了。
学习率大–坏死;合适的较小的学习率–不会频繁坏死

LeakyReLU :
f(x)=αx,(x<0)
f(x)=x,(x>=0)
这里的 α 是一个很小的常数。这样,即修正了数据分布,又保留了一些负轴的值,使得负轴信息不会全部丢失。

PReLU:
对于 Leaky ReLU 中的α,通常都是通过先验知识人工赋值的。
然而可以观察到,损失函数对α的导数我们是可以求得的,可以将它作为一个参数进行训练。
带参数的ReLU,a是可调的,对a本身做SGD,不断更新a

3、Dropout层
Dropout将在训练过程中每次更新参数时按一定概率(rate)随机断开输入神经元,Dropout层用于防止过拟合。正则化。

4、优化器optimizers
SGD
默认:optimizer=’sgd’

  • lr:大或等于0的浮点数,学习率,步长,梯度的权重
  • momentum:大或等于0的浮点数,动量参数。加速收敛,跳出局部最小值。 v=\beta*v-a*dx 更新x<–x+v 。其中\beta
    即momentum系数,通俗的理解上面式子就是,如果上一次的momentum(即v)与这一次的负梯度方向是相同的,那这次下降的幅度就会加大,所以这样做能够达到加速收敛的过程。
  • decay:大或等于0的浮点数,每次更新后的学习率衰减值,lr会越来越小
  • nesterov:布尔值,确定是否使用Nesterov动量,梯度更新时做校正,避免前进太快,提高灵敏度。

Adam
默认:optimizer=’adam’

  • lr:大或等于0的浮点数,学习率
  • beta_1/beta_2:浮点数,
    0<\beta<1,通常很接近1。一阶矩估计/二阶矩估计,动态调整每个参数的学习率。每次迭代学习率都有范围,使参数比较平稳。善于处理稀疏梯度,非平稳目标,内存需求小。为不同参数计算不同的自适应学习率。适用于非凸优化,大数据集和高维空间
  • epsilon:大或等于0的小浮点数,防止除0错误,非常小的正浮点数

经验:

  • 对于稀疏数据,尽量使用学习率可自适应的优化方法,不用手动调节,而且最好采用默认值
  • SGD通常训练时间更长,但是在好的初始化和学习率调度方案的情况下,结果更可靠
  • 如果在意更快的收敛,并且需要训练较深较复杂的网络时,推荐使用学习率自适应的优化方法。
  • Adadelta,RMSprop,Adam是比较相近的算法,在相似的情况下表现差不多。
  • 在想使用带动量的RMSprop,或者Adam的地方,大多可以使用Nadam取得更好的效果

5、 损失函数loss
mean_squared_error或mse:均方差
mean_absolute_error或mae:绝对误差
mean_absolute_percentage_error或mape:平均绝对百分差
mean_squared_logarithmic_error或msle
binary_crossentropy(亦称作对数损失,logloss),逻辑回归,和sigmoid一起使用。
categorical_crossentropy:亦称作多类的对数损失,和softmax一起使用。
这里写图片描述

6、评价指标和训练
这里写图片描述

7、LSTM
这里写图片描述

2017-06-14 10:33:57 yang9649 阅读数 729
  • 如何自学人工智能

    当前自学人工智能的人员很多,但大多数同学在学习了不到半年之后就放弃了。如何能像美国那样先培养大量的人工智能企业的入门人才,在掌握了人工智能的必要知识之后再在工作中提高。就成为我国人工智能领域人才队伍建设必须首先解决的问题。 本门课程由CSDN 学院联合信息技术研究所研究员吴龙在全网独家推出、为大家详细讲解了人工智能的知识体系、系统架构、实现方式和学习方式,能够帮助大家通过自学在最短的时间内达到人工智能企业的入职要求。

    478 人正在学习 去看看 吴龙

转载https://www.leiphone.com/news/201611/cWf2B23wdy6XLa21.html


大神Yann LeCun亲授:如何自学深度学习技术并少走弯路本文作者:亚萌 2016-11-29 11:59导语:Yann LeCun是Quora上非常踊跃的答者。有人问:你最喜欢的机器学习算法是什么?,LeCun 的回答是Backdrop。大神Yann LeCun亲授:如何自学深度学习技术并少走弯路编者按:深度学习领域泰斗级人物 Yann LeCun 是 Quora上非常踊跃的答者,他乐于分享自己的心得体会。例如,有人问“你最喜欢的机器学习算法是什么?”,Yann LeCun 的回答是“Backdrop”。深度学习是新兴领域,很多人想要学习,也不知如何入手,所以 Quora上有很多关于“如何学习深度学习技术”的问题,Yann LeCun 在一些问题下面给出了一些自己的见解,雷锋网(公众号:雷锋网)据此整理编辑成本文,供读者参考。大神Yann LeCun亲授:如何自学深度学习技术并少走弯路问:自学机器学习技术,你有哪些建议?在网上有很多关于Machine Learning 的材料、教程和视频课程,包括 Coursera 上的一些大学课程。这里我主要讲讲深度学习领域。你可以在网上听一些指导性课程和演讲,对深度学习有一个大致的了解。里面我比较推荐的有:2015年5月《自然》上刊登的一篇概述性论文《深度学习》(Deep learning),由我自己、Yoshua Bengio 、Geoff Hinton共同撰写。(网址:http://www.nature.com/nature/journal/v521/n7553/abs/nature14539.html)系统性的课本方面,我推荐由 Goodfellow、Bengio 和 Courville共同撰写的《深度学习》(Deep learning)(这个在网上有HTML版本,本书旨在帮助学生和从业人员入门机器学习,尤其是深度学习领域。HTML版本已经编辑完成,并且永久免费。网址:http://www.deeplearningbook.org/)我曾在巴黎法兰西公学院开课,其中有8堂课是关于深度学习,当时是用法语讲课,现在加上了英文版本。法语版网址:Accueil 英语版网址:HomeCoursera 上面有 Geoff Hinton 关于神经网络的视频课程(不过从现在的角度看,内容稍微有点过时了)2012 年 IPAM 上针对研究生的“深度学习和特征学习夏季课程”(这个夏季课程的授课老师包括 Geoff Hinton 、Yann LeCun、吴恩达、Yoshua Bengio等众多深度学习专家,历时半个多月时间,网上有完整视频录像,网址:http://www.ipam.ucla.edu/programs/summer-schools/graduate-summer-school-deep-learning-feature-learning/?tab=schedule)2015 年我在纽约大学开了一门“深度学习”的课程,当时录成视频放到了网上,但是由于愚蠢的法律原因,视频现在已经不在了,但 PPT 还在。2017 年春天我会重新在纽约大学教这门课。网址:http://cilvr.nyu.edu/doku.php?id=deeplearning2015%3Aschedule)2015年在加拿大蒙特利尔市举行了“深度学习夏季课程”(该课程的对象为:已经具备的机器学习基本知识的研究生、业界工程师和研究人员,授课量十分丰富。网址:http://videolectures.net/deeplearning2015_montreal/)另外,我还推荐一些关于特定平台的使用教程,比如Torch、TensorFlow 和 Theano。问:如果一名本科生想要成为深度学习领域的研究型科学家,你有什么建议?首先,尽你所能,把所有具有连续性的数学和物理课都上一遍。如果必须要在“iOS 编程”和“量子力学”之间选一门,一定要选后者。在任何情况下,都要上微积分(I)、 微积分(II), 微积分(III)、线性代数、概率论和统计学,另外尽可能多的去听物理学的课程。同时,还是要确保学习编程。为什么物理学这么重要?因为物理学发明了很多数学方法,来给真实世界建模。比如,贝叶斯推理(BayesIan inference)在本质上与统计力学(Statistical Mechanics)是相同的,反向传播算法( Backpropagation)可以看作是经典力学里拉格朗日算符(Lagrangian)的一种简单应用。图模型里的前向算法( Forward Algorithm)是一种广泛应用于量子力学的路径积分(Path Integral)。物理,能够教你如何使用傅里叶变换(“海森伯不确定原理”的基石)、最大熵原理、配分函数、蒙特卡洛法、热处理、波尔兹曼分布、动力系统、混沌等等。选一个你感兴趣的与 AI 有关的问题。然后独立对这个问题进行思考。一旦你形成了自己的想法,就开始阅读围绕这个问题的相关文献。你将会发现(a)你之前的想法有点幼稚,但是(b)你对该问题的看法开始有点不一样了。在你就读的学校里,找到一个教授,他可以帮你把想法具体化。这或许有点困难,因为教授们都很忙,没有多少时间来指导本科生。有很多空余时间的教授往往很年轻,而那些年纪比较大的教授,又往往不再活跃在研究圈子里。如果你找到一个合适的教授,但他没有空余时间指导你,那么你可以转而去“勾搭”他/她实验室里的博士后或博士生。问问这个教授,是否可以让你去参加他/她实验室里的会议和研讨,或者只是在他们开会的时候旁听也行。在你本科毕业之前,尝试着写一篇关于你研究工作的论文,或者在网上公布一些开源代码。现在,你可以去申请 PhD 项目了。不要去管所谓的学校“排名”,一定要找你感兴趣领域里有声誉的教授,他论文你很喜欢或钦佩。你可以同时申请几个学校的 PhD 项目,当然选择的时候参考上条标准。在申请信里,你要提到你很希望跟这个教授一起工作,但是也愿意与其他教授一起。问一问你的本科教授,请他帮你写一封推荐信。如果你的本科教授与你所申请的 PhD 项目教授认识,那么将是非常有利的。如果你没有录取到自己心仪的 PhD 项目,可以到Facebook或谷歌工作,并且尝试去FAIR 或Google Brain 实验室做一个工程师,来协助实验室里科学家的工作。发表与公司实验室里课题有关的论文,然后重新申请 PhD 项目,并且让 FAIR 或 Google Brain 实验室里的科学家帮你写推荐信。问:在未来5-10年内,AI 将可能朝哪些方向发展?有很多人在致力于不同的领域,并取得了非常好的进展:深度学习与推理和规划相结合。基于模型的深度强化学习(涉及到无监管预测型学习)。经由可辨的记忆模块巩固加强的递归神经网络(例如,记忆网络):a. 记忆网络(FAIR)(网址:https://scholar.google.com/citations?view_op=view_citation&hl=en&user=lMkTx0EAAAAJ&sortby=pubdate&citation_for_view=lMkTx0EAAAAJ%3AumqufdRvDiIC)b. 堆栈增强的RNN(FAIR)(网址:https://scholar.google.com/citations?view_op=view_citation&hl=en&user=oBu8kMMAAAAJ&sortby=pubdate&citation_for_view=oBu8kMMAAAAJ%3AgKiMpY-AVTkC)c. 神经图录机(DeepMind)(网址:https://arxiv.org/abs/1410.5401)d. 端对端型MemNN (FAIR/NYU)(网址:https://scholar.google.com/citations?view_op=view_citation&hl=en&user=lMkTx0EAAAAJ&sortby=pubdate&citation_for_view=lMkTx0EAAAAJ%3AKbBQZpvPDL4C)经过对抗性训练得到的生成型(预测)模型。“微程序设计”:其核心思想----将程序(或电路)看作可通过Backdrop进行训练的微模块。这一思想表明深度学习不仅可以学会识别模型(如前馈神经网),而且可以生成算法(如循环算法,递归算法,子程序算法等)。从DeepMind、FAIR及其他资源中可获得一些相关方面的文章,但是,这些仅仅是初级阶段的成果。分层规划与分层强化学习:这是学习将一个复杂的任务拆分成一些简单的子任务的问题所在,是所有智能系统要满足的要求。对外界事物的无监管学习预测模型(例如,视频预测)。如果未来几年 AI 能在这些方向取得重大发展,那么将会涌现大量更为智慧的AI 智能体,应用于对话系统、问答、适应性的机器人控制与规划等领域 。构建出无监督学习方法,这是一大挑战。但这将允许大型神经网络在没有直接人工注释数据的情况下,通过看视频、阅读书本便能够“学习现实世界是如何运转的”。这将最终衍生出对现实世界有足够了解的机器,它们开始具有人类的“常识”。要实现这一目标,可能会花费5年、10年、20年,甚至更久的时间,我们尚不能确定具体的期限。

2018-07-25 16:23:00 weixin_34258078 阅读数 37
  • 如何自学人工智能

    当前自学人工智能的人员很多,但大多数同学在学习了不到半年之后就放弃了。如何能像美国那样先培养大量的人工智能企业的入门人才,在掌握了人工智能的必要知识之后再在工作中提高。就成为我国人工智能领域人才队伍建设必须首先解决的问题。 本门课程由CSDN 学院联合信息技术研究所研究员吴龙在全网独家推出、为大家详细讲解了人工智能的知识体系、系统架构、实现方式和学习方式,能够帮助大家通过自学在最短的时间内达到人工智能企业的入职要求。

    478 人正在学习 去看看 吴龙


img_56597e164dccd03d37344ca931e3ea53.png

前言

虽然我是一个IT从业者,也有十几年的时间了,但我对深度学习还是一无所知的!这里就将我在自学的过程中,整理收集的相关内容分享给大家,希望能让你们在学习深度学习的路上,少一点荆棘,多一点顺利。

概述

    5分钟搞懂什么是深度学习

    为什么要用深度学习?

    深度学习如何入门?

    神经网络入门

    深度学习入门必须理解这25个概念

    标量、向量、矩阵和张量

    人工智能的三个分支:认知、机器学习、深度学习


深度学习框架


    MXNet

img_6c7fef745264038490d2529eefa85189.png

        MXNet简介

        安装MXNet

2018-09-26 09:01:39 Apple_hzc 阅读数 157
  • 如何自学人工智能

    当前自学人工智能的人员很多,但大多数同学在学习了不到半年之后就放弃了。如何能像美国那样先培养大量的人工智能企业的入门人才,在掌握了人工智能的必要知识之后再在工作中提高。就成为我国人工智能领域人才队伍建设必须首先解决的问题。 本门课程由CSDN 学院联合信息技术研究所研究员吴龙在全网独家推出、为大家详细讲解了人工智能的知识体系、系统架构、实现方式和学习方式,能够帮助大家通过自学在最短的时间内达到人工智能企业的入职要求。

    478 人正在学习 去看看 吴龙

一、前言

导师让我自学深度学习,以后项目上用得着,发现了这篇文章,特此转载,以供今后的学习。

在这放上原作者写的前言:

下面给出深度学习入门每一部分的主题和详细链接。


二、深度学习入门篇

第一部分:感知机部分

零基础入门深度学习-感知机

第二部分:线性单元和梯度下降

零基础入门深度学习-线性单元和梯度下降

第三部分:神经网络和反向传播算法

零基础入门深度学习-神经网络和反向传播算法

第四部分:卷积神经网络

零基础入门深度学习-卷积神经网络

第五部分:循环神经网络

零基础入门深度学习-循环神经网络

第六部分:长短时记忆网络(LSTM)

零基础入门深度学习-长短时记忆网络(LSTM)

第七部分:递归神经网络

零基础入门深度学习-递归神经网络


相信看完这几篇文章,对深度学习有一个基本的了解,如果有兴趣的推荐网易云课堂上吴恩达关于机器学习和深度学习的相关课程,讲得特别清晰易懂,也推荐一本书《神经网络与深度学习》,相信学习完这些后,应该可以通过深度学习工具去做一些事情了。

深度学习的自学学习流程总结

博文 来自: hyliu006006
没有更多推荐了,返回首页