2016-08-26 14:28:00 dengjiaorong6093 阅读数 1
  • 5天搞定深度学习入门系列

    我们这门课程是面向0基础学员,从上世纪60年代基础的的单层感知器开始学习,从基础的知识开始,进行体系化的学习。 课程会包含神经网络领域大多数重要分支,并通过这些分支延伸到如今热门的的深度置信网络DBN,卷积神经网络CNN,深度残差网络RES和长短时记忆网络LSTM。 帮助大家从人工智能神经网络的新手变成高手。

    23594 人正在学习 去看看 覃秉丰

http://www.slideshare.net/tw_dsconf/ss-62245351?qid=c0f0f97a-6ca8-4df0-97e2-984452215ee7&v=&b=&from_search=1

台湾的一个大学的关于深度学习的入门资料

转载于:https://www.cnblogs.com/ioio/p/5810232.html

2017-07-27 17:53:59 t5131828 阅读数 231
  • 5天搞定深度学习入门系列

    我们这门课程是面向0基础学员,从上世纪60年代基础的的单层感知器开始学习,从基础的知识开始,进行体系化的学习。 课程会包含神经网络领域大多数重要分支,并通过这些分支延伸到如今热门的的深度置信网络DBN,卷积神经网络CNN,深度残差网络RES和长短时记忆网络LSTM。 帮助大家从人工智能神经网络的新手变成高手。

    23594 人正在学习 去看看 覃秉丰
5天搞定深度学习进阶系列教程—2222人已学习
课程介绍    
201707271603252071.jpg
     这门课程是“深度学习入门系列培训教程”的后续内容,深度学习进阶系列培训课程概况: 在深度学习入门系列的课程中,我们基本掌握了一些基础知识,在这门课程中我们将进一步学习深度学习原理、核心内容。包括深度置信网络DBN学习,卷积神经网络CNN入门到精通,深度残差网络RES和长短时记忆网络LSTM的构建以及使用。 后一部分我们也会稍微讲解一些人工智能前沿的发展强化学习RL,迁移学习TL和生成式对抗网络GAN。
课程收益
    理解并学会深度学习中最热门最核心的深层网络。
讲师介绍
    覃秉丰更多讲师课程
    机器学习,深度学习神经网络领域多年开发研究经验,精通算法原理与编程实践。曾完成过多项图像识别,目标识别,语音识别的实际项目,经验丰富。关注深度学习领域各种开源项目,如TensorFlow,Caffe,Torch等。喜欢理论与实践相结合的教学风格,课程编排由浅入深,体系清晰完整。
课程大纲
  第1章:深度置信网络DBN-DNN
    1.课程介绍,推荐系统算法介绍  18:36
    2.受限玻尔兹曼机在推荐系统中的应用  19:28
    3.深度置信网络DBN-DNN  19:08
  第2章:卷积神经网络CNN
    1.卷积神经网络CNN  20:00
    2.手写体识别网络LeNET-5结构分析  28:58
    3.ImageNet介绍  8:33
    4.ILSVRC12图像识别比赛冠军AlexNet  38:57
    5.GPU及TPU介绍  9:04
  第3章:152层深度残差网络RES
    1.深度残差网络RES(论文讲解)  43:07
    2.批量正则化Batch Normalization  21:03
    3.深度残差网络进一步研究(论文讲解)  14:00
  第4章:长短时记忆网络LSTM
    1.递归神经网络RNN  11:03
    2.长短时记忆网络LSTM  19:14
  第5章:人工智能前沿方向
    1.强化学习RL  17:37
    2.迁移学习TL  8:35
    3.生成式对抗网络GAN  13:07
大家可以点击【查看详情】查看我的课程
2017-07-27 17:54:10 t5131828 阅读数 285
  • 5天搞定深度学习入门系列

    我们这门课程是面向0基础学员,从上世纪60年代基础的的单层感知器开始学习,从基础的知识开始,进行体系化的学习。 课程会包含神经网络领域大多数重要分支,并通过这些分支延伸到如今热门的的深度置信网络DBN,卷积神经网络CNN,深度残差网络RES和长短时记忆网络LSTM。 帮助大家从人工智能神经网络的新手变成高手。

    23594 人正在学习 去看看 覃秉丰
5天搞定深度学习框架-Caffe入门系列—8916人已学习
课程介绍    
201707271617237144.jpg
    本课程是在windows环境下的caffe课程,主要使用的是python的接口。 首先带着大家完成一个MNIST手写数字识别的项目,让大家了解caffe训练模型的大致流程。然后会讲到caffe中的一些重要文件和配置,使用python绘图。后的部分会使用GoogleNet实现图像识别。
课程收益
    了解caffe基本框架,以及文件配置。学会绘制网络结构图,特征平面图,loss曲线图和accuracy曲线图。学会使用caffe训练模型的完整流程,并学会训练自己的模型。
讲师介绍
    覃秉丰更多讲师课程
    机器学习,深度学习神经网络领域多年开发研究经验,精通算法原理与编程实践。曾完成过多项图像识别,目标识别,语音识别的实际项目,经验丰富。关注深度学习领域各种开源项目,如TensorFlow,Caffe,Torch等。喜欢理论与实践相结合的教学风格,课程编排由浅入深,体系清晰完整。
课程大纲
    1.Caffe介绍  12:18
    2.Caffe在windows下的安装编译  8:25
    3.Caffe快速上手-mnist数据集分类(一)  20:27
    4.Caffe快速上手-mnist数据集分类(二)  20:26
    5.Caffe文件详解  44:17
    6.各种优化器的介绍  25:30
    7.Caffe的python接口安装,以及模型可视化  28:33
    8.Caffe特征图可视化以及学习曲线可视化  45:14
    9.GoogleNet结构讲解,准备用GoogleNet实现图像识别  28:59
    10.使用python接口调用GoogleNet实现图像识别  16:38
    11.Caffe在windows下GPU版本的安装  14:53
    12.使用自己设计的网络训练自己的图像识别模型(一)  26:08
    13.使用自己设计的网络训练自己的图像识别模型(二)  39:16
    14.迁移学习-Finetune  27:51
    15.Snapshot以及课程总结  8:27
大家可以点击【查看详情】查看我的课程
2018-04-06 07:53:25 xundh 阅读数 1301
  • 5天搞定深度学习入门系列

    我们这门课程是面向0基础学员,从上世纪60年代基础的的单层感知器开始学习,从基础的知识开始,进行体系化的学习。 课程会包含神经网络领域大多数重要分支,并通过这些分支延伸到如今热门的的深度置信网络DBN,卷积神经网络CNN,深度残差网络RES和长短时记忆网络LSTM。 帮助大家从人工智能神经网络的新手变成高手。

    23594 人正在学习 去看看 覃秉丰

本文学习资源主要来自《5天搞定深度学习入门系列(免费)》腾讯课堂。

概念

感知器(Perceptron)是神经网络中的一个概念,在1958年由Frank Rosenblatt第一次引入。
单层感知器可以用来区分线性可分的数据,并且一定可以在有限的迭代次数中收敛。
感知器的学习规则规定,学习信号等于神经元期望输出(教师信号)与实际输出之差(r表示误差):

r=djoj

式中,dj为期望的输出,oj=f(WjTX)。感知器采用了符号函数作为转移函数,表达式为:
f(WjTX)=sgn(WjTX)={1,WjTX00,WjT<0

W代表矩阵, w代表一个值。
因此,权值调整公式为:
ΔWj=η[djsgn(WjTX)]X

Δwij=η[djsgn(WjTX)]xii=0,1,...,n

  • η表示学习率,(0<η1
  • 两次迭代之间的权值变化已经很小
  • 设定最大迭代次数,当迭代超过最大次数就停止。

式中,当实际输出与期望值相同时 , 权重不需要调整。在有误差存在的情况下,由于djsgn(WjTX)1,1,权值调整公式可简化为:

ΔWj=±2ηX

感知器学习规则只适用于二进制神经元,初始权值可取任意值。
感知器学习规则代表一种有监督学习。由于感知器理论是研究其它神经网络的基础,该规则对于神经网络的有监督学习具有极为重要的意义。
人体神经网络
这里写图片描述

单层感知器 模拟人体神经网络:
单层感知器(Single Layer Perceptron)是最简单的神经网络。它包含输入层和输出层,而输入层和输出层是直接相连的。
这里写图片描述

单层感知器示例:
这里写图片描述

把偏置当做特殊可能权值:
这里写图片描述
这时把x0固定为1,取消权值,以减化运算。

2018-08-10 12:21:13 iamsrc 阅读数 1877
  • 5天搞定深度学习入门系列

    我们这门课程是面向0基础学员,从上世纪60年代基础的的单层感知器开始学习,从基础的知识开始,进行体系化的学习。 课程会包含神经网络领域大多数重要分支,并通过这些分支延伸到如今热门的的深度置信网络DBN,卷积神经网络CNN,深度残差网络RES和长短时记忆网络LSTM。 帮助大家从人工智能神经网络的新手变成高手。

    23594 人正在学习 去看看 覃秉丰

这是github一个开源项目,作者是Avik Jain,内容是从机器学习的基础概念起步,逐层递进,很适合初学者。截至到现在,已经有近6000的star。我不自量力的翻译一下。本人英语很渣,借助了翻译工具,但还是不能很好的切合文意。写博客仅仅是为了记录自己的学习历程,翻译不到位的话还请多多见谅,不足之处请指出,不喜勿喷。

这里附上原项目地址:https://github.com/Avik-Jain/100-Days-Of-ML-Code,这里可以下载到项目所需数据集。

如有侵权请告知,我将第一时间删除。

转发请注明出处

第一天 数据处理

这里是作者给的知识图谱,下面给出的基本是直译,有很多专业词汇翻译不到位,知识所限。

Step 1 : importing the required libraries

第一步:导入必须的包

these two are essential libraries which we will import every time.

我们每次都要导入这两个库     //这里是指NumPyh和Pandas

Numpy is a libray which contains Mathematical function

Numpy库包含了数学处理函数

pandas is the library used to import and manage the data sets

pandas 是用来导入和管理数据集的库

step 2 :importing the data set

第二步:导入数据集

data sets are generally available in .csv format

数据集通常以.csv的格式提供

a CSV file stores tabular data in plaintext

csv 文件以明文存储表格数据

each line of the file is a data record

文件的每一行都是一个数据记录

we use the read_csv method of the pandas library to read a local csv file as a dataframe

我们使用pandas库的read_csv方法读取本地CSV文件作为数据文件

then we make separate Matrix and Vector of independent and dependent variables from the dataframe

然后从数据文件中分别生成自变量和因变量的矩阵和向量

step3 :handing the missing data

第三步: 处理丢失数据

the data we get is rarely homogeneous

我们得到的数据很少是完整的

data can be missing due to various reasons and needs to be handled so that it does not reduce the performance of our machine learning model

由于各种原因,数据可能会丢失,需要进行处理,从而不会降低我们的机器学习模型的性能。

We can replace the missing data by the Median of the entire column

我们可以用整列的中值代替缺失数据

we use imputer class of sklearn.preprocessing for this taske

我们用 sklearn.preprocessing 下的inputer 类来完成这个任务

step 4:encoding categorical data

第四步:编码分类的数据

categorical data are variables that contain lable values rather than numeric values.

分类数据包含标签值的变量而不是数值

the number of possible values is often limited to a fixed set.

可能值的数目通常限于固定集。

Example values such as “yes” and “No” cannot be used in mathematical equations of the model so we need to encode these variables into numbers

诸如“是”和“否”等示例值不能用于模型的数学方程,所以我们需要将这些变量编码成数字。

To achieve this we import LableEncoder class from sklearn.preprocessing library.

为了实现这一点,我们从sklearn.preprocessing库导入LableEncoder 类。

Step 5:splotting the dataset into test set and training set

第五步:把数据集分为测试集和训练集

we make two partitions of dataset one for training the model called training set and other for testing the performance of the trained model called test set

我们把数据集分为两部分,一部分用于训练模型,被成为训练集,另一部分用于 检测模型的表现,被称为测试集。

the split is generally 80/20

经常以8:2划分

we importing train_test_split() method of sklearn.crossvalidation library

我们导入 sklearn.crossvalidation库的train_test_split()方法。

Step 6 :feature scaling

第六步:特征缩放

most of machine learning algorithms use the Euclidean distance between two data points in their computations,features highly varying in magnitudes, units and range pose problems.

大多数机器学习算法在计算中使用两个数据点之间的欧氏距离,特征在幅度、单位和范围上很大的变化,这引起了问题。

High magnitudes features will weigh more in the distance calculations than features with low magnitudes.

高数值特征在距离计算中的权重将大于低数值特征。

Done by feature standardization or Z-score normalization

通过特征标准化或Z分数归一化来完成

StandardScalar of sklearn.preprocessing is imported

导入sklearn.preprocessing 库中的StandardScala 

代码如下

Step 1: Importing the libraries 导入库

import numpy as np
import pandas as pd

Step 2: Importing dataset 导入数据集

dataset = pd.read_csv('Data.csv')
X = dataset.iloc[ : , :-1].values
Y = dataset.iloc[ : , 3].values

Step 3: Handling the missing data 处理丢失数据

from sklearn.preprocessing import Imputer
imputer = Imputer(missing_values = "NaN", strategy = "mean", axis = 0)
imputer = imputer.fit(X[ : , 1:3])
X[ : , 1:3] = imputer.transform(X[ : , 1:3])

Step 4: Encoding categorical data 编码分类的数据

from sklearn.preprocessing import LabelEncoder, OneHotEncoder
labelencoder_X = LabelEncoder()
X[ : , 0] = labelencoder_X.fit_transform(X[ : , 0])

Creating a dummy variable 穿件中间变量

onehotencoder = OneHotEncoder(categorical_features = [0])
X = onehotencoder.fit_transform(X).toarray()
labelencoder_Y = LabelEncoder()
Y =  labelencoder_Y.fit_transform(Y)

Step 5: Splitting the datasets into training sets and Test sets

数据集分割为训练集和测试集

from sklearn.cross_validation import train_test_split
X_train, X_test, Y_train, Y_test = train_test_split( X , Y , test_size = 0.2, random_state = 0)

Step 6: Feature Scaling 特征缩放

from sklearn.preprocessing import StandardScaler
sc_X = StandardScaler()
X_train = sc_X.fit_transform(X_train)
X_test = sc_X.fit_transform(X_test)

杂谈:

NumPy的介绍:https://baike.baidu.com/item/numpy/5678437?fr=aladdin

Pandas的介绍:https://baike.baidu.com/item/pandas/17209606

sklearn是机器学习中一个常用的python第三方模块,网址:http://scikit-learn.org/stable/index.html ,里面对一些常用的机器学习方法进行了封装,在进行机器学习任务时,并不需要每个人都实现所有的算法,只需要简单的调用sklearn里的模块就可以实现大多数机器学习任务。

如果你是新手,可以去廖雪峰老师的学习网站学习Python,在这里学习李宏毅教授的机器学习课程。

 

 

没有更多推荐了,返回首页