精华内容
下载资源
问答
  • 吴恩达机器学习笔记

    2019-02-16 20:47:09
    吴恩达机器学习笔记
  • 这个主要是对吴恩达机器学习的翻译,网上下载的太贵了,大家好好利用资源。
  • 吴恩达机器学习笔记pdf格式,共分10周学习课程,可以通过视频资源对照学习。 吴恩达机器学习笔记pdf格式,共分10周学习课程,可以通过视频资源对照学习。
  • 吴恩达机器学习笔记,机器学习训练,可以参考一下算法原理
  • AndrewNg 吴恩达机器学习笔记,整理比较完善,章节很全。
  • 吴恩达机器学习笔记、PPT、源代码合集,史上最全,最实惠
  • 吴恩达机器学习笔记缘由解决办法 缘由 学习机器学习,吴恩达的课程绝对是绕不开的,几乎已经等同于必修课。但是之前在看视频的时候,毕竟英语也就听懂个两三成,大部分还是要靠字幕,他讲话速度又快,我还得看字幕。...

    吴恩达机器学习笔记

    缘由

    学习机器学习,吴恩达的课程绝对是绕不开的,几乎已经等同于必修课。但是之前在看视频的时候,毕竟英语也就听懂个两三成,大部分还是要靠字幕,他讲话速度又快,我还得看字幕。导致我的确能看清他在说什么,但是有时候并不是很能理解他具体要表达的意思,或者当时明白了,但是后边他在提及的时候我又想不起来,但是要找视频讲解的那一段,需要花费较长的时间,毕竟看得久了具体是哪个视频,第几分钟肯定记不得了。当遇到问题时,需要反复去重复听、看同一段视频,这样略显枯燥无味。最重要的是,容易走神!

    解决办法

    有大佬整理了吴恩达视频课程的文字版讲解我觉得比较细致,插图啥的也都有,因此推荐啦~~~~
    http://www.ai-start.com/ml2014/
    上边这是文字版的笔记整理,超细致~~~
    最后,如果你还是想看视频,我还是贴心的放了b站链接~~~~
    https://www.bilibili.com/video/av9912938/?p=6

    http://www.ai-start.com/ 最后这个是黄海广博士的网站,有吴恩达的机器学习 也有深度学习的

    展开全文
  • 麻烦改为1积分谢谢,吴恩达机器学习笔记完整版v4.21,比较全面的整理的吴恩达的机器学习公开课笔记
  • 此为百度网盘下载链接,永久有效,内含吴恩达机器学习笔记被容,笔记内容更新到2020年4月份,添加了一些数学知识。此文件夹中含有完整笔记的Word版,PDF打印版,机器学习训练秘籍,深度学习笔记Word版等。
  • 吴恩达机器学习视频配套笔记,大家可以在B站上搜索视频进行学习
  • 吴恩达机器学习笔记和原始讲义,包含机器学习十大算法的具体推导过程,数学难度颇高
  • 吴恩达 机器学习笔记

    2020-02-12 23:19:05
    1.1监督学习:Dataset 有label ,CNN。 回归:预测连续值的输出 分类:预测离散类型的输出 SVM:提取多特征进行分类 1.2有监督学习:聚类算法,DataSET 无label 1.3 最小化问题 m:训练集number x:input 变量/特征 y:...

    一.监督与无监督
    1.1监督学习:Dataset 有label ,CNN。
    回归:预测连续值的输出
    分类:预测离散类型的输出
    SVM:提取多特征进行分类
    1.2有监督学习:聚类算法,DataSET 无label
    1.3 最小化问题
    m:训练集number
    x:input 变量/特征
    y:output 变量/目标变量
    h:预测函数
    (x(i),y(i)):第i个训练样本 i:index
    单变量线性回归:
    Min:求出θ0,θ1
    平均误差代价函数:J(θ0,θ1 )=,,,求minimize J(θ0,θ1 )

    展开全文
  • 斯坦福大学吴恩达机器学习笔记
  • 吴恩达机器学习笔记(十六)大规模机器学习

    吴恩达机器学习笔记(十六)大规模机器学习

    展开全文
  • 吴恩达机器学习笔记(九)应用机器学习的建议

    一、决定下一步做什么

    当发现一个机器学习模型的测试效果不太好时,下一步该做什么呢?
    你可能会想到很多种改善方法:

    1. 使用更多的训练样本
    2. 减少特征数量
    3. 增加特征数量
    4. 增加多项式特征
    5. 增大正则化项的参数 λ \lambda λ
    6. 减小正则化参数 λ \lambda λ

    那么选择哪一种呢?
    对模型进行评估、诊断和改善,将是我们这一章介绍的内容。评估和诊断可能还会花费你大量的时间,但这些都是值得的。

    二、评估假设(Evaluatong a hypothesis)

    通常将数据集分为两部分,70%作为训练集,30%作为测试集。

    线性回归的评估方法:(预测值与标准值之间的均方误差)

    分类问题的评估方法:(预测分类与实际分类是否一致的0/1判定)

    三、模型的选择、训练、验证(Model Selection and Training/Validation/Test Sets)

    如果我有10个可选的模型,不知道哪个是最优的。你可能会将10个模型分别在测试集上应用,分别求出在测试集的代价函数,选择表现最好的认为是最优模型。

    这样会导致一个问题:模型选择是依据在测试集上的表现,那么选出的模型可能只是针对该指定测试集表现良好而已。如果在其他数据集上进行测试,可能泛化效果并不理想。

    因此,我们通常将数据集分成3份:训练集、交叉验证集、测试集。将10个模型分别在交叉验证集上运行,选择出最优的模型。将最优模型在测试集上运行,来评估模型的泛化误差。

    训练集、交叉验证集、测试集的误差计算公式如下:
    (公式相同,只是数据集不同)

    流程:

    四、诊断偏差与方差(Diagnosing Bias and Variance)

    高偏差:欠拟合
    高方差:过拟合

    如下图,随着多项式次数的升高,训练集上的误差逐渐变小,而交叉验证集上的误差先减小再增大。这是由于,次数过高时出现过拟合现象,导致在训练集上表现的非常好,但在交叉验证集上的表现就很差。

    怎么判断是高偏差还是高方差呢?
    高偏差(欠拟合):训练集和交叉验证集上的误差都很大。
    高方差(过拟合):训练集上的误差很小,交叉验证集上的误差很大。

    五、正则化和偏差、方差(Regularization and Bias/Variance)

    正则化项 λ \lambda λ太大时,欠拟合。 λ \lambda λ太小时,过拟合。选取合适的 λ \lambda λ值很重要。

    在下述过程中, J ( θ ) J(\theta) J(θ)是加入了正则化项的代价函数(用于训练模型),而 J t r a i n ( θ ) J_{train}(\theta) Jtrain(θ)是均方误差,不含正则化项(用于评估模型)。

    设定12个不同的 λ \lambda λ值,得到12个模型,通过交叉验证集选出一个最优的,再放到测试集上进行测试。

    随着 λ \lambda λ的增加,训练集上的误差和交叉验证集上的误差的变化趋势如下图。训练集的误差逐渐增加,这是因为 λ \lambda λ太大时,欠拟合; λ \lambda λ太小时,过拟合。而交叉验证集上的误差是先减小再增大。

    六、学习曲线(Learning Curves)

    绘制学习曲线:随着样本数m的增加,训练集误差与交叉验证集误差的变化趋势,

    高偏差(欠拟合):随着样本数m的增加,训练集误差逐渐增加,交叉验证集误差逐渐减小,但是最后趋于同一条直线,两者的误差都很大。此时,增大样本数对模型的提升不大。

    高方差(过拟合):随着样本数m的增加,训练集误差逐渐增加,但始终保持一个在值很小的范围。交叉验证集误差逐渐减小,但始终大于训练集误差。当样本数很大很大很大时,二者误差也可以达到接近。对于高方差问题来说,增加样本数,可以提升模型的效果。

    七、决定接下来做什么(Deciding What to Try Next)

    回到我们最开始提到的问题,当一个模型的效果不好时,我们有很多种改善方案,那么选择哪一种呢?

    1. 使用更多的训练样本(适用于高方差)
    2. 减少特征数量(适用于高方差)
    3. 增加特征数量(适用于高偏差)
    4. 增加多项式特征(适用于高偏差)
    5. 增大正则化项的参数 λ \lambda λ(适用于高偏差)
    6. 减小正则化参数 λ \lambda λ(适用于高方差)

    规模较小的神经网络容易出现欠拟合问题。规模较大的神经网络容易出现过拟合问题,但这个过拟合问题可以通过引入正则化项来改善。因此,在实际应用中,忽略计算量太大的因素,规模较大的神经网络的效果更好一些。

    如果不知道设计几个隐藏层,那么可以分别设计一个、两个、多个隐藏层,然后通过交叉验证集来选出最合适的隐藏层层数。

    展开全文

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 9,040
精华内容 3,616
关键字:

吴恩达机器学习笔记