热门好课推荐
猜你喜欢
相关培训 相关博客
  • 【1】两本书:tom-machinelearning  非常经典的机器书   deeplearning 只讲深度学习【2】普通编程的模型是自己定义的,而机器学习产生的模型是根据数据学得的。【3】有监督:y=f(x)。无监督:发现有趣结构。增强学习:介于两者之间(没有标记,只给了奖励或惩罚)【4】参数模型:直接假设数据满足某种分布。非参数模型:不好算    ????之后要根据实例...
    2018-02-26 21:43:19
    阅读量:182
    评论:0
  • 深度学习应用开发-TensorFlow实践https://www.icourse163.org/course/ZUCC-1206146808人工智能实践:Tensorflow笔记https://www.icourse163.org/course/PKU-1002536002https://minghuiwu.gitbook.io/tfbook/官网文档https://tensorflo...
    2019-07-19 16:03:12
    阅读量:6
    评论:0
  • 求最小值,为什么不直接用多元函数极值计算法呢?而要用偏导数不停迭代呢?
    2013-10-15 00:14:03
    阅读量:392
    评论:0
  • 目录一 欢迎来到机器学习 监督学习 无监督学习 一元线性回归 参数学习-梯度下降算法 线性代数复习 二 编程环境设置-Octave:MATLAB 多元线性回归分析 参数的计算分析 Octave/Matlab使用说明 三 分类和表达式 分类 假设函数表达式 决策边界 Logistic回归模型 逻辑回归的代价函数 ...
    2019-02-17 17:23:48
    阅读量:31
    评论:0
  • 斯坦福机器学习公开课http://open.163.com/special/opencourse/machinelearning.html一文读懂机器学习,大数据/自然语言处理/算法全有了……http://www.open-open.com/lib/view/open1420615208000.html...
    2019-02-22 09:56:36
    阅读量:58
    评论:0
  • 天池大数据竞赛历次资料集锦(持续更新中)金陵书生厚积薄发​关注他140人赞了该文章作为天池老选手,一直想着要把收集的天池平台上举办的历次大数据竞赛的决赛答辩资料以及开源的代码等收集起来作为集锦,贡献给各位大数据竞赛特别是天池平台的选手和爱好者。怎奈一直琐事烦身,未能及时整理出来。今天又有选手问我之前比赛的资料,遂决定先开一个头,能先整理多少就先公开多少,一方面督促自己尽快完成此事,另一方面也可以...
    2018-10-08 10:26:33
    阅读量:572
    评论:0
  • 机器学习课程地址:https://www.coursera.org/course/ml笔记地址:http://www.ai-start.com/ml2014/深度学习课程地址:https://mooc.study.163.com/university/deeplearning_ai#/c笔记地址:http://www.ai-start.com/dl2017/...
    2018-07-14 11:12:23
    阅读量:88
    评论:0
  • 课程信息Machinelearningisthescienceofgettingcomputerstoactwithoutbeingexplicitlyprogrammed,Inthepastdecade,machinelearninghasgivenusself-drivingcars,practicalspeechrecognition,e
    2016-01-11 09:34:25
    阅读量:324
    评论:0
  • 1、斯坦福大学公开课:机器学习课程网址:http://open.163.com/special/opencourse/machinelearning.html  2、谷歌机器学习速成课程网址:https://developers.google.cn/machine-learning/crash-course/prereqs-and-prework网址:https://de...
    2018-08-06 16:55:47
    阅读量:144
    评论:0
  • 本文讲了有监督学习中的线性回归,梯度下降和正规方程。梯度下降还包括了批梯度下降和随机梯度下降。
    2017-02-24 16:46:16
    阅读量:450
    评论:0