热门好课推荐
猜你喜欢
相关培训 相关博客
  • 关注微信公众号”阿甘琐记“,后台回复”优达深度学习“,即可免费领取优达深度学习课程。下面有公众号二维码。优达深度学习之计算机视觉课程,官网报名价格6899,现在免费分享,关注微信公众号”阿甘琐记“,后台回复”优达深度学习“,即可免费领取优达深度学习课程。课程目录如下:关注微信公众号”阿甘琐记“,后台回复”优达深度学习“,即可免费领取优达深度学习课程。...
    2019-04-07 14:32:51
    阅读量:87
    评论:0
  • 课程目录│├─1神经网络│1.欢迎.zip│2.Anaconda.zip│3.JupyterNoteBooks.zip│4.应用深度学习.zip│5.回归模型.zip│6.Siraj的神经网络.zip│7.矩阵数学和Numpy复习.zip│8.神经网络回顾.zip│...
    2019-03-14 12:34:31
    阅读量:564
    评论:5
  • 关注微信公众号”阿甘琐记“,后台回复”优达数据分析“,即可免费领取优达数据分析学习课程。下面有公众号二维码。优达深度学习之数据分析课程,官网报名价格6899,现在免费分享,关注微信公众号”阿甘琐记“,后台回复”优达数据分析“,即可免费领取优达深度学习课程。课程目录如下:关注微信公众号”阿甘琐记“,后台回复”优达数据分析“,即可免费领取优达数据分析学习课程。...
    2019-04-07 14:46:35
    阅读量:345
    评论:0
  • 这几天刚好有环境,打算学习一下深度学习看了一圈介绍,发现优达学城的深度学习课程作为入门课程还是不错的今天看了第一章节的视频,顺便做了任务1任务1难度不大,按照网站上的说明可以完成下载、打包等工作Problem6没有给代码,下面是我的代码,供大家参考importnumpyasnpimportpicklefromsklearn.linear_modelimportLo
    2016-12-20 22:02:43
    阅读量:6555
    评论:2
  • 优达学城-深度学习笔记(一)标签:机器学习优达学城-深度学习笔记一一神经网络简介最大似然概率交叉熵Crossentropy1交叉熵代码实现2多类别交叉熵对数几率回归的误差函数costfunction梯度下降代码神经网络2反向传播二梯度下降的神经网络梯度下降代码实现反向传播示例反向传播代码实现三训练神经网络正则化dropoutKeras中的其他激活函数K
    2018-02-09 17:07:50
    阅读量:1818
    评论:0
  • 不得不说优达学城的课程作为入门还真是不错,打算明年买一个纳米课程试一下。说明任务2可以说是真正开始进入深度学习的领域还是用任务1处理好的数据集任务分为3个阶段梯度下降算法(线性分类器)批随机梯度下降算法(线性分类器)一层隐藏层数据集使用noMNIST数据集基于机器性能及运行时间的考量训练集大小:30000,测试集大小:10000注意点该代码要求tensorflow>=0.
    2016-12-21 16:39:50
    阅读量:5091
    评论:2
  • 在2018年1月24号开始了我在优达的机器学习之旅,我在2018年6月4号的时候提前一月半月完成了课程要求,完成了毕业,总共用时不到5个月的时间,平均每天学习在1-2个小时之间。课程特点从总体来说,优达的课程体验还是很棒的。之前学习过其他网站在线课程,有以下几点区别:优达的每个视频都很简洁,不讲废话,用最短的时间把知识点讲清楚,每次一个知识点,然后很多视频后面跟随着配套的测验和练习,...
    2018-07-17 20:15:57
    阅读量:8455
    评论:5
  • 课程目录│  ├─1神经网络│    1.欢迎.zip│    2.Anaconda.zip│    3.JupyterNoteBooks.zip│    4.应用深度学习.zip│    5.回归模型.zip│    6.Siraj的神经网络.zip│    7.矩阵数学和Numpy复习.zip│    8.神经网络回顾.zip│  ...
    2019-02-19 12:10:50
    阅读量:77
    评论:0
  • 前言:Udacity上有一个免费的《深度学习》单项课程。虽然是免费的课程,但保持了Udacity一贯的水准。其课程主要是神经网络的实际应用。因此,该课程能较好的提升实际项目水平。但是,如果需要提升理论水平,则可以同步学习Coursera上hinton的《机器学习》课程,里面有很深入和系统的讲解了深度学习的所有基础理论。该课程的入门作业是notMnist字符的分类。
    2017-01-22 20:44:33
    阅读量:6091
    评论:3