热门好课推荐
猜你喜欢
相关培训 相关博客
  • 8 月 8 日,——基于 Coursera 的系列深度学习课程,希望将人工智能时代的基础知识传播到更多人身边。一周过去后,许多人已经学完了目前开放的前三门课程。这些新课适合哪些人,它是否能和经典的《机器学习》课程相比呢?让我们先看看这篇先行体验。在全职工作与家庭琐事之间,很多人都希望利用自己的剩余时间学习认知科学和人工智能的知识,如果突然出现了一套优秀的课程,那么一切就会变得简单起来。吴恩达最近推...
    2018-02-17 21:00:15
    阅读量:1392
    评论:0
  • 本节内容对应吴恩达deeplearning.ai课程中,第一部分第一周的内容。学习过程中的一些笔记与心得与大家分享!原始课程请访问https://www.deeplearning.ai/来了解更多。 Welcome欢迎大家来到深度学习课堂!很多人可能已经发现深度学习已经开始影响了互联网的很多行业,例如网页搜索或是在线广告等。同时,合理利用
    2017-08-20 21:49:18
    阅读量:7880
    评论:2
  • 本系列主要是我对吴恩达的deeplearning.ai课程的理解和记录,完整的课程笔记已经有很多了,因此只记录我认为重要的东西和自己的一些理解。第一门课神经网络和深度学习(NeuralNetworksandDeepLearning)第一周:深度学习引言(IntroductiontoDeepLearning)1、常用神经网络的结构与对应的数据类型数据类...
    2018-11-11 23:07:00
    阅读量:0
    评论:0
  • 截止到2017年10月25日,吴恩达在Coursera上目前有3门新的深度学习课程:1.神经网络和深度学习(Neural Networks and Deep Learning)2.改善深度神经网络:调优超参数,正则化和优化(Improving Deep Neural Networks: Hyperparamater tuning, Regulari...
    2017-10-31 14:31:24
    阅读量:1
    评论:0
  • 第四周:深层神经网络(DeepNeuralNetworks)1、深层神经网络(DeepL-layerneuralnetwork)在打算使用深层神经网络之前,先去尝试逻辑回归,尝试一层然后两层隐含层,把隐含层的数量看做是另一个可以自由选择大小的超参数,然后再保留交叉验证数据上评估,或者用你的开发集来评估。2、前向传播和反向传播(Forwardandba...
    2018-12-16 22:53:00
    阅读量:1
    评论:0
  • 第三周:浅层神经网络(Shallowneuralnetworks)1、激活函数(Activationfunctions)sigmoid函数和tanh函数两者共同的缺点是,在z特别大或者特别小的情况下,导数的梯度或者函数的斜率会变得特别小,最后就会接近于0,导致降低梯度下降的速度。Relu和LeakyReLu相对于Sigmoid和tanh函数的优点如下:第一,在...
    2018-12-09 22:08:00
    阅读量:0
    评论:0
  • AI学习总结快捷键整理打开文件Ctrl+O新建窗口Ctrl+N原位粘贴到原图层前层Ctrl+F原位粘贴到原图层后层Ctrl+B锁定选择对象Ctrl+2全部解锁Ctrl+Alt+2置顶Ctrl+shift+]置底Ctrl+shift+[编组Ctrl+G取消编组Ctrl+shift+G隐藏所选对象Ctrl+3显示全部Ctrl+alt+3
    2018-01-15 19:33:58
    阅读量:1192
    评论:0
  • 第二周:神经网络的编程基础(Basics of Neural Network programming)1、逻辑回归的代价函数(Logistic Regression Cost Function)逻辑回归需要注意的两个点是,sigmoid函数和log损失函数。sigmoid函数的函数表达式为作为线性函数后的非线性转化,使得逻辑回归有别于硬分类的算法,例如SVM...
    2018-11-26 00:51:00
    阅读量:0
    评论:0