2018-11-21 00:13:44 lc013 阅读数 272
  • 决胜AI-深度学习系列实战150讲

    深度学习系列课程从基本的神经网络开始讲起,逐步过渡到当下流行的卷积与递归神经网络架构。课程风格通俗易懂,方便大家掌握深度学习的原理。课程以实战为导向,结合当下热门的Tensorflow框架进行案例实战,让同学们上手建模实战。对深度学习经典项目,从数据处理开始一步步带领大家完成多个项目实战任务!

    5420 人正在学习 去看看 唐宇迪

技术的提高是需要日积月累的努力,除了看书看视频外,一个很有效的提高方法当然就是阅读大牛的博客文章了,所谓听君一席话,胜读十年书,虽然读大牛的文章没有这么夸张,但也可以让你解决技术上的一些难题,可以学习大牛的学习方法和思维方式,受益匪浅!

接下来会介绍一些 AI 和深度学习方面的博客。

原文:Must-read Blogs for AI and Deep Learning Enthusiasts


我从没有遇见过可以和人工智能和认知计算相匹配来改变世界的事物

上述这句话是是认知解决方案和 IBM 研究部高级副总裁 John E. Kelly 在 2016 年由人工智能爱好者中最知名的人之一 Yann Lecun 组织的会议上强调的事实。

毫无疑问,AI 正在驱动着下一次的技术革命。所有的技术巨头都开设了各自专业的 AI 研究部门,许多新的公司正在使用 AI 技术开发出非常棒的产品。

在这种喧嚣中,及时了解获知 AI 的研究进展是非常重要的。作为一个应用 AI 研究小组,我们总是需要让自己能够了解最新的新闻、研究和技术。如果你是一个 AI 爱好者,这里是一份你可以关注的必读的 AI 博客列表:

OpenAI

OpenAI 是一个非营利性人工智能研究公司,它的宗旨是推动和发展安全友好的人工智能。Sam Altman, Elon Musk 和其他几个著名的投资者负责给这家公司提供资金。OpenAI 的博客也是被全世界所有的人工智能和深度学习爱好者关注着。OpenAI 会定期发表他们在先进的人工智能技术方面的研究成果,包括自然语言处理、图像处理和语音处理。

链接:https://blog.openai.com/

Distill

Distill 致力于清晰地解释机器学习。编辑和策展团队由来自 Google Brain,DeepMind,Tesla 和其他着名组织的科学家组成。Distill 的愿景是通过简单和视觉上令人愉悦的语言来解释机器学习的论文和模型。Distill Journal 是 Distill 提供的一个出版期刊,它是鼓励研究人员采用超越传统学术形式的方法来更好沟通科学,以及为读者服务。

链接:https://distill.pub/

BAIR Blog

这个博客是由加州大学伯克利分校的伯克利 AI 研究(BAIR)小组设立。它的目的是传播 BAIR 小组在人工智能研究方面的发现、观点和更新成果。这个博客的编辑团队包括来自 BAIR 小组的学生、博士后和教师。他们通常每周会发表一篇文章,内容是 BAIR 在深度学习、机器学习和人工智能领域方面的研究。

链接:http://bair.berkeley.edu/blog/

DeepMind Blog

DeepMind 是在 2010 年由 Dennis Hassabis, Mustafa Suleyman 和 Shane Legg 三个人所创立。DeepMind 的博客主要包括对他们的研究论文、思想领导力以及围绕人工智能的远见卓识的讨论。由于 DeepMind 团队的人工智能模拟研究,他们的博客受到了很多人工智能研究者的高度重视。此外,DeepMind 还是 2014 年被谷歌收购的 Alphabet 小组的一部分。

链接:https://deepmind.com/blog/?category=research

Andrej Karpathy’s Blog

Andrej Karpathy 现任特斯拉的人工智能总监,之前曾在 OpenAI 工作过。他在斯坦福大学取得博士学位。他的博客在人工智能社区非常有名,特别是当他在读取博士学位和在 OpenAI 工作时候发表的文章。他写了大量有关计算机视觉以及其他人工智能领域的文章。

链接:

Colah’s Blog

Christopher Olah 是在谷歌大脑工作的研究科学家。同时也是 Distill 的一个编辑者之一,还有 Shan Carter 也是。他主要发表的是对于机器学习和深度学习领域的理解神经网络方面的文章。他的目标是用简单的语言解释神经网络的复杂功能。如果你是刚入门神经网络,那么他的博客正好适合作为你的入门教程。

链接:http://colah.github.io/

WildML

这是 Denny Britz 的博客。Britz 曾是谷歌大脑团队的一个成员。他写作的主要方向是深度学习,发表有关利用 TensorFlow 来理解、应用和实现神经网络的文章。他还有另外一个博客,主要是写有关初创公司和软件工程方面的文章。

链接:

Ruder’s Blog

Sebastian Ruder 目前正在攻读博士学位,同时也是一家文本分析初创公司–Aylien 的研究科学家。他的文章大多数是关于深度学习和自然语言处理,主要是集中在多任务学习和迁移学习方面。Ruder 通过视觉上以及易懂语言来给出他对公式的理解和解释。他的博客对于新手非常易于理解,也是一个开始学习深度学习知识的很好的教程。

链接:http://ruder.io/

FAIR Blog

这是属于 Facebook 的人工智能研究博客,主要讨论人工智能、深度学习、机器学习、计算机视觉以及他们现实世界的自身的产品应用。FAIR 小组发表了很多研究论文,这个博客也可以作为创作和提升的媒体。

链接:https://research.fb.com/blog/

inFERENCe

这是 Ferenc Huszár 的博客。他是一个来自剑桥大学的博士,目前工作于 Twitter Cortex。他主要是研究概率推理、生成模型、无监督学习以及应用深度学习到上述问题,并发表这些主题相关的文章。

链接:http://www.inference.vc/

Andrew Trask’s Blog

Andrew Trask 是 DeepMind 的研究科学家,同时也是牛津大学的博士。他的博客也是受到深度学习和机器学习爱好者的高度关注。他主要集中在神经网络和对它的解释以及实现。

链接:http://iamtrask.github.io/

Graduate Descent

这是 Tim Vieira 的博客。 Tim 正在 John Hopkins 大学攻读博士学位。他的博客主要关注于利用深度学习来研究自然语言处理。他发表了一些关于神经网络特定部件以及在 NLP 方面的实现相关的文章。

链接:http://timvieira.github.io/blog/

Adit Deshpande’s Blog

Adit Deshpande 是来自 UCLA 计算机科学专业的肄业生。他主要研究机器学习和深度学习,并且他的文章非常有益于初学者入门神经网络。

链接:https://adeshpande3.github.io/


上述就是文章介绍的人工智能和深度学习领域的博客了。

欢迎关注我的微信公众号–机器学习与计算机视觉或者扫描下方的二维码,在后台留言,和我分享你的建议和看法,指正文章中可能存在的错误,大家一起交流,学习和进步!

推荐阅读

1.机器学习入门系列(1)–机器学习概览(上)

2.机器学习入门系列(2)–机器学习概览(下)

3.[GAN学习系列] 初识GAN

4.[GAN学习系列2] GAN的起源

5.谷歌开源的 GAN 库–TFGAN

2019-06-24 10:36:00 u013267687 阅读数 114
  • 决胜AI-深度学习系列实战150讲

    深度学习系列课程从基本的神经网络开始讲起,逐步过渡到当下流行的卷积与递归神经网络架构。课程风格通俗易懂,方便大家掌握深度学习的原理。课程以实战为导向,结合当下热门的Tensorflow框架进行案例实战,让同学们上手建模实战。对深度学习经典项目,从数据处理开始一步步带领大家完成多个项目实战任务!

    5420 人正在学习 去看看 唐宇迪

今天来讲讲机器学习(Machine Learning,ML)与深度学习(Deep Learning,DL)

首先,要论这两个东西,得先了解人工智能(AI),AI与机器学习以及深度学习之间的关系,用集合关系来描述,就是:

深度学习包含于机器学习,机器学习包含于AI;

机器学习 作为AI的子领域,也是其核心,可以这么理解:

设计和分析一些算法,可以让计算机进行自动学习。

深度学习 设计灵感,是来源于人类大脑的工作方式,利用深度神经网络来解决特征表达的一种学习过程。为了提高深层神经网络的训练效果,人们对神经元的连接方法以及激活函数等方面做出了调整。其目的在于建立、模拟人脑进行分析学习的神经网络,模仿人脑的机制来解释数据,如文本、图像、声音。

1.应用区别

机器学习:指纹识别,特征物体检测等

深度学习:文字识别,人链技术,语义分析,智能监控,智能硬件,智能教育,智能医疗等

2.需求的数据量

机器学习:数据量较小

深度学习:在机器学习的基础上,若有比较庞大的数据量,深度学习的效果更加显著

3.执行时间

机器学习:相对较少

深度学习:由于训练受到数据量的影响,需要大量的时间进行

4.问题解决方式

机器学习:遵循标准化程序,将问题拆分,分别解决,之后整合得出答案

深度学习:不拆分,集中解决

 

选择推荐:

传统的机器学习算法比较复杂,不太容易理解,深度学习引入了人工神经网络,比机器学习的表现要好得多,在数据量足够庞大的情况下,个人建议使用选择深度学习。

2018-07-22 11:22:59 s1162276945 阅读数 1412
  • 决胜AI-深度学习系列实战150讲

    深度学习系列课程从基本的神经网络开始讲起,逐步过渡到当下流行的卷积与递归神经网络架构。课程风格通俗易懂,方便大家掌握深度学习的原理。课程以实战为导向,结合当下热门的Tensorflow框架进行案例实战,让同学们上手建模实战。对深度学习经典项目,从数据处理开始一步步带领大家完成多个项目实战任务!

    5420 人正在学习 去看看 唐宇迪

机器学习则是人工智能领域的一个小分支,如果说AI是一个合集,那么ML就是AI的子集。
任何通过数据训练的学习算法的相关研究都属于机器学习,包括很多已经发展多年的技术,比如线性回归(Linear Regression)、K均值(K-means,基于原型的目标函数聚类方法)、决策树(Decision Trees,运用概率分析的一种图解法)、随机森林(Random Forest,运用概率分析的一种图解法)、PCA(Principal Component Analysis,主成分分析)、SVM(Support Vector Machine,支持向量机)以及ANN(Artificial Neural Networks,人工神经网络)。
人工神经网络则是深度学习的起源。今天的深度学习不仅仅是具备多层架构的感知器,而是一系列能够用来构建可组合可微分的体系结构的技术和方法。

http://news.mydrivers.com/1/513/513732.htm

有了深度学习,机器学习才有了许多实际的应用,它还拓展了AI的整体范围。 深度学习将任务分拆,使得各种类型的机器辅助变成可能。
AI(人工智能)是未来,是科幻小说,是我们日常生活的一部分。所有论断都是正确的,只是要看你所谈到的AI到底是什么。

例如,当谷歌DeepMind开发的AlphaGo程序打败韩国职业围棋高手Lee Se-dol,媒体在描述DeepMind的胜利时用到了AI、机器学习、深度学习等术语。AlphaGo之所以打败Lee Se-dol,这三项技术都立下了汗马功劳,但它们并不是一回事。

要搞清它们的关系,最直观的表述方式就是同心圆,最先出现的是理念,然后是机器学习,当机器学习繁荣之后就出现了深度学习,今天的AI大爆发是由深度学习驱动的。

[ 注:这幅图在文末 pdf 文件里面有
AI-ML-DL
Since an early flush of optimism in the 1950s, smaller subsets of artificial intelligence – the first machine learning, then deep learning, a subset of machine learning – have created ever larger disruptions.
也就是说 DL 是 ML 的子集,ML 是 AI 的子集。]

从衰败到繁荣

1956年,在达特茅斯会议(Dartmouth Conferences)上,计算机科学家首次提出了“AI”术语,AI由此诞生,在随后的日子里,AI成为实验室的“幻想对象”。几十年过去了,人们对AI的看法不断改变,有时会认为AI是预兆,是未来人类文明的关键,有时认为它只是技术垃圾,只是一个轻率的概念,野心过大,注定要失败。坦白来讲,直到2012年AI仍然同时具有这两种特点。

在过去几年里,AI大爆发,2015年至今更是发展迅猛。之所以飞速发展主要归功于GPU的广泛普及,它让并行处理更快、更便宜、更强大。还有一个原因就是实际存储容量无限拓展,数据大规模生成,比如图片、文本、交易、地图数据信息。

AI:让机器展现出人类智力

回到1956年夏天,在当时的会议上,AI先驱的梦想是建造一台复杂的机器(让当时刚出现的计算机驱动),然后让机器呈现出人类智力的特征。

这一概念就是我们所说的“强人工智能(General AI)”,也就是打造一台超棒的机器,让它拥有人类的所有感知,甚至还可以超越人类感知,它可以像人一样思考。在电影中我们经常会看到这种机器,比如 C-3PO、终结者。

还有一个概念是“弱人工智能(Narrow AI)”。简单来讲,“弱人工智能”可以像人类一样完成某些具体任务,有可能比人类做得更好,例如,Pinterest服务用AI给图片分类,Facebook用AI识别脸部,这就是“弱人工智能”。

上述例子是“弱人工智能”实际使用的案例,这些应用已经体现了一些人类智力的特点。怎样实现的?这些智力来自何处?带着问题我们深入理解,就来到下一个圆圈,它就是机器学习。

机器学习:抵达AI目标的一条路径

大体来讲,机器学习就是用算法真正解析数据,不断学习,然后对世界中发生的事做出判断和预测。此时,研究人员不会亲手编写软件、确定特殊指令集、然后让程序完成特殊任务,相反,研究人员会用大量数据和算法“训练”机器,让机器学会如何执行任务。

机器学习这个概念是早期的AI研究者提出的,在过去几年里,机器学习出现了许多算法方法,包括决策树学习、归纳逻辑程序设计、聚类分析(Clustering)、强化学习、贝叶斯网络等。正如大家所知的,没有人真正达到“强人工智能”的终极目标,采用早期机器学习方法,我们连“弱人工智能”的目标也远没有达到。

在过去许多年里,机器学习的最佳应用案例是“计算机视觉”,要实现计算机视觉,研究人员仍然需要手动编写大量代码才能完成任务。研究人员手动编写分级器,比如边缘检测滤波器,只有这样程序才能确定对象从哪里开始,到哪里结束;形状侦测可以确定对象是否有8条边;分类器可以识别字符“S-T-O-P”。通过手动编写的分组器,研究人员可以开发出算法识别有意义的形象,然后学会下判断,确定它不是一个停止标志。

这种办法可以用,但并不是很好。如果是在雾天,当标志的能见度比较低,或者一棵树挡住了标志的一部分,它的识别能力就会下降。直到不久之前,计算机视觉和图像侦测技术还与人类的能力相去甚远,因为它太容易出错了。

深度学习:实现机器学习的技术

“人工神经网络(Artificial Neural Networks)”是另一种算法方法,它也是早期机器学习专家提出的,存在已经几十年了。神经网络(Neural Networks)的构想源自于我们对人类大脑的理解——神经元的彼此联系。二者也有不同之处,人类大脑的神经元按特定的物理距离连接的,人工神经网络有独立的层、连接,还有数据传播方向。

例如,你可能会抽取一张图片,将它剪成许多块,然后植入到神经网络的第一层。第一层独立神经元会将数据传输到第二层,第二层神经元也有自己的使命,一直持续下去,直到最后一层,并生成最终结果。

每一个神经元会对输入的信息进行权衡,确定权重,搞清它与所执行任务的关系,比如有多正确或者多么不正确。最终的结果由所有权重来决定。以停止标志为例,我们会将停止标志图片切割,让神经元检测,比如它的八角形形状、红色、与众不同的字符、交通标志尺寸、手势等。

神经网络的任务就是给出结论:它到底是不是停止标志。神经网络会给出一个“概率向量”,它依赖于有根据的推测和权重。在该案例中,系统有86%的信心确定图片是停止标志,7%的信心确定它是限速标志,有5%的信心确定它是一支风筝卡在树上,等等。然后网络架构会告诉神经网络它的判断是否正确。

即使只是这么简单的一件事也是很超前的,不久前,AI研究社区还在回避神经网络。在AI发展初期就已经存在神经网络,但是它并没有形成多少“智力”。问题在于即使只是基本的神经网络,它对计算量的要求也很高,因此无法成为一种实际的方法。尽管如此,还是有少数研究团队勇往直前,比如多伦多大学Geoffrey Hinton所领导的团队,他们将算法平行放进超级电脑,验证自己的概念,直到GPU开始广泛采用我们才真正看到希望。

回到识别停止标志的例子,如果我们对网络进行训练,用大量的错误答案训练网络,调整网络,结果就会更好。研究人员需要做的就是训练,他们要收集几万张、甚至几百万张图片,直到人工神经元输入的权重高度精准,让每一次判断都正确为止——不管是有雾还是没雾,是阳光明媚还是下雨都不受影响。这时神经网络就可以自己“教”自己,搞清停止标志的到底是怎样的;它还可以识别Facebook的人脸图像,可以识别猫——吴恩达(Andrew Ng)2012年在谷歌做的事情就是让神经网络识别猫。

吴恩达的突破之处在于:让神经网络变得无比巨大,不断增加层数和神经元数量,让系统运行大量数据,训练它。吴恩达的项目从1000万段YouTube视频调用图片,他真正让深度学习有了“深度”。

到了今天,在某些场景中,经过深度学习技术训练的机器在识别图像时比人类更好,比如识别猫、识别血液中的癌细胞特征、识别MRI扫描图片中的肿瘤。谷歌AlphaGo学习围棋,它自己与自己不断下围棋并从中学习。

有了深度学习AI的未来一片光明

有了深度学习,机器学习才有了许多实际的应用,它还拓展了AI的整体范围。 深度学习将任务分拆,使得各种类型的机器辅助变成可能。无人驾驶汽车、更好的预防性治疗、更好的电影推荐要么已经出现,要么即使出现。AI既是现在,也是未来。有了深度学习的帮助,也许到了某一天AI会达到科幻小说描述的水平,这正是我们期待已久的。你会有自己的C-3PO,有自己的终结者。

https://www.nvidia.com/content/dam/en-zz/Solutions/deep-learning/home/DeepLearning_eBook_FINAL.pdf
智东西 http://news.newseed.cn/p/1326716

2018-11-16 22:35:59 Harpoon_fly 阅读数 332
  • 决胜AI-深度学习系列实战150讲

    深度学习系列课程从基本的神经网络开始讲起,逐步过渡到当下流行的卷积与递归神经网络架构。课程风格通俗易懂,方便大家掌握深度学习的原理。课程以实战为导向,结合当下热门的Tensorflow框架进行案例实战,让同学们上手建模实战。对深度学习经典项目,从数据处理开始一步步带领大家完成多个项目实战任务!

    5420 人正在学习 去看看 唐宇迪

从今天开始每天会固定进行推送吴恩达老师的深度学习的学习笔记,这个是由团队整理的,感谢热心AI和深度学习的这群人,文中真真实实都是学者的笔记,希望对热爱AI的你,有所帮助!

在这里插入图片描述
第一个视频主要讲了什么是深度学习,深度学习能做些什么事情。

以下是吴恩达老师的原话:

深度学习改变了传统互联网业务,例如如网络搜索和广告。但是深度学习同时也使得许多新产品和企业以很多方式帮助人们,从获得更好的健康关注。

深度学习做的非常好的一个方面就是读取X光图像,到生活中的个性化教育,到精准化农业,甚至到驾驶汽车以及其它一些方面。如果你想要学习深度学习的这些工具,并应用它们来做这些令人窒息的操作,本课程将帮助你做到这一点。当你完成cousera上面的这一系列专项课程,你将能更加自信的继续深度学习之路。在接下来的十年中,我认为我们所有人都有机会创造一个惊人的世界和社会,这就是AI(人工智能)的力量。我希望你们能在创建AI(人工智能)社会的过程中发挥重要作用。

我认为AI是最新的电力,大约在一百年前,我们社会的电气化改变了每个主要行业,从交通运输行业到制造业、医疗保健、通讯等方面,我认为如今我们见到了AI明显的令人惊讶的能量,带来了同样巨大的转变。显然,AI的各个分支中,发展的最为迅速的就是深度学习。因此现在,深度学习是在科技世界中广受欢迎的一种技巧。

通过这个课程,以及这门课程后面的几门课程,你将获取并且掌握那些技能。
在这里插入图片描述

下面是你将学习到的内容:

在cousera的这一系列也叫做专项课程中,在第一门课中(神经网络和深度学习),你将学习神经网络的基础,你将学习神经网络和深度学习,这门课将持续四周,专项课程中的每门课将持续2至4周。

第一门课程
你将学习如何建立神经网络(包含一个深度神经网络),以及如何在数据上面训练他们。在这门课程的结尾,你将用一个深度神经网络进行辨认猫。

由于某种原因,第一门课会以猫作为对象识别。

第二门课
将使用三周时间。你将进行深度学习方面的实践,学习严密地构建神经网络,如何真正让它表现良好,因此你将要学习超参数调整、正则化、诊断偏差和方差以及一些高级优化算法,比如Momentum和Adam算法,犹如黑魔法一样根据你建立网络的方式。第二门课只有三周学习时间。

第三门课
将使用两周时间来学习如何结构化你的机器学习工程。事实证明,构建机器学习系统的策略改变了深度学习的错误。

举个例子:你分割数据的方式,分割成训练集、比较集或改变的验证集,以及测试集合,改变了深度学习的错误。

所以最好的实践方式是什么呢?

你的训练集和测试集来自不同的贡献度在深度学习中的影响很大,那么你应该怎么处理呢?

如果你听说过端对端深度学习,你也会在第三门课中了解到更多,进而了解到你是否需要使用它,第三课的资料是相对比较独特的,我将和你分享。我们了解到的所有的热门领域的建立并且改良许多的深度学习问题。这些当今热门的资料,绝大部分大学在他们的深度学习课堂上面里面不会教的,我认为它会提供你帮助,让深度学习系统工作的更好。

第四门课
将会提到卷积神经网络(CNN(s)),它经常被用于图像领域,你将会在第四门课程中学到如何搭建这样的模型。

第五门课
你将会学习到序列模型,以及如何将它们应用于自然语言处理,以及其它问题。

序列模型包括的模型有循环神经网络(RNN)、全称是长短期记忆网络(LSTM)。你将在课程五中了解其中的时期是什么含义,并且有能力应用到自然语言处理(NLP)问题。

总之你将在课程五中学习这些模型,以及能够将它们应用于序列数据。比如说,自然语言就是一个单词序列。你也将能够理解这些模型如何应用到语音识别或者是编曲以及其它问题。

因此,通过这些课程,你将学习深度学习的这些工具,你将能够去使用它们去做一些神奇的事情,并借此来提升你的职业生涯。
在这里插入图片描述

没有更多推荐了,返回首页