2017-03-18 15:46:30 linhx 阅读数 895
  • 深度学习框架Tensorflow案例实战视频课程

    深度学习框架Tensorflow案例实战视频培训课程概况: Tensorflow是谷歌开源的深度学习(包括机器学习)框架,伴随着人工智能业的兴盛其大名早已响彻云霄。本课程从Tensorflow安装开始讲起,从基本计算结构到深度学习各大神经网络,全程案例代码实战,一步步带大家入门如何使用深度学习框架Tensorflow,玩转Tensorflow模型训练、等所有知识点。

    30863 人正在学习 去看看 唐宇迪

TensorFlow(GitHub),出身名门谷歌,风姿绰约的功能,并且经过谷歌自己的Gmail和搜索引擎的实战磨练提升,这样的深度学习框架热度第一应该没有多少异议了。开源之后,谷歌长期支持对打算投入资源的公司和开发者也是个信心,毕竟这么烧钱的项目,不是谁都意愿冒险。

目前很多开发者或者打算介入深度学习的公司而言,在了解了产品应用需求之后,首先要面对的就是框架选择,毕竟Facebook、Pinterest等这样的大户都没有勇气重新造轮子(也没有必要)。作为CTO/架构师,都会有很多的理由阐述自己的框架选择理由,但是我个人曾经参与开源框架经验和架构框架选择经验里有颠扑不破,久经考验的三个准则,适用于任何框架,包括后文要讨论的人工智能框架,供各位圣主参考:

  • 最合适产品应用需求
  • 最合适自己的技术团队
  • 框架活跃度足够高,可持续发展

GitHub上其实还有很多不错的开源项目值得关注,首先我们推荐目前规模人气最高的TOP4:

1,PaddlePaddle,Star数4587,C++开发,有Python接口;其被列在第一是基于四个考虑:

一是百度开源,活跃度和bug解决率目前都比较及时,并且在百度云上面提供了对应的环境系统和云服务,解决了揪心的一次性大规模投入;

二是框架确实还可以,文档也完善,并且中文(有的人笑了,其实也对,玩深度学习不懂英文的还是比较少的),但是我要说的是框架本身对中文支持、中文支持、中文支持。说三遍的原因自然是因为很重要,要知道如果项目涉及NLP,那是几个调参都能重大影响结果的情况,更何况如果框架原本只支持英文,那不提前考虑这个问题,过程必然会很艰辛(此处有经验的架构师/开发者应该会心一笑)。题外话是如果后面碰到框架问题,大概率你还能找到百度IDL的人,甚至挖1个专家进项目组(此处只针对土豪);

三是当前看到的几项数据指标,确实还可以,Python接口用起来也很方便,有些bug需要解决; 

四是........,对的,你们都开始怀疑了,我还是主动声明一下利益关系点,我曾经在百度炸过几年碉堡;

2,Tensorflow,Star数51023,715个贡献者,绝对的一骑绝尘,霸主必须有霸主的实力。核心模块C++开发,但是整改项目里的Python代码数量反超了,各种接口丰富,目前也适配很多平台,方便后续开发。

3,Caffe,Star数16603,238个贡献者,周更新….毫无疑问老二,C++开发,接口丰富。小家碧玉,生于著名的加州伯克利分校,包括Pinterest、谷歌、Facebook。啊,Facebook,那不是Torch吗?要知道Caffe作者贾扬清(对的,就是中国人,不是“吴恩达”)已经是Facebook研究科学家了。虽说不会像印度人那抱团起事,但是维护自己baby还是应该的吧!

4,CNTKStar数9937,117个贡献者,C++开发,有完整的Python接口,文档齐全了不少。绝对的公主级别,微软研究院出品,是深度学习人工智能领域的研究成果ComputationalNetwork Toolkit(CNTK)。据微软自己说,CNTK在语音和图像辨识能力方面,比Theano、TensorFlow、Torch7、Caffe等四个开发者常用框架有更快的运算速度。

5,MXNet,Star数8846,294个贡献者,主要用C++编写,出自CXXNet、Minerva、Purine等项目的开发者之手。MXNet目前取得了AmazonAWS的官方背书,也是牛逼闪闪,其强调同时兼顾效率和灵活度,甚至能在Android系统上跑任务。顺便说一下,余凯老师(现在是老板)约了亚马逊AWS机器学习总监Alex Smola3月29日在中关村给大家开讲座,感兴趣这个框架的可以去听听。

6,Torch,Star数6537,由于Facebook支持并开源了大量Torch的深度学习模块和扩展而迅速壮大。Torch是基于Lua,官方说Torch高效易用是得益于方便,快捷的脚本语言luajit和底层C/CUDA实施。奇怪的Lua语言……..(Lua爱好者该不开心了,我确实只学了它一天就不想继续了,现在也不想再多学一门了,要知道前20种语言我学过并且出项目干过的有11种,还有名单后面的VHDL、Verilog HDL)。

7,Theano,Star数5912,287个贡献者,Cython(Cython是一个可编译为本地可执行代码的Python方言),有计算的地方就有Python,接口自然多多的,用起来也是方便大大的!说是诞生于蒙特利尔理工学院,也是学院派。其实Theano最大的便利贡献应该是基于其上的深度学习Python软件包Keras,后者Star数13564,各种案例,并且目前同时支持Theano和TensorFlow。

8,Deeplearning4j,Star数5847,107个贡献者,Javaand Scala开发,能够与Hadoop andSpark深度结合。难得还能看见Java的影子,Java爱好者值得碎碎念的深度学习框架。它是面向生产环境和商业应用的高成熟度深度学习开源库(号称,等我抽空实测一下),可与Hadoop和Spark集成,即插即用,方便开发者在APP中快速集成深度学习功能。

9,ConvNetJS,Star数6672,15个贡献者,其实不算是个完整的深度学习框架,但是用Javascript语法实现的神经网络简直是人神,这也应该是这么多Star数的其中一个原因。请大家记住斯坦福大学博士生AndrejKarpathy和他的小伙伴,别说我没提Karpathy的推特http://twitter.com/karpathy

后面排名的还有:

Neon,绝对新秀,Python开发为主,号称N项基准测试中,Neon的测试成绩甚至要优于Caffeine、Torch和TensorFlow;

ChainerPython,来自一个日本的深度学习创业公司PreferredNetworks的开源项目,Ubuntu患者的福音,搭建快速。

有了基础概要后,下一步就是调研框架本身的技术参数:CNN和RNN性能、速度、多GPU支持,且听下回分解。

2018-03-26 11:14:05 shenmanli 阅读数 168
  • 深度学习框架Tensorflow案例实战视频课程

    深度学习框架Tensorflow案例实战视频培训课程概况: Tensorflow是谷歌开源的深度学习(包括机器学习)框架,伴随着人工智能业的兴盛其大名早已响彻云霄。本课程从Tensorflow安装开始讲起,从基本计算结构到深度学习各大神经网络,全程案例代码实战,一步步带大家入门如何使用深度学习框架Tensorflow,玩转Tensorflow模型训练、等所有知识点。

    30863 人正在学习 去看看 唐宇迪

TensorFlow是谷歌开源的主流深度学习框架,目前已在谷歌、优步、京东、小米等科技公司广泛应用。本课程使用TensorFlow框架作为深度学习入门,使学员以最快、最有效的方式上手TensorFlow和深度学习。

2018年3月22日-3月23日,培训中心举办了“深度学习-基于Tensorflow的实战”的公开课,帮助学员走进这个最新、最火的人工智能领域。大数据专家杨教授介绍基于TensorFlow进行数据处理、数据探索的基本方法,并对TensorFlow算法原理及实现进行讲解。

学员基础

1、对IT系统设计有一定的理论与实践经验。

2、有一定的机器学习基础知识和开发经验。

3、有一定的机器学习与大数据处理的知识。

培训内容

第1讲 深度学习简介

第2讲 安装TensorFlow

第3讲 TensorFlow基础

第4讲 深层神经网络

第5讲 MNIST数字识别

第6讲 图像识别与卷积神经网络

第7讲 图像数据处理

第8讲 循环神经网络

第9讲 TensorBoard可视化

第10讲 TensorFlow计算加速

通过学习,学员们将:

1、全面了解深度学习和Tensorflow的相关知识。

2、学习Tensorflow的核心技术方法以及应用特征。

3、深入使用Tensorflow在深度学习中的使用。

学员们通过具体的TensorFlow样例程序知道了如何使用深度学习解决实际问题,包含了深度学习的知识和大量实践经验。


2017-04-16 14:44:09 isuccess88 阅读数 2159
  • 深度学习框架Tensorflow案例实战视频课程

    深度学习框架Tensorflow案例实战视频培训课程概况: Tensorflow是谷歌开源的深度学习(包括机器学习)框架,伴随着人工智能业的兴盛其大名早已响彻云霄。本课程从Tensorflow安装开始讲起,从基本计算结构到深度学习各大神经网络,全程案例代码实战,一步步带大家入门如何使用深度学习框架Tensorflow,玩转Tensorflow模型训练、等所有知识点。

    30863 人正在学习 去看看 唐宇迪

Python开源机器学习项目实战

文章详细总结了当前比较火热的机器学习和深度学习的实战项目,希望能对各位人工智能爱好者有所帮助,转载请注明本博客地址。

1、Scikit-learn是一种基于 NumPy、SciPy 和matplotlib 的用于数据挖掘和数据分析的工具,其不仅使用起来简单高效,而且还是开源的,可供所有人使用,并且拥有商业可用的 BSD 许可证,在不同的环境下都能很好的被使用。

链接:http://scikit-learn.org/

 

2、TensorFlow 最初由 Google机器智能研究机构的 GoogleBrain 团队的研究人员和工程师开发。该系统旨在促进对机器学习的研究,同时也让机器学习研究原型过渡到生产系统更加高效容易。

链接:https://www.tensorflow.org/

 

3、Theano 能让您更加高效地定义、优化和评估涉及多维数组的数学表达式。

链接:http://deeplearning.net/software/theano/

 

4、Caffe是一个由伯克利视觉与学习中心(BVLC)和社区贡献者开发的深度学习框架,它兼具表现力和速度,还有模块化的优点。

链接:http://caffe.berkeleyvision.org/

 

5、Gensim 是一个免费的 Python库,它具有诸如可扩展的统计语义等特征,它可用于分析纯文本文档的语义结构和检索语义相似的文档。

链接:https://radimrehurek.com/gensim/

 

6、Pylearn2 是一个机器学习库。它的大部分功能都是建立在 Theano的基础之上。这意味着你可以使用数学表达式编写Pylearn2 插件(新模型、算法等),然后 Theano将为你优化这些表达式让其更加稳定,并将根据你的选择把它编译适配相应的后端(CPU 或 GPU)。

链接:http://github.com/lisa-lab/pylearn2

 

7、Statsmodels 是一个允许用户挖掘数据、估计统计模型和执行统计测试的 Python模块。描述性统计、统计测试、绘图函数和结果统计的详细列表可用于不同类型的数据和估计器。

链接:https://github.com/statsmodels/statsmodels/

 

8、Shogun是一种提供大量高效且统一的机器学习(ML)方法的机器学习工具箱。它能容易地把多种数据表示,算法类和通用工具紧密地联系起来。

链接:https://github.com/shogun-toolbox/shogun

 

9、Chainer 是一个基于 Python并且独立的深度学习模型开源框架。Chainer提供一种灵活、直观且高效的方法来实现整个深度学习模型,包括如循环神经网络和变分自动编码器等最先进的模型。

链接:https://github.com/pfnet/chainer

 

10、NuPIC是一个基于一种被称为分层式即时记忆(HTM/Hierarchical Temporal Memory)的新皮质理论的开源项目。HTM 理论中的一部分已经在应用中被实现、测试和使用了,而其他部分仍在开发中。

链接:http://github.com/numenta/nupic

 

11、Neon 是Nervana (http://nervanasys.com/) 公司的一个基于 Python 的深度学习库。它提供易用性的同时也提供了最高的性能。

链接:http://neon.nervanasys.com/

 

12、Nilearn 是一个用于在NeuroImaging 数据上快速轻松地进行统计学习的 Python模块。它利用 scikit-learnPython 工具箱来处理如预测建模、分类、解码或连接分析等多变量统计信息。

链接:http://github.com/nilearn/nilearn

 

13、Orange3是一个新手和专家都可以使用的开源机器学习和数据可视化工具。在交互式数据分析工作流程中拥有大型的工具箱。

链接:https://github.com/biolab/orange3

 

14、Pymc 是一个实现贝叶斯统计模型和拟合算法的 Python模块,其中包括马尔可夫链和蒙特卡罗方法。其灵活性和可扩展性使其适用于大量问题。

链接:https://github.com/pymc-devs/pymc

 

15、PyBrain是 Python的一个模块化机器学习库。它的目标是为机器学习任务提供灵活且易于使用但仍然强大的算法,以及各种预定义环境来对你的算法进行测试和比较。

链接:http://github.com/pybrain/pybrain

 

16、Fuel是一个数据管道框架(data pipelineframework),它为你的机器学习模型提供所需的数据。它将被 Blocks和Pylearn2 神经网络库使用。

链接:http://github.com/mila-udem/fuel

 

17、PyMVPA 是一个用于简化大型数据集的统计学习分析 Python包。它提供了一个可扩展的框架,具有大量用于分类、回归、特征选择、数据导入和导出等算法的高级接口。

链接:https://github.com/PyMVPA/PyMVPA

 

18、Annoy(ApproximateNearest Neighbors Oh Yeah)是一个绑定 Python 的 C ++库,用来搜索在空间中距离给定查询点较近的点。它还创建了基于大型只读文件的数据结构,这些数据结构被映射到内存中,以便许多进程可以共享相同的数据。

链接:https://github.com/spotify/annoy

 

19、Deap 是一个用于快速原型和测试思想的新颖的进化计算框架。它试图使算法更加浅显易懂,数据结构更加透明。它与并行机制(例如multiprocessing 和 SCOOP)能完美协调。

链接:https://github.com/deap/deap

 

20、Pattern 是 Python编程语言的 Web 挖掘模块。它捆绑了数据挖掘(Google+ Twitter +维基百科 API、网络爬虫、HTMLDOM 解析器)、自然语言处理(词性标记、n-gram 搜索、情感分析、WordNet)、机器学习(向量空间模型、k-means聚类、朴素贝叶斯+ k-NN+ SVM 分类器)和网络分析(图形中心性和可视化)等工具。

链接:https://pypi.python.org/pypi/Pattern

 

另外一个版本:

1.、Scikit-learn

www.github.com/scikit-learn/scikit-learn

Scikit-learn是基于Scipy为机器学习建造的的一个Python模块,他的特色就是多样化的分类,回归和聚类的算法包括支持向量机,逻辑回归, 朴素贝叶斯分类器, 随机森林,GradientBoosting,聚类算法和DBSCAN。而且也设计出了Pythonnumerical和scientificlibraries Numpy and Scipy

 

2、Pylearn2

www.github.com/lisa-lab/pylearn2

Pylearn是一个让机器学习研究简单化的基于Theano的库程序。

 

3、NuPIC

www.github.com/numenta/nupic

NuPIC是一个以HTM学习算法为工具的机器智能平台。HTM是皮层的精确计算方法。HTM的核心是基于时间的持续学习算法和储存和撤销的时空模式。NuPIC适合于各种各样的问题,尤其是检测异常和预测的流数据来源。

 

4.、Nilearn

www.github.com/nilearn/nilearn

Nilearn是一个能够快速统计学习神经影像数据的Python模块。它利用Python语言中的scikit-learn工具箱和一些进行预测建模,分类,解码,连通性分析的应用程序来进行多元的统计。

 

5、PyBrain

www.github.com/pybrain/pybrain

Pybrain是基于Python语言强化学习,人工智能,神经网络库的简称。 它的目标是提供灵活、容易使用并且强大的机器学习算法和进行各种各样的预定义的环境中测试来比较你的算法。

 

6、Pattern

www.github.com/clips/pattern

Pattern是Python语言下的一个网络挖掘模块。它为数据挖掘,自然语言处理,网络分析和机器学习提供工具。它支持向量空间模型、聚类、支持向量机和感知机并且用KNN分类法进行分类。

 

7、Fuel

www.github.com/mila-udem/fuel

Fuel为你的机器学习模型提供数据。他有一个共享如MNIST,CIFAR-10 (图片数据集),Google's One Billion Words (文字)这类数据集的接口。你使用他来通过很多种的方式来替代自己的数据。

 

8、Bob

www.github.com/idiap/bob

Bob是一个免费的信号处理和机器学习的工具。它的工具箱是用Python和C++语言共同编写的,它的设计目的是变得更加高效并且减少开发时间,它是由处理图像工具,音频和视频处理、机器学习和模式识别的大量软件包构成的。

 

9、Skdata

www.github.com/jaberg/skdata

Skdata是机器学习和统计的数据集的库程序。这个模块对于玩具问题,流行的计算机视觉和自然语言的数据集提供标准的Python语言的使用。

 

10、MILK

www.github.com/luispedro/milk

MILK是Python语言下的机器学习工具包。它主要是在很多可得到的分类比如SVMS,K-NN,随机森林,决策树中使用监督分类法。 它还执行特征选择。 这些分类器在许多方面相结合,可以形成不同的例如无监督学习、密切关系金传播和由MILK支持的K-means聚类等分类系统。

 

11、IEPY

www.github.com/machinalis/iepy

IEPY是一个专注于关系抽取的开源性信息抽取工具。它主要针对的是需要对大型数据集进行信息提取的用户和想要尝试新的算法的科学家。

 

12、Quepy

www.github.com/machinalis/quepy

Quepy是通过改变自然语言问题从而在数据库查询语言中进行查询的一个Python框架。他可以简单的被定义为在自然语言和数据库查询中不同类型的问题。所以,你不用编码就可以建立你自己的一个用自然语言进入你的数据库的系统。

现在Quepy提供对于Sparql和MQL查询语言的支持。并且计划将它延伸到其他的数据库查询语言。

 

13、Hebel

www.github.com/hannes-brt/hebel

Hebel是在Python语言中对于神经网络的深度学习的一个库程序,它使用的是通过PyCUDA来进行GPU和CUDA的加速。它是最重要的神经网络模型的类型的工具而且能提供一些不同的活动函数的激活功能,例如动力,涅斯捷罗夫动力,信号丢失和停止法。

 

14、mlxtend

www.github.com/rasbt/mlxtend

它是一个由有用的工具和日常数据科学任务的扩展组成的一个库程序。

 

15、nolearn

www.github.com/dnouri/nolearn

这个程序包容纳了大量能对你完成机器学习任务有帮助的实用程序模块。其中大量的模块和scikit-learn一起工作,其它的通常更有用。

16、Ramp

www.github.com/kvh/ramp

Ramp是一个在Python语言下制定机器学习中加快原型设计的解决方案的库程序。他是一个轻型的pandas-based机器学习中可插入的框架,它现存的Python语言下的机器学习和统计工具(比如scikit-learn,rpy2等)Ramp提供了一个简单的声明性语法探索功能从而能够快速有效地实施算法和转换。

 

17、Feature Forge

www.github.com/machinalis/featureforge

这一系列工具通过与scikit-learn兼容的API,来创建和测试机器学习功能。

这个库程序提供了一组工具,它会让你在许多机器学习程序使用中很受用。当你使用scikit-learn这个工具时,你会感觉到受到了很大的帮助。(虽然这只能在你有不同的算法时起作用。)

 

18、REP

www.github.com/yandex/rep

REP是以一种和谐、可再生的方式为指挥数据移动驱动所提供的一种环境。

它有一个统一的分类器包装来提供各种各样的操作,例如TMVA,Sklearn, XGBoost, uBoost等等。并且它可以在一个群体以平行的方式训练分类器。同时它也提供了一个交互式的情节。

 

19、Python学习机器样品

www.github.com/awslabs/machine-learning-samples

用亚马逊的机器学习建造的简单软件收集。

 

20、Python-ELM

www.github.com/dclambert/Python-ELM

这是一个在Python语言下基于scikit-learn的极端学习机器的实现。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

第三个版本:

28款 GitHub最流行的开源机器学习项目:TensorFlow排榜首

现在机器学习逐渐成为行业热门,经过二十几年的发展,机器学习目前也有了十分广泛的应用,如:数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、DNA序列测序、语音和手写识别、战略游戏和机器人等方面。

云栖社区特意翻译整理了目前GitHub上最受欢迎的28款开源的机器学习项目,以供开发者参考使用。

1.TensorFlow

TensorFlow 是谷歌发布的第二代机器学习系统。据谷歌宣称,在部分基准测试中,TensorFlow的处理速度比第一代的DistBelief加快了2倍之多。

具体的讲,TensorFlow是一个进行数值计算的开源软件库:图中的代表数学运算操作,同时图表示节点之间相互流通的多维数组,即。这种灵活的架构可以让使用者在多样化的将计算部署在台式机、服务器或者移动设备的一个或多个CPU上,而且无需重写代码;同时任一基于梯度的机器学习算法均可够借鉴TensorFlow的;此外通过灵活的Python接口,要在TensorFlow中表达想法也变得更为简单。

TensorFlow最初由Google Brain小组(该小组隶属于Google's Machine Intelligence研究机构)的研究员和工程师开发出来的,开发目的是用于进行机器学习和深度神经网络的研究。但该系统的通用性足以使其广泛用于其他计算领域。

目前Google 内部已在大量使用 AI 技术,包括Google App 的语音识别、Gmail 的自动回复功能、Google Photos 的图片搜索等都在使用 TensorFlow 。

2.Scikit-Learn

Scikit-Learn是用于机器学习的Python 模块,它建立在SciPy之上。该项目由DavidCournapeau 于2007年创立,当时项目名为Google Summer of Code,自此之后,众多志愿者都为此做出了贡献。

主要特点:

  • 操作简单、高效的数据挖掘和数据分析
  • 无访问限制,在任何情况下可重新使用
  • 建立在NumPy、SciPy 和 matplotlib基础上

Scikit-Learn的基本功能主要被分为六个部分:分类、回归、聚类、数据降维、模型选择、数据预处理,具体可以参考官方网站上的文档。经过测试,Scikit-Learn可在 Python 2.6、Python 2.7 和 Python 3.5上运行。除此之外,它也应该可在Python 3.3和Python 3.4上运行。

注:Scikit-Learn以前被称为Scikits.Learn。

3.Caffe

Caffe 是由神经网络中的表达式、速度、及模块化产生的深度学习框架。后来它通过伯克利视觉与学习中心(BVLC)和社区参与者的贡献,得以发展形成了以一个伯克利主导,然后加之Github和Caffe-users邮件所组成的一个比较松散和自由的社区。
Caffe是一个基于C++/CUDA架构框架,开发者能够利用它自由的组织网络,目前支持卷积神经网络和全连接神经网络(人工神经网络)。在Linux上,C++可以通过命令行来操作接口,对于MATLAB、Python也有专门的接口,运算上支持CPU和GPU直接无缝切换。

Caffe的特点:

  • 易用性:Caffe的模型与相应优化都是以文本形式而非代码形式给出, Caffe给出了模型的定义、最优化设置以及预训练的权重,方便快速使用;
  • 速度快:能够运行最棒的模型与海量的数据;
  • Caffe可与cuDNN结合使用,可用于测试AlexNet模型,在K40上处理一张图片只需要1.17ms;
  • 模块化:便于扩展到新的任务和设置上;
  • 使用者可通过Caffe提供的各层类型来定义自己的模型;

目前Caffe应用实践主要有数据整理、设计网络结构、训练结果、基于现有训练模型,使用Caffe直接识别。

4.PredictionIO

PredictionIO 是面向开发人员和数据科学家的开源机器学习服务器。它支持事件采集、算法调度、评估,以及经由REST APIs的预测结果查询。使用者可以通过PredictionIO做一些预测,比如个性化推荐、发现内容等。PredictionIO 提供20个预设算法,开发者可以直接将它们运行于自己的数据上。几乎任何应用与PredictionIO集成都可以变得更“聪明”。其主要特点如下所示:

  • 基于已有数据可预测用户行为;
  • 使用者可选择你自己的机器学习算法;
  • 无需担心可扩展性,扩展性好。

PredictionIO 基于 REST API(应用程序接口)标准,不过它还包含 Ruby、Python、Scala、Java等编程语言的 SDK(软件开发工具包)。其开发语言是Scala语言,数据库方面使用的是MongoDB数据库,计算系统采用Hadoop系统架构。 

5.Brain

Brain是 JavaScript 中的神经网络库。以下例子说明使用Brain来近似 XOR 功能:

1.      var net = new brain.NeuralNetwork();
2.      net.train([{input: [0, 0], output: [0]},
3.                 {input: [0, 1], output: [1]},
4.                 {input: [1, 0], output: [1]},
5.                 {input: [1, 1], output: [0]}]);
6.      var output = net.run([1, 0]);  // [0.987]

当 brain 用于节点中,可使用npm安装:

1.      npm install brain

当 brain 用于浏览器,下载最新的 brain.js 文件。训练计算代价比较昂贵,所以应该离线训练网络(或者在 Worker 上),并使用 toFunction() 或者 toJSON()选项,以便将预训练网络插入到网站中。

6.Keras

Keras是极其精简并高度模块化的神经网络库,在TensorFlow 或 Theano 上都能够运行,是一个高度模块化的神经网络库,支持GPU和CPU运算。Keras可以说是Python版的Torch7,对于快速构建CNN模型非常方便,同时也包含了一些最新文献的算法,比如Batch Noramlize,文档教程也很全,在官网上作者都是直接给例子浅显易懂。Keras也支持保存训练好的参数,然后加载已经训练好的参数,进行继续训练。

Keras侧重于开发快速实验,用可能最少延迟实现从理念到结果的转变,即为做好一项研究的关键。

当需要如下要求的深度学习的库时,就可以考虑使用Keras:

  • 考虑到简单快速的原型法(通过总体模块性、精简性以及可扩展性);
  • 同时支持卷积网络和递归网络,以及两者之间的组合;
  • 支持任意连接方案(包括多输入多输出训练);
  • 可在CPU 和 GPU 上无缝运行。

Keras目前支持 Python 2.7-3.5。

7.CNTK

CNTK(Computational Network Toolkit )是一个统一的深度学习工具包,该工具包通过一个有向图将神经网络描述为一系列计算步骤。在有向图中,叶节点表示输入值或网络参数,其他节点表示该节点输入之上的矩阵运算。

CNTK 使得实现和组合如前馈型神经网络DNN、卷积神经网络(CNN)和循环神经网络(RNNs/LSTMs)等流行模式变得非常容易。同时它实现了跨多GPU 和服务器自动分化和并行化的随机梯度下降(SGD,误差反向传播)学习。

下图将CNTK的处理速度(每秒处理的帧数)和其他四个知名的工具包做了比较了。配置采用的是四层全连接的神经网络(参见基准测试脚本)和一个大小是8192 的高效mini batch。在相同的硬件和相应的最新公共软件版本(2015.12.3前的版本)的基础上得到如下结果:

 

CNTK自2015年四月就已开源。

8.Convnetjs

ConvNetJS是利用Javascript实现的神经网络,同时还具有非常不错的基于浏览器的Demo。它最重要的用途是帮助深度学习初学者更快、更直观的理解算法。

它目前支持:

  • 常见的神经网络模块(全连接层,非线性);
  • 分类(SVM/ SOFTMAX)和回归(L2)的成本函数;
  • 指定和训练图像处理的卷积网络;
  • 基于Deep Q Learning的实验强化学习模型。

一些在线示例:

 

9.Pattern

Pattern是Python的一个Web挖掘模块。拥有以下工具:

  • 数据挖掘:网络服务(Google、Twitter、Wikipedia)、网络爬虫、HTML DOM解析;
  • 自然语言处理:、WordNet;
  • 机器学习:向量空间模型、聚类、分类(KNN、SVM、 Perceptron);
  • 网络分析:图形中心性和可视化。

其文档完善,目前拥有50多个案例和350多个单元测试。Pattern目前只支持Python 2.5+(尚不支持Python 3),该模块除了在Pattern.vector模块中使用LSA外没有其他任何外部要求,因此只需安装 NumPy (仅在Mac OS X上默认安装)。

10.NuPIC

NuPIC是一个实现了HTM学习算法的机器智能平台。HTM是一个关于新(大详细人工智能算法。HTM的核心是基于时间的连续学习算法,该算法可以存储和调用时间和空间两种模式。NuPIC可以适用于解决各类问题,尤其是异常检测和流数据源预测方面。

NuPIC Binaries文件目前可用于:

  • Linux x86 64bit
  • OS X 10.9
  • OS X 10.10
  • Windows 64bit

NuPIC 有自己的独特之处。许多机器学习算法无法适应新模式,而NuPIC的运作接近于人脑,当模式变化的时候,它会忘掉旧模式,记忆新模式。

11.Theano

Theano是一个Python库,它允许使用者有效地定义、优化和评估涉及多维数组的数学表达式,同时支持GPUs和高效符号分化操作。Theano具有以下特点:

  • 与NumPy紧密相关--在Theano的编译功能中使用了Numpy.ndarray ;
  • 透明地使用GPU--执行数据密集型计算比CPU快了140多倍(针对Float32);
  • 高效符号分化--Theano将函数的导数分为一个或多个不同的输入;
  • 速度和稳定性的优化--即使输入的x非常小也可以得到log(1+x)正确结果;
  • 动态生成 C代码--表达式计算更快;
  • 广泛的单元测试和自我验证--多种错误类型的检测和判定。

自2007年起,Theano一直致力于大型密集型科学计算研究,但它目前也很被广泛应用在课堂之上( 如Montreal大学的深度学习/机器学习课程)。

12.MXNet 

MXNet是一个兼具效率和灵活性的深度学习框架。它允许使用者将符号编程和命令式编程相结合,以追求效率和生产力的最大化。其核心是动态依赖调度程序,该程序可以动态自动进行并行化符号和命令的操作。其中部署的图形优化层使得符号操作更快和内存利用率更高。该库轻量且便携带,并且可扩展到多个GPU和多台主机上。

主要特点:

  • 其设计说明提供了有用的见解,可以被重新应用到其他DL项目中;
  • 任意计算图的灵活配置;
  • 整合了各种编程方法的优势最大限度地提高灵活性和效率;
  • 轻量、高效的内存以及支持便携式的智能设备;
  • 多GPU扩展和分布式的自动并行化设置;
  • 支持Python、R、C++和 Julia;
  • 对“云计算”友好,直接兼容S3、HDFS和Azure。

MXNet不仅仅是一个深度学习项目,它更是一个建立深度学习系统的蓝图、指导方针以及黑客们对深度学习系统独特见解的结合体。

13.Vowpal Wabbit

Vowpal Wabbit是一个机器学习系统,该系统推动了如在线、散列、Allreduce、Learning2search、等方面机器学习前沿技术的发展。 其训练速度很快,在20亿条训练样本,每个训练样本大概100个非零特征的情况下:如果特征的总位数为一万时,训练时间为20分钟;特征总位数为1000万时,训练时间为2个小时。VowpalWabbit支持分类、 回归、矩阵分解和LDA。

当在Hadoop上运行Vowpal Wabbit时,有以下优化机制:

  • 懒惰初始化:在进行All Reduce之前,可将全部数据加载到内存中并进行缓存。即使某一节点出现了错误,也可以通过在另外一个节点上使用错误节点的数据(通过缓存来获取)来继续训练。
  • Speculative Execution:在大规模集群当中,一两个很慢的Mapper会影响整个Job的性能。Speculative Execution的思想是当大部分节点的任务完成时,Hadoop可以将剩余节点上的任务拷贝到其他节点完成。

14.Ruby Warrior

通过设计了一个游戏使得Ruby语言和人工智能学习更加有乐趣和互动起来。

使用者扮演了一个勇士通过爬上一座高塔,到达顶层获取珍贵的红宝石(Ruby)。在每一层,需要写一个Ruby脚本指导战士打败敌人、营救俘虏、到达楼梯。使用者对每一层都有一些认识,但是你永远都不知道每层具体会发生什么情况。你必须给战士足够的人工智能,以便让其自行寻找应对的方式。

勇士的动作相关API:

·        Warrior.walk:用来控制勇士的移动,默认方向是往前;

·        warrior.feel:使用勇士来感知前方的情况,比如是空格,还是有怪物;

·        Warrior.attack:让勇士对怪物进行攻击;

·        Warrior.health:获取勇士当前的生命值;

·        Warrior.rest:让勇士休息一回合,恢复最大生命值的10%。

勇士的感知API:

·        Space.empty:感知前方是否是空格;

·        Space.stairs:感知前方是否是楼梯;

·        Space.enemy:感知前方是否有怪物;

·        Space.captive:感知前方是否有俘虏;

·        Space.wall:感知前方是否是墙壁。

 

15.XGBoost

XGBoot是设计为高效、灵活、可移植的优化分布式梯度 Boosting库。它实现了 Gradient Boosting 框架下的机器学习算法。

XGBoost通过提供并行树Boosting(也被称为GBDT、GBM),以一种快速且准确的方式解决了许多数据科学问题。相同的代码可以运行在大型分布式环境如Hadoop、SGE、MP上。它类似于梯度上升框架,但是更加高效。它兼具线性模型求解器和树学习算法。

XGBoot至少比现有的梯度上升实现有至少10倍的提升,同时还提供了多种目标函数,包括回归、分类和排序。由于它在预测性能上的强大,XGBoot成为很多比赛的理想选择,其还具有做交叉验证和发现关键变量的额外功能。

值得注意的是:XGBoost仅适用于数值型向量,因此在使用时需要将所有其他形式的数据转换为数值型向量;在优化模型时,这个算法还有非常多的参数需要调整。

16.GoLearn

GoLearn 是Go 语言中“功能齐全”的机器学习库,简单性及自定义性是其开发目标。

在安装 GoLearn 时,数据作为实例被加载,然后可以在其上操作矩阵,并将操作值传递给估计值。GoLearn 实现了Fit/Predict的Scikit-Learn界面,因此用户可轻松地通过反复试验置换出估计值。此外,GoLearn还包括用于数据的辅助功能,例如交叉验证、训练以及爆裂测试。

17.ML_for_Hackers

ML_for_Hackers 是针对黑客机器学习的代码库,该库包含了所有针对黑客的机器学习的代码示例(2012)。该代码可能和文中出现的并不完全相同,因为自出版以来,可能又添加了附加的注释和修改部分。

所有代码均为R语言,依靠众多的R程序包,涉及主题包括的所有常见的任务和主成分分析(PCA)和等统计方法。

18.H2O-2

H2O使得Hadoop能够做数学运算!它可以通过大数据衡量统计数据、机器学习和数学。H2O是可扩展的,用户可以在核心区域使用简单的数学模型构建模块。H2O保留着与R、Excel和JSON等相类似的熟悉的界面,使得大数据爱好者及专家们可通过使用一系列由简单到高级的算法来对数据集进行探索、变换、建模及评分。采集数据很简单,但判决难度却很大,而H2O却通过更快捷、更优化的预测模型,能够更加简单迅速地从数据中获得深刻见解。

0xdata H2O的算法是面向业务流程——欺诈或趋势预测。Hadoop专家可以使用Java与H2O相互作用,但框架还提供了对Python、R以及Scala的捆绑。

19.neon

neon 是 Nervana 基于 Python 语言的深度学习框架,在诸多常见的深层神经网络中都能够获得较高的性能,比如AlexNet、VGG 或者GoogLeNet。在设计 neon 时,开发者充分考虑了如下功能:

  • 支持常用的模型及实例,例如 Convnets、 MLPs、 RNNs、LSTMs、Autoencoders 等,其中许多预训练的实现都可以在模型库中发现;
  • 与麦克斯韦GPU中fp16 和 fp32(基准) 的nervanagpu 内核紧密集成;
    • 在Titan X(1 GPU ~ 32 hrs上可完整运行)的AlexNet上为3s/macrobatch(3072图像);
    • 快速影像字幕模型(速度比基于 NeuralTalk 的CPU 快200倍)。
  • 支持基本自动微分;
  • 框架可视化;
  • 可交换式硬盘后端:一次编写代码,然后配置到 CPU、GPU、或者 Nervana 硬盘。

在 Nervana中,neon被用来解决客户在多个域间存在的各种问题。

20.Oryx 2

开源项目Oryx提供了简单且实时的大规模机器学习、预测分析的基础设施。它可实现一些常用于商业应用的算法类:协作式过滤/推荐、分类/回归、集群等。此外,Oryx可利用 Apache Hadoop 在大规模数据流中建立模型,还可以通过HTTP REST API 为这些模型提供实时查询,同时随着新的数据不断流入,可以近似地自动更新模型。这种包括了计算层和服务层的双重设计,能够分别实现一个Lambda 架构。模型在PMML格式交换。

Oryx本质上只做两件事:建模和为模型服务,这就是计算层和服务层两个独立的部分各自的职责。计算层是离线、批量的过程,可从输入数据中建立机器学习模型,它的经营收益在于“代”,即可利用某一点处输入值的快照建模,结果就是随着连续输入的累加,随时间生成一系列输出;服务层也是一个基于Java长期运行的服务器进程,它公开了REST API。使用者可从浏览器中访问,也可利用任何能够发送HTTP请求的语言或工具进行访问。

Oryx的定位不是机器学习算法的程序库,Owen关注的重点有四个:回归、分类、集群和协作式过滤(也就是推荐)。其中推荐系统非常热门,Owen正在与几个Cloudera的客户合作,帮他们使用Oryx部署推荐系统。

21.Shogun

Shogun是一个机器学习工具箱,由Soeren Sonnenburg 和Gunnar Raetsch(创建,其重点是大尺度上的内核学习方法,特别是的学习工具箱。它提供了一个通用的连接到几个不同的SVM实现方式中的SVM对象接口,目前发展最先进的LIBSVM和SVMlight 也位于其中,每个SVM都可以与各种内核相结合。工具箱不仅为常用的内核程序(如线性、多项式、高斯和S型核函数)提供了高效的实现途径,还自带了一些近期的字符串内核函数,例如局部性的改进、Fischer、TOP、Spectrum、加权度内核与移位,后来有效的LINADD优化内核函数也已经实现。

此外,Shogun还提供了使用自定义预计算内核工作的自由,其中一个重要特征就是可以通过多个子内核的加权线性组合来构造的组合核,每个子内核无需工作在同一个域中。通过使用多内核学习可知最优子内核的加权。

目前Shogun可以解决SVM 2类的分类和回归问题。此外Shogun也添加了了像线性判别分析(LDA)、线性规划(LPM)、(内核)感知等大量线性方法和一些用于训练隐马尔可夫模型的算法。

22.HLearn

HLearn是由Haskell语言编写的高性能机器学习库,目前它对任意维度空间有着最快最近邻的实现算法。

HLearn同样也是一个研究型项目。该项目的研究目标是为机器学习发掘“最佳可能”的接口。这就涉及到了两个相互冲突的要求:该库应该像由C/C++/Fortran/Assembly开发的底层库那样运行快速;同时也应该像由Python/R/Matlab开发的高级库那样灵活多变。Julia在这个方向上取得了惊人的进步,但是 HLearn“野心”更大。更值得注意的是,HLearn的目标是比低级语言速度更快,比高级语言更加灵活。

为了实现这一目标,HLearn采用了与标准学习库完全不同的接口。在HLearn中H代表着三个不同的概念,这三个概念也是HLearn设计的基本要求:

·        H代表Haskell。机器学习是从数据中预测函数,所以功能性编程语言适应机器学习是完全说的通的。但功能性编程语言并没广泛应用于机器学习,这是因为它们固来缺乏支持学习算法的快速数值计算能力。HLearn通过采用Haskell中的SubHask库获得了快速数值计算能力;

·        H同时代表着Homomorphisms。Homomorphisms是抽象代数的基本概念,HLearn将该代数结构用于学习系统中;

·        H还代表着History monad。在开发新的学习算法过程中,最为困难的任务之一就是调试优化过程。在此之前,是没有办法减轻调试过程的工作量的,但History monad正在试图解决该问题。它可以让你在整个线程优化代码的过程中无需修改原代码。此外,使用该技术时没有增加其他的运行开销。

23.MLPNeuralNet

MLPNeuralNet是一个针对iOS和MacOS系统的快速多层感知神经网络库,可通过已训练的神经网络预测新实例。它利用了向量运算和硬盘加速功能(如果可用),其建立在苹果公司的加速框架之上。

若你已经用Matlab(Python或R)设计了一个预测模型,并希望在iOS应用程序加以应用。在这种情况下,正好需要MLP NeuralNet,而MLP NeuralNet只能加载和运行前向传播方式的模型。MLP NeuralNet 有如下几个特点:

  • 分类、多类分类以及回归输出;
  • 向量化实现形式;
  • 双精度;
  • 多重隐含层数或空(此时相当于逻辑学/线性回归)。

24.Apache Mahout

Mahout 是Apache Software Foundation(ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序。Mahout包含许多实现,包括聚类、分类、推荐过滤、频繁子项挖掘。此外,通过使用 Apache Hadoop 库,Mahout 可以有效地扩展到云中。Apache Mahout项目的目标是建立一个能够快速创建可扩展、高性能机器学习应用的环境。

虽然在开源领域中相对较为年轻,但 Mahout 已经提供了大量功能,特别是在集群和 CF 方面。Mahout 的主要特性包括:

  • Taste CF,Taste是Sean Owen在SourceForge上发起的一个针对CF的开源项目,并在2008年被赠予Mahout;
  • 一些支持 Map-Reduce 的集群实现包括 k-Means、模糊 k-Means、Canopy、Dirichlet 和 Mean-Shift;
  • Distributed Naive Bayes 和 Complementary Naive Bayes 分类实现;
  • 针对进化编程的分布式适用性功能;
  • Matrix 和矢量库。

使用 Mahout 还可实现内容分类。Mahout 目前支持两种根据贝氏统计来实现内容分类的方法:第一种方法是使用简单的支持 Map-Reduce 的 Naive Bayes 分类器;第二种方法是 Complementary Naive Bayes,它会尝试纠正Naive Bayes方法中的一些问题,同时仍然能够维持简单性和速度。

25.Seldon Server

Seldon是一个开放式的预测平台,提供内容建议和一般的功能性预测。它在Kubernetes集群内运行,因此可以调配到Kubernetes范围内的任一地址:内部部署或云部署(例如,AWS、谷歌云平台、Azure)。另外,它还可以衡量大型企业安装的需求。

26.Datumbox - Framework

Datumbox机器学习框架是用Java编写的一个开源框架,该框架的涵盖大量的机器学习算法和统计方法,并能够处理大尺寸的数据集。

Datumbox API提供了海量的分类器和自然语言处理服务,能够被应用在很多领域的应用,包括了情感分析、话题分类、语言检测、主观分析、垃圾邮件检测、阅读评估、关键词和文本提取等等。目前,Datumbox所有的机器学习服务都能够通过API获取,该框架能够让用户迅速地开发自己的智能应用。目前,基于GPL3.0的Datumbox机器学习框架已经开源并且可以从GitHub上进行下载。

Datumbox的机器学习平台很大程度上已经能够取代普通的智能应用。它具有如下几个显著的优点:

  • 强大并且开源。Datumbox API使用了强大的开源机器学习框架Datumbox,使用其高度精确的算法能够迅速地构建创新的应用;
  • 易于使用。平台API十分易于使用,它使用了REST&JSON的技术,对于所有的分类器;
  • 迅速使用。Datumbox去掉了那些很花时间的复杂机器学习训练模型。用户能够通过平台直接使用分类器。

Datumbox主要可以应用在四个方面:一个是社交媒体的监视,评估用户观点能够通过机器学习解决,Datumbox能够帮助用户构建自己的社交媒体监视工具;第二是搜索引擎优化,其中非常有效的方法就是文档中重要术语的定位和优化;第三点是质量评估,在在线通讯中,评估用户产生内容的质量对于去除垃圾邮件是非常重要的,Datumbox能够自动的评分并且审核这些内容;最后是文本分析,自然语言处理和文本分析工具推动了网上大量应用的产生,平台API能够很轻松地帮助用户进行这些分析。

27.Jubatus

Jubatus库是一个运行在分布式环境中的在线机器学习框架,即面向大数据数据流的开源框架。它和Storm有些类似,但能够提供更多的功能,主要功能如下:

  • 在线机器学习库:包括分类、聚合和推荐;
  • Fv_converter: 数据预处理(用自然语言);
  • 在线机器学习框架,支持容错。

Jubatus认为未来的数据分析平台应该同时向三个方向展开:处理更大的数据,深层次的分析和实时处理。于是Jubatus将在线机器学习,分布式计算和随机算法等的优势结合在一起用于机器学习,并支持分类、回归、推荐等基本元素。根据其设计目的,Jubatus有如下的特点: 

  • 可扩展:支持可扩展的机器学习处理。在普通硬件集群上处理数据速度高达100000条/秒; +实时计算:实时分析数据和更新模型;
  • 深层次的数据分析:支持各种分析计算:分类、回归、统计、推荐等。

如果有基于流数据的机器学习方面的需求,Jubatus值得关注。

28.Decider

Decider 是另一个 Ruby 机器学习库,兼具灵活性和可扩展性。Decider内置了对纯文本和URI、填充词汇、停止词删除、字格等的支持,以上这些都可以很容易地在选项中组合。Decider 可支持Ruby中任何可用的存储机制。如果你喜欢,可以保存到数据库中,实现分布式分类。

Decider有几个基准,也兼作集成测试。这些都是定期运行并用于查明CPU和RAM的瓶颈。Decider可以进行大量数学运算,计算相当密集,所以对速度的要求比较高。这是经常使用Ruby1.9和JRuby测试其计算速度。此外,用户的数据集应该完全在内存中,否则将会遇到麻烦。


2018-09-29 12:43:25 weixin_42061012 阅读数 159
  • 深度学习框架Tensorflow案例实战视频课程

    深度学习框架Tensorflow案例实战视频培训课程概况: Tensorflow是谷歌开源的深度学习(包括机器学习)框架,伴随着人工智能业的兴盛其大名早已响彻云霄。本课程从Tensorflow安装开始讲起,从基本计算结构到深度学习各大神经网络,全程案例代码实战,一步步带大家入门如何使用深度学习框架Tensorflow,玩转Tensorflow模型训练、等所有知识点。

    30863 人正在学习 去看看 唐宇迪

TensorFlow 实战谷歌深度学习框架

  1. 实战谷歌深度学习框架5.2.1
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
INPUT_NODE=784
OUT_NODE=10
LAYER1_NODE=500
BATCH_SIZE=100
LEARNING_RATE_BASE=0.8
LEARNING_RATE_DECAY=0.99
REGULATION_RATE=0.0001
TRAING_STEPS=30000
MOVING_AVERAGE_DECAY=0.99
def inference(input_tensor,avg_class,weight1,biases1,weight2,biases2):
    if avg_class==None:
        layer1=tf.nn.relu(tf.matmul(input_tensor,weight1)+biases1)
        return tf.matmul(layer1,weight2)+biases2
    else:
        layer1=tf.nn.relu(tf.matmul(input_tensor,avg_class.average(weight1))+avg_class.average(biases1))
        return tf.matmul(layer1,avg_class.average(weight2))+avg_class.average(biases2)
    定义训练过程
def train(mnist):
    x=tf.placeholder(tf.float32,shape=[None,INPUT_NODE],name="x-input")
    y_=tf.placeholder(tf.float32,shape=[None,OUT_NODE])
    weight1=tf.Variable(tf.truncated_normal([INPUT_NODE,LAYER1_NODE],stddev=0.1))
    biases1=tf.Variable(tf.constant(0.1,shape=[LAYER1_NODE]))
    weight2=tf.Variable(tf.truncated_normal([LAYER1_NODE,OUT_NODE],stddev=0.1))
    biases2=tf.Variable(tf.constant(0.1,shape=[OUT_NODE]))
    y=inference(x,None,weight1,biases1,weight2,biases2)
    global_step=tf.Variable(0,trainable=False)
    variable_averages=tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY,global_step)
    variables_averages_op= variable_averages.apply(tf.trainable_variables())
    average_y=inference(x,variable_averages,weight1,biases1,weight2,biases2)
    cross_entropy=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y,labels=tf.argmax(y_ ,1))
    cross_entropy_mean=tf.reduce_mean(cross_entropy)
    regularizer=tf.contrib.layers.l2_regularizer(REGULATION_RATE)
    REGULARIZATION=regularizer(weight1)+regularizer(weight2)
    loss= cross_entropy_mean + REGULARIZATION
    learning_rate=tf.train.exponential_decay(LEARNING_RATE_DECAY,
                                                LEARNING_RATE_BASE,
                                                global_step,
                                                mnist.train.num_examples/BATCH_SIZE,
                                                LEARNING_RATE_DECAY)
    train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)
    train_op=tf.group(train_step,variables_averages_op)
    current_prediction=tf.equal(tf.argmax(average_y,1),tf.argmax(y_,1))
    accuracy=tf.reduce_mean(tf.cast(current_prediction,tf.float32))
    with tf.Session() as sess:
        tf.global_variables_initializer().run()
        validate_feed={x:mnist.validation.images,y_:mnist.validation.labels}
        test_feed={x:mnist.test.images,y_:mnist.test.labels}
        for i in range(TRAING_STEPS):
            if i % 1000 ==0:
                validate_acc=sess.run(accuracy,feed_dict=validate_feed)
                print("after %d training steps,test accuracy model is %g"%(i,validate_acc))
            xs,ys=mnist.train.next_batch(BATCH_SIZE)
            sess.run(train_op, feed_dict={x:xs,y_:ys})
        test_acc=sess.run(accuracy,feed_dict=test_feed)
        print("after %d training steps,the current accuracy is %g"%(TRAING_STEPS,test_acc))
def main(argv=None):
    mnist=input_data.read_data_sets("/tmp/data",one_hot=True)
    train(mnist)

if __name__ == '__main__':
    tf.app.run()
after 0 training steps,test accuracy model is 0.1326
after 1000 training steps,test accuracy model is 0.0958
after 2000 training steps,test accuracy model is 0.0958
after 3000 training steps,test accuracy model is 0.0958
after 4000 training steps,test accuracy model is 0.0958
after 5000 training steps,test accuracy model is 0.0958
after 6000 training steps,test accuracy model is 0.0958
after 7000 training steps,test accuracy model is 0.0958
after 8000 training steps,test accuracy model is 0.0958
after 9000 training steps,test accuracy model is 0.0958
after 10000 training steps,test accuracy model is 0.0958
after 11000 training steps,test accuracy model is 0.0958
after 12000 training steps,test accuracy model is 0.0958
after 13000 training steps,test accuracy model is 0.0958
after 14000 training steps,test accuracy model is 0.0958
after 15000 training steps,test accuracy model is 0.0958
after 16000 training steps,test accuracy model is 0.0958
after 17000 training steps,test accuracy model is 0.0958
after 18000 training steps,test accuracy model is 0.0958
after 19000 training steps,test accuracy model is 0.0958
after 20000 training steps,test accuracy model is 0.0958
after 21000 training steps,test accuracy model is 0.0958
after 22000 training steps,test accuracy model is 0.0958
after 23000 training steps,test accuracy model is 0.0958
after 24000 training steps,test accuracy model is 0.0958
after 25000 training steps,test accuracy model is 0.0958
after 26000 training steps,test accuracy model is 0.0958
after 27000 training steps,test accuracy model is 0.0958
after 28000 training steps,test accuracy model is 0.0958
after 29000 training steps,test accuracy model is 0.0958
after 30000 training steps,the current accuracy is 0.098

Process finished with exit code 0

不知为什么,输出的结果小数点后多了一个0,有帅哥看到望指正!

2017-01-24 10:27:29 tangyudi 阅读数 219
  • 深度学习框架Tensorflow案例实战视频课程

    深度学习框架Tensorflow案例实战视频培训课程概况: Tensorflow是谷歌开源的深度学习(包括机器学习)框架,伴随着人工智能业的兴盛其大名早已响彻云霄。本课程从Tensorflow安装开始讲起,从基本计算结构到深度学习各大神经网络,全程案例代码实战,一步步带大家入门如何使用深度学习框架Tensorflow,玩转Tensorflow模型训练、等所有知识点。

    30863 人正在学习 去看看 唐宇迪
深度学习框架Tensorflow案例实战视频课程—26354人已学习
课程介绍    
201804031714104314.png
    深度学习框架Tensorflow案例实战视频培训课程概况: Tensorflow是谷歌开源的深度学习(包括机器学习)框架,伴随着人公智能业的兴盛其大名早已响彻云霄。本课程从Tensorflow安装开始讲起,从基本计算结构到深度学习各大神经网络,全程案例代码实战,一步步带大家入门如何使用深度学习框架Tensorflow,玩转Tensorflow模型训练、等所有知识点。
课程收益
    1.掌握深度学习框架Tensorflow的基本语法
    2.熟练使用Tensorflow进行数据处理
    3.掌握神经网络构建方法,构建各种网络架构
    4.掌握Tensorflow在卷积网络与自然语言处理中的应用方法
    5.掌握Tensorflow的可视化展示方法
讲师介绍
    唐宇迪更多讲师课程
    计算机博士,专注于机器学习与计算机视觉领域,深度学习领域一线实战讲师。在图像识别领域有着丰富经验,实现过包括人脸识别,物体识别,关键点检测等多种应用的新算法。 参与多个国家级计算机视觉项目,多年数据领域培训经验,丰富的教学讲解经验,出品多套机器学习与深度学习系列课程,课程生动形象,风格通俗易懂。
课程大纲
  第1章:Tensorflow基本操作
    1.Tensorflow简介与安装  15:46
    2.Tensorflow中的变量  8:10
    3.变量常用操作  13:38
    4.实现线性回归算法  15:14
    5.Mnist数据集简介  12:53
    6.逻辑回归算法  15:26
  第2章:Tensorflow卷积神经网络
    1.神经网络结构  16:21
    2.卷积网络结构基本定义  17:42
    3.卷积神经网络迭代  13:53
    4.Cifar-10图像分类任务  16:17
  第3章:卷积神经网络实战-猫狗识别
    1.猫狗识别任务概述  13:18
    2.猫狗识别数据读取  12:03
    3.猫狗识别网络架构  18:05
    4.网络迭代训练  16:44
    5.猫狗测试网络效果  8:39
  第4章:RNN递归神经网络实战
    1.RNN网络基本架构  11:58
    2.实现RNN网络架构  13:27
    3.RNN实现自己的小demo  13:54
    4.RNN预测时间序列  18:49
  第5章:致敬经典:ALEXNET网络实战
    1.Alexnet环境配置  15:19
    2.Alexnet数据读取与参数设置  11:56
    3.Alexnet网络结构定义  10:14
    4.Alexnet加载训练好的参数  11:23
  第6章:Tensorboard可视化展示
    1.Tensorboard可视化展示  12:15
    2.Tensorboard展示效果  13:39
    3.Tensorboard统计可视展示  10:16
    4.Tensorboard参数对结果影响展示  17:14
  第7章:tfrecord制作自己的数据集
    1.tfrecord生成自己的数据集  12:39
    2.tfrecord读取数据  11:55
    3.tfrecord生成数据源  18:13
    4.加载tfrecord进行分类任务  24:26
  第8章:CNN应用于文本分类任务
    1.文本分类任务特征定义  13:28
    2.卷积网络定义  15:55
    3.CNN应用于文本分类任务  8:20
    4.完成预测分类任务  15:11
  第9章:resnet残差网络
    1.resnet网络原理  13:21
    2.resnet网络流程设计  11:46
    3.残差网络实现细节  16:52
  第10章:验证码识别实战
    1.验证码数据生成  10:43
    2.构造网络的输入数据和标签  11:57
    3.卷积网络模型定义  13:24
    4.迭代及测试网络效果  10:56
大家可以点击【查看详情】查看我的课程
没有更多推荐了,返回首页