精华内容
下载资源
问答
  • 机器学习分类

    万次阅读 多人点赞 2019-06-18 01:12:51
    机器学习通常分为四类 监督学习 无监督学习 半监督学习 强化学习 目录 监督学习 监督学习有两个典型的分类: 常见的监督学习算法 无监督学习 常见的无监督学习算法 无监督学习算法常见工作 半监督 ...

    机器学习通常分为四类

    • 监督学习
    • 无监督学习
    • 半监督学习
    • 强化学习

     

    目录

    监督学习

    监督学习有两个典型的分类:

    常见的监督学习算法

    无监督学习

    常见的无监督学习算法

    无监督学习算法常见工作

    半监督

    强化学习

    其他


    监督学习

    监督学习是从标记训练数据来推断一个功能的机器学习任务。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。

     

                                                                                  监督学习

     

    监督学习有两个典型的分类:

    • 分类(离散的数据)
      比如上面的邮件过滤就是一个二分类问题,分为正例即正常邮件,负例即垃圾邮件。

     

    • 回归(从连续的数据,进行预测)
      回归的任务是预测目标数值,比如房屋的价格,给定一组特性(房屋大小、房间数等),来预测房屋的售价。

    常见的监督学习算法

    • k-Nearest Neighbors (K近邻算法)
    • Linear Regression      (线性回归)
    • Logistic Regression    (逻辑回归)
    • Support Vector Machines (SVMs)   (支持向量机)
    • Decision Trees and Random Forests   (决策树 和 随机深林)
    • Neural networks          (神经网络)

     

     

    无监督学习

    我们有一些问题,但是不知道答案,我们要做的无监督学习就是按照他们的性质把他们自动地分成很多组,每组的问题是具有类似性质的(比如数学问题会聚集在一组,英语问题会聚集在一组,物理........)
    所有数据只有特征向量没有标签,但是可以发现这些数据呈现出聚群的结构,本质是一个相似的类型的会聚集在一起。把这些没有标签的数据分成一个一个组合,就是聚类(Clustering)

     

                                                                                 聚类

     

    常见的无监督学习算法

    • Clustering
      • k-Means
      • Hierarchical Cluster Analysis (HCA)
      • Expectation Maximization
    • Visualization and dimensionality reduction
      • Principal Component Analysis (PCA)
      • Kernel PCA
      • Locally-Linear Embedding (LLE)
      • t-distributed Stochastic Neighbor Embedding (t-SNE)
    • Association rule learning
      • Apriori
      • Eclat

    无监督学习算法常见工作

    • 降维
      降维的目标是简化数据,但是损失尽量少的信息。一个方法是将几个相似的特征或者代表一个属性的几个特征提取成一个特征,也是我们通常说的特征提取。

     

    • 异常检测
      比如说检测信用卡欺诈,我们用正例来训练模型,然后当一个新的实例到来的时候,判断是否像正实例,否则就是负例。

       

    • 关联规则
      可以参照啤酒喝尿布的例子

     

    半监督

    半监督学习在训练阶段结合了大量未标记的数据少量标签数据。与使用所有标签数据的模型相比,使用训练集的训练模型在训练时可以更为准确,而且训练成本更低。在现实任务中,未标记样本多、有标记样本少是一个比价普遍现象,如何利用好未标记样本来提升模型泛化能力,就是半监督学习研究的重点。要利用未标记样本,需假设未标记样本所揭示的数据分布信息与类别标记存在联系。

     

    强化学习

    所谓强化学习就是智能系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大。如果Agent的某个行为策略导致环境正的奖赏(强化信号),那么Agent以后产生这个行为策略的趋势便会加强 -《百科》
    简单来说就是给你一只小白鼠在迷宫里面,目的是找到出口,如果他走出了正确的步子,就会给它正反馈(糖),否则给出负反馈(点击),那么,当它走完所有的道路后。无论比把它放到哪儿,它都能通过以往的学习找到通往出口最正确的道路。强化学习的典型案例就是阿尔法狗。

     

    其他

    此外机器学习还有其它的分类方式,比如批量学习和在线学习,也可分为参数学习和非参数学习



    作者:听城          致敬
    链接:https://www.jianshu.com/p/a65e7928e79f

     

    展开全文
  • 介绍机器学习相关,大致了解什么是机器学习,以及机器学习分类、基本用途。完整版请下载PDFhttp://download.csdn.net/download/u011626960/10255071

    介绍机器学习相关,大致了解什么是机器学习,以及机器学习分类、基本用途。













    完整版请下载PDF

    http://download.csdn.net/download/u011626960/10255071

    展开全文
  • Matlab玩转机器学习分类

    千次阅读 2019-09-05 15:02:50
    常见的机器学习分类算法有Logistic回归、SVM、K-means,这些算法原理可以在网上搜到,然后通过matlab代码实现。然而,matlab有其强大的工具库,善用这个就可以事半功倍。 今天介绍的是matlab的是classification ...

    常见的机器学习分类算法有Logistic回归、SVM、K-means,这些算法原理可以在网上搜到,然后通过matlab代码实现。然而,matlab有其强大的工具库,善用这个就可以事半功倍。

    今天介绍的是matlab的是classification learner,这个内置的app可以完成PCA、logistics、svm、knn等一众操作,而且用起来也非常得方便。

    首先,要玩就要有数据,这里我直接编一套数据来玩:

    x=rand(20,3);
    x1=x(:,1);
    x2=x(:,2);
    x3=x(:,3);
    y=4*x1+0.5*x2+3*x3+normrnd(0,1);
    for i=1:size(y)
        if y(i)>5
            y(i)=0;
        else
            y(i)=1;
        end
    end

    以上代码是生成了20个变量,共3个特征,输出是0-1.一个简单的二分类数据集。

    打开classification learner,导入数据“from workspace”,首先选择导入的变量,然后设置变量类型。

    后面的暂时可以不用管,点击start session.

    黑框是PCA,红框中有各种各样的机器学习分类方法,左侧是我训练的模型,右侧是作图信息以及标签信息。

    上方有train按钮,点击后开始训练,训练完成,点击export model,选择第一项Export Model。

    在主界面重新生成数据,然后调用模型,调用模型的格式如下:

    label_test = trainedClassifier.predictFcn(data_test)

    其中trainclassifier就是你生成的模型的名字。

    然后可以对比下label_test与真实情况,计算准确率,具体的代码就不写了。

    展开全文
  • 常见机器学习分类

    千次阅读 2019-03-15 20:24:17
    机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。本文为您总结一下常见的机器学习算法,以供您在工作和学习中参考。 机器学习的算法很多。很多时候困惑人们都...

    https://blog.csdn.net/sinat_31337047/article/details/78247609

    机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。本文为您总结一下常见的机器学习算法,以供您在工作和学习中参考。

    机器学习的算法很多。很多时候困惑人们都是,很多算法是一类算法,而有些算法又是从其他算法中延伸出来的。这里,我们从两个方面来给大家介绍,第一个方面是学习的方式,第二个方面是算法的类似性。

    学习方式
    根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种主要的学习方式。将算法按照学习方式分类是一个不错的想法,这样可以让人们在建模和算法选择的时候考虑能根据输入数据来选择最合适的算法来获得最好的结果。

    监督式学习:
     

    在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中“垃圾邮件”“非垃圾邮件”,对手写数字识别中的“1“,”2“,”3“,”4“等。在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。监督式学习的常见应用场景如分类问题和回归问题。常见算法有逻辑回归(Logistic Regression)和反向传递神经网络(Back Propagation Neural Network)

    非监督式学习:


    在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的应用场景包括关联规则的学习以及聚类等。常见算法包括Apriori算法以及k-Means算法。

    半监督式学习:


    在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预测,但是模型首先需要学习数据的内在结构以便合理的组织数据来进行预测。应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。如图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM.)等。

     

    强化学习:


    在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。常见的应用场景包括动态系统以及机器人控制等。常见算法包括Q-Learning以及时间差学习(Temporal difference learning)

     

    在企业数据应用的场景下, 人们最常用的可能就是监督式学习和非监督式学习的模型。 在图像识别等领域,由于存在大量的非标识的数据和少量的可标识数据, 目前半监督式学习是一个很热的话题。 而强化学习更多的应用在机器人控制及其他需要进行系统控制的领域。

     

    算法类似性
     
    根据算法的功能和形式的类似性,我们可以把算法分类,比如说基于树的算法,基于神经网络的算法等等。当然,机器学习的范围非常庞大,有些算法很难明确归类到某一类。而对于有些分类来说,同一分类的算法可以针对不同类型的问题。这里,我们尽量把常用的算法按照最容易理解的方式进行分类。

    回归算法:


    回归算法是试图采用对误差的衡量来探索变量之间的关系的一类算法。回归算法是统计机器学习的利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。常见的回归算法包括:最小二乘法(Ordinary Least Square),逻辑回归(Logistic Regression),逐步式回归(Stepwise Regression),多元自适应回归样条(Multivariate Adaptive Regression Splines)以及本地散点平滑估计(Locally Estimated Scatterplot Smoothing)

    基于实例的算法
     

    基于实例的算法常常用来对决策问题建立模型,这样的模型常常先选取一批样本数据,然后根据某些近似性把新数据与样本数据进行比较。通过这种方式来寻找最佳的匹配。因此,基于实例的算法常常也被称为“赢家通吃”学习或者“基于记忆的学习”。常见的算法包括 k-Nearest Neighbor(KNN), 学习矢量量化(Learning Vector Quantization, LVQ),以及自组织映射算法(Self-Organizing Map , SOM)

     

    正则化方法
     

    正则化方法是其他算法(通常是回归算法)的延伸,根据算法的复杂度对算法进行调整。正则化方法通常对简单模型予以奖励而对复杂算法予以惩罚。常见的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及弹性网络(Elastic Net)。

     

    决策树学习


    决策树算法根据数据的属性采用树状结构建立决策模型, 决策树模型常常用来解决分类和回归问题。常见的算法包括:分类及回归树(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林(Random Forest), 多元自适应回归样条(MARS)以及梯度推进机(Gradient Boosting Machine, GBM)

     

    贝叶斯方法


    贝叶斯方法算法是基于贝叶斯定理的一类算法,主要用来解决分类和回归问题。常见算法包括:朴素贝叶斯算法,平均单依赖估计(Averaged One-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN)。

     

    基于核的算法
     

    基于核的算法中最著名的莫过于支持向量机(SVM)了。 基于核的算法把输入数据映射到一个高阶的向量空间, 在这些高阶向量空间里, 有些分类或者回归问题能够更容易的解决。 常见的基于核的算法包括:支持向量机(Support Vector Machine, SVM), 径向基函数(Radial Basis Function ,RBF), 以及线性判别分析(Linear Discriminate Analysis ,LDA)等

     

    聚类算法
     

    聚类,就像回归一样,有时候人们描述的是一类问题,有时候描述的是一类算法。聚类算法通常按照中心点或者分层的方式对输入数据进行归并。所以的聚类算法都试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。常见的聚类算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。

     

    关联规则学习
     

    关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则。常见算法包括 Apriori算法和Eclat算法等。

     

    人工神经网络
     

     

    人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法。(其中深度学习就是其中的一类算法,我们会单独讨论),重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network), 反向传递(Back Propagation), Hopfield网络,自组织映射(Self-Organizing Map, SOM)。学习矢量量化(Learning Vector Quantization, LVQ)

     

    深度学习
     

    深度学习算法是对人工神经网络的发展。 在近期赢得了很多关注, 特别是百度也开始发力深度学习后, 更是在国内引起了很多关注。   在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷积网络(Convolutional Network), 堆栈式自动编码器(Stacked Auto-encoders)。

     

    降低维度算法
     

    像聚类算法一样,降低维度算法试图分析数据的内在结构,不过降低维度算法是以非监督学习的方式试图利用较少的信息来归纳或者解释数据。这类算法可以用于高维数据的可视化或者用来简化数据以便监督式学习使用。常见的算法包括:主成份分析(Principle Component Analysis, PCA),偏最小二乘回归(Partial Least Square Regression,PLS), Sammon映射,多维尺度(Multi-Dimensional Scaling, MDS),  投影追踪(Projection Pursuit)等。

     

    集成算法:


    集成算法用一些相对较弱的学习模型独立地就同样的样本进行训练,然后把结果整合起来进行整体预测。集成算法的主要难点在于究竟集成哪些独立的较弱的学习模型以及如何把学习结果整合起来。这是一类非常强大的算法,同时也非常流行。常见的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆叠泛化(Stacked Generalization, Blending),梯度推进机(Gradient Boosting Machine, GBM),随机森林(Random Forest)。
    --------------------- 
    作者:扶朕起来嗨 
    来源:CSDN 
    原文:https://blog.csdn.net/sinat_31337047/article/details/78247609 
    版权声明:本文为博主原创文章,转载请附上博文链接!

    展开全文
  • 主流监督式机器学习分类算法

    千次阅读 2017-05-16 09:10:48
    基于机器学习的波形分类算法比较 姓名:欧阳强强 学号:169559 摘要:机器学习是未来解决工程实践问题的一个重要思路。本文采比较了目前监督式学习中几种主流的分类算法(决策树、SVM、贝叶斯、KNN、随机森林、...
  • 常见的机器学习分类模型

    千次阅读 2019-06-30 17:30:17
    Spark mllib包含的分类模型有:逻辑回归,决策树,随机森林,梯度提升树,多层感知机,线性SVM,朴素贝叶斯。 回归模型有:线性回归,决策树回归,随机森林回归,梯度提升树回归,生存回归,保序回归。 在spark ...
  • ML之分类预测:以六类机器学习算法(kNN、逻辑回归、SVM、决策树、随机森林、提升树、神经网络)对糖尿病数据集(8→1)实现二分类模型评估案例来理解和认知机器学习分类预测的模板流程 目录 六类机器学习算法(kNN...
  • 从McNemar检验到机器学习分类

    千次阅读 2018-07-30 10:28:42
    统计假设检验的选择是解释机器学习结果的一个具有挑战性的开放问题。 在1998年被广泛引用的论文中,Thomas Dietterich在训练多份分类器模型副本昂贵而且不切实际的情况下推荐了McNemar检验。 它描述了深度学习模型...
  • 机器学习风靡全球,模型算法层出不穷,但是评价指标相对来说比较单一,可谓万变不离其宗 准确率、精确率、召回率、F1F1F_1-score 我们以分类算法为例,假设班里有50个同学,其中男生30个,女生20个,...
  • 机器学习分类模型评价指标详述

    万次阅读 多人点赞 2018-09-10 11:38:37
    机器学习解决问题的通用流程:问题建模——特征工程——模型选择——模型融合 其中问题建模主要包括:设定评估指标,选择样本,交叉验证 解决一个机器学习问题都是从问题建模开始,首先需要收集问题的资料,深入...
  • 机器学习经典算法的C语言代码,比如:ID3算法 人脸识别源代码 K紧邻算法、人工神经网络
  • 机器学习分类篇-最邻近规则分类KNN

    千次阅读 2016-10-12 17:03:17
    最邻近规则分类算法(K-Nearest Neighbor),Cover和Hart在1968年提出了最初的邻近算法,也被称为基于实例的学习或懒惰学习
  • logistic回归 (分类) 深度神经网络 无监督学习(Unsupervised Learning)数据集为(x)一些无监督学习技术包括: 自编码(Autoencoding) 主成分分析(Principal components analysis) 随机森林(R
  • 机器学习分类: – 监督学习 – 无监督学习 – 半监督学习 – 强化学习 监督学习 – 定义:训练是提供学习系统训练样本即样本对应标签,也城有导师学习 – 最终目标:根据学习过程获得经验技能,对没学习过的问题...
  • 机器学习的基本分类模型: KNN,决策树,naive bayes,逻辑回归,SVM,adaboostKNN:一种直接的学习方法,通过相似的近邻投票分类。模型不确定性有三:距离度量(相似性度量),特征权重分配,投票权重。不确定性...
  • 因为在实际中常常遇到失衡数据集的分类问题,在我的译文应对非均衡数据集分类问题的八大策略中,其中一种策略就是改变衡量模型性能的计算方式,那么怎么衡量模型分类性能呢? 有ROC曲线,有混淆矩阵,有对应的实例 ...
  • 机器学习(Machine learning)领域,监督学习(Supervised learning)、非监督学习(Unsupervised learning)以及半监督学习(Semi-supervised learning)是三类研究比较多,应用比较广的学习技术 监督学习:通过已有的...
  • (1)朴素贝叶斯(Naive Bayes,简称NB):最简单的监督学习分类器,这个分类器模型是建立在每一个类别的特征向量服从正态分布的基础上的(据说不满足独立分布,效果也很好),因此也被称为概率分类器。整个分布函数...
  • 机器学习分类算法应该如何选择?

    千次阅读 2014-11-24 16:10:00
    如何针对某个分类问题决定使用何种机器学习算法? 当然,如果你真心在乎准确率,最好的途径就是测试一大堆各式各样的算法(同时确保在每个算法上也测试不同的参数),最后选择在交叉验证中表现最好的。倘若你只是想...
  • 分类中如何处理训练集中不平衡问题 Jason Brownlee的回答 什么是类别不均衡问题类别不均衡问题是现实中很常见的问题八大解决方法选择某一种方法并使用它总结Further Reading Sergey Feldman的回答Kripa ...
  • 机器学习的学习形式分类

    千次阅读 2020-02-25 13:10:18
    机器学习可以分为: 有监督 无监督 半监督 强化学习 看到上面的强化学习的领域:需要连续决策 看到上面的强化学习的领域:需要连续决策 看到上面的强化学习的领域:需要连续决策 线性回归是解决回归问题,即预测...
  • 机器学习分类

    千次阅读 2017-11-30 18:59:05
    目前机器学习主流分为:监督学习,无监督学习,强化学习。 监督学习: 监督学习可分为“回归”和“分类”问题。 在回归问题中,我们会预测一个连续值。也就是说我们试图将输入变量和输出用一个连续函数...
  • 机器学习方法分类总结

    千次阅读 2018-09-25 13:53:38
    机器学习方法分类总结 这篇文章只是一个类似于知识概括的文章,主要作用是帮忙梳理: 分类 贝叶斯模型(Bayesian Mode) - 朴素贝叶斯算法(Naive Bayesian Mode) - 平均单依赖估计(AveragedOne-Dependence ...
  • 机器学习分类与主要算法对比

    万次阅读 多人点赞 2017-05-31 23:22:21
    机器学习分类与主要算法对比重要引用:Andrew Ng Courera Machine Learning;从机器学习谈起;关于机器学习的讨论;机器学习常见算法分类汇总;LeNet Homepage;pluskid svm 首先让我们瞻仰一下当今机器学习领域...
  • 浅谈机器学习分类

    千次阅读 2018-09-12 20:52:31
    机器学习、人工智能、深度学习...这些词汇相信大家已经在无数个场合看到了,那么...机器学习的主要任务便是聚焦于两个问题:分类和回归。 分类相信大家都不会陌生,生活中会见到很多的应用,比如垃圾邮件识别、信用...
  • 机器学习方法的图像分类

    热门讨论 2011-12-26 09:34:20
    有界面 机器学习方法多种方法的图像分类器源码 基于svm ,贝叶斯 ,等多种方法 , 有界面 机器学习方法多种方法的图像分类器源码 基于svm ,贝叶斯 ,等多种方法 ,
  • 打开微信扫一扫,关注微信公众号【数据与算法联盟】 转载请注明出处:... 机器学习算法可以按照不同的标准进行分类。比如按函数f(X)的不同,机器学习算法可以分为线性模型和非线性模型;按照学习准则的...
  • 机器学习算法分类

    千次阅读 2016-11-26 11:27:36
    算法分类(1): 有监督学习 分类算法和回归算法 无监督学习 聚类算法 半监督学习  算法分类(2): 根据要解决的问题进行的分类 分类与回归 ...机器学习中常见的算法: 参考慕课网的一个资料:

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 333,810
精华内容 133,524
关键字:

机器学习分类