精华内容
下载资源
问答
  • 今天补了一下机器学习的数学知识,突然又遇到了判别模型和生成模型这两个词语,之前学习统计学习方法的时候也遇到过,当时就模模糊糊的,如今再遇到,发现我还是没明白, 但这次哪有轻易再放过去之理?所以查了很多...
  • 生成模型和判别模型

    2018-04-18 17:19:00
    生成模型判别模型的比较:生成模型: 1生成方法可以还原出联合概率分布,而判别方法不能 2生成方法的学习收敛速度更快 3当存在隐变量时,仍然可以使用生成方法学习,而判别方法则不能。判别模型: 1判别方法.....

    • 生成模型:生成方法由数据学习联合概率分布,然后求出条件概率分布作为预测的模型,即生成模型。
    • 判别模型:由数据直接学习决策函数或者条件概率分布作为预测的模型,即判别模型。
    • 生成模型与判别模型的比较:
    • 生成模型:
         1生成方法可以还原出联合概率分布,而判别方法不能

         2生成方法的学习收敛速度更快

         3当存在隐变量时,仍然可以使用生成方法学习,而判别方法则不能。

    • 判别模型:

         1判别方法直接学习的是条件概率分布或决策函数,直接面对预测,往往学习的准确率更高

         2由于直接学习条件概率分布或者决策函数,可以对数据进行抽象、定义特征并使用特征,因此可以简化学习问题。

    • 常见的生成模型有:

           朴素贝叶斯、隐马尔可夫模型

    • 常见的判别模型有:

           KNN、LR、SVM、RF、AdaBoost

    展开全文
  • 生成模型和判别模型的解释与举例

    千次阅读 2021-01-05 01:12:32
    文章目录前言一、生成模型和判别模型的概念?二、个人理解三,生成模型和判别模型举例 前言 在有监督学习中,不管是机器学习算法还是深度学习算法都可以分为生成学习和判别学习两种。 一、生成模型和判别模型的概念...


    前言

    在有监督学习中,不管是机器学习算法还是深度学习算法都可以分为生成学习和判别学习两种。

    一、生成模型和判别模型的概念?

    从概率分布的角度考虑,对于一堆样本数据,每个均有特征Xi对应分类标记yi。

    生成模型:学习得到联合概率分布P(x,y),即特征x和标记y共同出现的概率,然后求条件概率分布。能够学习到数据生成的机制。

    判别模型:学习得到条件概率分布P(y|x),即在特征x出现的情况下标记y出现的概率。

    数据要求:生成模型需要的数据量比较大,能够较好地估计概率密度;而判别模型对数据样本量的要求没有那么多。

    二、个人理解

    无论是生成还是判别模型都是来求有监督模型的,目的是通过分类函数或者条件概率函数进行数据分类。

    算出属于正负样本的概率在相互对比的就是生成模型,直接得到结果概率的就是判别模型:生成模型得分布,判别模型得最优划分。换句话说,生成模型,就是生成(数据的分布)的模型;判别模型,就是判别(数据输出量)的模型。

    生成模型可以得到判别模型,反之不成立。

    生成模型是求联合概率分布,判别模型是求条件概率分布。

    生成方法的学习收敛速度更快,当样本容量增加的时候,学到的模型可以更快的收敛于真实模型。

    判别学习不能反映训练数据本身的特性,但它寻找不同类别之间的最优分类面,反映的是异类数据之间的差异,直接面对预测,往往学习的准确率高于生成模型。

    简单的说,生成模型是从大量的数据中找规律,属于统计学习;而判别模型只关心不同类型的数据的差别,利用差别来分类。

    三,生成模型和判别模型举例

    生成式模型:

    朴素贝叶斯
    混合高斯模型
    隐马尔科夫模型(HMM)
    贝叶斯网络
    Sigmoid Belief Networks
    马尔科夫随机场(Markov Random Fields)
    深度信念网络(DBN)

    判别式模型:

    K近邻(KNN)
    线性回归(Linear Regression)
    逻辑回归(Logistic Regression)
    神经网络(NN)
    支持向量机(SVM)
    高斯过程(Gaussian Process)
    条件随机场(CRF)
    CART(Classification and Regression Tree)


    展开全文
  • 如何区分生成模型和判别模型

    千次阅读 2019-06-10 18:00:08
    生成模型和判别模型 简单的概念 监督学习的目标是学习的得到一个模型,通过这个模型对给定的输出,得到一个特定的输出,从而预测该数据的类别。这个模型可以称为 classifier。这个模型对应的函数一般是 Y=f(X)Y=f(X)...

    生成模型和判别模型

    简单的概念

    监督学习的目标是学习的得到一个模型,通过这个模型对给定的输出,得到一个特定的输出,从而预测该数据的类别。这个模型可以称为 classifier。这个模型对应的函数一般是 Y = f ( X ) Y=f(X) Y=f(X)或者是 P ( Y ∣ X ) P(Y|X) P(YX) (在数理统计中,随机变量是 x x x,样例是 X X X)。

    对于决策函数 Y = f ( X ) Y=f(X) Y=f(X)类型,需要设置一个阈值 t h r e s h o l d threshold threshold用于判断。

    对于条件概率分布 P ( Y ∣ X ) P(Y|X) P(YX),由于计算的是属于所有类型的概率,因此选取概率最大的。完成判别。

    两者的关联:

    两者其实在本质上是一样的。

    当网络使用的是 Y = f ( X ) Y=f(X) Y=f(X)的形式的时候,训练的时候采用的是 M S E MSE MSE,该目标函数使得网络可以输出和真实标签(一般采用 o n e _ h o t one\_hot one_hot编码)最接近的 Y Y Y,这其实是一种极大似然思想。对于给定的 ( X , Y ) (X,Y) (X,Y),该次训练网络使得其输出和真实的标签 Y Y Y逼近(最大化其发生的概率),也就是最大化$ P(Y|X)=1 $ 或者是$ P(Y|X)=0 ( 这 里 的 似 然 是 对 ∗ ∗ 发 生 ∗ ∗ 而 言 的 , 哪 个 事 件 发 生 了 , 其 对 应 的 概 率 就 要 达 到 极 值 。 ) 因 此 , 这 里 的 输 出 其 实 就 是 (这里的似然是对**发生**而言的,哪个事件发生了,其对应的概率就要达到极值。)因此,这里的输出其实就是 P(Y|X)$。

    当然,当取 P ( Y ∣ X ) P(Y|X) P(YX)的时候,就只直接使用本质函数。。。。

    生成方法和判别方法

      监督学习分为生成方法(Generative approach)和判别方法(Discriminative approach)。建立的模型分别为生成模型和判别模型。

    判别模型

      由数据直接学习得到一个判别函数( Y = f ( X ) Y=f(X) Y=f(X)或者 P ( Y ∣ X ) P(Y|X) P(YX))。典型的判别模型主要有:K近邻,支持向量机,决策树。。。判别模型只关注于如何分类(如何对给定的数据空间进行特征映射和区分,找到最优的分类面)。模型主要反应的是不同类别之间的差异性。判别模型直接对预测进行建模,效率高,效果比较好。

    生成模型

      由数据学习联合概率密度分布 P ( X , Y ) P(X,Y) P(X,Y),(概率密度分布函数用于采样,产生更多该数据集的数据),然后再根据贝叶斯公式求出 P ( Y ∣ X ) P(Y|X) P(YX)作为预测模型,即生成模型: P ( Y ∣ X ) = P ( X , Y ) / P ( X ) P(Y|X)=P(X,Y)/P(X) P(YX)=P(X,Y)/P(X)。生成模型需要无穷多的样本才可以达到理论是的预测,因为对于 P ( X ) P(X) P(X),需要很多的样本才可以使得其比较可靠。典型的生成模型有朴素贝叶斯,隐马尔可夫模型等。生成模型关注与数据本身,而不像判别模型,关注于最优的分类界面。生成模型还可以用于带有隐层的的模型中,此时的判别模型是无法使用的。

    生成模型和判别模型在深度网络中的对应关系

    深度网络可以模拟很多的概率分布函数。

    判别模型  分类网络的输出拟合的就是 P ( Y ∣ X ) P(Y|X) P(YX)。假设网络的参数是 ϕ \phi ϕ ,根据最大似然原理进行训练,网络的输入是 X X X,网络的输出是 P ( Y ∣ X ) P(Y|X) P(YX)。写成数学表达式是: P ( Y ∣ X ) = f ϕ ( X ) P(Y|X)=f_\phi(X) P(YX)=fϕ(X)

    生成模型  网络拟合的是 P ( X , Y ) P(X,Y) P(X,Y),联合概率密度分布函数,之后再利用 P ( Y ∣ X ) = P ( X , Y ) / P ( X ) P(Y|X)=P(X,Y)/P(X) P(YX)=P(X,Y)/P(X),进行判别。这里的生成模型是一个很狭义的概念!!!(因为这里只是在有监督学习学习中,生成模型解决分类的一种情况)。实际中,生成模型(Generative Model)是概率统计和机器学习中的一个概念,指一系列用于随机生成可观测数据的模型。生成模型有两个基本功能,一是学习一个概率分布,即密度估计问题,二是生成数据。对于有监督学习情况下,典型的生成模型有:朴素贝叶斯法、隐马尔科夫模型、混合高斯模型。这些模型都是对 P ( X , Y ) P(X,Y) P(X,Y)直接进行建模的,最后采用贝叶斯推断得到数据属于的类别。广义上的生成模型,是对数据本身进行建模,用于产生新的数据(GAN和VAE等)。例如VAE中图像的生成采用的是隐层变量的形式: P ( X , Z ) = P ( Z ) × P ( X ∣ Z ) P(X,Z)=P(Z)\times P(X|Z) P(X,Z)=P(Z)×P(XZ)。蒙特卡洛近似 E [ f ( X ) ] = ∫ f ( x ) p ( x ) d x ≈ 1 S ∑ s = 1 S f ( x s ) E[f(X)]=\int f(x)p(x)dx \approx \frac{1}{S}\sum_{s=1}^{S}f(x_s) E[f(X)]=f(x)p(x)dxS1s=1Sf(xs),最后得到的是 P ( X ) ≈ P ( X ∣ Z ) P(X) \approx P(X|Z) P(X)P(XZ),其中的 Z Z Z来自于采样一次。生成模型是用于生成数据的,特别是对于生成图像,那么这体现在哪里呢?如果网络可以对 X X X进行建模,得到一个 P ( X ) P(X) P(X),且该 P ( X ) ≈ P g t ( X ) P(X) \approx P_{gt}(X) P(X)Pgt(X),那么我们就可以采用该概率分布函数间采样,得到新的数据(注意,这里是没有加入标签的时候),这时候我们就得到一个生成模型 P ( X ) P(X) P(X)

    深度网络对概率的建模:以上的两种都是深度网络对概率的建立,但是需要注意一点,网络的输出不一定就是 P ( X P(X P(X)或者 P ( Y ∣ X ) P(Y|X) P(YX)。例如对于 P ( Y ∣ X ) P(Y|X) P(YX)是gaussian的时候,网络可以是对 ( μ , σ ) (\mu,\sigma) (μ,σ)的输出。(理解网络的建模对象以及网络的输出是不一样的!!!千万不要混淆!!)而且网络中的数据在输出输出的时候,带有逻辑上的传递,例如,先验概率,后验概率的形成等。

    以下采用VAE中的例子来对深度网络对概率的建模做一些解释:

    VAE对真实后验概率 P ( Z ∣ X ) P(Z|X) P(ZX)的拟合是采用的MLP进行拟合,网络输出的是 ( μ 1 , σ 1 ) (\mu_1,\sigma_1) (μ1,σ1),网络建模的是 Q ( Z ∣ X ) = N ( μ 1 , σ 1 ) Q(Z|X)=N(\mu_1,\sigma_1) Q(ZX)=N(μ1,σ1),网络的输出是 X X X。这里的模型称为recognize。 model。网络的后半段是对P(X|Z)的建模,网络的输出是 ( μ 2 ) (\mu_2) (μ2),而 σ 2 \sigma_2 σ2手动设定为一个很小的值,网络最终建模的概率分布函数 P ( X ∣ Z ) = N ( μ 2 , σ 2 ) P(X|Z)=N(\mu_2,\sigma_2) P(XZ)=N(μ2,σ2)。网络的输入是 Z Z Z,而 Z Z Z是依概率从前面的recognize的输出中采样得到的。(这里可以直接理解成从 P ( Z ) P(Z) P(Z)中采样即可)。因此,网络最终的的输出逻辑是 P ( Z ) P ( X ∣ Z ) = P ( X , Z ) P(Z)P(X|Z)=P(X,Z) P(Z)P(XZ)=P(X,Z)。如果对最后的结果只采样一次的话(y由于最后的结果取决于对Z的采样,因此,就是对Z只采样一次),那么就会得到 P ( X ) ≈ P ( X ∣ Z ) P(X)\approx P(X|Z) P(X)P(XZ)。由于当 σ 2 \sigma_2 σ2取值很小的时候,网络的输出是 μ 2 \mu_2 μ2,此时采样很多的样本很接近 μ 2 \mu_2 μ2,因此可以认为网络的输出就是X。而不用再对 P ( X ) P(X) P(X)进行采样(此时也无法采样??因为采样需要知道具体的表达式??)。网络最后的输出是近似的 X X X,网络建模的是 P ( X ∣ Z ) P(X|Z) P(XZ)
    以上就是具体的分析。关于VAE可以看我的下一篇博文。

    本人的论述会存在很多的问题,希望大家指出,我尽量改正!!!!

    references

    【深度学习进阶模型详解】概率图模型/深度生成模型/深度强化学习,复旦邱锡鹏老师《神经网络与深度学习》教程分享05

    【机器学习基础】生成模型和判别模型

    生成模型与判别模型

    机器学习“判定模型”和“生成模型”有什么区别?

    展开全文
  • 生成模型和判别模型的对比

    千次阅读 2017-09-23 12:18:28
    1 前言监督学习就是学习一个模型(或得到一个目标函数),再用这个模型,对给定的数据进行预测。...例如两类(w1w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了X的类别。条件概率分布P

    1 前言

    监督学习就是学习一个模型(或得到一个目标函数),再用这个模型,对给定的数据进行预测。
    这个模型的一般形式为一个决策函数Y=f(X),或者条件概率分布P(Y|X)。

    决策函数Y=f(X):输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了X的类别。

    条件概率分布P(Y|X):输入一个X,它通过比较它属于所有类的概率,然后输出概率最大的那个作为X的类别。例如:如果P(w1|X)大于P(w2|X),那么就认为X是属于w1类的。

    两个模型都能实现对给定的输入X预测相应的类别Y的功能。
    实际上通过条件概率分布P(Y|X)进行预测也是隐含着表达成决策函数Y=f(X)的形式的。
    而同样,实际上决策函数Y=f(X)也是隐含着使用P(Y|X)的。
    因为一般决策函数Y=f(X)是通过学习算法使预测和训练数据之间的误差平方最小化,而贝叶斯告诉我们,虽然它没有显式的运用贝叶斯或者以某种形式计算概率,但它实际上也是在隐含的输出极大似然假设(MAP假设)。也就是说学习器的任务是在所有假设模型有相等的先验概率条件下,输出极大似然假设。

    两个模型都能实现对给定的输入X预测相应的类别Y的功能。
    实际上,通过条件概率分布P(Y|X)进行预测隐含着表达成决策函数Y=f(X)的形式的。例如两类w1和w2,如果我们求得了P(w1|X)和P(w2|X),那么实际上判别函数就可以表示为Y= P(w1|X)/P(w2|X),如果Y大于1或者某个阈值,那么X就属于类w1,如果小于阈值就属于类w2。
    而同样,决策函数Y=f(X)也隐含着使用P(Y|X)的。因为一般决策函数Y=f(X)是通过学习算法使预测和训练数据之间的误差平方最小化,而贝叶斯告诉我们,虽然它没有显式的运用贝叶斯或者以某种形式计算概率,但它实际上也是在隐含的输出极大似然假设(MAP假设)。也就是说学习器的任务是在所有假设模型有相等的先验概率条件下,输出极大似然假设。

    所以分类器的设计是在给定训练数据的基础上估计其概率模型P(Y|X)。如果可以估计出来,那么就可以分类。但一般来说,概率模型是比较难估计的。给一堆数,特别是数不多的时候,很难找到这些数满足的规律。

    那能否不依赖概率模型直接设计分类器呢?事实上,分类器就是一个决策函数(或决策面),如果能够从要解决的问题和训练样本出发直接求出判别函数,就不用估计概率模型了,这就是决策函数Y=f(X)的任务。例如支持向量机,当已经知道它的决策函数(分类面)是线性时(也就是可以表示成Y=f(X)=WX+b的形式),那么通过训练样本来学习得到W和b的值就可以得到Y=f(X)了。
    还有一种更直接的分类方法,不用事先设计分类器,而只是确定分类原则,根据已知样本(训练样本)直接对未知样本进行分类。包括近邻法,它不会在进行具体的预测之前求出概率模型P(Y|X)或者决策函数Y=f(X),而是在真正预测的时候,将X与训练数据的各类的Xi比较,和哪些比较相似,就判断它X也属于Xi对应的类。

    2 概述

    监督学习方法可以分为生成方法(generative approach)和判别方法(discriminative approach)。所学到的模型分别为生成模型(generative model)和判别模型(discriminative model)。

    判别方法:由数据直接学习决策函数Y=f(X)或者条件概率(后验概率)分布P(Y|X)作为预测的模型,即判别模型。基本思想是有限样本条件下建立判别函数,不考虑样本的产生模型,直接研究预测模型。
    典型的判别模型: k近邻法、感知机、决策树、逻辑斯蒂回归模型、最大熵模型、支持向量机、boosting方法和条件随机场等。判别模型利用正负例和分类标签,关注在判别模型的边缘分布。

    建模流程为:有限样本 => 判别函数 = 预测模型 => 预测

    生成方法:由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。基本思想是首先建立样本的联合概率密度模型P(X,Y),然后再得到后验概率P(Y|X),再利用它进行分类,就像上面说的那样。
    注意:这里是先求出P(X,Y)再得到P(Y|X)的,而且这个过程中还得先求出P(X)。P(X)是训练数据的概率分布。当数据样本非常多的时候,得到的P(X)才能很好的描述数据真正的分布。

    建模流程为:无穷样本 => 概率密度模型 = 产生模型 => 预测

    还有一个问题是,机器学习领域有个约定俗成的说法:不要去学那些对这个任务没用的东西。例如,对于一个分类任务:对一个给定的输入x,将它划分到一个类y中。那么,如果我们用生成模型:p(x,y)=p(y|x)×p(x)

    那就需要去对p(x)建模,这增加了工作量。而且因为数据的稀疏性,导致人们都是被强迫地用弱独立性假设去对p(x)建模,产生了局限性,所以人们更趋向于直观的使用判别模型去分类。

    这种方法之所以称为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系。生成模型一般被用在基于随机生成的观察值建模(特别是给定某些隐藏参数)的情况下。
    典型的有:朴素贝叶斯法、马尔科夫模型、高斯混合模型。这种方法一般建立在统计学和Bayes理论的基础之上。

    3 优缺点

    两种方法各有优缺点,适合于不同条件的学习问题。

    生成方法的特点

    • 生成方法学习联合概率密度分布P(X,Y),所以可以从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度,但不关心到底划分各类的那个分类边界在哪;
    • 生成方法可以还原出联合概率分布P(Y|X),而判别方法不能;
    • 生成方法的学习收敛速度更快,即当样本容量增加的时候,学到的模型可以更快的收敛于真实模型;
    • 当存在隐变量时,仍可以用生成方法学习,此时判别方法不能用;
    • 研究类内部问题更加灵活;
    • 对数据不完整,适应更好;
    • 学习计算更加复杂;
    • 倾向于得到false positive.

    判别方法的特点

    • 判别方法直接学习的是决策函数Y=f(X)或者条件概率分布P(Y|X),不能反映训练数据本身的特性;
    • 寻找不同类别之间的最优分类面,反映的是异类数据之间的差异;
    • 直接面对预测,往往学习的准确率更高;
    • 由于直接学习P(Y|X)或P(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题;
    • 不能得到每一类的特征;
    • 变量关系不清晰,不可视。

    4 联系

    由生成模型可以得到判别模型,由判别模型得不到生成模型。

    (1)训练时,二者优化准则不同
    生成模型优化训练数据的联合分布概率;
    判别模型优化训练数据的条件分布概率,判别模型与序列标记问题有较好的对应性。

    (2)对于观察序列的处理不同
    生成模型中,观察序列作为模型的一部分;
    判别模型中,观察序列只作为条件,因此可以针对观察序列设计灵活的特征。

    (3)训练复杂度不同
    判别模型训练复杂度较高。

    (4)是否支持无指导训练
    生成模型支持无监督训练。

    (5)本质区别
    判别模型估计的是条件概率分布 p(class|context)
    生成模型估计的是联合概率分布 p(class, context)=p(class|context)*p(context)

    5 栗子

    例如有一个输入数据x,任务是将其分类为标签y。

    生成模型学习联合概率分布p(x,y),而判别模型学习条件概率分布p(y|x)。

    现已有以下(x,y)形式的数据:(1,0), (1,0), (2,0), (2, 1)

    那么p(x,y)是:

        y=0   y=1
    
        -----------
    
    x=1 | 1/2   0
    
    x=2 | 1/4   1/4
    

    而p(y|x) 是:

        y=0   y=1
    
        -----------
    
    x=1 | 1     0
    
    x=2 | 1/2   1/2
    

    为了将样本x分类到一个类y,最自然的做法是条件概率分布p(y|x),这就是为什么直接求p(y|x)方法叫做判别算法。而生成算法求p(x,y),可以通过贝叶斯方法转化为p(y|x),然后再用其分类。但p(x,y)还有其他作用,比如可以用它去生成(x,y)对。

    再假如任务是识别一个语音属于哪种语言。对面一个人走过来,说了一句话,要想识别出他说的到底是汉语、英语还是法语等。可以有两种方法达到这个目的:

    • 学习每一种语言,花了大量精力把汉语、英语和法语等都学会了。然后再有人过来说话,就可以知道他说的是什么语言。

    • 不去学习每一种语言,只学习这些语言模型之间的差别,然后再分类。因为汉语和英语等语言的发音是有差别的,只要学会这种差别就行。

    那么第一种方法就是生成方法,第二种方法是判别方法。

    生成模型尝试去找到底这个数据是怎么生成的(产生的),然后再对一个信号进行分类。基于生成假设,哪个类别最有可能产生这个信号,这个信号就属于那个类别。
    判别模型不关心数据是怎么生成的,它只关心信号之间的差别,然后用差别来简单对给定的一个信号进行分类。

    本篇博客整理自:
    生成模型和判别模型
    机器学习基础: 生成模型和判别模型
    统计机器学习 - 李航

    展开全文
  • 机器学习与深度学习里生成模型和判别模型的理解

    万次阅读 多人点赞 2018-05-10 15:20:51
    这篇博客是自己在学习生成模型判别模型过程中的一些记录,整理了相关的文章后写成,感谢前辈们的辛苦总结转载自:...
  • 生成模型: 学习时先得到 P(x,y),继而得到 P(y|x)。预测时应用最大后验概率法(MAP)得到预测类别 y。 判别模型: 直接学习得到P(y|x),利用MAP得到 y。或者直接学得一个映射函数 y=f(x)。 直观上看 生成模型: ...
  • 生成式:朴素贝叶斯、HMM、Gaussians、马尔科夫随机场 判别式:LR(逻辑回归)、SVM(支持向量机)、神经网络、CRF、Boosting
  • 生成模型,就是生成(数据的分布)的模型; 判别模型,就是判别(数据输出量)的模型。 生成式模型: 朴素贝叶斯! 混合高斯模型! 隐马尔科夫模型(HMM)! 贝叶斯网络 Sigmoid Belief Networks 马尔科夫随机场...
  • 对于机器学习模型,我们可以根据模型对数据的建模方式将模型分为两大类,生成模型和判别式模型。如果我们要训练一个关于猫狗分类的模型,对于判别式模型,只需要学习二者差异即可。比如说猫的体型会比狗小一点。而...
  • ... LRSVM异同比较: 同: 1、LRSVM都是分类算法。 2、在不考虑核函数的情况下,LRSVM都是线性分类算法,其分类决策面都是线性的。 3、LRSVM都是监督学习算法...
  • 训练集用于训练模型,测试集用于验证模型的好坏。监督学习就像学生在学习时已知题目答案,去学习分析如何解题一样,下次遇到一样的或者类似的题目就会做了。 监督学习包括: 决策树 KNN(K近邻算法) LDA(线性...
  • 融合生成模型和判别模型的双层 RBM 运动捕获数据语义识别算法
  • 生成模型判别模型的区别与联系

    千次阅读 2018-12-19 12:31:46
    1、概述 监督学习的任务就是学习一个模型,应用这一模型,对给定的输入预测相应的输出。这个模型的一般形式为决策函数: ...所学到的模型分别称为生成模型(generative model)和判别模型(discriminative mode...
  • 监督学习的任务是学习一个模型,应用这一模型,对给定的输入预测相应的...所学到的模型分别称为生成模型和判别模型生成方法由数据学习联合概率分布P(X,Y)P(X,Y)P(X,Y),然后求出条件概率分布P(Y∣X)P(Y|X)P(Y∣X...
  • 生成模型判别模型的区别与理解

    千次阅读 2020-10-16 10:14:07
    监督学习方法可分为判别方法和生成方法。 判别方法(Discriminative approach) 由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。判别方法关心的是对于给定的输入X,应该预测什么...
  •  由生成模型可以得到判别模型,但由判别模型得不到生成模型。   五、再形象点可以吗  例如我们有一个输入数据x,然后我们想将它分类为标签y。(迎面走过来一个人,你告诉我这个是男的还是女的)  ...
  • 理解生成模型判别模型

    千次阅读 2018-10-10 17:51:03
    我们都知道,对于有监督的机器学习中的分类问题,求解问题的算法可以分为生成模型判别模型两种类型。但是,究竟什么是生成模型,什么是判别模型?不少书籍技术文章对这对概念的解释是含糊的。在今天这篇文章中,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 32,838
精华内容 13,135
关键字:

生成模型和判别模型