精华内容
下载资源
问答
  • 生成模型和判别模型Intro 介绍 Recently I gave a presentation at work, where I explained how I solved some problem using Conditional Random Fields (CRF). And, since CRF was not so much known to my ...

    生成模型和判别模型

    Intro

    介绍

    Recently I gave a presentation at work, where I explained how I solved some problem using Conditional Random Fields (CRF). And, since CRF was not so much known to my colleagues, I had a couple of slides devoted to the theory behind this algorithm. As I prepared the theory slides, I felt a duty to compare CRF with a conceptually similar algorithm, Hidden Markov Model (HMM). CRF is known to be a discriminative model and HMM is a generative model. I had to refresh my knowledge about this categorisation of supervised machine learning methods, especially generative models. Now I would like to share my understanding of the difference between generative and discriminative models in simple terms.

    最近,我在工作中做了一个演讲,向我解释了如何使用条件随机场(CRF)解决一些问题。 而且,由于我的同事对CRF知之甚少,所以我有几张幻灯片专门讨论了该算法背后的理论。 在准备理论幻灯片时,我感到有责任将CRF与概念上类似的算法,即隐马尔可夫模型(HMM)进行比较 。 众所周知,CRF是一种判别模型,而HMM是一种生成模型。 我必须刷新有关监督式机器学习方法(尤其是生成模型)的分类的知识。 现在,我想简单地分享一下我对生成模型和区分模型之间差异的理解。

    Generative models are a wide class of machine learning algorithms which make predictions by modelling joint distribution P(y, x).

    生成模型是一类广泛的机器学习算法,它们通过对联合分布P(y,x)建模来进行预测。

    Discriminative models are a class of supervised machine learning models which make predictions by estimating conditional probability P(y|x).

    判别模型是一类监督的机器学习模型,通过估计条件概率P(y | x)进行预测

    In order to use a generative model, more unknowns should be solved: one has to estimate probability of each class and probability of observation given class. These probabilities are used to compute joint probability, and finally, joint probability can be used as a substitute for conditional probability to make predictions.

    为了使用生成模型,应该解决更多的未知数:必须估计每个类别的概率和给定类别的观察概率。 这些概率用于计算联合概率,最后,联合概率可以用作条件概率的替代来进行预测。

    Image for post
    Generative model has more steps than discriminative model in order to estimate conditional probability P(y|x)
    生成模型比判别模型具有更多的步骤,以便估计条件概率P(y | x)

    The discriminative model takes a shorter way: it simply estimates conditional probability directly.

    判别模型采用了更短的方法:它只是直接估算条件概率。

    There are many pros and cons to each of the models. I just note that generative model can be used to generate new samples, but it requires more data. Discriminative model often superior than generative model, given the same amount of data, but it does not know about dependencies between features, because it is irrelevant for prediction. Therefore discriminative model can not generate new samples.

    每个模型都有很多优点和缺点。 我只是注意到生成模型可用于生成新样本,但是它需要更多数据。 在给定相同数据量的情况下,判别模型通常优于生成模型,但它不了解要素之间的依赖性,因为它与预测无关。 因此,判别模型无法生成新样本。

    Now let’s take a closer look at the concept of generative models.

    现在,让我们仔细看看生成模型的概念。

    Generative model

    生成模型

    As I showed earlier, to make predictions, conditional distribution P(y|x) is enough. But since P(y|x) = P(y, x) / P(x), where P(x) is constant for the given x and all possible y, it is valid to use joint distribution P(y, x) to make predictions.

    如我先前所示,要进行预测,条件分布 P(y | x) 就足够了。 但是由于 P(y | x)= P(y,x)/ P(x) ,其中 P(x) 对于给定 x 所有可能的 y 都是常数 ,因此使用联合分布 P(y,x) 是有效的 做出预测。

    By modelling joint distribution P(y, x) is meant that for each pair (yᵢ, xᵢ) a probability P(yi, xi) is known (modelled). At the beginning it was a bit difficult for me to understand how it is even possible — the range of possible values of X might be enormous, so it’s gonna be unrealistic to suggest probabilities for each xi, leave alone pair (yi, xi). How is it supposed to be done?

    通过对联合分布P(y,x)进行建模意味着对于每一对( yᵢ,xᵢ) 已知概率P(yi,xi) (已建模)。 刚开始时,我很难理解它的可能性-X的可能值范围可能很大,因此建议每个xi的概率,而对( yixi)单独给出概率将是不现实的 应该怎么做?

    First. Bayes theorem! It breaks computation of joint probability P(y,x) into computation of two other types of probabilities: probability of class, P(y), and probability of observation given class, P(x|y).

    第一。 贝叶斯定理! 它将联合概率P(y,x)的计算分解为另外两种类型的概率的计算:类概率P(y)和给定类观察概率P(x | y)。

    P(y, x) = P(y) * P(x|y)

    P(y,x)= P(y)* P(x | y)

    What benefits does it give? This way it is at least easier to figure out probability P(y), because it can be estimated from the dataset by computing class frequencies. P(x|y) is trickier, because usually x is not just one feature, but a set of features: x = xi, …, xn, which might have dependencies between each other.

    它有什么好处? 这样,至少可以容易地找出概率P(y) ,因为可以通过计算类别频率从数据集中进行估计。 P(x | y)比较棘手,因为通常x不仅是一个特征,而且是一组特征: x = xi,…,xn ,它们之间可能存在依赖关系

    P(x|y) = П P(xi|y, x1, xi-1, xi+1, xn)

    P(x | y)=ПP(xi | y,x1,xi-1,xi + 1,xn)

    Often the dependencies between the features are not known, especially when they appear in complex constellations (y, x1, xi-1, xi+1, xn).

    通常,这些特征之间的依存关系是未知的,尤其是当它们出现在复杂的星座( y,x1,xi-1,xi + 1,xn)中时

    So what should be done to estimate P(x|y)? For this, there is the following trick:

    那么,应该怎么做才能估计P(x | y)呢? 为此,有以下技巧:

    Second. Make wild assumptions! Or just some assumptions which make estimation of P(x|y) tractable. Naive Bayes classifier can serve as a perfect example of a generative model with such assumption, which makes computation of P(x|y) easier. Namely, it has independence assumption between the features xi, …, xn.

    第二。 做出疯狂的假设! 或者只是使P(x | y)的估算变得容易的一些假设。 在这种假设下,朴素贝叶斯分类器可以用作生成模型的完美示例,这使得P(x | y)的计算更加容易。 即,它在特征xi,…,xn之间具有独立性假设

    P(x|y) = П P(xi|y)

    P(x | y)=ПP(xi | y)

    With this relaxation, estimation of P(x|y) is tractable, because every P(xi|y) can be estimated either by finding frequencies of discrete feature xi independently from other features or using Gaussian distribution, if feature xi is continuous.

    通过这种放宽, P(x | y)的估计是易于处理的,因为如果特征xi是连续的,则可以通过独立于其他特征找到离散特征xi的频率或使用高斯分布来估计每个P(xi | y)

    Conclusion

    结论

    So now you can see that in order to use generative models one should be prepared to estimate two types of probabilities P(y) and P(x|y). At the same time, discriminative models estimate conditional probability P(y|x) directly, which often is more efficient because one does not estimate dependencies between features, as these relationships don’t necessarily contribute to the prediction of the target variable.

    因此,现在您可以看到,为了使用生成模型,应该准备一个估计两种类型的概率P(y)P(x | y)。 同时,判别模型直接估算条件概率P(y | x) ,这通常更为有效,因为人们不估算特征之间的依赖性,因为这些关系不一定有助于目标变量的预测。

    翻译自: https://medium.com/@tanyadembelova/introduction-to-generative-and-discriminative-models-9c9ef152b9af

    生成模型和判别模型

    展开全文
  • 生成模型和判别模型

    2020-12-03 22:08:04
    生成模型 判别模型

    机器学习的任务从本质上讲是从输入到输出的一个映射,该映射称之为模型,模型我们可以用决策函数Y=f(X)Y=f(X)【或P(YX)P(Y|X)】来表示。

    在监督学习这些模型的过程中,依据得到决策函数(P(YX)P(Y|X))方式的不同,可以将模型分为生成模型和判别模型:

    生成模型

    生成模型是通过贝叶斯公式P(YX)=P(X,Y)P(X)P(Y|X)=\frac{P(X,Y)}{P(X)}的方式来得到决策函数P(YX)P(Y|X)

    典型的生成模型有:

    朴素贝叶斯,隐马尔可夫

    判别模型

    判别模型是由数据直接学习决策函数P(YX)P(Y|X)的【因此,博主认为不通过生成方式的都可以认为是判别模型】

    典型的判别模型有:

    k近邻,感知机,决策树,逻辑回归,最大熵模型,支持向量机,提升方法和条件随机场

    才疏学浅,难免有错误和不当之处,欢迎留言交流批评指正!

    展开全文
  • 生成模型 VS 判别模型

    2018-10-23 09:50:07
    监督学习方法又分生成方法(Generative approach)和判别方法...判别模型:由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。基本思想是有限样本条件下建立判别函数,不考虑样本的...

    监督学习方法又分生成方法(Generative approach)和判别方法(Discriminative approach),所学到的模型分别称为生成模型(Generative Model)和判别模(Discriminative Model)。

    判别模型:由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。基本思想是有限样本条件下建立判别函数,不考虑样本的产生模型,直接研究预测模型。典型的判别模型包括k近邻,感知级,决策树,支持向量机等。

    生成模型:由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。基本思想是首先建立样本的联合概率概率密度模型P(X,Y),然后再得到后验概率P(Y|X),再利用它进行分类。常见的有NB HMM模型。

    生成模型与判别模型 - CSDN博客 机器学习“判定模型”和“生成模型‘有什么区别? 机器学习--判别式模型与生成式模型 - 博临天下 - 博客园

    简单来说,判别模型就是直接采用输入特征去预测输出,或者说是条件概率。而生成模型关注的是抓去样本的分布特征,通过建立每个类别的特征分布,最终建立的很多类别的生成器来觉得到底哪个最像。

    展开全文
  • 生成模型,判别模型

    2019-04-07 16:08:38
    区别:监督学习模型可分为生成模型与判别模型 优缺点 常见模型 区别:监督学习模型可分为生成模型与判别模型 判别模型直接学习决策函数或者条件概率分布 直观来说,判别模型学习的是类别之间的最优分隔面...

    目录

     

    区别:监督学习模型可分为生成模型与判别模型

    优缺点

    常见模型


    区别:监督学习模型可分为生成模型判别模型

    • 判别模型直接学习决策函数或者条件概率分布

      • 直观来说,判别模型学习的是类别之间的最优分隔面,反映的是不同类数据之间的差异

    • 生成模型学习的是联合概率分布P(X,Y),然后根据条件概率公式计算 P(Y|X)

    优缺点

    • 判别模型

      • 优点

        • 直接面对预测,往往学习的准确率更高

        • 由于直接学习 P(Y|X)f(X),可以对数据进行各种程度的抽象,定义特征并使用特征,以简化学习过程

      • 缺点

        • 不能反映训练数据本身的特性

        • ...

    • 生成模型

      • 优点

        • 可以还原出联合概率分布 P(X,Y),判别方法不能

        • 学习收敛速度更快——即当样本容量增加时,学到的模型可以更快地收敛到真实模型

        • 当存在“隐变量”时,只能使用生成模型

      • 缺点

        • 学习和计算过程比较复杂

    常见模型

    • 判别模型

      • K 近邻、感知机(神经网络)、决策树、逻辑斯蒂回归、最大熵模型、SVM、提升方法、条件随机场

    • 生成模型

      • 朴素贝叶斯、隐马尔可夫模型、混合高斯模型、贝叶斯网络、马尔可夫随机场

    https://blog.csdn.net/lk7688535/article/details/52353350

    展开全文
  • 生成模型与判别模型

    万次阅读 多人点赞 2012-11-17 23:24:42
    生成模型与判别模型 zouxy09@qq.com http://blog.csdn.net/zouxy09  一直在看论文的过程中遇到这个问题,折腾了不少时间,然后是下面的一点理解,不知道正确否。若有错误,还望各位前辈不吝指正,以免小弟一错再...
  • 判别模型与生成模型

    2019-12-31 14:50:11
    参考: 统计方法分析-李航 前言   机器学习的任务一般就是学习一个模型,生成一个模型。对给定的输入预测相应的输出,这个模型的一般形式为决策函数 : Y = f(X),...一、判别模型 1.1、概念 二、生成模型 ...
  • 生成模型VS判别模型

    2020-08-25 19:44:20
    监督学习方法可以分为生成方法和判别方法,所学习得到的模型分别为生成模型和判别模型。 生成模型定义 生成方法由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型: 典型...
  • 判别模型和生成模型

    2018-09-17 16:42:00
    概念 生成模型(Generative Modeling): 学习时先得到 P(x,y),继而得到 P(y|x)。预测时应用最大后验概率法(MAP)得到预测类别 y。...他们之间有一种联系,生成模型可以得到判别模型,而判别模型不能...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 5,081
精华内容 2,032
关键字:

判别模型