精华内容
下载资源
问答
  • 生成模型与判别模型

    2017-09-10 16:57:21
    生成模型生成模型是学得各个类别各自的特征(即可看成学得多个模型),可用这些特征数据和要进行分类的数据进行比较,看新数据和学得的模型中哪个最相近,进而确定新数据属于哪一类。 举个例子:若分类目标是对...

    概念理解

    监督学习方法可分为两大类,即生成方法与判别方法,它们所学到的模型称为生成模型与判别模型。

    • 判别模型:判别模型是学得一个分类面(即学得一个模型),该分类面可用来区分不同的数据分别属于哪一类;
    • 生成模型:生成模型是学得各个类别各自的特征(即可看成学得多个模型),可用这些特征数据和要进行分类的数据进行比较,看新数据和学得的模型中哪个最相近,进而确定新数据属于哪一类。

    举个例子:若分类目标是对图像中的大象和狗进行分类。判别方法学得一个模型,这个模型可能是判断图中动物鼻子的长度是否大于某一阈值,若大于则判断为大象,否则判断为狗;生成学习则分别构建一个大象的特征模型与狗的特征模型,来了一个新图像后,分别用大象模型与狗模型与其进行比较,若新图像与狗相似度更高则判断为狗,否则判断为大象。

    相关数学理论

    若已知某分类任务的生成模型,是可以求得该任务的判别模型,反之则不行。这和概率论中的全概率密度函数以及边沿概率密度函数是一致的(即已知全概率密度可求得边沿概率密度,但已知边沿概率密度不能求得全概率密度)。

    例如:若现在已知一个二分类问题获得的5个训练数据为:(1,0),(1,0),(2,0),(2,1),(2,1)
    1、全概率分布P(X,Y)如下表所示

    X\Y 0 1
    1 2/5 0
    2 1/5 2/5

    注意:根据全概率分布,可以推导出如下边沿概率分布P(Y|X)以及P(X)。

    2、边沿概率分布P(Y|X)如下表所示

    X\Y 0 1
    1 1 0
    2 1/3 2/3

    注意:根据边沿概率分布,不可以推导出全概率分布。例如,此例中边沿概率分布对应的全概率分布可能如下:

    X\Y 0 1
    1 4/7 0
    2 1/7 2/7

    由上述例子可知,生成模型的信息比判别模型信息要更全一些。

    两类方法的特点

    生成方法通常需要无穷多样本,进而学习一个联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)=P(X,Y)/P(X)来对新输入的数据进行分类。

    此类方法之所以成为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系。典型的生成模型有:朴素贝叶斯法、马尔科夫模型、高斯混合模型。这种方法一般建立在统计学和Bayes理论的基础之上。

    生成方法的特点:

    • 从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度;
    • 生成方法还原出联合概率分布,而判别方法不能;
    • 生成方法的学习收敛速度更快、即当样本容量增加的时候,学到的模型可以更快地收敛于真实模型;
    • 当存在隐变量时,仍然可以用生成方法学习,此时判别方法不能用

    判别方法可以根据有限个样本获得一个判别函数(即判别模型),然后用它来对新数据进行分类。典型的判别模型包括:k近邻法、感知机、决策树、逻辑斯蒂回归模型、最大熵模型、支持向量机、boosting方法和条件随机场等。

    判别方法的特点:

    • 判别方法寻找不同类别之间的最优分类面,反映的是异类数据之间的差异;
    • 判别方法利用了训练数据的类别标识信息,直接学习的是条件概率P(Y|X)或者决策函数f(X),直接面对预测,往往学习的准确率更高;
    • 由于直接学习条件概率P(Y|X)或者决策函数f(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题;
    • 缺点是不能反映训练数据本身的特性。

    两类方法的应用

    根据所获取的数据,两类方法都有各自的用场。例如:我们若只有人的侧面数据,我们当然不知道这个人是否长得帅、美,但我们可做(男、女)、(有耳、无耳)分类。用生成模型来做的话,则表示这个人全部信息都有了,当然能做的分类更多了。

    参考文献

    统计学习方法 李航著,清华大学出版社
    图解机器学习
    生成模型与判别模型
    斯坦福第五章:判别学习方法和生成学习方法的区别
    生成模型和判别模型

    展开全文
  • 决策函数Y=f(X):输入一个特征为X的样本,模型输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如二分类(Y1和Y2)问题,如果Y大于阈值,特征为X的样本就属于类Y1,如果Y小于阈值就属于类Y2。...

    (一) 、监督学习下的判别式和生成式模型

    监督学习的任务就是学习一个模型,应用这一模型,对给定特征的的输入样本,预测样本相应的输出。这个模型的一般形式为决策函数:Y=f(X)或者条件概率分布:P(Y|X)

    1. 决策函数Y=f(X):输入一个特征为X的样本,模型输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如二分类(Y1和Y2)问题,如果Y大于阈值,特征为X的样本就属于类Y1,如果Y小于阈值就属于类Y2。通过决策函数的输出直接就能得到特征为X的样本对应的类别了。

    2. 条件概率分布P(Y|X):输入一个特征为X的样本,模型通过比较它属于的所有可能类别的概率,然后输出概率最大的那个,作为特征为X的样本所属的类别。例如二分类问题,如果模型计算出P(Y1|X) > P(Y2|X),那么就认为特征为X的样本是属于Y1类的。

    监督学习方法又可以分为生成方法(generative approach)和判别方法(discriminative approach)。所学到的模型分别称为生成模型(generative model)和判别模型(discriminative model)。

    1. 生成方法:先由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的
      模型,即生成模型的形式:P(Y|X)=P(Y,X) / P(X).这样的方法之所以称为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系。生成模型有:朴素贝叶斯法隐马尔可夫模型。

    2. 判别方法:由数据直接学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型,即是判别模型。判别方法关心的是对给定的输入X,应该预测什么样的输出Y,它在有限样本条件下建立判别函数,不考虑样本的产生模型。典型的判别模型包括**:k近邻法、感知机、决策树、逻辑斯谛回归模型、最大熵模型、支持向量机、提升方法和条件随机场。

    (二) 、判别式和生成式模型各自的特点
    在监督学习中,生成方法和判别方法各有优缺点,适合于不同条件下的学习问题。

    生成方法的特点:

    1. 生成方法可以还原出联合概率分布P(X,Y),而判别方法则不能;

    2. 生成模型需要学习联合概率分布P(Y,X)和特征的概率分布P(X),准确的估计概率分布才能得到更好的模型,而P(x)是基于统计来得到的,直觉告诉我们样本越多,那么有限数据体现出的概率分布P(x)越能够接近无限数据的真实分布,因此生成模型对样本数据量需求较大。

    3. 生成方法的学习收敛速度更快,即当样本容量增加的时候,学到的模型可以更快地收敛于真
      实模型;

    4. 当存在隐变量时,仍可以用生成方法学习,此时判别方法就不能用。

    判别方法的特点:

    1. 判别方法直接学习的是条件概率P(Y|X)或决策函数f(X),直接面对预测,往往学习的准确率更高;

    2. 判别模型对数据样本数量要求不严格,样本数量或多或少都能进行模型的学习。

    3. 判别模型由于直接学习了P(Y|X)或f(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题。

    判决模型有一个很关键的因素就是要先人为的选择一个判决机制(例如LR,SVM是构造决策超平面进行分类等等),生成模型基于统计学和贝叶斯理论。

    参考:
    [1]《神经网络与深度学习》吴岸城
    [2]《统计学习方法》李航
    [3]https://blog.csdn.net/zouxy09/article/details/8195017

    展开全文
  • 概念理解 ...生成模型生成模型是学得各个类别各自的特征(即可看成学得多个模型),可用这些特征数据和要进行分类的数据进行比较,看新数据和学得的模型中哪个最相近,进而确定新数据属于哪一类。 ...

    概念理解

    监督学习方法可分为两大类,即生成方法与判别方法,它们所学到的模型称为生成模型与判别模型。

    • 判别模型:判别模型是学得一个分类面(即学得一个模型),该分类面可用来区分不同的数据分别属于哪一类;
    • 生成模型:生成模型是学得各个类别各自的特征(即可看成学得多个模型),可用这些特征数据和要进行分类的数据进行比较,看新数据和学得的模型中哪个最相近,进而确定新数据属于哪一类。

    举个例子:若分类目标是对图像中的大象和狗进行分类。判别方法学得一个模型,这个模型可能是判断图中动物鼻子的长度是否大于某一阈值,若大于则判断为大象,否则判断为狗;生成学习则分别构建一个大象的特征模型与狗的特征模型,来了一个新图像后,分别用大象模型与狗模型与其进行比较,若新图像与狗相似度更高则判断为狗,否则判断为大象。

    相关数学理论

    若已知某分类任务的生成模型,是可以求得该任务的判别模型,反之则不行。这和概率论中的全概率密度函数以及边沿概率密度函数是一致的(即已知全概率密度可求得边沿概率密度,但已知边沿概率密度不能求得全概率密度)。

    例如:若现在已知一个二分类问题获得的5个训练数据为:(1,0),(1,0),(2,0),(2,1),(2,1) 
    1、全概率分布P(X,Y)如下表所示

    X\Y01
    1 2/5 0
    2 1/5 2/5

    注意:根据全概率分布,可以推导出如下边沿概率分布P(Y|X)以及P(X)。

    2、边沿概率分布P(Y|X)如下表所示

    X\Y01
    1 1 0
    2 1/3 2/3

    注意:根据边沿概率分布,不可以推导出全概率分布。例如,此例中边沿概率分布对应的全概率分布可能如下:

    X\Y01
    1 4/7 0
    2 1/7 2/7

    由上述例子可知,生成模型的信息比判别模型信息要更全一些。

    两类方法的特点

    生成方法通常需要无穷多样本,进而学习一个联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)=P(X,Y)/P(X)来对新输入的数据进行分类。

    此类方法之所以成为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系。典型的生成模型有:朴素贝叶斯法、马尔科夫模型、高斯混合模型。这种方法一般建立在统计学和Bayes理论的基础之上。

    生成方法的特点:

    • 从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度;
    • 生成方法还原出联合概率分布,而判别方法不能;
    • 生成方法的学习收敛速度更快、即当样本容量增加的时候,学到的模型可以更快地收敛于真实模型;
    • 当存在隐变量时,仍然可以用生成方法学习,此时判别方法不能用

    判别方法可以根据有限个样本获得一个判别函数(即判别模型),然后用它来对新数据进行分类。典型的判别模型包括:k近邻法、感知机、决策树、逻辑斯蒂回归模型、最大熵模型、支持向量机、boosting方法和条件随机场等。

    判别方法的特点:

    • 判别方法寻找不同类别之间的最优分类面,反映的是异类数据之间的差异;
    • 判别方法利用了训练数据的类别标识信息,直接学习的是条件概率P(Y|X)或者决策函数f(X),直接面对预测,往往学习的准确率更高;
    • 由于直接学习条件概率P(Y|X)或者决策函数f(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题;
    • 缺点是不能反映训练数据本身的特性。

    两类方法的应用

    根据所获取的数据,两类方法都有各自的用场。例如:我们若只有人的侧面数据,我们当然不知道这个人是否长得帅、美,但我们可做(男、女)、(有耳、无耳)分类。用生成模型来做的话,则表示这个人全部信息都有了,当然能做的分类更多了。

     

    转载自:https://blog.csdn.net/quintind/article/details/77923147

    转载于:https://www.cnblogs.com/xiaoshayu520ly/p/9079435.html

    展开全文
  • 一、决策函数Y=f(X)或者条件概率分布P(Y|X)  监督学习的任务就是从数据中学习一... 决策函数Y=f(X):你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问

    转载于:http://blog.csdn.net/zouxy09/article/details/8195017

    一、决策函数Y=f(X)或者条件概率分布P(Y|X)

           监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出Y。这个模型的一般形式为决策函数Y=f(X)或者条件概率分布P(Y|X)

           决策函数Y=f(X)你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了该X对应的类别了。

           条件概率分布P(Y|X)你输入一个X,它通过比较它属于所有类的概率,然后输出概率最大的那个作为该X对应的类别。例如:如果P(w1|X)大于P(w2|X),那么我们就认为X是属于w1类的。

            所以上面两个模型都可以实现对给定的输入X预测相应的输出Y的功能。实际上通过条件概率分布P(Y|X)进行预测也是隐含着表达成决策函数Y=f(X)的形式的。例如也是两类w1和w2,那么我们求得了P(w1|X)和P(w2|X),那么实际上判别函数就可以表示为Y= P(w1|X)/P(w2|X),如果Y大于1或者某个阈值,那么X就属于类w1,如果小于阈值就属于类w2。而同样,很神奇的一件事是,实际上决策函数Y=f(X)也是隐含着使用P(Y|X)的。因为一般决策函数Y=f(X)是通过学习算法使你的预测和训练数据之间的误差平方最小化,而贝叶斯告诉我们,虽然它没有显式的运用贝叶斯或者以某种形式计算概率,但它实际上也是在隐含的输出极大似然假设(MAP假设)。也就是说学习器的任务是在所有假设模型有相等的先验概率条件下,输出极大似然假设。

            所以呢,分类器的设计就是在给定训练数据的基础上估计其概率模型P(Y|X)如果可以估计出来,那么就可以分类了。但是一般来说,概率模型是比较难估计的。给一堆数给你,特别是数不多的时候,你一般很难找到这些数满足什么规律吧。那能否不依赖概率模型直接设计分类器呢?事实上,分类器就是一个决策函数(或决策面),如果能够从要解决的问题和训练样本出发直接求出判别函数,就不用估计概率模型了,这就是决策函数Y=f(X)的伟大使命了。例如支持向量机,我已经知道它的决策函数(分类面)是线性的了,也就是可以表示成Y=f(X)=WX+b的形式,那么我们通过训练样本来学习得到W和b的值就可以得到Y=f(X)了。还有一种更直接的分类方法,它不用事先设计分类器,而是只确定分类原则,根据已知样本(训练样本)直接对未知样本进行分类。包括近邻法,它不会在进行具体的预测之前求出概率模型P(Y|X)或者决策函数Y=f(X),而是在真正预测的时候,将X与训练数据的各类的Xi比较,和哪些比较相似,就判断它X也属于Xi对应的类。

           实际上,说了那么多,也不知道自己表达清楚了没有。那我们是谈生成模型和判别模型,上面到底啰嗦了那么多到底有啥阴谋啊?呵呵,往下说就知道了。

     

    二、生成方法和判别方法

           监督学习方法又分生成方法(Generative approach)和判别方法(Discriminative approach),所学到的模型分别称为生成模型(Generative Model)和判别模型(Discriminative Model)。咱们先谈判别方法,因为它和前面说的都差不多,比较容易明白。

           判别方法:由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。基本思想是有限样本条件下建立判别函数,不考虑样本的产生模型,直接研究预测模型。典型的判别模型包括k近邻,感知级,决策树,支持向量机等。

           生成方法:由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。基本思想是首先建立样本的联合概率概率密度模型P(X,Y),然后再得到后验概率P(Y|X),再利用它进行分类,就像上面说的那样。注意了哦,这里是先求出P(X,Y)才得到P(Y|X)的,然后这个过程还得先求出P(X)。P(X)就是你的训练数据的概率分布。哎,刚才说了,需要你的数据样本非常多的时候,你得到的P(X)才能很好的描述你数据真正的分布。例如你投硬币,你试了100次,得到正面的次数和你的试验次数的比可能是3/10,然后你直觉告诉你,可能不对,然后你再试了500次,哎,这次正面的次数和你的试验次数的比可能就变成4/10,这时候你半信半疑,不相信上帝还有一个手,所以你再试200000次,这时候正面的次数和你的试验次数的比(就可以当成是正面的概率了)就变成5/10了。这时候,你就觉得很靠谱了,觉得自己就是那个上帝了。呵呵,真啰嗦,还差点离题了。

           还有一个问题就是,在机器学习领域有个约定俗成的说法是:不要去学那些对这个任务没用的东西。例如,对于一个分类任务:对一个给定的输入x,将它划分到一个类y中。那么,如果我们用生成模型:p(x,y)=p(y|x).p(x)

           那么,我们就需要去对p(x)建模,但这增加了我们的工作量,这让我们很不爽(除了上面说的那个估计得到P(X)可能不太准确外)。实际上,因为数据的稀疏性,导致我们都是被强迫地使用弱独立性假设去对p(x)建模的,所以就产生了局限性。所以我们更趋向于直观的使用判别模型去分类。

           这样的方法之所以称为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系。用于随机生成的观察值建模,特别是在给定某些隐藏参数情况下。典型的生成模型有:朴素贝叶斯和隐马尔科夫模型等。

     

    三、生成模型和判别模型的优缺点

           在监督学习中,两种方法各有优缺点,适合于不同条件的学习问题。

            生成方法的特点:上面说到,生成方法学习联合概率密度分布P(X,Y),所以就可以从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度。但它不关心到底划分各类的那个分类边界在哪。生成方法可以还原出联合概率分布P(Y|X),而判别方法不能。生成方法的学习收敛速度更快,即当样本容量增加的时候,学到的模型可以更快的收敛于真实模型,当存在隐变量时,仍可以用生成方法学习。此时判别方法就不能用。

           判别方法的特点:判别方法直接学习的是决策函数Y=f(X)或者条件概率分布P(Y|X)。不能反映训练数据本身的特性。但它寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。直接面对预测,往往学习的准确率更高。由于直接学习P(Y|X)或P(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题。

     

    四、生成模型和判别模型的联系

           由生成模型可以得到判别模型,但由判别模型得不到生成模型。

     

    五、再形象点可以吗

           例如我们有一个输入数据x,然后我们想将它分类为标签y。(迎面走过来一个人,你告诉我这个是男的还是女的)

           生成模型学习联合概率分布p(x,y),而判别模型学习条件概率分布p(y|x)

    下面是个简单的例子:

    例如我们有以下(x,y)形式的数据:(1,0), (1,0), (2,0), (2, 1)

    那么p(x,y)是:

                    y=0   y=1

                   -----------

           x=1 | 1/2   0

           x=2 | 1/4   1/4

    而p(y|x) 是:

                   y=0   y=1

                   -----------

            x=1| 1     0

            x=2| 1/2   1/2

           我们为了将一个样本x分类到一个类y,最自然的做法就是条件概率分布p(y|x),这就是为什么我们对其直接求p(y|x)方法叫做判别算法。而生成算法求p(x,y),而p(x,y)可以通过贝叶斯方法转化为p(y|x),然后再用其分类。但是p(x,y)还有其他作用,例如,你可以用它去生成(x,y)对。

     

           再假如你的任务是识别一个语音属于哪种语言。例如对面一个人走过来,和你说了一句话,你需要识别出她说的到底是汉语、英语还是法语等。那么你可以有两种方法达到这个目的:

    1、学习每一种语言,你花了大量精力把汉语、英语和法语等都学会了,我指的学会是你知道什么样的语音对应什么样的语言。然后再有人过来对你哄,你就可以知道他说的是什么语音,你就可以骂他是“米国人还是小日本了”。(呵呵,切勿将政治掺杂在技术里面)

    2、不去学习每一种语言,你只学习这些语言模型之间的差别,然后再分类。意思是指我学会了汉语和英语等语言的发音是有差别的,我学会这种差别就好了。

         那么第一种方法就是生成方法,第二种方法是判别方法。

     

           生成算法尝试去找到底这个数据是怎么生成的(产生的),然后再对一个信号进行分类。基于你的生成假设,那么那个类别最有可能产生这个信号,这个信号就属于那个类别。判别模型不关心数据是怎么生成的,它只关心信号之间的差别,然后用差别来简单对给定的一个信号进行分类。

     

    六、对于跟踪算法

            跟踪算法一般来说可以分为两类:基于外观模型的生成模型或者基于外观模型的判别模型。

            生成模型:一般是学习一个代表目标的模型,然后通过它去搜索图像区域,然后最小化重构误差。类似于生成模型描述一个目标,然后就是模式匹配了,在图像中找到和这个模型最匹配的区域,就是目标了。

            判别模型:将跟踪问题看成一个二分类问题,然后找到目标和背景的决策边界。它不管目标是怎么描述的,那只要知道目标和背景的差别在哪,然后你给一个图像,它看它处于边界的那一边,就归为哪一类。


    展开全文
  • 生成模型生成模型是学得各个类别各自的特征(即可看成学得多个模型),可用这些特征数据和要进行分类的数据进行比较,看新数据和学得的模型中哪个最相近,进而确定新数据属于哪一类。 举个例子:若分类目标是对图...
  • 生成模型和判别模型

    2019-07-01 18:58:59
    决策函数Y=f(X):你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了该X对应的...
  • 生成模型与判别模型  一、决策函数Y=f(X)或者条件概率分布P(Y|X)  监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出Y。这个模型的一般形式为决策函数Y=f(X)...
  • 决策函数Y=f(X):输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了X的类别。条件...
  • 一、决策函数Y=f(X)或者条件概率分布P(Y|X)  监督学习的任务就是从数据中... 决策函数Y=f(X):你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果
  • 机器学习:生成模型和判别式模型

    千次阅读 多人点赞 2018-12-23 11:41:27
    决策函数Y=f(x):输入一个x,它就输出一个y值,这个y与一个阈值比较,根据比较结果判定x属于哪个类别。 条件概率分布P(y|x):输入一个x,它通过比较它属于所有类的概率,然后预测时应用最大后验概率法(MAP)即比较...
  • 决策函数Y=f(X)与条件概率分布P(Y|X) 决策函数Y=f(x):输入一个x,它就输出一个y值,这个y与一个阈值比较,根据比较结果判定x属于哪个类别。 条件概率分布P(y|x):输入一个x,它通过比较它属于
  • 分类问题:概率生成模型 课程例子:通过宝可梦的一些属性能不能预测出这个宝可梦属于哪个类型。 用于分类的训练集数据(一直宝可梦的属性和他所属于的种类) 如果考虑用线性回归的方式来做这件事情,如果输入数据,...
  • 李宏毅机器学习系列-分类:概率生成模型分类及其应用宝可梦分类案例用回归来做分类概率模型先验概率多元高斯模型极大似然估计改进后验概率总结 分类及其应用 分类简单来说就是你输入一个x,经过一个函数,给你输出一...
  • 上期回顾,上一期我们把gradient descent详细的说了一遍,如果还是不熟悉的...分类:概率生成模型 分类问题的思想与前面所说的回归问题很类似,也是输入x,找到一个function(即model),然后输出这个x属于哪个clas...
  • 文章目录1、自然语言处理常用模型种类2、马尔科夫模型2.1特点2.2状态初始化概率和状态转移概率2.3参数估计-极大似然3、隐马尔科夫模型3.1观测...再判断在哪个里面的概率更大,就属于哪一种。如Naive Bayes、Hidden M
  • 2) 对一个新的样本分类时,即有一个新的病人时,要判断其是恶性还是良性,用该样本分别匹配恶性肿瘤模型和良性肿瘤模型,看哪个模型匹配的更好,预测属于恶性还是良性。这种方法就是生成学习算法。
  • ASP.NET的网页代码模型及生命周期

    热门讨论 2009-07-28 14:22:11
    上述描述了代码隐藏类模型的页面生成模型。当页面被呈现之前,ASP.NET应用程序会解释并编译相应的cs文件中的代码,与此同时,ASP.NET应用程序还会将.aspx页面进行编译并生成.aspx页面对应的类。生成.aspx页面对应的...
  • 之前讲的回归模型属于判别模型,今天引入新的模型——生成学习算法:对训练集建立两个概率模型,测试特征代入两个模型比较哪个模型的最终概率高来判断类别(而不是计算出两个概率,而是比较两个概率) 利用贝叶斯...
  • 联合概率分布,则是特征值对应某标签的概率,现在要判断一个特征值对应的标签,根据联合概率,只能算出其对应各标签的概率值,而只有通过比较全部的值才能知道属于哪个标签;而条件概率分布则是输入特征直接出来对应...
  • 生成方法和判别方法

    2019-01-15 10:05:00
    一、决策函数Y=f(X)或者条件概率分布P(Y|X) 监督学习的任务就是从数据中学习... 决策函数Y=f(X):你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题...
  • 人脸照片生成趣味迷宫

    千次阅读 2013-07-21 20:56:37
    就拿眼睛来说,眼睛有单双眼皮、大小和瞳孔位置的特征参数,我们可以通过组合这些参数得到不同的眼睛,每种眼睛对应一个精心设计的、外形类似但规则的迷宫,我们检测人脸照片,识别眼睛属于哪个模型,进而用迷宫替换...
  • 在学习朴素贝叶斯的过程中我接触到了一...生成模型生成模型是学得各个类别各自的特征(即可看成学得多个模型),可用这些特征数据和要进行分类的数据进行比较,看新数据和学得的模型中哪个最相近,进而确定新数据...
  • 机器学习的分类方法

    2018-05-25 14:18:38
    生成模型是指假设x是从某种分布中来的,例如正态分布,再去判别属于什么类。 贝叶斯派和频率派 频率派是通过已有的数据去估计参数,这个参数是一个常数,而贝叶斯派则是假设参数是一个随机变量(?)...
  • 2 分类模型和生成模型3 多重分类4 异或问题 **:参考李宏毅老师的机器学习课程并加上一些自己的理解,并非完全原创。 之前我们已经成功用线性模型通过宝可梦的初始cp值预测了宝可梦成长后的cp值,下面我们来学习通过...
  • 经典监督学习方法

    2019-08-08 15:39:00
    基于你的生成假设,哪个类别最有可能产生这个信号,这个信号就属于那个类别。 判别模型不关心数据是怎么生成的,它只关心信号之间的差别,然后模型学习到差别之后简单地对给定的一个信号进行分类。 在机器学习中...
  • 支持向量机模型实验指导书 一:实验目的 1.了解支持向量机模型相关知识。 2.学习scikit-learn机器学习库的基本使用。...并对新出现的样本,预测样本属于哪个类别。 四:实验步骤 环境搭建 Win10系

空空如也

空空如也

1 2 3 4 5 6
收藏数 101
精华内容 40
关键字:

哪个模型属于生成模型