精华内容
下载资源
问答
  • 生成模型

    千次阅读 2019-03-20 18:34:17
    生成模型和判别模型 discriminative learning algorithms,也就是根据特征值来求结果的概率。 可以表示为P(y∣x;θ)P(y|x;\theta)P(y∣x;θ),在参数确定的条件下,直接求得在当前样本feature下的y的概率 实际上是...

    介绍判别模型和生成式模型,朴素贝叶斯。

    生成模型和判别模型

    • discriminative learning algorithms,也就是根据特征值来求结果的概率。
      • 可以表示为P(yx;θ)P(y|x;\theta),在参数确定的条件下,直接求得在当前样本feature下的y的概率
      • 实际上是求条件概率
      • 常见的判别模型有线性回归、对数回归、线性判别分析、支持向量机、boosting、条件随机场、神经网络等。
    • generative learning algorithms,根据yy不同来学习不同的模型,然后取概率较大的那个
      • 可以表示为P(xy)P(x|y),很容易看出,使用贝叶斯公式可将两个模型进行统一:P(yx)=p(xy)p(y)p(x)P(y|x) = \frac{p(x|y)p(y)}{p(x)}
      • p(xy)p(y)=p(x,y)p(x|y) *p(y) = p(x,y)可得,实际上生成模型是在求联合概率
      • 常见的生产模型有隐马尔科夫模型、朴素贝叶斯模型、高斯混合模型、LDA、Restricted Boltzmann Machine 等。
    • 这篇博客较为详细地介绍了两个模型。

    Gaussian discriminant analysis

    • 首先定义了multivariate normal distribution,实际上就是在单变量正态分布上进行了一点点直观的变换
      • p(x;μ,)=1(2π)n/21/2exp(12(xμ)T1(xμ))p(x;\mu,\sum) = \frac{1}{(2\pi)^{n/2}|\sum|^{1/2}}\exp(-\frac{1}{2}(x-\mu)^T\sum^{-1}(x-\mu))
      • 很容易得到,E(X)=μCov(X)=E(X) = \mu \quad Cov(X) = \sum
    • 现在假设输入特征xx是连续性随机变量,因此假设:
      • yBernoulli(ϕ)y \sim Bernoulli(\phi)
      • xy=0N(μ0,)x|y= 0 \sim N(\mu_0,\sum)​
      • xy=1N(μ1,)x|y= 1 \sim N(\mu_1,\sum)
      • 需要注意的是,在yy不同的条件下,其均值不相同,但方差是相同的。
    • 因此,我们可以用likelihood得到参数μ0,μ1,ϕ\mu_0, \mu_1,\phi的估计值

    difference between GDA&logistic

    • 如果我们根据贝叶斯公式对GDA求后验概率,可以得到就是sigmoid函数的形式
      • 同时,我们可以发现,只要假设是指数族的形式,后验概率都可是写成sigmoid函数的形式
    • 但是,如果是sigmoid函数形式的后验分布,并不能得到GDA
    • 因此,GDA有着更强的假设
      • 在模型符合该假设的前提下,效果比logistic更好
    • logistic模型的robust更好
      • 可以发现,如果x的条件概率不满足正态分布,而是posisson分布,也能得到sigmoid函数

    Naive Bayes

    • 朴素贝叶斯是一种生成式模型,根据现有的数据,使用likelihood计算条件概率的估计,从而得到模型参数。当需要进行预测时,就使用贝叶斯rule进行预测,取最大的那个yy
    • 朴素贝叶斯方法有个致命的缺点就是对数据稀疏问题过于敏感
      • 当样本中的数据量不够多,不能包含预测的信息时,这时候所有的概率都为0,无法进行预测
      • 因此需要使用平滑的方法,常用的就是laplace平滑
      • ϕj=1{zi=j}+1m+k\phi_j = \frac{\sum 1\{z^{i} =j \}+1}{m+k}​
    • notes 中还介绍了在文本分类中,multi-variate Bernoulli event model 和multinomial event model的区别,如果从词典入手,那么该词在不在这个text中是两点分布;而从text入手,这个位置是某个词是多项分布。
      • multinomial event model 考虑到了词在邮件中的数量,效果更好。
    • 由于在Naive Bayes中,我们是基于Generative model,同时,用bernoulli或者multinomial分布进行估计(都是指数族分布),因此其充分统计量改写后依然为sigmoid函数。
    展开全文
  • 生成模型与判别模型

    万次阅读 多人点赞 2012-11-17 23:24:42
    生成模型与判别模型 zouxy09@qq.com http://blog.csdn.net/zouxy09  一直在看论文的过程中遇到这个问题,折腾了不少时间,然后是下面的一点理解,不知道正确否。若有错误,还望各位前辈不吝指正,以免小弟一错再...

    生成模型与判别模型

    zouxy09@qq.com

    http://blog.csdn.net/zouxy09

           一直在看论文的过程中遇到这个问题,折腾了不少时间,然后是下面的一点理解,不知道正确否。若有错误,还望各位前辈不吝指正,以免小弟一错再错。在此谢过。

     

    一、决策函数Y=f(X)或者条件概率分布P(Y|X)

           监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出Y。这个模型的一般形式为决策函数Y=f(X)或者条件概率分布P(Y|X)

           决策函数Y=f(X)你输入一个X,它就输出一个Y,这个Y与一个阈值比较,根据比较结果判定X属于哪个类别。例如两类(w1和w2)分类问题,如果Y大于阈值,X就属于类w1,如果小于阈值就属于类w2。这样就得到了该X对应的类别了。

           条件概率分布P(Y|X)你输入一个X,它通过比较它属于所有类的概率,然后输出概率最大的那个作为该X对应的类别。例如:如果P(w1|X)大于P(w2|X),那么我们就认为X是属于w1类的。

            所以上面两个模型都可以实现对给定的输入X预测相应的输出Y的功能。实际上通过条件概率分布P(Y|X)进行预测也是隐含着表达成决策函数Y=f(X)的形式的。例如也是两类w1和w2,那么我们求得了P(w1|X)和P(w2|X),那么实际上判别函数就可以表示为Y= P(w1|X)/P(w2|X),如果Y大于1或者某个阈值,那么X就属于类w1,如果小于阈值就属于类w2。而同样,很神奇的一件事是,实际上决策函数Y=f(X)也是隐含着使用P(Y|X)的。因为一般决策函数Y=f(X)是通过学习算法使你的预测和训练数据之间的误差平方最小化,而贝叶斯告诉我们,虽然它没有显式的运用贝叶斯或者以某种形式计算概率,但它实际上也是在隐含的输出极大似然假设(MAP假设)。也就是说学习器的任务是在所有假设模型有相等的先验概率条件下,输出极大似然假设。

            所以呢,分类器的设计就是在给定训练数据的基础上估计其概率模型P(Y|X)如果可以估计出来,那么就可以分类了。但是一般来说,概率模型是比较难估计的。给一堆数给你,特别是数不多的时候,你一般很难找到这些数满足什么规律吧。那能否不依赖概率模型直接设计分类器呢?事实上,分类器就是一个决策函数(或决策面),如果能够从要解决的问题和训练样本出发直接求出判别函数,就不用估计概率模型了,这就是决策函数Y=f(X)的伟大使命了。例如支持向量机,我已经知道它的决策函数(分类面)是线性的了,也就是可以表示成Y=f(X)=WX+b的形式,那么我们通过训练样本来学习得到W和b的值就可以得到Y=f(X)了。还有一种更直接的分类方法,它不用事先设计分类器,而是只确定分类原则,根据已知样本(训练样本)直接对未知样本进行分类。包括近邻法,它不会在进行具体的预测之前求出概率模型P(Y|X)或者决策函数Y=f(X),而是在真正预测的时候,将X与训练数据的各类的Xi比较,和哪些比较相似,就判断它X也属于Xi对应的类。

           实际上,说了那么多,也不知道自己表达清楚了没有。那我们是谈生成模型和判别模型,上面到底啰嗦了那么多到底有啥阴谋啊?呵呵,往下说就知道了。

     

    二、生成方法和判别方法

           监督学习方法又分生成方法(Generative approach)和判别方法(Discriminative approach),所学到的模型分别称为生成模型(Generative Model)和判别模型(Discriminative Model)。咱们先谈判别方法,因为它和前面说的都差不多,比较容易明白。

           判别方法:由数据直接学习决策函数Y=f(X)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。基本思想是有限样本条件下建立判别函数,不考虑样本的产生模型,直接研究预测模型。典型的判别模型包括k近邻,感知级,决策树,支持向量机等。

           生成方法:由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。基本思想是首先建立样本的联合概率概率密度模型P(X,Y),然后再得到后验概率P(Y|X),再利用它进行分类,就像上面说的那样。注意了哦,这里是先求出P(X,Y)才得到P(Y|X)的,然后这个过程还得先求出P(X)。P(X)就是你的训练数据的概率分布。哎,刚才说了,需要你的数据样本非常多的时候,你得到的P(X)才能很好的描述你数据真正的分布。例如你投硬币,你试了100次,得到正面的次数和你的试验次数的比可能是3/10,然后你直觉告诉你,可能不对,然后你再试了500次,哎,这次正面的次数和你的试验次数的比可能就变成4/10,这时候你半信半疑,不相信上帝还有一个手,所以你再试200000次,这时候正面的次数和你的试验次数的比(就可以当成是正面的概率了)就变成5/10了。这时候,你就觉得很靠谱了,觉得自己就是那个上帝了。呵呵,真啰嗦,还差点离题了。

           还有一个问题就是,在机器学习领域有个约定俗成的说法是:不要去学那些对这个任务没用的东西。例如,对于一个分类任务:对一个给定的输入x,将它划分到一个类y中。那么,如果我们用生成模型:p(x,y)=p(y|x).p(x)

           那么,我们就需要去对p(x)建模,但这增加了我们的工作量,这让我们很不爽(除了上面说的那个估计得到P(X)可能不太准确外)。实际上,因为数据的稀疏性,导致我们都是被强迫地使用弱独立性假设去对p(x)建模的,所以就产生了局限性。所以我们更趋向于直观的使用判别模型去分类。

           这样的方法之所以称为生成方法,是因为模型表示了给定输入X产生输出Y的生成关系。用于随机生成的观察值建模,特别是在给定某些隐藏参数情况下。典型的生成模型有:朴素贝叶斯和隐马尔科夫模型等。

     

    三、生成模型和判别模型的优缺点

           在监督学习中,两种方法各有优缺点,适合于不同条件的学习问题。

            生成方法的特点:上面说到,生成方法学习联合概率密度分布P(X,Y),所以就可以从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度。但它不关心到底划分各类的那个分类边界在哪。生成方法可以还原出联合概率分布P(Y|X),而判别方法不能。生成方法的学习收敛速度更快,即当样本容量增加的时候,学到的模型可以更快的收敛于真实模型,当存在隐变量时,仍可以用生成方法学习。此时判别方法就不能用。

           判别方法的特点:判别方法直接学习的是决策函数Y=f(X)或者条件概率分布P(Y|X)。不能反映训练数据本身的特性。但它寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。直接面对预测,往往学习的准确率更高。由于直接学习P(Y|X)或P(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题。

     

    四、生成模型和判别模型的联系

           由生成模型可以得到判别模型,但由判别模型得不到生成模型。

     

    五、再形象点可以吗

           例如我们有一个输入数据x,然后我们想将它分类为标签y。(迎面走过来一个人,你告诉我这个是男的还是女的)

           生成模型学习联合概率分布p(x,y),而判别模型学习条件概率分布p(y|x)

    下面是个简单的例子:

    例如我们有以下(x,y)形式的数据:(1,0), (1,0), (2,0), (2, 1)

    那么p(x,y)是:

                    y=0   y=1

                   -----------

           x=1 | 1/2   0

           x=2 | 1/4   1/4

    而p(y|x) 是:

                   y=0   y=1

                   -----------

            x=1| 1     0

            x=2| 1/2   1/2

           我们为了将一个样本x分类到一个类y,最自然的做法就是条件概率分布p(y|x),这就是为什么我们对其直接求p(y|x)方法叫做判别算法。而生成算法求p(x,y),而p(x,y)可以通过贝叶斯方法转化为p(y|x),然后再用其分类。但是p(x,y)还有其他作用,例如,你可以用它去生成(x,y)对。

     

           再假如你的任务是识别一个语音属于哪种语言。例如对面一个人走过来,和你说了一句话,你需要识别出她说的到底是汉语、英语还是法语等。那么你可以有两种方法达到这个目的:

    1、学习每一种语言,你花了大量精力把汉语、英语和法语等都学会了,我指的学会是你知道什么样的语音对应什么样的语言。然后再有人过来对你哄,你就可以知道他说的是什么语音,你就可以骂他是“米国人还是小日本了”。(呵呵,切勿将政治掺杂在技术里面)

    2、不去学习每一种语言,你只学习这些语言模型之间的差别,然后再分类。意思是指我学会了汉语和英语等语言的发音是有差别的,我学会这种差别就好了。

         那么第一种方法就是生成方法,第二种方法是判别方法。

     

           生成算法尝试去找到底这个数据是怎么生成的(产生的),然后再对一个信号进行分类。基于你的生成假设,那么那个类别最有可能产生这个信号,这个信号就属于那个类别。判别模型不关心数据是怎么生成的,它只关心信号之间的差别,然后用差别来简单对给定的一个信号进行分类。

     

    六、对于跟踪算法

            跟踪算法一般来说可以分为两类:基于外观模型的生成模型或者基于外观模型的判别模型。

            生成模型:一般是学习一个代表目标的模型,然后通过它去搜索图像区域,然后最小化重构误差。类似于生成模型描述一个目标,然后就是模式匹配了,在图像中找到和这个模型最匹配的区域,就是目标了。

            判别模型:将跟踪问题看成一个二分类问题,然后找到目标和背景的决策边界。它不管目标是怎么描述的,那只要知道目标和背景的差别在哪,然后你给一个图像,它看它处于边界的那一边,就归为哪一类。


     

    展开全文
  • 生成模型--Glow,基于流的生成模型

    千次阅读 2018-10-29 10:49:38
    Glow,基于流的生成模型   生成模型只能受限于 GAN 和 VAE 吗?答案是否的。基于流的生成模型在 2014 年已经被提出,但是一直被忽视。由 OpenAI 带来的 Glow 展示了流生成模型强大的图像生成能力。   在 Glow ...

    Glow,基于流的生成模型

      生成模型只能受限于 GAN 和 VAE 吗?答案是否的。基于流的生成模型在 2014 年已经被提出,但是一直被忽视。由 OpenAI 带来的 Glow 展示了流生成模型强大的图像生成能力。
      在 Glow 论文之前,有两个基于流的生成模型 NICE 和 RealNVP,这两个是glow的基石。

    glow的优点

      1)精确的潜在变量推断和对数似然评估,在 VAE 中编码后只能推理出对应于数据点的潜在变量的近似值,GAN 根本就没有编码器更不用谈潜在变量的推断了。在 Glow 这样的可逆生成模型中,可以在没有近似的情况下实现潜在变量的精确的推理,还可以优化数据的精确对数似然,而不是其下限。

      2) 高效的推理和合成,自回归模型如 PixelCNN,也是可逆的,然而这样的模型合成难以实现并行化,并且通常在并行硬件上效率低下。而基于流的生成模型如 Glow 和 RealNVP 都能有效实现推理与合成的并行化。

      3)对下游任务有用的潜在空间,自回归模型的隐藏层有未知的边际分布,使其执行有效的数据操作上很困难;在 GAN 中,由于模型没有编码器使得数据点通常不能在潜在空间中直接被表征,并且表征完整的数据分布也是不容易的。而在可逆生成模型和 VAE 中不会如此,它们允许多种应用,例如数据点之间的插值,和已有数据点的有目的修改。

      4)内存的巨大潜力,如 RevNet 论文所述,在可逆神经网络中计算梯度需要一定量的内存,而不是线性的深度。

    glow的缺点

      flow 的历史和 VAE、GAN 它们一样悠久,但是 flow 却鲜为人知的原因是 flow 找不到像 GAN 一样的诸如“造假者-鉴别者”的直观解释吧,因为 flow 整体偏数学化,加上早期效果没有特别好但计算量又特别大,所以很难让人提起兴趣来。
      不过现在看来,有更多的人投入到 flow 模型的改进中。

    展开全文
  • 深度生成模型

    千次阅读 2018-06-09 14:31:59
    有监督学习(也叫深度判别模型)逐渐摘取完了深度学习这棵大树的低层果实,摘取更高层的果实就要通过深度生成模型(无监督学习)。在这里主要介绍一些主流的深度生成模型。 1.深度置信网络 关于这块内容请参考...

    前言

    有监督学习(也叫深度判别模型)逐渐摘取完了深度学习这棵大树的低层果实,摘取更高层的果实就要通过深度生成模型(无监督学习)。在这里主要介绍一些主流的深度生成模型。

    1.深度置信网络

    关于这块内容请参考RBM和深度置信网络

    2.深度波尔兹曼机

    和受限玻尔兹曼机不同,波尔兹曼机的每层的元素不仅仅和相邻层存在联系,同层中的每个元素同样也有联系。关于这方面内容请参考深度波尔兹曼机

    3.生成对抗网络

    每次提到生成对抗网络,心里不由得兴奋起来,这是一个非常了不起的领域,也代表深度生成模型的最高成就。生成对抗网络衍生了许多版本,这个家族发展至今,已经非常庞大了,下面来逐一列举生成对抗网络家族成员。

    3.1 GAN

    GAN最早是由Ian Goodfellow提出,他算是开山鼻祖了,一个从医学专业跳到DL领域的大牛。不过GAN还是存在着许多问题,比如不能控制随机生成图像的种类,可能这是最早提出的概念吧!关于这块内容请参考GAN生成对抗网络

    3.2 CGAN

    不同于GAN,CGAN添加了生成条件。具体CGAN

    3.3 DCGAN

    上述两个变体都是应用在离散数据上,那末对结构数据呢?这时就出现了DCGAN,具体请深度卷积对抗生成网络

    3.4 CycleGAN

    如何从一副图像生成另一副不同内容不同模式下的图像?上面几种GAN都需要配对图像来进行训练,CycleGAN成功应用到非配对图像数据上。具体内容请CycleGAN

    3.5 StackGAN

    上述几种网络解决了从数据到图像的生成,那末有没有可以从文字描述生成图像的网络呢?比如通过文字 “ 一只黄鹂鸣翠柳 ” 来生成一只黄鹂在柳树上唱歌的图像。答案是有的,那就是StackGAN,作者为深圳大学的一个大牛。具体内容StackGAN

    4.变分自编码器

    又是深度生成模型里的一个杰作,具体内容VAE变分自编码器

    展开全文
  • GAN生成对抗网络之生成模型

    千次阅读 2020-05-25 22:09:16
    朋友们,我是床长!...在机器学习中,生成模型可以用来直接对数据建模,如根据某个变量的概率密度函数进行数据采样,也可以用来建立变量间的条件概率分布,条件概率分布可以由生成模型根据贝叶斯定理形成。 ...
  • 生成模型和判别模型的区别

    千次阅读 2019-06-22 08:13:00
    生成模型和判别模型的区别 按照求解的方法,可以将分类算法分为判别模型和生成模型。给定特定的向量x与标签值y,生成模型对联合概率p(x,y)建模,判别模型对条件概率p(y|x)进行建模。 上述含义可以这么理解:生成模型...
  • 生成模型和判别模型

    千次阅读 2018-09-13 10:26:34
     生成模型(Generative Model)是相对于判别模型(Discriminative Model)定义的。他们两个都用于有监督学习。监督学习的任务就是从数据中学习一个模型(也叫分类器),应用这一模型,对给定的输入X预测相应的输出...
  • 第五章:深度生成模型

    万次阅读 2020-03-31 11:48:22
    深度生成模型从整体上来说,是以某种方式寻找某种数据的概率分布,深度生成模型可以基于有向图或者无向图的形式来生成深层次的概率分布。 常见的深度生成模型的结构图如下:深度玻尔兹曼机和深度信念网络都是以受限...
  • 【机器学习】生成模型 判别模型

    万次阅读 2019-06-19 17:30:15
    这篇博客是自己在学习生成模型与判别模型过程中的一些记录,整理了相关的文章后写成,感谢前辈们的辛苦总结 简单的说,生成模型是从大量的数据中找规律,属于统计学习;而判别模型只关心不同类型的数据的差别,利用...
  • 理解生成模型与判别模型

    千次阅读 2018-10-10 17:51:03
    我们都知道,对于有监督的机器学习中的分类问题,求解问题的算法可以分为生成模型与判别模型两种类型。但是,究竟什么是生成模型,什么是判别模型?不少书籍和技术文章对这对概念的解释是含糊的。在今天这篇文章中,...
  • 对抗生成模型

    千次阅读 2017-04-12 21:30:07
    生成模型和判别模型 理解对抗网络,首先要了解生成模型和判别模型。判别模型比较好理解,就像分类一样,有一个判别界限,通过这个判别界限去区分样本。从概率角度分析就是获得样本x属于类别y的概率,是一个条件...
  • 摘抄自【机器学习基础】生成模型和判别模型 - 简书 http://www.jianshu.com/p/d195b887a32e 监督学习的任务就是学习一个模型(或者得到一个目标函数),应用这一模型,对给定的输入预测相应的输出。这一模型的一般...
  • 文章目录前言一、生成模型和判别模型的概念?二、个人理解三,生成模型和判别模型举例 前言 在有监督学习中,不管是机器学习算法还是深度学习算法都可以分为生成学习和判别学习两种。 一、生成模型和判别模型的概念...
  • 监督学习的方法可以分为2类,生成方法(generative approach)和判别方法(discriminative approach),所学到的模型分别为生成模型(generative model)和判别模型(discriminative model)。   生成方法: 由...
  • 机器学习:生成模型和判别模型

    千次阅读 2016-03-18 21:34:26
    生成模型和判别模型的定义 对o和s进行统计建模,通常有两种方式: (1)判别模型 基本思想:有限样本条件下建立判别函数p(o|s),不考虑样本的产生模型,直接研究预测模型p(s|o),即判别模型:P(s|o)= P(o|s)P...
  • 判别模型、生成模型与贝叶斯方法

    千次阅读 2018-03-25 17:53:41
    一、判别模型与生成模型 判别模型:用特征值来求结果的概率,形式化表示为,在参数确定的情况下,求解条件概率。通俗的解释为在给定的特征后预测结果出现的概率。 生成模型: 或p(y) - 生成模型:无穷样本==》...
  • 如何理解生成模型和判别模型

    千次阅读 2019-04-11 00:50:01
    如何理解生成模型和判别模型呢,我们以生活中的一个实例来看一下,我们如何来判断一个人所讲的语言呢?如果我们详细的学习了所有的语言的相关内容,当听到一个人所讲的语言时,就可以决定它是属于哪一种,这样的做法...
  • 生成模型:学习得到联合概率分布P(x,y),即特征x和标记y共同出现的概率,然后求条件概率分布。能够学习到数据生成的机制。判别模型:学习得到条件概率分布P(y|x),即在特征x出现的情况下标记y出现的概率。数据要求:...
  • 2018-03-31更新:生成模型与判别模型参数模型:根据预先设计的规则,例如方差损失最小,进行学习,参数模型例子:回归(线性回归、逻辑回归)模型;最好可以看一下或者直接进行一下相关的推导;根据规则,拥有少部分...
  • 判别模型(Discriminative model)和生成模型(generative model)  监督学习又可以分为两类,(只有监督学习才会有判别和生成的概念)  1)判别模型(Discriminative model):SVM和逻辑回归  2)生成...
  • 分类:从生成模型到判别模型

    千次阅读 2017-05-25 19:24:45
    在解决分类问题时,生成模型(generative model)和判别模型(discriminative model)是常用的两类模型。生成模型从数据中学习特征和标签的联合概率分布p(x,y),而判别模型则学习条件概率分布p(y|x)。本文主要介绍两...
  • 生成模型和判别模型 简单的概念 监督学习的目标是学习的得到一个模型,通过这个模型对给定的输出,得到一个特定的输出,从而预测该数据的类别。这个模型可以称为 classifier。这个模型对应的函数一般是 或者是 (在...
  • 【机器学习】生成模型和判别模型

    千次阅读 2017-04-18 01:24:05
    但是什么是判别模型呢,与其相对应的生成模型又有哪些呢。本文来总结一下。以下部分主要参考了李航那本《统计学习方法》 判别模型和生成模型都是指监督学习下的模型,监督学习模型本质上就是求决策函数: Y=F(X)Y=F...
  • powerdesigner 导入sql文件生成模型

    万次阅读 2018-06-26 11:25:35
    powerdesigner 导入sql文件生成模型 利用现有的sql文件导入powerdesigner生成模型: 1. 打开powerdesigner,点击“文件”按钮如下图: 2. 打开之后如图所示选择: 3. 点击确定之后如图所示: 点击 Add ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 42,779
精华内容 17,111
关键字:

生成模型