精华内容
下载资源
问答
  • 单分类器
    千次阅读
    2018-11-29 00:18:21

    单类别分类是什么

    单类别分类(One class classification)要做的就是一个二叉分类器,只不过它分出来的结果只有两类:要么是这个类,要么不是这个类。很简单的分类模型。单类别分类是一种非监督的学习,不需要标注训练集。在工业上的运用还是很方便的。

    图片上单类别分类的问题

    在这里我们单纯讨论图片的分类问题。如果用简单的224*224的图片做输入,需要分类的唯独就太大了,会导致计算资源消耗很大。

    解决办法

    使用CNN做特征提取,使用提取出来的特征做用现有的单类别分类方法进行分类。

    1. One class SVM 方法
    2. 周志华教授的孤立森林方法(Isolation Forest)

    效果

    单分类器的问题是如果两种图片能够有很明显的差别,运用起来就没有问题,否则很难训练单分类器去找出某种特殊的分类效果。分类出的结果是根据其实是找出与目前图片最不相似的图片。

    更多相关内容
  • 车辆检测分类器文件

    千次下载 热门讨论 2014-06-26 10:12:28
    博文:http://blog.csdn.net/zhuangxiaobin/article/details/25476833 这篇文章里所提供的工具和样本训练出来的分类器xml文件,可以使用文中的代码实践一下
  • 贝叶斯分类器

    万次阅读 多人点赞 2018-07-27 22:22:41
    贝叶斯分类器是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类器。而朴素贝叶斯分类器是贝叶斯分类器中最简单,也是最常见的一种分类方法。并且,朴素贝叶斯算法仍然是流行的十大挖掘算法之...

                                                                       "微信公众号" 

    本文同步更新在我的微信公众号里,地址:https://mp.weixin.qq.com/s/jfQNQ0mMe7a-k3IQNL_YAg

    本文同步更新在我的知乎专栏里,地址:https://zhuanlan.zhihu.com/p/40485461

    1. 摘要

    贝叶斯分类器是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类器。而朴素贝叶斯分类器是贝叶斯分类器中最简单,也是最常见的一种分类方法。并且,朴素贝叶斯算法仍然是流行的十大挖掘算法之一,该算法是有监督的学习算法,解决的是分类问题。该算法的优点在于简单易懂、学习效率高、在某些领域的分类问题中能够与决策树、神经网络相媲美。但由于该算法以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,就会导致算法精度在某种程度上受影响。

    2. 贝叶斯分类器的基础

    要想学习贝叶斯算法的要领,我们需要先了解先验概率后验概率的概念。

    先验概率:是指根据以往经验和分析得到的概率。

    举个例子:如果我们对西瓜的色泽、根蒂和纹理等特征一无所知,按照常理来说,西瓜是好瓜的概率是60%。那么这个概率P(好瓜)就被称为先验概率。

    后验概率:事情已经发生,要求这件事情发生的原因是由某个因素引起的可能性的大小。

    举个例子:假如我们了解到判断西瓜是否好瓜的一个指标是纹理。一般来说,纹理清晰的西瓜是好瓜的概率大一些,大概是75%。如果把纹理清晰当作一种结果,然后去推测好瓜的概率,那么这个概率P(好瓜|纹理清晰)就被称为后验概率。后验概率类似于条件概率。

    联合概率:设二维离散型随机变量(X,Y)所有可能取得值为,记则称 为随机变量X和Y的联合概率。计算如下:

    举个例子:在买西瓜的案例中,P(好瓜,纹理清晰)称为联合分布,它表示纹理清晰且是好瓜的概率。关于它的联合概率,满足以下乘法等式:

    其中,P(好瓜|纹理清晰)就是后验概率,表示在“纹理清晰”的条件下,是“好瓜”的概率。P(纹理清晰|好瓜)表示在“好瓜”的情况下,是“纹理清晰”的概率。

    全概率:如果事件组满足:

    全概率公式的意义在于:当直接计算P(A)较为困难时,而 

    的计算较为简单时,可以利用全概率公式进行计算P(A)。

    举个例子:上面联合概率概念买西瓜的例子中,我们要计算P(好瓜,纹理清晰)联合概率时,需要知道P(纹理清晰)的概率。那么,如何计算纹理清晰的概率呢?实际上可以分为两种情况:一种是好瓜状态下纹理清晰的概率,另一类是坏瓜状态下纹理清晰的概率。纹理清晰的概率就是这两种情况之和。因此,我们可以推导出全概率公式:

    贝叶斯定理:贝叶斯公式是建立在条件概率的基础上寻找事件发生的原因(即大事件A已经发生的条件下,分割中的小事件的概率),设 是样本空间Ω的一个划分,则对任一事件A(P(A)>0),有贝叶斯定理:

    对于每个特征x,我们想要知道样本在这个特性x下属于哪个类别,即求后验概率P(c|x)最大的类标记。这样基于贝叶斯公式,可以得到:

    好了,学习完上面的先验概率后验概率联合概率全概率贝叶斯定理后,我们来小试牛刀一下:

    西瓜的状态分为两种:好瓜与坏瓜,概率分别为0.6和0.4,并且好瓜里面纹理清晰的概率是0.8,坏瓜里面纹理清晰的概率是0.4。那么,我现在挑了一个纹理清晰的瓜,该瓜是好瓜的概率是多少?

    很明显,这是一个后验概率问题,我们可以直接给出公式:

    对公式里面出现的概率一个一个分析:

    后验概率:P(纹理清晰|好瓜)=0.8

    先验概率:P(好瓜)=0.6

    后验概率:P(纹理清晰|坏瓜)=0.4

    先验概率:P(坏瓜)=0.4

    由上面分析的数值,我们可以直接求解上式:

    这样,我们就计算得到了纹理清晰的情况下好瓜的概率是0.75。上面计算后验概率P(好瓜|纹理清晰)的公式就是利用了贝叶斯定理。

    3. 朴素贝叶斯分类器

    不难发现,基于贝叶斯公式(公式1)来估计后验概率P(c|x)的主要困难在于:类条件概率P(x|c)是所以属性上的联合概率(即x代表的是多个属性),难以从有限的训练样本直接估计而得。为了避开这个障碍,朴素贝叶斯分类器(naive Bayes classifier)采用了“属性条件独立性假设”:对已知类别,假设所有属性相互独立。换言之,假设每个属性独立地对分类结果发生影响。

    朴素贝叶斯的算法步骤:

    1. 设某样本属性集合其中 n 为属性数目,为x在第i属性上的取值。

    2. 把这个样本划分为类别集合c中的某一类,

    3.  计算后验概率:

    其中,,体现了朴素贝叶斯的精髓:每个特征相互独立。

    那么,如何计算出 呢?首先找到一个已知类别分类集合,在这个集合中统计特征属性在各个类别下的条件概率,即得到我们要计算的

    值得注意的是:上式中的分母部分,对于所有的类别来说都是一样的。因此可以省略,针对不同的 ,仅需要比较的分子部分。

    4. 如果 ,则样本在属性集 x下属于

     温馨提示:如果对上面的算法步骤有点困惑,可以先看下面的例子,然后再回过头来理解朴素贝叶斯的算法步骤,理解效果会更好一点。

    4. 朴素贝叶斯分类实例

    我们已经了解了贝叶斯定理和朴素贝叶斯算法,可能你对上面的朴素贝叶斯算法还很困惑。这一小节,我们用一个实例来熟悉朴素贝叶斯算法。

    我们还以买西瓜为实例。现在,我们有包含10个样本的数据集,这组数据集是以纹理、色泽、敲声为特征判断是好瓜还是坏瓜。数据集如下:

    其中,纹理分为:清晰和模糊,色泽分为:青绿和乌黑,敲声分为:浊响、沉闷和清脆。不同的特征值组合对应着两类:好瓜还是坏瓜。

    现在,我从超市中挑选了一个西瓜,它的纹理清晰、色泽青绿、敲声沉闷。我们可以根据样本数据集和朴素贝叶斯算法来计算该西瓜是好瓜还是坏瓜。

    (1)首先,计算好瓜的情况:

    先验概率:P(好瓜)=6/10=0.6

    条件概率:P(纹理清晰|好瓜)=4/6=2/3

    条件概率:P(色泽青绿|好瓜)=4/6=2/3

    条件概率:P(敲声沉闷|好瓜)=2/6=1/3

    计算后验概率P(好瓜|纹理清晰、色泽青绿、敲声沉闷)分子部分:

    P(好瓜)x P(纹理清晰|好瓜)x P(色泽青绿|好瓜)x P(敲声沉闷|好瓜)= 0.6 × (2 / 3) × (2 / 3) × (1 / 3) = 4 / 45。

    (2)然后,计算坏瓜的情况:

    先验概率:P(坏瓜)=4/10=0.4

    条件概率: P(纹理清晰|坏瓜) =1/4=0.25

    条件概率: P(色泽青绿|坏瓜) =1/4=0.25

    条件概率: P(敲声沉闷|坏瓜) =1/4 =0.25

    计算后验概率P(坏瓜|纹理清晰、色泽青绿、敲声沉闷)分子部分:

    P(坏瓜) × P(纹理清晰|坏瓜) × P(色泽青绿|坏瓜) × P(敲声沉闷|坏瓜) = 0.4 × 0.25 × 0.25 × 0.25 = 1 / 160。

    (3)比较好瓜、坏瓜类别中的后验概率:

    P(好瓜|纹理清晰、色泽青绿、敲声沉闷)> P(坏瓜|纹理清晰、色泽青绿、敲声沉闷),即4/45 > 1/160,所以预测该纹理清晰、色泽青绿、敲声沉闷西瓜为好瓜。

    5. 关于朴素贝叶斯容易忽略的点

    (1)由上文看出,计算各个划分的条件概率 是朴素贝叶斯分类的关键性步骤,当特征属性为离散值时,能很方便的统计训练样本中各个划分在每个类别中出现的频率即可用来估计 ,下面重点讨论特征属性是连续值的情况。

    当特征属性为连续值时,通常假定其值服从高斯分布(也称正态分布)。即:

    则:

    因此只要计算出训练样本中各个类别中此特征项划分的各均值和标准差,代入上述公式即可得到需要的估计值。均值与标准差的计算在此不再赘述。

    (2) 另一个需要讨论的问题就是当怎么办,当某个类别下某个特征项划分没有出现时,就是产生这种现象,这会令分类器质量大大降低。为了解决这个问题,我们引入Laplace校准,它的思想非常简单,就是对每个类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面。

    6. 朴素贝叶斯分类器的优缺点

    (1)优点:

    1)简单易懂、学习效率高。

    2)分类过程中时空开销小。

    (2)缺点:

    算法以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,会导致算法精度在某种程度上受影响。

    Reference:

    【1】《机器学习》,周志华著。

    【2】通俗易懂!白话朴素贝叶斯

    【3】Machine Learning -- Naive Bayes(朴素贝叶斯)

    【4】教你明白啥是朴素贝叶斯分类器

    【5】带你理解朴素贝叶斯分类算法

    展开全文
  • 单分类之OneClassSVM

    千次阅读 2019-03-12 22:23:23
    OneClassSVM是一种单分类算法,也常用来做异常检测(不符合常规模式的即为异常)。

    OneClassSVM是一种单分类算法,也常用来做异常检测(不符合常规模式的即为异常)。

    先区分一下单分类与二分类。

    比方说,我们要判断一张照片里的人脸,是男性还是女性,这是个二分类问题。对于一张未知性别的人脸,经过svm分类器分类(经典的二分类svm),我们会给出他\她是男性or不是男性的结果。那么经典svm训练的方式呢,就是将一堆已标注了男女性别的人脸照片(假设男性是正样本,女性是负样本),提取出有区分性别的特征(假设这种能区分男女性别的特征已构建好)后,通过svm中的支持向量,找到这男女两类性别特征点的最大间隔。进而在输入一张未知性别的照片后,经过特征提取步骤,就可以通过这个训练好的svm很快得出照片内人物的性别,此时我们得出的结论,我们知道要么是男性,不是男性的话,那一定是女性。以上情况是假设,我们用于训练的样本,包括了男女两类的图片,并且两类图片的数目较为均衡。现实生活中的我们也是这样,我们只有在接触了足够多的男生女生,知道了男生女生的性别特征差异后(比方说女性一般有长头发,男性一般有胡子等等),才能准确判断出这个人到底是男是女。
    那么单分类呢,出现在需要对训练样本进行一定比例的筛选,或者已知的训练样本都是正样本,而负样本却很少的情况。 这种情况下,往往需要训练一个对于训练样本紧凑的分类边界,就可以通过负样本实验。一个简单的实际例子是:一个工厂对于产品的合格性进行检查时,往往所知道是合格产品的参数,而不合格的产品的参数要么空间比较大,要么知道的很少。这种情况下就可以通过已知的合格产品参数来训练一个一类分类器,得到一个紧凑的分类边界,超出这个边界就认为是不合格产品。

    原理

    细节请参考大牛Bernhard Scholkopf的文章参考文献3:Support Vector Method for Novelty Detection http://papers.nips.cc/paper/1723-support-vector-method-for-novelty-detection.pdf
    one class classification这如何实现呢?多类classification我们都很熟悉了,方法也很多,比如像SVM去寻找一个最优超平面把正负样本分开,总之都涉及到不止一个类的样本,相当于告诉算法这种东西长什么样(这里的长什么样指的是特征提取方法所提取到的提取),那种东西长什么样,于是训练出一个模型能够区分这些东西。

    问题是在one class classification只有一个类,这该怎么办呢?给大家介绍一个方法:SVDD(support vector domain description),它的基本思想是,既然只有一个class,那么我就训练出一个最小的超球面(超球面是指3维以上的空间中的球面,对应的2维空间中就是曲线,3维空间中就是球面,3维以上的称为超球面),把这堆数据全都包起来,识别一个新的数据点时,如果这个数据点落在超球面内,就是这个类,否则不是。

    实现

    sklearn库中已经有了相关的API,可以直接调用。OneClassSVM主要参数和方法:
    class sklearn.svm.OneClassSVM(kernel=’rbf’, degree=3, gamma=’auto’, coef0=0.0, tol=0.001, nu=0.5, shrinking=True, cache_size=200, verbose=False, max_iter=-1, random_state=None)
    官方例子:

    #!/usr/bin/python
    # -*- coding:utf-8 -*-
     
    import numpy as np
    import matplotlib.pyplot as plt
    import matplotlib.font_manager
    from sklearn import svm
     
    xx, yy = np.meshgrid(np.linspace(-5, 5, 500), np.linspace(-5, 5, 500))
    # Generate train data
    X = 0.3 * np.random.randn(100, 2)
    X_train = np.r_[X + 2, X - 2]
    # Generate some regular novel observations
    X = 0.3 * np.random.randn(20, 2)
    X_test = np.r_[X + 2, X - 2]
    # Generate some abnormal novel observations
    X_outliers = np.random.uniform(low=-4, high=4, size=(20, 2))
     
    # fit the model
    clf = svm.OneClassSVM(nu=0.1, kernel="rbf", gamma=0.1)
    clf.fit(X_train)
    y_pred_train = clf.predict(X_train)
    y_pred_test = clf.predict(X_test)
    y_pred_outliers = clf.predict(X_outliers)
    n_error_train = y_pred_train[y_pred_train == -1].size
    n_error_test = y_pred_test[y_pred_test == -1].size
    n_error_outliers = y_pred_outliers[y_pred_outliers == 1].size
     
    # plot the line, the points, and the nearest vectors to the plane
    Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)
     
    plt.title("Novelty Detection")
    plt.contourf(xx, yy, Z, levels=np.linspace(Z.min(), 0, 7), cmap=plt.cm.PuBu)  #绘制异常样本的区域
    a = plt.contour(xx, yy, Z, levels=[0], linewidths=2, colors='darkred')  #绘制正常样本和异常样本的边界
    plt.contourf(xx, yy, Z, levels=[0, Z.max()], colors='palevioletred')   #绘制正常样本的区域
    s = 40
    b1 = plt.scatter(X_train[:, 0], X_train[:, 1], c='white', s=s, edgecolors='k')
    b2 = plt.scatter(X_test[:, 0], X_test[:, 1], c='blueviolet', s=s,
                     edgecolors='k')
    c = plt.scatter(X_outliers[:, 0], X_outliers[:, 1], c='gold', s=s,
                    edgecolors='k')
    plt.axis('tight')
    plt.xlim((-5, 5))
    plt.ylim((-5, 5))
    plt.legend([a.collections[0], b1, b2, c],
               ["learned frontier", "training observations",
                "new regular observations", "new abnormal observations"],
               loc="upper left",
               prop=matplotlib.font_manager.FontProperties(size=11))
    plt.xlabel(
        "error train: %d/200 ; errors novel regular: %d/40 ; "
        "errors novel abnormal: %d/40"
        % (n_error_train, n_error_test, n_error_outliers))
    plt.show()
    
    

    参考文章:
    1,https://blog.csdn.net/u012646786/article/details/78599373
    2,http://www.zhihu.com/question/22365729
    3,http://papers.nips.cc/paper/1723-support-vector-method-for-novelty-detection.pdf
    4,https://blog.csdn.net/YE1215172385/article/details/79750703

    展开全文
  • 原始数据中存在着大量不完整、不一致、有异常的数据,须进行数据清洗。数据清洗主要是删除原始数据集中的无关数据、重复数据,平滑噪声数据,筛选掉与挖掘主题无关的数据,...一、线性分类器: f=w^T+b / logistic ...

    原始数据中存在着大量不完整、不一致、有异常的数据,须进行数据清洗。数据清洗主要是删除原始数据集中的无关数据、重复数据,平滑噪声数据,筛选掉与挖掘主题无关的数据,处理缺失值、异常值。

    http://baijiahao.baidu.com/s?id=1581755863609513980&wfr=spider&for=pc

    一、线性分类器

    f=w^T+b / logistic regression

    学习方法:精确代数计算 / 随机梯度下降

    特点:

    1、最基本、最常用,形式简单,易于建模;w直观表示了各属性重要性,输出概率,具有很好的可解释性;

    2、抗噪声干扰能力强,可使用正则化防止过拟合;

    3、受限于特征与目标的线性假设,必须线性可分;

    4、容易欠拟合,分类精度可能较差。

    二、支持向量机:(概念:支持向量,间隔,核函数,松弛变量)

    根据样本的分布,搜索所有可能的线性分类器中最佳的一个(类别间隔最大)(只惩罚支持向量,不同线性分类考虑所有样本)

    1、能够在海量甚至高位数据中,筛选对预测任务最有效的少数训练样本;

    2、泛化能力较线性分类器较强,可用于非线性分类,结果易解释;

    3、训练代价大,参数调节和核函数的选择都会影响最后效果;

    三、朴素贝叶斯(后验概率)

    根据先验概率和条件概率,计算后验概率,选择最大后验概率类作为最终分类(最小错误率)

    1、再强假设下成立:给定目标值时属性之间相互条件独立,使计算参数减少,节约内耗和时间;算法简单,快速;

    2、需要先验概率,分类决策存在错误率;独立性假设不一定都满足(先聚类)

    四、决策树(信息增益)

    学习最优划分属性

    1、决策树却能够处理不均一的数据,无需对数据进行标准化量化;

    2、逻辑性直观,具有清晰可解释性;

    3、往往只能达到局部最优结果,因含有随机错误或噪声,容易过拟合(原则:优先选择拟合数据的最简单假设 1、提早停止树增长(设置树高限制,设置节点最小样本数限制)2、后修剪法(错误率降低修剪(减节点用最大分类属性替代),规则后修剪(减规则前件))以最大提高决策精度)

     

    展开全文
  • 理解高斯分类器

    千次阅读 2019-06-20 08:37:13
    在本文中,我们讨论了变量和多变量正态分布,以及如何使用贝叶斯定理导出高斯分类器。像高斯这样的分类器简单而直观,并且可以解释。 正态/高斯分布 在现实生活中,我们总是会对某些现象产生不确定性...
  • 数据分类器构建

    万次阅读 2022-03-05 15:15:53
    要求完成分类器的代码实现 二、内容 KNN分类方法的实现 三、实验步骤 X=standdata; [n,m]=size(X); x=rand(1,m-1); %%x和X每一行向量的距离: for i=1:n %%x和X每一行向量的距离 dis(i)=sqrt((x-X(i,1:m...
  • 一个分类器的分类准确率在60%-80%,即:比随机预测略好,但准确率却不太高,我们可以称之为“弱分类器”,比如CART(classification and regression tree分类与回归树)。 反之,如果分类精度90%以上,则是强分类...
  • 系统学习机器学习之组合多分类器

    万次阅读 2015-12-29 11:01:55
    常用的分类器“加法”有以下几种: 求和,Di的和; 加权和:这是最为常用的,但是每个学习器的权重需要事先指定或者训练学习得到,形式为DiWi的和; 中位数:对离群点更鲁棒; 最值:最小和最大分别是悲观和...
  • 贝叶斯分类器原理——学习笔记

    千次阅读 2022-01-25 17:07:48
    贝叶斯分类器原理简介一、逆概率推理与贝叶斯公式1、确定性推理与概率推理2、贝叶斯公式二、贝叶斯分类的原理三、概率估计1、先验概率的估计2、类条件概率的估计四、贝叶斯分类的错误率五、常用贝叶斯分类器1、最小...
  • AdaBoost分类器

    千次阅读 2017-09-22 19:28:10
    现在分析alpha的公式,由于误差率delta是大于0.5小于1的数值,所以当delta增大时,alpha也是增大的,也就是说一个弱分类器的错误率越大,其获得的权重也是越大的,这就意味着在训练的时候,分类器会更加注重这些错误...
  • 贝叶斯分类器详解

    万次阅读 多人点赞 2019-07-07 08:22:20
    本文介绍了贝叶斯的基本知识,然后给出了极大似然估计。最后给出了朴素贝叶斯分类器和半朴素贝叶斯分类器,并给出了西瓜书上相关的例题。
  • 分类器

    万次阅读 多人点赞 2018-09-21 21:23:10
    分类器的作用:常规任务是利用给定的类别、已知的训练数据来学习分类规则和分类器,然后对未知数据进行分类(或预测)。逻辑回归(logistics)、SVM等常用于解决二分类问题,对于多分类问题(multi-class ...
  • 机器学习常用的分类器比较-实例

    万次阅读 2016-11-10 22:36:26
    这篇学习文章是在上一篇博客(http://blog.csdn.net/july_sun/article/details/53088673)的基础上,从机器学习的四要素(数据,算法和模型,计算机硬件,机器学习平台)角度出发用实例将各个分类器做一比较.
  • 最简单的贝叶斯分类器演示Matlab程序。入门必备。 详细请参考本人的博客http://blog.csdn.net/ranchlai/article/details/10375579
  • 朴素贝叶斯分类器(MATLAB源代码)

    热门讨论 2014-09-30 18:07:20
    朴素贝叶斯分类器 MATLAB 源代码,里面含有使用实例,用的是 UCI 的 mushroom 数据集。 分类器详细介绍见: http://blog.csdn.net/yunduanmuxue/article/details/39693917
  • Haar级联分类器概述

    千次阅读 2022-03-04 16:48:52
    Haar级联分类器概述 —— 才疏学浅, 难免有错误和遗漏, 欢迎补充和勘误. Haar级联分类器是基于Haar-like特征,运用积分图加速计算,并用Adaboost训练的强分类器级联的方法来进行人脸检测。 目前常用Haar-like特征的...
  • 朴素贝叶斯分类器(Matlab代码)

    热门讨论 2014-09-06 17:52:21
    不是matlab 官方版本,自己动手写的并含有测试模块,适合学习贝叶斯编程过程。
  • 基于OpenCV的Haar与LBP级联分类器

    千次阅读 2022-04-03 11:23:02
    级联分类器原理-AdaBoost ·Viola和Jones – 2001在CVPR提出 ·一种实时对象(人脸)检测框架 ·训练速度非常慢,检测速度非常快 ·5000个正向人脸样本与300万个非人脸负样本数据 弱分类器-Weak classifier = ...
  • Softmax分类器

    万次阅读 多人点赞 2020-03-17 17:52:24
    下面我们介绍一下分类器最终的LOSS值是怎么计算的: 第一步:对应于一个输入计算出它属于每种类别的得分数值。 第二部:利用sigmoid函数把所有的得分值映射成一个概率值。 第三部:对最终正确分类所占的概率求一个...
  • 基于Fisher准则线性分类器设计

    千次阅读 2021-01-15 22:11:32
    用 完成 线性分类器的设计,程序的语句要求有注释。 2、根据上述的结果并判断 ,属于哪个类别,并画出数据分类相应的结果图,要求画出其在 上的投影。 实验程序 function fisher %w1中数据点的坐标 x1 =[0.2331 1....
  • 朴素贝叶斯分类器原理解析与python实现

    千次阅读 多人点赞 2020-08-18 15:39:22
    贝叶斯分类器是以贝叶斯原理为基础的分类器的总称,是一种生成式模型,朴素贝叶斯分类器是其中最简单的一种。要高明白贝叶斯分类器的原理,首先得明白一些基本概念。 预备知识 基本概念 先验概率:根据统计/经验...
  • 神经网络分类器

    千次阅读 2021-02-18 20:30:34
    专门设计的AI芯片:包含GPU和 FPGA的元素 人工神经元的学习规则 分为神经元和多神经元,多神经元由神经元添加层次或者是参数实现 完整的神经网络训练问题可以分为两个层次研究 每个神经元如何根据输入输出数据来...
  • 原文链接:http://www.wangxianfeng.name/2011/08/ensemble-method-to-improve-the-accuracy-of-the-classifier/ ...这些单个的分类器模型主要有决策树、人工神经网络、朴素贝叶斯分类器等等。 可以通过聚集
  • 2、最近邻分类器

    千次阅读 2018-07-06 10:23:41
    2、最近邻分类器 接下来我们来开发一个图像分类器:最近邻分类器。这个分类器在实践中很少用,但是可以让我们对数据驱动的图像分类方法有一个概念性的理解。 图像分类样例数据集:CIFAR-10,这是一个有名的图像...
  • Boosting分类器

    万次阅读 2015-11-16 22:16:54
    据参考论文的实验结果,增加分类器个数可以在提高强分类器检测率的同时降低误识率,所以级联分类器在训练时要考虑如下平衡,一是弱分类器的个数和计算时间的平衡,二是强分类器检测率和误识率之间的平衡。...
  • C++使用opencv调用级联分类器来识别目标物体

    千次阅读 多人点赞 2022-04-19 13:25:14
    相较于帧差法捕捉目标物体识别,级联分类器识别目标物体更加具有针对性,使用前者只要是动的物体都会被捕捉识别到,画面里有一点风吹草动,都会被捕捉识别下来,如果我想识别具体的人或者物,都无法做到精准的目标...
  • 贝叶斯分类器理论知识。包括贝叶斯决策论,朴素贝叶斯分类器,半朴素贝叶斯分类器
  • 分类器和强分类器

    万次阅读 2013-10-15 14:24:18
    但是把若干弱分类器组合后就形成功能较强的分类器,并具备相当高的威力。如分类器功能过于强大则使得识别结果时间延长而变得没有意义。较强分类器在于它可以迅速将不具备人脸特征的图像排除。在弱识别特征很多时,...
  • 借助多标签分类器进行对抗训练

    千次阅读 2022-01-21 12:01:04
    目前对抗训练的研究方向主要集中在多分类任务中的训练方式上,本文尝试借助多标签分类器来对多分类器进行对抗训练,其中多分类任务和多标签任务的区别可以从文章《多标签分类器(附pytorch代码)》中知晓。...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 891,049
精华内容 356,419
关键字:

单分类器