精华内容
下载资源
问答
  • 朴素贝叶斯算法优缺点

    万次阅读 2018-07-14 00:06:07
    朴素贝叶斯的主要优点有:1)...朴素贝叶斯的主要缺点有: 1) 理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型给定输出类别的情况下,假设属性之间...
    朴素贝叶斯的主要优点有:
    
    1)朴素贝叶斯模型有稳定的分类效率。
    2)对小规模的数据表现很好,能处理多分类任务,适合增量式训练,尤其是数据量超出内存时,可以一批批的去增量训练。
    3)对缺失数据不太敏感,算法也比较简单,常用于文本分类。
    朴素贝叶斯的主要缺点有:   
    1) 理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型给定输出类别的情况下,假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性个数比较多或者属性之间相关性较大时,分类效果不好。而在属性相关性较小时,朴素贝叶斯性能最为良好。对于这一点,有半朴素贝叶斯之类的算法通过考虑部分关联性适度改进。
    2)需要知道先验概率,且先验概率很多时候取决于假设,假设的模型可以有很多种,因此在某些时候会由于假设的先验模型的原因导致预测效果不佳。
    3)由于我们是通过先验和数据来决定后验的概率从而决定分类,所以分类决策存在一定的错误率。
    4)对输入数据的表达形式很敏感。
    展开全文
  • 朴素贝叶斯优缺点

    万次阅读 2018-05-14 16:34:08
    朴素贝叶斯的主要优点有:1)朴素贝叶斯模型发源于古典...朴素贝叶斯的主要缺点有:1) 理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型假设属性之间相...

    朴素贝叶斯的主要优点有:

    1)朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。

    2)对小规模的数据表现很好,能个处理多分类任务,适合增量式训练,尤其是数据量超出内存时,我们可以一批批的去增量训练。

    3)对缺失数据不太敏感,算法也比较简单,常用于文本分类。

    朴素贝叶斯的主要缺点有:

    1) 理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性个数比较多或者属性之间相关性较大时,分类效果不好。而在属性相关性较小时,朴素贝叶斯性能最为良好。对于这一点,有半朴素贝叶斯之类的算法通过考虑部分关联性适度改进。

    2)需要知道先验概率,且先验概率很多时候取决于假设,假设的模型可以有很多种,因此在某些时候会由于假设的先验模型的原因导致预测效果不佳。

    3)由于我们是通过先验和数据来决定后验的概率从而决定分类,所以分类决策存在一定的错误率。

    4)对输入数据的表达形式很敏感。

    以上就是朴素贝叶斯算法的一个总结,希望可以帮到朋友们。

    文章源自:

    http://www.cnblogs.com/pinard/p/6069267.html

    另附:

    1决策树(Decision Trees)的优缺点

    决策树的优点:

    一、决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。

    二、对于决策树,数据的准备往往是简单或者是不必要的.其他的技术往往要求先把数据一般化,比如去掉多余的或者空白的属性。

    三、能够同时处理数据型和常规型属性。其他的技术往往要求数据属性的单一。

    四、决策树是一个白盒模型。如果给定一个观察的模型,那么根据所产生的决策树很容易推出相应的逻辑表达式。

    五、易于通过静态测试来对模型进行评测。表示有可能测量该模型的可信度。

    六、 在相对短的时间内能够对大型数据源做出可行且效果良好的结果。

    七、 可以对有许多属性的数据集构造决策树。

    八、 决策树可很好地扩展到大型数据库中,同时它的大小独立于数据库的大小。

    决策树的缺点:

    一、对于那些各类别样本数量不一致的数据,在决策树当中,信息增益的结果偏向于那些具有更多数值的特征。

    二、决策树处理缺失数据时的困难。

    三、 过度拟合问题的出现。

    四、忽略数据集中属性之间的相关性。

    2 人工神经网络的优缺点

    人工神经网络的优点:分类的准确度高,并行分布处理能力强,分布存储及学习能力强,对噪声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系,具备联想记忆的功能等。

    人工神经网络的缺点:神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值;不能观察之间的学习过程,输出结果难以解释,会影响到结果的可信度和可接受程度;学习时间过长,甚至可能达不到学习的目的。

    3 遗传算法的优缺点

    遗传算法的优点:

    一、与问题领域无关切快速随机的搜索能力。

    二、搜索从群体出发,具有潜在的并行性,可以进行多个个体的同时比较,鲁棒性好。

    三、搜索使用评价函数启发,过程简单。

    四、使用概率机制进行迭代,具有随机性。

    五、具有可扩展性,容易与其他算法结合。

    遗传算法的缺点:

    一、遗传算法的编程实现比较复杂,首先需要对问题进行编码,找到最优解之后还需要对问题进行解码,

    二、另外三个算子的实现也有许多参数,如交叉率和变异率,并且这些参数的选择严重影响解的品质,而目前这些参数的选择大部分是依靠经验.没有能够及时利用网络的反馈信息,故算法的搜索速度比较慢,要得要较精确的解需要较多的训练时间。

    三、算法对初始种群的选择有一定的依赖性,能够结合一些启发算法进行改进。

    4 KNN算法(K-Nearest Neighbour) 的优缺点

    KNN算法的优点:

    一、简单、有效。

    二、重新训练的代价较低(类别体系的变化和训练集的变化,在Web环境和电子商务应用中是很常见的)。

    三、计算时间和空间线性于训练集的规模(在一些场合不算太大)。

    四、由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。

    五、该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。

    KNN算法缺点:

    一、KNN算法是懒散学习方法(lazy learning,基本上不学习),一些积极学习的算法要快很多。

    二、类别评分不是规格化的(不像概率评分)。

    三、输出的可解释性不强,例如决策树的可解释性较强。

    四、该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。

    五、计算量较大。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。

    5 支持向量机(SVM)的优缺点

    SVM的优点:

    一、可以解决小样本情况下的机器学习问题。

    二、可以提高泛化性能。

    三、可以解决高维问题。

    四、可以解决非线性问题。

    五、可以避免神经网络结构选择和局部极小点问题。

    SVM的缺点:

    一、对缺失数据敏感。

    二、对非线性问题没有通用解决方案,必须谨慎选择Kernelfunction来处理。

    6 朴素贝叶斯的优缺点

    优点:

    一、朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。

    二、NBC模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。

    缺点:

    一、理论上,NBC模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为NBC模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的(可以考虑用聚类算法先将相关性较大的属性聚类),这给NBC模型的正确分类带来了一定影响。在属性个数比较多或者属性之间相关性较大时,NBC模型的分类效率比不上决策树模型。而在属性相关性较小时,NBC模型的性能最为良好。

    二、需要知道先验概率。

    三、分类决策存在错误率

    7 Adaboosting方法的优点

    一、adaboost是一种有很高精度的分类器。

    二、可以使用各种方法构建子分类器,Adaboost算法提供的是框架。

    三、当使用简单分类器时,计算出的结果是可以理解的。而且弱分类器构造极其简单。

    四、简单,不用做特征筛选。

    五、不用担心overfitting。

    8 Rocchio的优点

    Rocchio算法的突出优点是容易实现,计算(训练和分类)特别简单,它通常用来实现衡量分类系统性能的基准系统,而实用的分类系统很少采用这种算法解决具体的分类问题。

    展开全文
  • Python 高斯朴素贝叶斯优缺点

    千次阅读 2020-04-06 16:09:19
    Sklearn基于这些分布以及这些分布上的概率估计的改进,为我们提供了四个朴素贝叶斯的分类器 类 含义 naive_bayes.BernoulliNB 伯努利分布下的朴素贝叶斯 naive_bayes.GaussianNB 高斯分布下的朴素...

    关注微信公共号:小程在线

    关注CSDN博客:程志伟的博客

    Sklearn基于这些分布以及这些分布上的概率估计的改进,为我们提供了四个朴素贝叶斯的分类器

    含义
    naive_bayes.BernoulliNB伯努利分布下的朴素贝叶斯
    naive_bayes.GaussianNB高斯分布下的朴素贝叶斯
    naive_bayes.MultinomialNB多项式分布下的朴素贝叶斯
    naive_bayes.ComplementNB补集朴素贝叶斯
    linear_model.BayesianRidge贝叶斯岭回归,在参数估计过程中使用贝叶斯回归技术来包括正则化参数

    虽然朴素贝叶斯使用了过于简化的假设,这个分类器在许多实际情况中都运行良好,著名的是文档分类和垃圾邮件过滤。而且由于贝叶斯是从概率角度进行估计,它所需要的样本量比较少,极端情况下甚至我们可以使用1%的数据作为训练集,依然可以得到很好的拟合效果。
     

    1 不同分布下的贝叶斯
    1.1 高斯朴素贝叶斯GaussianNB
    1.1.1 认识高斯朴素贝叶斯

    class sklearn.naive_bayes.GaussianNB (priors=None, var_smoothing=1e-09)
    高斯朴素贝叶斯,通过假设 是服从高斯分布(也就是正态分布),来估计每个特征下每个类别上的条件概率。对于每个特征下的取值,高斯朴素贝叶斯有如下公式:

    对于任意一个Y的取值,贝叶斯都以求解最大化的 为目标,这样我们才能够比较在不同标签下我们的样本究竟更靠近哪一个取值。以最大化 为目标,高斯朴素贝叶斯会为我们求解公式中的参数 和 。求解出参数后,带入一个 的值,就能够得到一个 的概率取值。
     

    导入需要的库和数据

    import numpy as np
    import matplotlib.pyplot as plt
    from sklearn.naive_bayes import GaussianNB
    from sklearn.datasets import load_digits
    from sklearn.model_selection import train_test_split


    digits = load_digits()
    X, y = digits.data, digits.target
    Xtrain,Xtest,Ytrain,Ytest = train_test_split(X,y,test_size=0.3,random_state=420)

    查看训练集数据的维度

    Xtrain.shape
    Out[4]: (1257, 64)

     

    查看有几个不同的标签

    np.unique(Ytrain)
    Out[5]: array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])

     

    建模,探索建模结果

    gnb = GaussianNB().fit(Xtrain,Ytrain)

     

    #查看分数

    acc_score = gnb.score(Xtest,Ytest)
    acc_score
    Out[7]: 0.8592592592592593

     

    #查看预测的概率结果

    prob = gnb.predict_proba(Xtest)
    prob.shape
    Out[8]: (540, 10)

    prob[1,:]
    Out[9]: 
    array([0.00000000e+00, 1.00000000e+00, 9.26742456e-13, 0.00000000e+00,
           0.00000000e+00, 0.00000000e+00, 0.00000000e+00, 0.00000000e+00,
           0.00000000e+00, 0.00000000e+00])

     

    #每一行的和都是一

    prob[1,:].sum()
    Out[10]: 1.000000000000003

    prob.sum(axis=1).shape
    Out[11]: (540,)

    #查看预测结果
    Y_pred = gnb.predict(Xtest)

     

    使用混淆矩阵来查看贝叶斯的分类结果
    from sklearn.metrics import confusion_matrix as CM
    CM(Ytest,Y_pred)
    Out[14]: 
    array([[47,  0,  0,  0,  0,  0,  0,  1,  0,  0],
           [ 0, 46,  2,  0,  0,  0,  0,  3,  6,  2],
           [ 0,  2, 35,  0,  0,  0,  1,  0, 16,  0],
           [ 0,  0,  1, 40,  0,  1,  0,  3,  4,  0],
           [ 0,  0,  1,  0, 39,  0,  1,  4,  0,  0],
           [ 0,  0,  0,  2,  0, 58,  1,  1,  1,  0],
           [ 0,  0,  1,  0,  0,  1, 49,  0,  0,  0],
           [ 0,  0,  0,  0,  0,  0,  0, 54,  0,  0],
           [ 0,  3,  0,  1,  0,  0,  0,  2, 55,  0],
           [ 1,  1,  0,  1,  2,  0,  0,  3,  7, 41]], dtype=int64)

    ROC曲线是不能用于多分类的。多分类状况下最佳的模型评估指标是混淆矩阵和整体的准确度
     

     

    1.1.2 探索贝叶斯:高斯朴素贝叶斯擅长的数据集

    import numpy as np
    import matplotlib.pyplot as plt
    from matplotlib.colors import ListedColormap
    from sklearn.model_selection import train_test_split
    from sklearn.preprocessing import StandardScaler
    from sklearn.datasets import make_moons, make_circles, make_classification
    from sklearn.naive_bayes import GaussianNB, MultinomialNB, BernoulliNB, ComplementNB

    h = .02
    names = ["Multinomial","Gaussian","Bernoulli","Complement"]

    classifiers = [MultinomialNB(),GaussianNB(),BernoulliNB(),ComplementNB()]

    X, y = make_classification(n_features=2, n_redundant=0, n_informative=2,
    random_state=1, n_clusters_per_class=1)
    rng = np.random.RandomState(2)
    X += 2 * rng.uniform(size=X.shape)
    linearly_separable = (X, y)
    datasets = [make_moons(noise=0.3, random_state=0),
    make_circles(noise=0.2, factor=0.5, random_state=1),
    linearly_separable
    ]

    figure = plt.figure(figsize=(6, 9))
    i = 1
    for ds_index, ds in enumerate(datasets):
        X, y = ds
        X = StandardScaler().fit_transform(X)
        X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4,
        random_state=42)
        x1_min, x1_max = X[:, 0].min() - .5, X[:, 0].max() + .5
        x2_min, x2_max = X[:, 1].min() - .5, X[:, 1].max() + .5
        array1,array2 = np.meshgrid(np.arange(x1_min, x1_max, 0.2),
        np.arange(x2_min, x2_max, 0.2))
        cm = plt.cm.RdBu
        cm_bright = ListedColormap(['#FF0000', '#0000FF'])
        ax = plt.subplot(len(datasets), 2, i)
        
        if ds_index == 0:
            ax.set_title("Input data")
        
        ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train,
        cmap=cm_bright,edgecolors='k')
        ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test,
        cmap=cm_bright, alpha=0.6,edgecolors='k')
        ax.set_xlim(array1.min(), array1.max())
        ax.set_ylim(array2.min(), array2.max())
        ax.set_xticks(())
        ax.set_yticks(())
        i += 1
        ax = plt.subplot(len(datasets),2,i)
        
        clf = GaussianNB().fit(X_train, y_train)
        score = clf.score(X_test, y_test)
        Z = clf.predict_proba(np.c_[array1.ravel(),array2.ravel()])[:, 1]
        Z = Z.reshape(array1.shape)
        ax.contourf(array1, array2, Z, cmap=cm, alpha=.8)
        ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright,
        edgecolors='k')
        ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,
        edgecolors='k', alpha=0.6)
        ax.set_xlim(array1.min(), array1.max())
        ax.set_ylim(array2.min(), array2.max())
        ax.set_xticks(())
        ax.set_yticks(())
        if ds_index == 0:
            ax.set_title("Gaussian Bayes")
        ax.text(array1.max() - .3, array2.min() + .3, ('{:.1f}%'.format(score*100)),
        size=15, horizontalalignment='right')
        i += 1

    plt.tight_layout()
    plt.show()

    从图上来看,高斯贝叶斯属于比较特殊的一类分类器,其分类效果在二分数据和月亮型数据上表现优秀,但是环形数
    据不太擅长。我们之前学过的模型中,许多线性模型比如逻辑回归,线性SVM等等,在线性数据集上会绘制直线决策
    边界,因此难以对月亮型和环形数据进行区分,但高斯朴素贝叶斯的决策边界是曲线,可以是环形也可以是弧线,所
    以尽管贝叶斯本身更加擅长线性可分的二分数据,但朴素贝叶斯在环形数据和月亮型数据上也可以有远远胜过其他线
    性模型的表现
     

     

     

    1.1.3 探索贝叶斯:高斯朴素贝叶斯的拟合效果与运算速度
    1. 首先导入需要的模块和库


    import numpy as np
    import matplotlib.pyplot as plt
    from sklearn.naive_bayes import GaussianNB
    from sklearn.svm import SVC
    from sklearn.ensemble import RandomForestClassifier as RFC
    from sklearn.tree import DecisionTreeClassifier as DTC
    from sklearn.linear_model import LogisticRegression as LR
    from sklearn.datasets import load_digits
    from sklearn.model_selection import learning_curve
    from sklearn.model_selection import ShuffleSplit
    from time import time
    import datetime

     

    2. 定义绘制学习曲线的函数
    #找出每个图像的横纵坐标,learning_curve
    #绘制子图所在的子图

    def plot_learning_curve(estimator,title, X, y,
                            ax, #选择子图
                            ylim=None, #设置纵坐标的取值范围
                            cv=None, #交叉验证
                            n_jobs=None #设定索要使用的线程
                            ):
        train_sizes, train_scores, test_scores = learning_curve(estimator, X, y
                                                                ,cv=cv,n_jobs=n_jobs)
        ax.set_title(title)
        if ylim is not None:
            ax.set_ylim(*ylim)
        ax.set_xlabel("Training examples")
        ax.set_ylabel("Score")
        ax.grid() #显示网格作为背景,不是必须
        ax.plot(train_sizes, np.mean(train_scores, axis=1), 'o-', color="r",label="Training score")
        ax.plot(train_sizes, np.mean(test_scores, axis=1), 'o-', color="g",label="Test score")
        ax.legend(loc="best")
        return ax

     

    3. 导入数据,定义循环

    digits = load_digits()
    X, y = digits.data, digits.target

    title = ["Naive Bayes","DecisionTree","SVM, RBF kernel","RandomForest","Logistic"]
    model = [GaussianNB(),DTC(),SVC(gamma=0.001),RFC(n_estimators=50),LR(C=.1,solver="lbfgs")]
    cv = ShuffleSplit(n_splits=50, test_size=0.2, random_state=0)

     

    4. 进入循环,绘制学习曲线

    fig, axes = plt.subplots(1,5,figsize=(30,6))
    for ind,title_,estimator in zip(range(len(title)),title,model):
        times = time()
        plot_learning_curve(estimator, title_, X, y,
                            ax=axes[ind], ylim = [0.7, 1.05],n_jobs=4, cv=cv)
        print("{}:{}".format(title_,datetime.datetime.fromtimestamp(time()-times).strftime("%M:%S:%f")))

    plt.show()
    Naive Bayes:00:06:160353
    DecisionTree:00:02:359413
    SVM, RBF kernel:00:12:704179
    RandomForest:00:15:797081
    Logistic:00:40:925605

    我们首先返回的结果是各个算法的运行时间。可以看到,决策树和贝叶斯不相伯仲。决策树之所以能够运行非常快速是因为
    sklearn中的分类树在选择特征时有所“偷懒”,没有计算全部特征的信息熵而是随机选择了一部分特征来进行计算,因
    此速度快可以理解,但我们知道决策树的运算效率随着样本量逐渐增大会越来越慢,但朴素贝叶斯却可以在很少的样
    本上获得不错的结果,因此我们可以预料,随着样本量的逐渐增大贝叶斯会逐渐变得比决策树更快。朴素贝叶斯计算
    速度远远胜过SVM,随机森林这样复杂的模型,逻辑回归的运行受到最大迭代次数的强烈影响和输入数据的影响(逻
    辑回归一般在线性数据上运行都比较快,但在这里应该是受到了稀疏矩阵的影响)。因此在运算时间上,朴素贝叶斯
    还是十分有优势的。
    我们来看一下每个算法在训练集上的拟合。手写数字数据集是一个较为简单的数据集,决策树,森林,SVC
    和逻辑回归都成功拟合了100%的准确率,但贝叶斯的最高训练准确率都没有超过95%,这也应证了我们最开始说
    的,朴素贝叶斯的分类效果其实不如其他分类器,贝叶斯天生学习能力比较弱。并且我们注意到,随着训练样本量的
    逐渐增大,其他模型的训练拟合都保持在100%的水平,但贝叶斯的训练准确率却逐渐下降,这证明样本量越大,贝
    叶斯需要学习的东西越多,对训练集的拟合程度也越来越差。反而比较少量的样本可以让贝叶斯有较高的训练准确
    率。
    过拟合问题。首先一眼看到,所有模型在样本量很少的时候都是出于过拟合状态的(训练集上表现好,测试
    集上表现糟糕),但随着样本的逐渐增多,过拟合问题都逐渐消失了,不过每个模型的处理手段不同。比较强大的分
    类器们,比如SVM,随机森林和逻辑回归,是依靠快速升高模型在测试集上的表现来减轻过拟合问题。相对的,决策
    树虽然也是通过提高模型在测试集上的表现来减轻过拟合,但随着训练样本的增加,模型在测试集上的表现善生却非
    常缓慢。朴素贝叶斯独树一帜,是依赖训练集上的准确率下降,测试集上的准确率上升来逐渐解决过拟合问题。


    每个算法在测试集上的拟合结果,即泛化误差的大小。随着训练样本数量的上升,所有模型的测试表现。
    都上升了,但贝叶斯和决策树在测试集上的表现远远不如SVM,随机森林和逻辑回归。SVM在训练数据量增大到
    1500个样本左右的时候,测试集上的表现已经非常接近100%,而随机森林和逻辑回归的表现也在95%以上,而决策
    树和朴素贝叶斯还徘徊在85%左右。但这两个模型所面临的情况十分不同:决策树虽然测试结果不高,但是却依然具
    有潜力,因为它的过拟合现象非常严重,我们可以通过减枝来让决策树的测试结果逼近训练结果。然而贝叶斯的过拟
    合现象在训练样本达到1500左右的时候已经几乎不存在了,训练集上的分数和测试集上的分数非常接近,只有在非
    常少的时候测试集上的分数才能够比训练集上的结果更高,所以我们基本可以判断,85%左右就是贝叶斯在这个数据
    集上的极限了。可以预测到,如果我们进行调参,那决策树最后应该可以达到90%左右的预测准确率,但贝叶斯却几
    乎没有潜力了。


    结论:贝叶斯是速度很快,但分类效果一般,并且初次训练之后的结果就很接近算法极限
    的算法,几乎没有调参的余地。也就是说,如果我们追求对概率的预测,并且希望越准确越好,那我们应该先选择逻
    辑回归。如果数据十分复杂,或者是稀疏矩阵,那我们坚定地使用贝叶斯。如果我们分类的目标不是要追求对概率的
    预测,那我们完全可以先试试看高斯朴素贝叶斯的效果(反正它运算很快速,还不需要太多的样本),如果效果很不
    错,我们就很幸运地得到了一个表现优秀又快速的模型。如果我们没有得到比较好的结果,那我们完全可以选择再更
    换成更加复杂的模型。

    其中的参数结果:

    [*zip(range(len(title)),title,model)]
    Out[23]: 
    [(0, 'Naive Bayes', GaussianNB(priors=None, var_smoothing=1e-09)),
     (1,
      'DecisionTree',
      DecisionTreeClassifier(class_weight=None, criterion='gini', max_depth=None,
                             max_features=None, max_leaf_nodes=None,
                             min_impurity_decrease=0.0, min_impurity_split=None,
                             min_samples_leaf=1, min_samples_split=2,
                             min_weight_fraction_leaf=0.0, presort=False,
                             random_state=None, splitter='best')),
     (2,
      'SVM, RBF kernel',
      SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0,
          decision_function_shape='ovr', degree=3, gamma=0.001, kernel='rbf',
          max_iter=-1, probability=False, random_state=None, shrinking=True,
          tol=0.001, verbose=False)),
     (3,
      'RandomForest',
      RandomForestClassifier(bootstrap=True, class_weight=None, criterion='gini',
                             max_depth=None, max_features='auto', max_leaf_nodes=None,
                             min_impurity_decrease=0.0, min_impurity_split=None,
                             min_samples_leaf=1, min_samples_split=2,
                             min_weight_fraction_leaf=0.0, n_estimators=50,
                             n_jobs=None, oob_score=False, random_state=None,
                             verbose=0, warm_start=False)),
     (4,
      'Logistic',
      LogisticRegression(C=0.1, class_weight=None, dual=False, fit_intercept=True,
                         intercept_scaling=1, l1_ratio=None, max_iter=100,
                         multi_class='warn', n_jobs=None, penalty='l2',
                         random_state=None, solver='lbfgs', tol=0.0001, verbose=0,
                         warm_start=False))]

    展开全文
  • 朴素贝叶斯朴素贝叶斯定义、朴素贝叶斯公式分解、朴素贝叶斯分类流程、高斯型朴素贝叶斯、多项式朴素贝叶斯、伯努利型朴素贝叶斯朴素贝叶斯预测概率校准、朴素贝叶斯优缺点 目录 朴素贝叶斯朴素贝叶斯定义、...

    朴素贝叶斯:朴素贝叶斯定义、朴素贝叶斯公式分解、朴素贝叶斯分类流程、高斯型朴素贝叶斯、多项式朴素贝叶斯、伯努利型朴素贝叶斯、朴素贝叶斯预测概率校准、朴素贝叶斯优缺点

    目录

    展开全文
  • 朴素贝叶斯的主要优点 朴素贝叶斯模型发源于...朴素贝叶斯的主要缺点 理论上,朴素贝叶斯模型与其他分类方法相比,具有最小的误差率。但是,实际上并非总是如此,因为,朴素贝叶斯模型给定输出类别的情况下,假设...
  • I . 判别模型 与 概率模型 II . 贝叶斯分类 III . 拉普拉斯修正 IV . 使用 朴素贝叶斯分类器 + 拉普拉斯修正 为样本分类 ( 完整分类流程 ) V . 朴素贝叶斯分类器使用 VI . 朴素贝叶斯分类的优缺点
  • 当然,朴素贝叶斯算法的优点有很多,但这种算法的缺点也是我们不能忽视的,那么大家知道不知道朴素贝叶斯算法的优点和缺点是什么呢?下面我们就给大家介绍一下这个问题。 那么什么是朴素贝叶斯算法呢?其实朴素...
  • 而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。这篇文章我尽可能用直白的话语总结一下我们学习会上讲到的朴素贝叶斯分类算法,希望有利于他人理解。 1   分类问题综述  ...
  • 朴素贝叶斯算法优缺点 优点:在数据较少的情况下依然有效,可以处理多类别问题 缺点:对输入数据的准备方式敏感 适用数据类型:标称型数据 算法思想: 比如我们想判断一个邮件是不是垃圾邮件,那么我们知道的是这个...
  • 朴素贝叶斯算法的优缺点

    千次阅读 2019-03-30 14:11:48
    朴素贝叶斯算法的优缺点 优点:     (1)朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。     (2)对小规模的数据表现很好,能个处理多分类任务,适合增量式训练,尤其是数据量超出内存时,我们...
  • 总结 * 扩展 * 扩展 对于第二个问题朴素贝叶斯算法是在假定各个特征属性相互独立的情况下提出来这在现实生活中是很难实现的所以针对这个问题人们做了大量工作解决这个缺点 1如果特征属性之间是有联系的并且是一个有...
  • k近邻算法和朴素贝叶斯算法课件
  • 决策树: 优点: 简单易于理解 缺点
  • _": naviebayes() 输出结果: 在这里插入代码片 5.4 朴素贝叶斯分类优缺点 优点: 1、朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。 2、对缺失数据不太敏感,算法也比较简单,常用于文本分类。 3、分类准确...
  • 贝叶斯优缺点

    千次阅读 2018-11-14 11:39:16
    朴素贝叶斯的主要优点有: ...朴素贝叶斯的主要缺点有:  1) 理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型给定输出类别的情况下,假...
  • https://zhuanlan.zhihu.com/p/72556840 https://zhuanlan.zhihu.com/p/72541579
  • 贝叶斯公式2.4 概率统计词频2.5 拉普拉斯平滑三、sklearn朴素贝叶斯实现API四、朴素贝叶斯分类的优缺点五、文本特征工程5.1 文本分割,单词提取(1)英文(2)中文5.2 词数统计5.3 TFIDF(重要程度分析)5....
  • 朴素贝叶斯简单推导及优缺点

    千次阅读 2017-08-27 10:32:09
    朴素贝叶斯推导
  • 贝叶斯方法优缺点

    万次阅读 2018-08-29 22:16:33
    :这大概会朴素贝叶斯应用做多的地方了,即使在现在这种分类器层出不穷的年代,在文本分类场景中,朴素贝叶斯依旧坚挺地占据着一席之地。原因嘛,大家知道的,因为多分类很简单,同时在文本数据中,分布独立这个假设...
  • 朴素贝叶斯的假设异常严格,要求条件概率相互之间独立(实际怎么可能啊┗|`O′|┛ 即p(x1,x2,x3...,xn|y)=p(x1|y)*p(x2|y)*...*p(xn|y) 有了这个假设我们便可以计算出各个类别下的条件概率,再藉由贝叶斯公式...
  • 针对朴素贝叶斯分类算法中缺失数据填补问题,提出一种基于改进EM(Expectation Maximization)算法的朴素贝叶斯分 类算法。实验结果表明,改进算法具有较高的分类准确度。并将改进的算法应 用于高校教师岗位等级的...
  • 本文档主要讲解sklearn、knn、朴素贝叶斯、决策树算法使用场景及优缺点
  • 分类算法之K近邻和朴素贝叶斯K近邻一个例子弄懂k-近邻sklearn k-近邻算法API朴素贝叶斯概率论基础贝叶斯公式拉普拉斯平滑sklearn朴素贝叶斯实现API K近邻 一个例子弄懂k-近邻 电影可以按照题材分类,每个题材又是...
  • 朴素贝叶斯(Naive Bayes)原理+编程实现拉普拉斯修正的朴素贝叶斯分类器,以西瓜数据集3.0为训练集,对“测1”样本进行判别。
  • 1. 什么是朴素贝叶斯朴素贝叶斯(naive Bayes)法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入输出的联合概率分布;然后基于此模型,对给定的输入x,...
  • 朴素贝叶斯算法原理

    千次阅读 2018-10-31 20:59:50
    (作者:陈玓玏) 1. 损失函数 假设我们使用0-1损失函数,函数表达式如下: ...是决策函数,其输出值...6. 朴素贝叶斯优缺点 优点:计算简单,高效; 缺点:分类性能不一定高,要求特征相互独立的条件太强。
  • 朴素贝叶斯 朴素贝叶斯和其他绝大多数的分类算法都不同。对于大多数的分类算法,比如决策树,KNN,逻辑回归,支持向量机等,他们都是判别方法,也就是直接学习出特征输出Y和特征X之间的关系,要么是决策函数Y=f(X),...
  • 朴素贝叶斯算法简介

    2021-04-19 10:57:00
    朴素贝叶斯算法简介 1.2 概率基础复习 1.概率定义 概率定义为一件事情发生的可能性 扔出一个硬币,结果头像朝上 P(X) : 取值在[0, 1] 2.案例:判断女神对你的喜欢情况 在讲这两个概率之前我们通过一个...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 9,638
精华内容 3,855
关键字:

朴素贝叶斯优缺点