分类算法_分类算法对比 - CSDN
精华内容
参与话题
  • 算法--分类算法

    千次阅读 2019-12-18 08:46:28
    分类分类就是通过一些学习(监督学习),弄错一个分类器或者说分类模型,当你把一个参数(数据)放入时,可以告诉你你这参数(数据)应该放到哪个类,类似于猫狗分类。 一:朴素贝叶斯(Naive Bayes, NB) ...

    文章纯属个人愚见,欢迎指正!

    分类:分类就是通过一些学习(监督学习),弄错一个分类器或者说分类模型,当你把一个参数(数据)放入时,可以告诉你你这参数(数据)应该放到哪个类,类似于猫狗分类。

    一:朴素贝叶斯(Naive Bayes, NB)

    http://www.ruanyifeng.com/blog/2011/08/bayesian_inference_part_one.html

    二:Logistic回归(Logistic Regression, LR)

    https://blog.csdn.net/qq_20073741/article/details/102647497

    三:决策树(Decision Tree, DT)

    基本术语:

    • 根节点(Root Node):它代表整个种群或样本,并进一步分为两个或更多个同类集。
    • 拆分(Splitting):这是将节点划分为两个或更多个子节点的过程。
    • 决策节点(Decision Node):当子节点分裂成更多的子节点时,它被称为决策节点。
    • 叶子/终端节点(Leaf/ Terminal Node):不分割的节点称为叶子或终端节点。

    • 修剪(Pruning):当我们删除决策节点的子节点时,此过程称为修剪。 你可以说相反的分裂过程。
    • 分支/子树(Branch / Sub-Tree):整个树的子部分称为分支或子树。
    • 父节点和子节点(Parent and Child Node):划分为子节点的节点称为子节点的父节点,其中子节点是父节点的子节点。

    https://blog.csdn.net/qq_39384184/article/details/79940305

    四:随机森林(Random Forest, RF)

    https://blog.csdn.net/qq_20073741/article/details/103537438

    五:支持向量机(Support Vector Machine, SVM)

           特点:数据量少

    分类算法评估指标:

     (1)分类准确度

     (2)召回率

     (3)虚警率

     (4)精确度

    展开全文
  • 数据分析---常见分类算法

    千次阅读 2018-12-22 14:42:53
    分类问题是监督学习的一个核心问题。在监督学习中,当输出变量取有限个离散值时,预测问题便成为分类问题。 监督学习从数据中学习一个分类决策函数或分类模型,称为分类器(classifier)。分类器对新的输入进行输出...

    分类问题是监督学习的一个核心问题。在监督学习中,当输出变量取有限个离散值时,预测问题便成为分类问题。

    监督学习从数据中学习一个分类决策函数或分类模型,称为分类器(classifier)。分类器对新的输入进行输出的预测,这个过程称为分类。

     

    KNN算法(k-NearestNeighbor):

    如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别。

    所选择的邻居都是已经正确分类的对象。

    对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。

            现在有电器,水果,书籍3个种类的点,分布在第一象限(x表示价格,y表示销量),现在已知一个点m,我们需要找出离它最近的点(欧氏距离),根据这几个点的特征去分析,如果k=4,找4个点,其中3个 点属于水果类,那么,我们就断定这个点m也是水果。

    KNN算法不仅可以用于分类,还可用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成反比。

    缺点:样本分布不均衡(有的类样本很少,有的超多),就会影响最后判断的结果。

     

    朴素贝叶斯算法:

    公式:                                  P(B|A) = P(A|B)*P(B) / P(A)

    即:                                      P(类别|特征) = P(特征|类别)*P(类别) / P(特征)

               这个等式成立的条件需要特征之间相互独立,所以各属性之间相关性较小时,朴素贝叶斯性能比较好

    即要满足这样:                   P(A)=P(A1*A2*A3...) = P(A1)*P(A2)*P(A3)...

    上面的公式可以改成:       P(B|A) = P(A1|B)*P(A2|B)*P(A3|B)...  / P(A1)*P(A2)*P(A3)...

    优点:分类过程中时空开销小(假设特征相互独立,只会涉及到二维存储)

     

    决策树:

                            https://mp.csdn.net/postedit/85130080

     

    人工神经网络:

    目前,已有近40种神经网络模型,其中有反传网络、感知器自组织映射、Hopfield网络、波耳兹曼机、适应谐振理论等

    数学定义:

                         

    来自其他处理单元(神经元)i的信息为Xi,每一条突触的权重(作用强度)是Wi,

                              左边:   数学模型2

                               右边:数学模型3                 

     θ(threshold)表示隐含层神经节点的阈值(大于这个值一种结果,小于这个值又一种结果,例如:买东西,价格小于10就买,大于10不买),f 称为激活函数

    激活函数:

          由于上一层的输出是下一层的输入,导致上层到下层是一个线性过程,而线性模型的表达能力不够,所以引入非线性函数。

          常用的有:

                  1)tanh(双切正切函数):tanh在特征相差明显时的效果会很好,在循环过程中会不断扩大特征效果

                                                          

                  2)sigmoid(s型函数): 它可以将一个实数映射到(0,1)的区间,可以用来做二分类

                                                        

                  3)ReLU (简单,大于0的留下,否则为0) 用于隐层神经元输出

     

    从输入输出的结果中进行学习:

                                神经元权值和阈值的不断调整

    学习规则:

     1) 误差修正型规则:属于有监督的学习方法,根据实际输出和期望输出的误差进行网络连接权值的修正,

                                             δ学习规则、Widrow-Hoff学习规则、感知器学习规则和误差反向传播的BP(Back Propagation)学习规则

      2)竞争型规则:属于无监督学习,没有期望输出,学习(训练)阶段与应用(工作)阶段成为一体

      3)Hebb型规则:利用神经元之间的活化值(激活值)来反映它们之间联接性的变化,根据活化值(激活值)来修正其权值

      4)随机型规则:根据目标函数(即网络输出均方差)的变化调整网络的参数,最终使网络目标函数达到收敛值

    神经网络的运作:

                                 

    最困难的部分就是确定权重(w)和阈值(θ)。目前为止,这两个值都是自己主观给出的,但现实中很难估计它们的值,一般采用试错法,即微小的调整,得到效果最好的那一次调整。

    支持向量机(Support Vector Machine, SVM):

    SVM是用来解决二分类问题的有监督学习算法

    支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力(或称泛化能力)。

    泛化误差界的公式为:

                                         R(w)≤Remp(w)+Ф(n/h)

    公式中R(w)就是真实风险,Remp(w)就是经验风险,Ф(n/h)就是置信风险。统计学习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小,即结构风险最小。

    SVM正是这样一种努力最小化结构风险的算法。

    非线性,是指SVM擅长应付样本数据线性不可分的情况,主要通过松弛变量(也有人叫惩罚变量)和核函数技术来实现

    维数高可以降维处理

    线性分类器:

                                                  

    C1和C2是要区分的两个类别,中间的直线就是一个分类函数,如果存在一个线性函数能够将样本完全正确的分开,就称这些数据是线性可分的,否则称为非线性可分的。

    线性函数:一维是一个点,二维是线,三维是面,高于三维称为超平面。一个线性函数是一个实值函数(即函数的值是连续的实数),通过分类函数执行时得到的值大于还是小于这个阈值来确定类别归属。

    要将两类分开,就要找到一个超平面,使得超平面到两类的 margin 达到最大,margin就是超平面与离它最近一点的距离

    算法方面:https://blog.csdn.net/liugan528/article/details/79448379

                                                   

     

     

     

     

     

     

     

    展开全文
  • 数据挖掘算法——常用分类算法总结

    万次阅读 多人点赞 2019-06-27 16:43:25
    常用分类算法总结分类算法总结NBC算法LR算法SVM算法ID3算法C4.5 算法C5.0算法KNN 算法ANN 算法 分类算法总结 分类是在一群已经知道类别标号的样本中,训练一种分类器,让其能够对某种未知的样本进行分类。分类算法...

    分类算法

    分类是在一群已经知道类别标号的样本中,训练一种分类器,让其能够对某种未知的样本进行分类。分类算法属于一种有监督的学习。分类算法的分类过程就是建立一种分类模型来描述预定的数据集或概念集,通过分析由属性描述的数据库元组来构造模型。分类的目的就是使用分类对新的数据集进行划分,其主要涉及分类规则的准确性、过拟合、矛盾划分的取舍等。分类算法分类效果如图所示。

    常用的分类算法包括:NBC(Naive Bayesian Classifier,朴素贝叶斯分类)算法、LR(Logistic Regress,逻辑回归)算法、ID3(Iterative Dichotomiser 3 迭代二叉树3 代)决策树算法、C4.5 决策树算法、C5.0 决策树算法、SVM(Support Vector Machine,支持向量机)算法、KNN(K-Nearest Neighbor,K 最近邻近)算法、ANN(Artificial Neural Network,人工神经网络)算法等。

    NBC算法

    NBC 模型发源于古典数学理论,有着坚实的数学基础。该算法是基于条件独立性假设的一种算法,当条件独立性假设成立时,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。
    NBC算法的优点

    1. NBC算法逻辑简单,易于实现;
    2. NBC算法所需估计的参数很少;
    3. NBC 算法对缺失数据不太敏感;
    4. NBC 算法具有较小的误差分类率;
    5. NBC 算法性能稳定,健壮性比较好;

    NBC算法的缺点
    1.在属性个数比较多或者属性之间相关性较大时,NBC 模型的分类效果相对较差;
    2.算法是基于条件独立性假设的,在实际应用中很难成立,故会影响分类效果

    LR算法

    LR 回归是当前业界比较常用的机器学习方法,用于估计某种事物的可能性。它与多元线性回归同属一个家族,即广义线性模型。简单来说多元线性回归是直接将特征值和其对应的概率进行相乘得到一个结果,逻辑回归则是在这样的结果上加上一个逻辑函数。在此选择LR 作为回归分析模型的代表进行介绍。
    LR算法的优点
    1.对数据中小噪声的鲁棒性好;
    2.LR 算法已被广泛应用于工业问题中;
    3.多重共线性并不是问题,它可结合正则化来解决。

    LR算法的缺点
    1.对于非线性特征,需要转换
    2.当特征空间很大时,LR的性能并不是太好

    SVM算法

    SVM 算法是建立在统计学习理论基础上的机器学习方法,为十大数据挖掘算法之一。通过学习算法,SVM 可以自动寻找出对分类有较好区分能力的支持向量,由此构造出的分类器可以最大化类与类的间隔,因而有较好的适应能力和较高的分准率。SVM 算法的目的在于寻找一个超平面H,该超平面可以将训练集中的数据分开,且与类域边界的沿垂直于该超平面方向的距离最大,故SVM 法亦被称为最大边缘算法。

    SVM算法的优点
    1.SVM 模型有很高的分准率;
    2. SVM 模型有很高的泛化性能;
    3. SVM 模型能很好地解决高维问题;
    4. SVM 模型对小样本情况下的机器学习问题效果好。

    SVM算法的缺点
    1.SVM 模型对缺失数据敏感;
    2.对非线性问题没有通用解决方案,得谨慎选择核函数来处理。

    ID3算法

    ID3 算法是一种基于决策树的分类算法,该算法是以信息论为基础,以信息熵和信息增益为衡量标准,从而实现对数据的归纳分类。信息增益用于度量某个属性对样本集合分类的好坏程度。ID3 算法的时间复杂度为O(n*|D|*log|D|)。

    ID3算法的优点

    1. ID3 算法建立的决策树规模比较小;
    2. 查询速度快。

    ID3算法的缺点
    1.不适合处理连续数据;
    2.难以处理海量数据集;
    3.建树时偏选属性值较大的进行分离,而有时属性值较大的不一定能反应更多的数据信息。

    C4.5 算法

    C4.5 算法是ID3 算法的修订版,采用信息增益率来加以改进,选取有最大增益率的分割变量作为准则,避免ID3 算法过度的适配问题。

    C4.5算法优点
    1.C4.5 继承了ID3 优点;
    2.在树构造过程中进行剪枝;
    3.能对不完整数据进行处理;
    4.能够完成对连续属性的离散化处理;
    5.产生的分类规则易于理解,准确率较高;
    6.用增益率来选择属性,克服了用增益选择属性时偏向选择取值多的属性。

    C4.5 算法缺点
    1.构造树时,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效;
    2.只适合于能驻留于内存的数据集,当训练集达到内存无法容纳时程序无法运行。

    C4.5 用于遥感分类过程中,首先依据通常的方式建立第一个模型。随后建立的第二个模型聚焦于被第一个模型错误分类的记录。以此类推,最后应用整个模型集对样本进行分类,使用加权投票过程把分散的预测合并成综合预测。Boosting 技术对于噪声不大的数据,通常通过建立的多模型来减少错误分类的影响,提高分类精度。

    C5.0算法

    C5.0 算法是 Quinlan 在C4.5 算法的基础上改进而来的产生决策树的一种更新的算法,它除了包括C4.5 的全部功能外,还引入许多新的技术,其中最重要的技术是提升(Boosting)技术,目的是为了进一步提高决策树对样本的识别率。同时C5.0 的算法复杂度要更低,使用更简单,适应性更强,因此具有更高的使用价值。

    C5.0算法的优点
    1.C5.0 模型能同时处理连续和离散的数据
    2.C5.0 模型估计
    模型通常不需要很长的训练时间;
    3.C5.0 引入Boosting 技术以提高分类的效率和精度;
    4.C5.0 模型易于理解,模型推出的规则有非常直观的解释;
    5.C5.0 模型在面对数据遗漏和特征很多的问题时非常稳健。

    C5.0算法的缺点
    目标字段必须为分类字段。

    美国地质调查局(USGS)在进行土地覆盖分类项目过程中研发了支持决策树分类的软件。软件分类模块主要是针对庞大数据量的数据集进行数据挖掘,找出特征,然后建立规则集进行决策分类。在分类模块中采用C5.0 模型来完成决策树分类、形成分类文件,实现遥感影像的分类。

    KNN 算法

    KNN 算法是Cover 和Hart 于1968 年提出的理论上比较成熟的方法,为十大挖掘算法之一。该算法的思路非常简单直观:如果一个样本在特征空间中的k 个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。

    KNN算法的优点
    1.KNN 算法简单、有效;
    2.KNN 算法适用于样本容量比较大的类域的自动分类;
    3.由于KNN 方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN 方法较其他方法更为适合。

    KNN算法的缺点
    1.KNN 算法计算量较大;
    2.KNN 算法需要事先确定K 值;
    3.KNN 算法输出的可解释不强;
    4. KNN 算法对样本容量较小的类域很容易产生误分。

    ANN 算法

    人工神经网络(ANN)算法就是一组连续的输入/输出单元,其中每个连接都与一个权相关。在学习阶段,通过调整神经网络的权,使得能够预测样本的正确类标号来学习。

    ANN算法的优点
    1.能处理数值型及分类型的属性;
    2.分类的准确度高,分布并行处理能力强;
    3.对包含大量噪声数据的数据集有较强的鲁棒性和容错能力。

    ANN算法的缺点
    1.不能观察之间的学习过程;
    2.学习时间过长,甚至可能达不到学习的目的;
    3.对于非数值型数据需要做大量数据预处理工作;
    4.输出结果难以解释,会影响到结果的可信度和可接受程度;
    5.神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值。

    小结:

    算法名称 收敛时间 是否过度拟合 是否过渡拟合缺失数据敏感度 训练数据量
    NBC 存在 不敏感 无要求
    LR 存在 敏感 无要求
    SVM 一般 存在 敏感 小数据量
    ID3 存在 不敏感 小数据集
    C4.5 存在 不敏感 小数据集
    C5.0 不存在 不敏感 大数据集
    ANN 存在 敏感 大数据集
    KNN 存在 敏感 数据量多

    创建了一个技术闲聊群:有兴趣可加我微信,拉你一起讨论杂七杂八的技术,虽然大家都不怎么活跃!
    加好友备注:你的博客名 && 随便给我的任意文章点个赞或留言
    在这里插入图片描述

    展开全文
  • 常见分类算法

    万次阅读 2018-05-17 12:33:52
    常见分类算法 朴素贝叶斯网络、贝叶斯信念网络、随机森林、k-最近邻分类 云聚类算法引擎 k-Means、Canopy、Fuzzy K-Means、Mean Shift 云关联规则算法引起 FP-Growth关联规则 云智能推荐算法引擎 基于内存的...

    常见分类算法

    朴素贝叶斯网络、贝叶斯信念网络、随机森林、k-最近邻分类

    云聚类算法引擎

    k-Means、Canopy、Fuzzy K-Means、Mean Shift

    云关联规则算法引起

    FP-Growth关联规则

    云智能推荐算法引擎

    基于内存的协同过滤、基于模型的协同过滤

    主要的分类与预测算法:

    回归分析、决策树、随机森林、贝叶斯网络、支持向量机

    决策树

    描述:决策树是一种树状结构,他的每一个叶节点对应一个分类,非叶节点对应在某个属性上的划分,根据样本在该属性上的不同区直将其划分成若干子集。
    关键词:自上而下,分而治之
    常用的决策树算法:

    ID3算法:其核心是在决策树的各级节点上,使用信息增益方法作为属性的选择标准,以帮助确定生成每个节点时应采用的合适属性
    C4.5算法:相对于ID3算法的重要改进是使用信息增益率来选择节点属性。可以克服ID3算法存在的不足:ID3算法只适用于离散的描述属性,而C4.5算法既能够处理离散的描述属性,又可以处理连续的描述属性
    CART算法:是一种十分有效的分参数分类和回归方法,通过构建树、修剪树、评估树来古剑一个二叉树。当终结点是连续变量时,该树是回归树;当终结点是分类变量时,该树为分类树

    ID3算法的具体流程:
    1)对当前样本及和计算所有属性的信息增益;
    2)选择信息增益最大的属性作为测试属性,把测试属性取值相同的样本华为同一个子样本集。
    3)若字眼本机的类别属性值含有单个属性,则分支为叶子节点,判断其属性值并表上相应的符号,然后返回调用出;否则对子样本集递归调用本算法。

    展开全文
  • KNN(k-nearest neighbor)是一个简单而经典的机器学习分类算法,通过度量”待分类数据”和”类别已知的样本”的距离(通常是欧氏距离)对样本进行分类。 这话说得有些绕口,且来分解一番: (1)分类问题都是监督...
  • 分类算法简述

    万次阅读 2017-10-10 15:43:46
    分类算法简述一、什么是分类算法数据挖掘任务通常分为两大类: 预测任务,根据其他属性的值,预测特定属性的值。 描述任务,概括数据中潜在联系的模式(相关性,趋势,聚类,轨迹和异常)  分类属于预测任务,...
  • 各种分类算法比较

    千次阅读 2016-06-04 11:48:41
    最近在学习分类算法,顺便整理了各种分类算法的优缺点。 1决策树(Decision Trees)的优缺点 决策树的优点: 一、 决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。 二...
  • 浅谈分类算法原理

    千次阅读 2018-09-10 15:35:52
    二、分类算法用来解决什么问题 人群分类,新闻分类,query分类,商品分类,网页分类,垃圾邮件过滤,网页排序 三、有哪些分类算法(不保证完全,会不断补充) 1. Naive Bayesian Mode 朴素贝叶斯模型 最...
  • 分类算法总结

    万次阅读 多人点赞 2010-01-17 19:59:00
    目前看到的比较全面的分类算法,总结的还不错. 2.4.1 主要分类方法介绍解决分类问题的方法很多[40-42] ,单一的分类方法主要包括:决策树、贝叶斯、人工神经网络、K-近邻、支持向量机和基于关联规则的分类等;另外...
  • 带你搞懂朴素贝叶斯分类算法

    万次阅读 多人点赞 2019-04-25 15:19:01
    贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。这篇文章我尽可能用直白的话语总结一下我们学习会上讲到...
  • 机器学习之KNN最邻近分类算法

    万次阅读 多人点赞 2019-04-05 18:42:39
    KNN(K-Nearest Neighbor)最邻近分类算法是数据挖掘分类(classification)技术中最简单的算法之一,其指导思想是”近朱者赤,近墨者黑“,即由你的邻居来推断出你的类别。 KNN最邻近分类算法的实现原理:为了...
  • 贝叶斯分类算法

    千次阅读 2018-07-31 16:09:12
    贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。这篇文章我尽可能用直白的话语总结一下我们学习会上讲到...
  • 传统分类算法以及流计算分类算法

    千次阅读 2016-11-27 11:22:24
    传统的数据挖掘算法如ID3、C4.5首先都是通过先将数据存储到静态数据库中,当需要进行数据挖掘时再将数据提取出来进行处理,并且现行...K近邻分类算法、决策树分类算法和贝叶斯分类算法都是一些常用的针对静态数据集的分
  • 数据挖掘干货总结(三)--分类算法

    万次阅读 多人点赞 2019-06-29 15:31:20
    分类算法 一、本质 给定一个对象X,将其划分到预定义好的某一个类别Yi中的算法 二、分类算法用来解决什么问题 人群分类,新闻分类,query分类,商品分类,网页分类,垃圾邮件过滤,网页排序 三、有哪些...
  • 目录简介一、监督学习1、决策树(Decision Tree,DT)2、朴素贝叶斯分类器(Naive Bayesian Model,NBM)3、最小二乘法(Least squares)4、逻辑回归(Logistic Regression)5、支持向量机(SVM)6、K最近邻算法...
  • 图像分类算法优化技巧

    千次阅读 多人点赞 2018-12-26 21:00:26
    论文:Bag of Tricks for Image Classification with Convolutional Neural Networks ... 论文复现对很多人而言难度都比较大,因为常常涉及很多细节,部分细节对于模型效果影响很大,但是却很少有文章介绍这些细节,前...
  • 大数据分析之分类算法

    万次阅读 2016-09-09 14:10:23
    数据分析之决策树ID3算法什么是分类算法分类算法跟之前的聚类都是让不同对象个体划分到不同的组中的。但是分类不同之处在于类别在运算之前就已经是确定的。 分类是根据训练数据集合,结合某种分类算法,比如这...
  • 机器学习中有两类的大问题,一个是分类,一个是聚类...分类算法 1.分类算法的说法: 分类(classification):分类任务就是通过学习得到一个目标函数f,把每个属性集x映射到一个预先定义的类标号y中。 分类是根据一...
  • 分类算法简介

    千次阅读 2019-06-06 22:15:36
    1 决策树(Decision Trees)的优缺点 优点: 决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。 对于决策树,数据的准备往往是简单或者是不必要的.... 能够同时处理数据型和常规型属性。...
  • 详解朴素贝叶斯分类算法

    万次阅读 多人点赞 2018-08-15 22:25:31
    带你搞懂朴素贝叶斯分类算法   带你搞懂朴素贝叶斯分类算 贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类...
1 2 3 4 5 ... 20
收藏数 456,397
精华内容 182,558
关键字:

分类算法