2014-10-27 16:00:59 lingling_1 阅读数 1288
  • 从零开始学习机器学习视频教程

    零基础入门机器学习视频培训课程概况:机器学习数学基础、Python基础、机器学习算法(线性回归、逻辑回归、聚类算法、EM算法),机器学习项目实战(Kmeans篮球数据分析、贝叶斯算法训练)、推荐算法、项目实战。  任务作业:很多人都喜欢看NBA,也喜欢拿实力相近的球员进行比较,你能利用机器学习的方式进行分析吗?动手的机会来了!请 结合课程【项目实战】章节中的【Kmeans篮球数据分类】。从NBA网站中随机拿到30名篮球运动员的得分和助攻(尽量数据间隔较大)。用python对数据进行处理(换算成每分钟的得分和助攻)。然后用Kmeans对获取的球员进行分类。看看自己心仪的球员属于哪一类~  (温馨提示: 注意 作业需写在CSDN博客中,请把作业链接贴在评论区,老师会定期逐个批改~~)

    5899 人正在学习 去看看 陆永剑

机器学习可以解决很多问题,其中最为重要的两个是 回归与分类。 这两个问题怎么解决, 它们之间又有什么区别呢? 以下举几个简单的例子,以给大家一个概念

1. 线性回归

回归分析常用于分析两个变量X和Y 之间的关系。 比如 X=房子大小 和 Y=房价 之间的关系, X=(公园人流量,公园门票票价) 与 Y=(公园收入) 之间的关系等等。

那么你的数据点在图上可以这么看


现在你想找到 房子大小和房价的关系, 也就是一个函数f(x) = y. 能够很好的表示 这两个变量之间的关系。

于是你需要大概评估一下这个 房子大小和房价大概是一个什么关系.

线性的关系吗? 还是非线性的关系?


当然在这个问题里面, 线性的关系更符合这两者的关系。于是我们 选择一个合适的 线性模型, 最常用的是 f(x) = ax+b. 

然后用这个线性的模型 去 匹配这些数据点。

1.1 怎么匹配? 

有了数据点 和 你臆想出来的线性模型,怎么进行匹配,也就是怎么用这根线最好地描述些数据点的关系?

需要最好地描述点, 我们又需要一个关于“好”的定义。你也可以想出很多关于“好”的定义。下面有两个,


这两个定义都是 将模型与数据点之间的距离差 之和做为 衡量匹配好坏的标准。  误差越小,  匹配程度越大。

但是 总的来说, 我们想要找到的模型, 最后是想要使 f(x) 最大程度地 与y相似, 所以我们想要尽量地减少 f(x)与y之间的差值。 所以在这里 用第二个图的“好的定义” 来评估这根线的匹配程度是很合理的。于是我们有了误差公式!!!!!


这个公式,说的是,可以通过调整不同的a 和 b的值,就能使 误差不断变化,而当你找到这个公式的最小值时,你就能得到最好的a,b. 而这对(a,b)就是能最好描述你数据关系的模型参数


1.1.1 沿导数下降法(Gradient Descent)

怎么找 cost(a,b)的最小? cost(a,b) 的图像其实像一个碗 一样,有一个最低点。 找这个最低点的办法就是,先随便找一个点(e.g. a=3, b = 2), 然后 沿着这个碗下降的方向找,最后就能找到碗的最低点。


cost(a,b) 的形状

怎么找(某一点)碗下降的方向?? 答案是,找那一点导数的反方向。拿参数a 举个例子,  a与cost 关系如下图,


只要将任意一个a, 沿着使cost 导数的反方向 慢慢移动,那么 最终有一天a值就会到达使 cost 最小的那一点. 于是你可以不断地移动a,b, 向着最低点前进。



当然在进行移动的时候也需要考虑,每次移动的速度,也就是\Alpha的值,这个值也叫做(学习率). 学习率的增大可以加速参数逼近最优的情况, 但是如果在快要到达函数的底端的时候,需要减小学习率,以免出现cost 不断增大或者不停摆动的情况(如下图, J(a,b)就是cost(a,b) )。 所以说,当出现以上两种情况时候,我们应该果断选取一个较小的学习率, 以保证cost能减少到一个稳定的值(我们称为 收敛converge). 


1.1.2 直接求解最小点方法

这时候,有的人会问,为什么要让a不停地往下跑呢? 而且还需要设定学习率, 多麻烦, 直接让找 导数为0点(最小极值), 不就可以了吗? 嗯。。。也可以...但是各有优缺,

具体方法和优劣分析可见Rachel-Zhang 的博客: http://blog.csdn.net/abcjennifer/article/details/7700772


总结一下:  回归问题的解决方法是:

     1. 假定一个模型   2.  定义什么叫做最好的匹配(构造误差函数)   3. 用这个模型去匹配已有的数据点(训练集)


需要进一步讨论的问题:

  • 如果参数(a,b)更多了该怎么办?
  • 如果最合适的匹配模型并不是线性的怎么办?   --- 选用一个 非线性模型  比如  y = ax^2 + bx + c.
  • 如果误差(cost)与a,b(模型参数)的关系不是像碗一样的, 而是凹凸不平的该怎么办? ------   这时候你就得注意你得到的cost的最低点(局部的最低)可能因初始点的不同而不同。 而这些最低点你需要进行比较,以确定是不是全局的最低

2.分类(Logistic regression)

分类问题也是一类很常见的问题。 比如说,怎么判定一个人是高富帅还是吊丝? 假如我是中央电视台的记者,采访了N个人, 拿到了第一手资料。资料如下

我们想要根据一个人的口袋钱数量,来预测一个人是(富帅) 还是 (吊丝).  我们能不能用回归的方法做呢? 显然是可以的, 我们只要找到一个模型,然后再进行匹配就可以了。
但是因为分类问题的y值常常是一些离散的数字,(比如, 富帅为1, 吊丝为0), 所以我们已经不能用一个简单的线性函数来拟合这些数据了。我们需要一个更逼真的模型。 

于是我们引入了一个更适合处理分类问题的函数--- 一个非线性函数, 阶跃函数。

这个函数的形状更像我们分类问题的数据分布,所以,用他来拟合分类问题的数据将更适合
所以我们有了一个新的模型, 

通过调整a,b 的值,可以让模型不断改变以匹配数据点。 为了匹配数据点,我们又需要一个衡量匹配程度的函数,就像 回归问题一样的cost 函数. 于是同理我们可以得到cost

于是我们急切地想要把它用我们之前的gradient descent 的方法求解出使cost 最小的两个a,b值。 但是很遗憾的是, 这个cost函数关于a,b,是非凸(non-convex)的。 就像下面那张图那样坑坑洼洼。。。



所以你没有办法通过以上两种方法(1.1.1和1.1.2)求出这个cost函数的全局最小值
所以你需要构造一个更好的cost函数, 在可以衡量拟合程度的同时 又是一个关于a,b 的凸函数(像回归问题的cost一样,和一个碗一样,只有一个极小值). 
这怎么构造啊....


幸好我们还有各种伟大的数学家,他们夜以继日,终于赶制出了一个形状和碗一样(convex)的cost函数. (Maximum Likelihoods Estimation 更具体的介绍请看http://www.holehouse.org/mlclass/06_Logistic_Regression.html )

现在我们又可以用我们熟悉的 导数方向下降法(gradient descent) 移动a, b的值,使cost 降低到最小。



最后,分类的问题就这样被解决了。


当然,更复杂的问题可能有:
  • 现在是分成两类,如果数据需要分成三类或者更多该怎么办?  ---- 假如有A,B,C三类, 把其中A类做为1,BC做为0,然后做Logistic regression, 得到模型a, 同理将B类做为1,AC作为0,得到模型b, 再同理得到模型c.    最后测试的时候, 对任意一个数据点x, 我们能够得到x分别属于A,B,C三类的概率值 

最后比较大小,哪个大,这个x就属于哪一类
             具体可看, http://blog.csdn.net/abcjennifer/article/details/7716281 (七)



3.总结(两个问题的区别)

这篇文章大概的意图是能想让大家了解, 机器学习中最基本的两类问题,线性回归和分类。 能让大家有个清晰的思想,对于这两类问题都有以下几个步骤,
  • 如何选取一个 合理的模型(线性的,or 非线性的(e.g. 阶跃函数, 高斯函数)).
  • 制造一个"美好"的 误差函数 (可以评估拟合程度,而且还是convex函数)
  • 采取一切可能的技术(e.g. 导数下降法,解极值方程法) 求出最好的模型参数

谈谈回归和分类的区别:
总的来说两个问题本质上都是一致的,就是模型的拟合(匹配)。 但是分类问题的y值(也称为label), 更离散化一些. 而且, 同一个y值可能对应着一大批的x,  这些x是具有一定范围的。 
所以分类问题更多的是 (一定区域的一些x) 对应 着 (一个y).   而回归问题的模型更倾向于 (很小区域内的x,或者一般是一个x)  对应着  (一个y)。

分类问题回归问题监督学习问题,区别在于学习函数的预测输出是类别还是值。但是分类基本上都是用回归模型解决的,只是假设的模型不同(损失函数不一样),因为不能把分类标签当回归问题的输出来解决。分类和回归的区别在于输出变量的类型定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。



在把一个问题建模的时候一定要考虑好需求,让你的模型更好的与现实问题相对应。
2018-09-08 17:29:20 wfei101 阅读数 203
  • 从零开始学习机器学习视频教程

    零基础入门机器学习视频培训课程概况:机器学习数学基础、Python基础、机器学习算法(线性回归、逻辑回归、聚类算法、EM算法),机器学习项目实战(Kmeans篮球数据分析、贝叶斯算法训练)、推荐算法、项目实战。  任务作业:很多人都喜欢看NBA,也喜欢拿实力相近的球员进行比较,你能利用机器学习的方式进行分析吗?动手的机会来了!请 结合课程【项目实战】章节中的【Kmeans篮球数据分类】。从NBA网站中随机拿到30名篮球运动员的得分和助攻(尽量数据间隔较大)。用python对数据进行处理(换算成每分钟的得分和助攻)。然后用Kmeans对获取的球员进行分类。看看自己心仪的球员属于哪一类~  (温馨提示: 注意 作业需写在CSDN博客中,请把作业链接贴在评论区,老师会定期逐个批改~~)

    5899 人正在学习 去看看 陆永剑

640?wx_fmt=png

def findLossAndSplit(x,y):

    # 我们用 x 来表示训练数据
    # 我们用 y 来表示训练数据的label
    # x[i]表示训练数据的第i个特征
    # x_i 表示第i个训练样本

    # minLoss 表示最小的损失
    minLoss = Integet.max_value

    # feature 表示是训练的数据第几纬度的特征
    feature = 0

    # split 表示切分点的个数
    split = 0



    # M 表示 样本x的特征个数
    for j in range(0,M):

        # 该维特征下,特征值的每个切分点,这里具体的切分方式可以自己定义
        for c in range(0,x[j]):

            L = 0
            # 第一类

            R1 = {x|x[j] <= c}
            # 第二类

            R2 = {x|x[j] > c}
            # 属于第一类样本的y值的平均值

            y1 = ave{y|x 属于 R1}
            # 属于第二类样本的y值的平均值

            y2 = ave{y| x 属于 R2}
            # 遍历所有的样本,找到 loss funtion 的值

            for x_1 in all x
                if x_1 属于 R1: 
                    L += (y_1 - y1)^2 
                else:
                    L += (y_1 - y2)^2

            if L < minLoss:
               minLoss = L
               feature  = i
               split = c

    return minLoss,feature ,split

640?wx_fmt=png

# 定义训练数据

train_data = [[5.1,3.5,1.4,0.2],[4.9,3.0,1.4,0.2],[7.0,3.2,4.7,1.4],[6.4,3.2,4.5,1.5],[6.3,3.3,6.0,2.5],[5.8,2.7,5.1,1.9]]

# 定义label
label_data = [[1,0,0],[1,0,0],[0,1,0],[0,1,0],[0,0,1],[0,0,1]]
# index 表示的第几类

def findBestLossAndSplit(train_data,label_data,index):
        sample_numbers = len(label_data)
        feature_numbers = len(train_data[0])
        current_label = []

        # define the minLoss
        minLoss = 10000000

        # feature represents the dimensions of the feature
        feature = 0

        # split represents the detail split value
        split = 0

        # get current label
        for label_index in range(0,len(label_data)):
            current_label.append(label_data[label_index][index])

        # trans all features
        for feature_index in range(0,feature_numbers):
            ## current feature value
            current_value = []

            for sample_index in range(0,sample_numbers):
                current_value.append(train_data[sample_index][feature_index])

            L = 0
            ## different split value
            print current_value
            for index in range(0,len(current_value)):
                R1 = []
                R2 = []
                y1 = 0
                y2 = 0

                for index_1 in range(0,len(current_value)):
                    if current_value[index_1] < current_value[index]:
                        R1.append(index_1)
                    else:
                        R2.append(index_1)

                ## calculate the samples for first class
                sum_y = 0
                for index_R1 in R1:
                    sum_y += current_label[index_R1]

                if len(R1) != 0:
                    y1 = float(sum_y) / float(len(R1))
                else:
                    y1 = 0


                ## calculate the samples for second class
                sum_y = 0
                for index_R2 in R2:
                    sum_y += current_label[index_R2]
                if len(R2) != 0:
                    y2 = float(sum_y) / float(len(R2))
                else:
                    y2 = 0

                ## trans all samples to find minium loss and best split
                for index_2 in range(0,len(current_value)):
                    if index_2 in R1:
                        L += float((current_label[index_2]-y1))*float((current_label[index_2]-y1))
                    else:
                        L += float((current_label[index_2]-y2))*float((current_label[index_2]-y2))


                if L < minLoss:
                    feature = feature_index
                    split = current_value[index]
                    minLoss = L
                    print "minLoss"
                    print minLoss
                    print "split"
                    print split
                    print "feature"
                    print feature

        return minLoss,split,feature

findBestLossAndSplit(train_data,label_data,0)

3 总结

目前,我们总结了 gbdt 的算法的流程,gbdt如何选择特征,如何产生特征的组合,以及gbdt 如何用于分类,这个目前可以认为是gbdt 最经常问到的四个部分。至于剩余的问题,因为篇幅的问题,我们准备再开一个篇幅来进行总结

2018-10-16 22:18:46 baichoufei90 阅读数 104
  • 从零开始学习机器学习视频教程

    零基础入门机器学习视频培训课程概况:机器学习数学基础、Python基础、机器学习算法(线性回归、逻辑回归、聚类算法、EM算法),机器学习项目实战(Kmeans篮球数据分析、贝叶斯算法训练)、推荐算法、项目实战。  任务作业:很多人都喜欢看NBA,也喜欢拿实力相近的球员进行比较,你能利用机器学习的方式进行分析吗?动手的机会来了!请 结合课程【项目实战】章节中的【Kmeans篮球数据分类】。从NBA网站中随机拿到30名篮球运动员的得分和助攻(尽量数据间隔较大)。用python对数据进行处理(换算成每分钟的得分和助攻)。然后用Kmeans对获取的球员进行分类。看看自己心仪的球员属于哪一类~  (温馨提示: 注意 作业需写在CSDN博客中,请把作业链接贴在评论区,老师会定期逐个批改~~)

    5899 人正在学习 去看看 陆永剑

机器学习笔记-分类和回归的区别

0x01 区别

分类和回归是机器学习里面的基本概念,虽然都是通过某种算法模型来推断给点样本数据的输出,但还是有很大区别。

  • 分类
    分类问题往往是预测几个离散的值,比如预测一个人是亚洲人 非洲人 欧洲人 美洲人。
    分类,是一种定性输出,也叫离散变量预测。

要注意常用的回归模型之一:逻辑回归虽然名为回归,但其实是用sigmoid函数做的分类模型。

  • 回归
    回归问题往往是预测一个特定的值,比如经典的用线性回归模型通过房子参数预测房价的例子,就是一个典型的回归问题。注意,回归是对真实值的一种逼近式的预测。
    回归,是一种定量输出,也叫连续变量预测。

0x02 举例

  1. Logistic Regression 和 Linear Regression:

    • Linear Regression: 输出一个标量 wx+b,这个值是连续值,所以可以用来处理回归问题。
    • Logistic Regression:把上面的 wx+b 通过 sigmoid函数映射到(0,1)上,并划分一个阈值,大于阈值的分为一类,小于等于分为另一类,可以用来处理二分类问题。
    • 更进一步:对于N分类问题,则是先得到N组w值不同的 wx+b,然后归一化,比如用 softmax函数,最后变成N个类上的概率,可以处理多分类问题。
  2. Support Vector Regression 和 Support Vector Machine:

    • SVR:输出 wx+b,即某个样本点到分类面的距离,是连续值,所以是回归模型。
    • SVM:把这个距离用 sign(·) 函数作用,距离为正(在超平面一侧)的样本点是一类,为负的是另一类,所以是分类模型。
  3. 神经网络用于 分类 和 回归:

    • 用于回归:最后一层有m个神经元,每个神经元输出一个标量,m个神经元的输出可以看做向量 v,现全部连到一个神经元上,则这个神经元输出wv+b,是一个连续值,可以处理回归问题,跟上面 Linear Regression 思想一样。

    • 用于N分类:现在这m个神经元最后连接到 N 个神经元,就有 N 组w值不同的 wv+b,同理可以归一化(比如用 softmax )变成
      N个类上的概率。

  4. 拓展: 上面的例子其实都是从 prediction 的角度举例的,如果从training角度来看,分类模型和回归模型的目标函数不同,分类常见的是 log loss, hinge loss, 而回归是 square loss。

0x03 模型选择

下面是一个经常被引用的经典的模型选择图:
模型选择

0xFF 参考文档

分类与回归区别是什么?
回归和分类的区别

2018-12-23 21:25:47 weixin_43857419 阅读数 90
  • 从零开始学习机器学习视频教程

    零基础入门机器学习视频培训课程概况:机器学习数学基础、Python基础、机器学习算法(线性回归、逻辑回归、聚类算法、EM算法),机器学习项目实战(Kmeans篮球数据分析、贝叶斯算法训练)、推荐算法、项目实战。  任务作业:很多人都喜欢看NBA,也喜欢拿实力相近的球员进行比较,你能利用机器学习的方式进行分析吗?动手的机会来了!请 结合课程【项目实战】章节中的【Kmeans篮球数据分类】。从NBA网站中随机拿到30名篮球运动员的得分和助攻(尽量数据间隔较大)。用python对数据进行处理(换算成每分钟的得分和助攻)。然后用Kmeans对获取的球员进行分类。看看自己心仪的球员属于哪一类~  (温馨提示: 注意 作业需写在CSDN博客中,请把作业链接贴在评论区,老师会定期逐个批改~~)

    5899 人正在学习 去看看 陆永剑

@机器学习中线性回归以及逻辑回归

线性回归逻辑回归

引言:
机器学习(Machine Learning),是指赋予机器学习的能力以此让它完成直接编程无法完成的功能方法。实践:通过利用数据,训练出模型,然后使用模型预测的一种方法。

ML

>机器学习分类

1.有监督学习(分类,回归);
2. 半监督学习(分类,回归,transductive learning 直推式学习);
3.半监督聚类(有标签数据但是标签不明确,比如:肯定不是…;可能是…);
4. 无监督学习(聚类,降维);

一、线性回归

简述
①在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合(自变量都是一次方)。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。

②优点:结果易于理解,计算上不复杂,主要对连续数据预测。

③缺点:对非线性数据拟合不好。

④适用数据类型:数值型和标称型数据。

⑤算法类型:回归算法(监督学习)

⑥举例说明:房价预测
案例:
比如你是房产公司的一名职员,现在经理交给你一份任务。有一批房子需要你给出合理的预测价格,你会怎么做呢?方法就是使用回归预测,首先会有两个特征(房价和面积),想要预测出房价,要收集一些以往的数据或者调查周边类似的房子获取一组数据;然后拟合一条直线(如下图)想要买房
*房价模型由拟合模型决定,是直线拟合出直线方程,抛物线拟合出抛物线 方程,数据越多,生成模型预测效果越好。

*对新数据的预测过程叫“预测”;过程中输出的结果是“模型”;“模型”,“预测”是机器学习的两个过程。
训练产生模型,模型指导预测。

a) 数据集:(Xi,Yi) Y=>R

b) 估计值(假设函数):hθ(x)=θ0+θ1x=θ0∗1+θ1∗x1=θTX

c) 误差值:h(x)-y

d) 代价函数(cost function)【评价与预测值与实际值之间的误差】:
在这里插入图片描述
代价函数图像:在这里插入图片描述
e) 梯度下降(gradient descent)【通过迭代寻找最优模型参数】:

求解最优解的方法有 最小二乘法 和 梯度下降法

首先,我们有一个代价函数,假设是J(θ0,θ1)J(θ0,θ1),我们的目标是 minθ0,θ1J(θ0,θ1)minθ0,θ1J(θ0,θ1)。

接下来的做法是:

首先是随机选择一个参数的组合(θ0,θ1)(θ0,θ1),一般是设θ0=0,θ1=0θ0=0,θ1=0;

然后是不断改变(θ0,θ1)(θ0,θ1),并计算代价函数,直到一个局部最小值。之所以是局部最小值,是因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值,选择不同的初始参数组合,可能会找到不同的局部最小值。

下面给出梯度下降算法的公式:

∂

二、 多项式回归
线性回归并不适合所有数据,有时需要曲线来适应数据
二次方模型:(多项式回归)
hθ(x)=θ0+θ1x+θ2x^
在这里插入图片描述
梯度下降:在这里插入图片描述
①:如果a学习率过大,梯度下降太慢会导致梯度消失,
在这里插入图片描述
②: 如果a太大,梯度下降可能会太快,导致梯度爆炸
在这里插入图片描述

通常考虑学习率:
a=0.01 , 0.03 , 0.1 , 0.3 , 1 , 3 , 10 。。。
总结:

在多维特征问题中,要保留特征相近的尺度,这些可以帮助梯度下降算法更快收敛;特征缩放思想:确保这些特征都处在一个相近的范围。

三、逻辑回归
简述

线性回归(linear regression),处理是数值问题,最后预测结果是数字,如:房价。

逻辑回归(logistic regression),属于分类算法,预测结果为离散分类,监督学习,在统计概率过程中是回归,最后判断决定概率值是分类(二分类问题)如:邮票是否为垃圾邮件;肿瘤是否为恶性。

输出两类{0,1},0:负向类;1:正向类。

案例:
如图,现有一批病人去医院诊治,医生会根据他们的病例,判断他们是否患为肿瘤早起还是晚期。
在这里插入图片描述

假设有一个二分类问题,输出为y∈{0,1}y∈{0,1},而线性回归模型产生的预测值为 z=wTx+bz=wTx+b 是实数值,我们希望有一个理想的阶跃函数来帮我们实现z值到0/10/1值的转化。

有一个单调可微的函数来供我们使用,于是便找到Sigmoid function来替代
ϕ(z)=1/1+e−z。

如图:sigmoid函数范围在[0,1]区间。
①z 小于0时,y=0
②z 等于0时,y=0.5
③z 大于0时,y=1
在这里插入图片描述

逻辑回归与自适应线性网络非常相似,两者的区别在于 逻辑回归 的激活函数是Sigmoid function而自适应线性网络的激活函数是y=x,
在这里插入图片描述
自适应网络
在这里插入图片描述
逻辑回归网络

1) 计算代价误差值,首先想到的是模仿线性回归,但是那样会出现一个(非凸函数)局部最小值(如图),这样不利于我们求解:

所以我们在这要使用sigmoid函数来避免局部最优值。

在这里插入图片描述
2) 代价函数

①逻辑回归模型:
在这里插入图片描述
②代价函数 cost function:
在这里插入图片描述

③梯度函数 gradient function:

在这里插入图片描述
④:函数在梯度下降的时候可能会会出现过拟合或欠拟合的现象。

a) 发生过拟合原因:因为没有足够的数据集去约束过多的模型。

b) 过拟合:即高方差,低偏差。准确率很高,但是不稳定,预测结果比较发散;

c) 欠你和:即高偏差,低方差。准确率低,但是模型稳定,预测结果集中。

在这里插入图片描述

d) 解决方法

减少变量数量(PCA),丢弃一些不能帮助我们正确预测的特征,手动选择需要保留特征;

保留所有特征,正则化。

e) 解决(高方差) 过拟合
获取更多训练实例;
减少特征数量;
增加正则化成度(拉姆达)。
解决(高偏差)欠拟合:
获得更多特征;
增加多项式特征;
减少正则化(拉姆达)。


作者:程拾叁
来源:CSDN
版权声明:本文为博主原创文章,转载请附上博文链接!

没有更多推荐了,返回首页