- 提出者
- 马里·勒让德 [2]
- 别 名
- 最小平方法 [1]
- 适用领域
- 曲线拟合 [3]
- 中文名
- 最小二乘法 [2]
- 外文名
- ordinary least squares [2]
- 提出时间
- 1806年 [2]
-
最小二乘法
2018-01-07 15:20:04最小二乘法的思想 最小二乘法则是一种统计学习优化技术,它的目标是最小化误差平方之和来作为目标,从而找到最优模型,这个模型可以拟合(fit)观察数据。 回归学习最常用的损失函数是平方损失函数,在此情况下,...最小二乘法的思想
最小二乘法则是一种统计学习优化技术,它的目标是最小化误差平方之和来作为目标,从而找到最优模型,这个模型可以拟合(fit)观察数据。
回归学习最常用的损失函数是平方损失函数,在此情况下,回归问题可以用著名的最小二乘法来解决。最小二乘法就是曲线拟合的一种解决方法。
最小二乘法的问题分为两类:- 线性最小二乘法
- 非线性最小二乘法
如果是线性的则有闭式解(closed-form solution),唯一解。理解为所有点都在某条线上,全拟合好了。
非线性的经常需要数值方法来求解。比如:随机梯度下降或者牛顿法等。当然,随机梯度下降也可以解决线性问题。目标公式
J(θ)=∑i=1m(fθ(xi)−yi)2(1)J(\theta)= \sum_{i=1}^{m} (f_\theta(x_{i})-y_{i})^2 \tag{1}J(θ)=i=1∑m(fθ(xi)−yi)2(1)
最小二乘法的目标就是最小化公式1。f则是模型(取自假设空间),y则是观察值。
通俗来讲,就是观察值和拟合值(模型给出)之间的距离平方和最小化作为目标来优化。求解方法
矩阵求导方法
思想就是把目标函数划归为矩阵运算问题,然后求导后等于0,从而得到极值。以线性回归问题为例:
求解最小二乘的问题推导为如下:求解变量θ\thetaθ,满足
(XTX)θ=XTy(2) (X^T X)\theta = X^Ty {\tag2} (XTX)θ=XTy(2)
如果可逆,将得到:
θ=(XTX)−1XTy \theta = (X^T X)^{-1}X^Ty θ=(XTX)−1XTy
这是利用矩阵得到的最小二乘法的一种解法。
注意这是线性回归的最小二乘法的求解结果,不是其他问题的,其他问题的假设函数有时候很复杂。比如下面的博文对线性回归的推算挺好,但没有说明求导的大前提条件:线性回归,这容易把最小二乘法和最小二乘法的求解混在一起。
http://blog.csdn.net/ACdreamers/article/details/44662633
##数值方法随机梯度下降
思路:对参数向量求导,使其梯度为0,然后得到参数变量的迭代更新公式。
θj:=θj−α∗∂J(θ)∂(θj)(3)\theta_j:=\theta_j - \alpha* \frac{\partial J(\theta)}{\partial(\theta_j)} \tag{3}θj:=θj−α∗∂(θj)∂J(θ)(3)
请参考:http://blog.csdn.net/iterate7/article/details/76709492
##数值方法牛顿法
利用泰勒公式展开,利用梯度和海塞矩阵进行迭代下降。速度很快。
xk+1=xk−Hk−1gk(4)x^{k+1}=x^{k}-H^{-1}_kg_{k} \tag{4}xk+1=xk−Hk−1gk(4)
变量以牛顿方法来下降。
牛顿方向定义为:
−Hk−1gk -H^{-1}_kg_{k} −Hk−1gk
请参考:http://blog.csdn.net/iterate7/article/details/78387326
最小二乘和梯度下降区别
最小二乘看做是优化问题的话,那么梯度下降是求解方法的一种。梯度下降是一种解决最优化问题的数值方法。最小二乘法则是一个最优化问题。
简单总结
数值方法的基本含义则是对一个函数求极值,在无法直接求得解析解的情况下,通过求导为0的方法,找到迭代方向保证可以下降目标值,梯度方向或者牛顿方向等等。 逐步下降直到满足一些工程要求则结束迭代。
后记
- 最小二乘法是一种对于偏差程度的评估准则思想,由公式1给出。个人认为,应该称之为:最小二乘准则。
- 公式1里没有给出f的值,也就是说假设空间。如果是线性回归,也就是wx+b的形式,那么公式2就是最小二乘法的解。所以大部分的博文都在此范畴讨论。为何都用这个线性回归直接说呢,其实最小二乘准则更适合线性回归。应该称之为狭义的最小二乘方法,是线性假设下的一种有闭式解的参数求解方法,最终结果为全局最优。
- 梯度下降只是数值求解的具体操作,和最小二乘准则下面的最优化问题都可以用随机梯度下降求解。
线性回归python
import numpy as np import matplotlib.pyplot as plt data = np.array([ [1, 6], [2, 5], [3, 7], [4, 10] ]) m = len(data) X = np.array([np.ones(m), data[:, 0]]).T print("X:", X) y = np.array(data[:, 1]).reshape(-1, 1) print("y:",y) W = np.linalg.solve(X.T.dot(X), X.T.dot(y)) ## 求解XW=y的值,W print("W:",W) ##show plt.figure(1) xx = np.linspace(0, 5, 2) yy = np.array(W[0] + W[1] * xx) plt.plot(xx, yy.T, color='b') plt.scatter(data[:, 0], data[:, 1], color='r') plt.show()
参考
机器学习 周志华 线性模型和最小二乘法
https://en.wikipedia.org/wiki/Least_squares
https://en.wikipedia.org/wiki/Linear_least_squares_(mathematics)
https://en.wikipedia.org/wiki/Newton’s_method_in_optimization -
增广最小二乘法及递推最小二乘法.rar
2020-05-11 21:38:53最小二乘法和增广最小二乘法的MATLAB源码,文件主要包括:产生白噪声和有色噪声的代码,递推最小二乘法,增广最小二乘法,绘图plot
-
Wireshark.zip
-
基于局部保持的遥感场景零样本分类算法
-
c++ 编译问题
-
MySQL使用dbdump实现传输数据,并更换默认存储目录
-
算法导论二(排序和顺序统计量)——编程大牛的必经之路
-
ProBuilder快速原型开发技术
-
HTML与CSS.xmind
-
表面增强拉曼光谱结合二维相关谱快速检测茶叶中的毒死蜱残留
-
Dom
-
2021-1-26-理解图像分布
-
SAP之旅-整理篇003-记账码
-
微信小程序之颜值测试项目(测颜值)【项目实战】
-
最长公共子序列dp Jill Rides Again UVA - 507
-
中国区域合并后的GIS地图
-
Redis数据库入门与使用
-
flutter插件调用APP页面、使用原生aar,framework库
-
21年新消息队列RabbitMQ视频教程AMQP教程
-
第1章 Java入门基础及环境搭建【java编程进阶】
-
分数阶涡旋光束在远场的衍射特性
-
微信公众号2021之网页授权一学就会java版