• 线性回归最小二乘法公式推导
万次阅读 多人点赞
2019-03-11 11:04:23

# 1. 符号表示

首先我们将训练样本的特征矩阵X进行表示，其中N为样本个数，p为特征个数，每一行表示为每个样本，每一列表示特征的每个维度：
X = ( x 11 x 12 . . . x 1 p x 21 x 22 . . . x 2 p . . . . . . . . . . . . x N 1 x N 2 . . . x N p ) N ⋅ p X= \begin{gathered} \begin{pmatrix} x_{11} & x_{12} & ... & x_{1p} \\ x_{21} & x_{22} & ... & x_{2p} \\ ... & ... &... &... \\ x_{N1} & x_{N2} & ... & x_{Np} \end{pmatrix} \quad \end{gathered}_{N\cdot p}

然后我们对训练样本的标签向量Y权重向量w进行表示，其中权重向量指的是线性回归中各个系数形成的向量。
Y = ( y 1 y 2 . . . y N ) Y = \begin{gathered} \begin{pmatrix} y_{1} \\ y_{2} \\ ... \\ y_{N} \end{pmatrix} \quad \end{gathered}

w = ( w 1 w 2 . . . w p ) w = \begin{gathered} \begin{pmatrix} w_{1} \\ w_{2} \\ ... \\ w_{p} \end{pmatrix} \quad \end{gathered}
为了方便运算，我们把 y i = x i w + b y_{i} = x_{i}w + b 中的b也并入到w和x中。则上述的符号表示则为：

X = ( x 10 x 11 x 12 . . . x 1 p x 20 x 21 x 22 . . . x 2 p . . . . . . . . . . . . . . . x N 0 x N 1 x N 2 . . . x N p ) N ⋅ p X= \begin{gathered} \begin{pmatrix} x_{10} & x_{11} & x_{12} & ... & x_{1p} \\ x_{20} & x_{21} & x_{22} & ... & x_{2p} \\ ... & ... &... &... &... \\ x_{N0} & x_{N1} & x_{N2} & ... & x_{Np} \end{pmatrix} \quad \end{gathered}_{N\cdot p}

w = ( w 0 w 1 w 2 . . . w p ) w = \begin{gathered} \begin{pmatrix} w_{0} \\ w_{1} \\ w_{2} \\ ... \\ w_{p} \end{pmatrix} \quad \end{gathered}

# 2. 公式推导

L ( w ) = ∑ i = 1 N ( x i w − y i ) 2 L(w) = \sum^{N}_{i =1 } (x_{i}w - y_{i})^{2}
w = arg ⁡ min ⁡ L ( w ) = arg ⁡ min ⁡ ∑ i = 1 N ( x i w − y i ) 2 w = \operatorname { arg } \operatorname { min }L(w) = \operatorname { arg } \operatorname { min } \sum^{N}_{i =1 } (x_{i}w - y_{i})^{2}
为什么是转置乘以原矩阵，这是由于Y是列向量，则 ( X W − Y ) (XW - Y) 则也是列向量。根据矩阵乘法的定义，只有行向量乘以列向量，最终结果才是一个常数。
L ( w ) = ( X W − Y ) T ( X W − Y ) L(w) = (XW-Y)^{T} (XW-Y)

L ( w ) = ( W T X T − Y T ) ( X W − Y ) L(w) = (W^{T}X^{T} - Y^{T})(XW-Y)

L ( w ) = ( W T X T X W − 2 W T X T Y + Y T Y ) L(w) = (W^{T}X^{T}XW-2W^{T}X^{T}Y+Y^{T}Y)

∂ L ( w ) ∂ w = 2 X T X W − 2 X T Y = 0 \frac { \partial L(w)} {\partial w} = 2X^{T}XW - 2X^{T}Y = 0

W = ( X T X ) − 1 X T Y W = {(X^{T}X)}^{-1}X^{T}Y

后记：其实求非线性回归的时候也可以使用该最小二乘法来计算多项式系数 w w ，只要把高次项添加到原始的 X X 后面即可。

更多相关内容
• ## 最小二乘法公式

千次阅读 2020-10-20 19:30:08
最小二乘法公式 最小二乘法公式是一个数学的公式，在数学上称为曲线拟合，此处所讲最小二乘法，专指线性回归方程！最小二乘法公式为a=y(平均)-b*x（平均）。 1.简介： 最小二乘法公式： 设拟合直线的公式为, 其中：...

## 最小二乘法公式

最小二乘法公式是一个数学的公式，在数学上称为曲线拟合，此处所讲最小二乘法，专指线性回归方程！最小二乘法公式为a=y(平均)-b*x（平均）。

### 1.简介：

最小二乘法公式：
设拟合直线的公式为,
其中：拟合直线的斜率为：；计算出斜率后，根据和已经确定的斜率k，利用待定系数法求出截距b。

### 2.基本思路

最小二乘法是解决曲线拟合问题最常用的方法。其基本思路是：令

### 3.基本原理

设(x,y)是一对观测量，
且 满足以下的理论函数 ：

其中
为待定参数。
为了寻找函数
的参数
的最优估计值，对于给定m 组（通常 m>n）观测数据
，求解目标函数
取最小值的参数
。求解的这类问题称为最小二乘问题，求解该问题的方法的几何语言称为最小二乘拟合。
对于无约束最优化问题，最小二乘法的一般形式为 ：

其中
称为残差函数。当
是x的线性函数时，称为线性最小二乘问题，否则称为非线性最小二乘问题 。

### 4.最小二乘优化问题

在无约束最优化问题中，有些重要的特殊情形，比如目标函数由若干个函数的平方和构成，这类函数一般可以写成：

其中
，通常要求m≥n，我们把极小化这类函数的问题：

称为最小二乘优化问题。最小二乘优化是一类比较特殊的优化问题 。

展开全文
• 接上一篇文章【线性回归——二维线性回归方程（证明和代码实现）】 前言： ...一、公式推导 假如现在有一堆这样的数据(x1,y1),(x2,y2),…,(xn,yn)(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)(x1​,y1​),
• 最小二乘法,最小二乘法公式,LabView源码.zip.zip
• 最小二乘法的主要思想是通过确定未知参数θ\thetaθ（通常是一个参数矩阵），来使得真实值和预测值的误差（也称残差）平方和最小，其计算公式为E=∑i=0nei2=∑i=1n(yi−yi^)E=\sum_{i=0}^ne_i^2=\sum_{i=1}^n(y_i-\...
##### 1.最小二乘法的原理

最小二乘法的主要思想是通过确定未知参数 θ \theta （通常是一个参数矩阵），来使得真实值和预测值的误差（也称残差）平方和最小，其计算公式为 E = ∑ i = 0 n e i 2 = ∑ i = 1 n ( y i − y i ^ ) E=\sum_{i=0}^ne_i^2=\sum_{i=1}^n(y_i-\hat{y_i}) ，其中 y i y_i 是真实值， y i ^ \hat{y_i} 是对应的预测值。如下图所示（来源于维基百科，Krishnavedala的作品），就是最小二乘法的一个示例，其中红色为数据点，蓝色为最小二乘法求得的最佳解，绿色即为误差。

图1

图中有四个数据点分别为：(1, 6), (2, 5), (3, 7), (4, 10)。在线性回归中，通常我们使用均方误差来作为损失函数，均方误差可以看作是最小二乘法中的E除以m（m为样本个数），所以最小二乘法求出来的最优解就是将均方误差作为损失函数求出来的最优解。对于图中这些一维特征的样本，我们的拟合函数为 h θ ( x ) = θ 0 + θ 1 x h_\theta(x)=\theta_0+\theta_1x ，所以损失函数为 J ( θ 0 , θ 1 ) = ∑ i = 0 m ( y ( i ) − h θ ( x ( i ) ) ) 2 = ∑ i = 0 m ( y ( i ) − θ 0 − θ 1 x ( i ) ) 2 J(\theta_0,\theta_1)=\sum_{i=0}^m(y^{(i)}-h_\theta(x^{(i)}))^2=\sum_{i=0}^m(y^{(i)}-\theta_0-\theta_1x^{(i)})^2 （这里损失函数使用最小二乘法，并非均方误差），其中上标(i)表示第i个样本。

##### 2.最小二乘法求解

要使损失函数最小，可以将损失函数当作多元函数来处理，采用多元函数求偏导的方法来计算函数的极小值。例如对于一维特征的最小二乘法， J ( θ 0 , θ 1 ) J(\theta_0,\theta_1) 分别对 θ 0 \theta_0 θ 1 \theta_1 求偏导，令偏导等于0得：

∂ J ( θ 0 , θ 1 ) ∂ θ 0 = − 2 ∑ i = 1 m ( y ( i ) − θ 0 − θ 1 x ( i ) ) = 0 (2.1) \frac{\partial J(\theta_0,\theta_1)}{\partial\theta_0}=-2\sum_{i=1}^{m}(y^{(i)}-\theta_0-\theta_1x^{(i)}) = 0\tag{2.1}

∂ J ( θ 0 , θ 1 ) ∂ θ 1 = − 2 ∑ i = 1 m ( y ( i ) − θ 0 − θ 1 x ( i ) ) x ( i ) = 0 (2.2) \frac{\partial J(\theta_0,\theta_1)}{\partial\theta_1}=-2\sum_{i=1}^{m}(y^{(i)}-\theta_0-\theta_1x^{(i)})x^{(i)} = 0\tag{2.2}

联立两式，求解可得：

θ 0 = ∑ i = 1 m ( x ( i ) ) 2 ∑ i = 1 m y ( i ) − ∑ i = 1 m x ( i ) ∑ i = 1 m x ( i ) y ( i ) m ∑ i = 1 m ( x ( i ) ) 2 − ∑ i = 1 m x ( i ) ( ∑ i = 1 m x ( i ) ) 2 (2.3) \theta_0 =\frac{\sum_{i=1}^m(x^{(i)})^2\sum_{i=1}^my^{(i)}-\sum_{i=1}^mx^{(i)}\sum_{i=1}^mx^{(i)}y^{(i)}}{m\sum_{i=1}^m(x^{(i)})^2-\sum_{i=1}^mx^{(i)}(\sum_{i=1}^mx^{(i)})^2} \tag{2.3}

θ 1 = m ∑ i = 1 m x ( i ) y ( i ) − ∑ i = 1 m x ( i ) ∑ i = 1 m y ( i ) m ∑ i = 1 m ( x ( i ) ) 2 − ∑ i = 1 m x ( i ) ( ∑ i = 1 m x ( i ) ) 2 (2.4) \theta_1 =\frac{m\sum_{i=1}^mx^{(i)}y^{(i)}-\sum_{i=1}^mx^{(i)}\sum_{i=1}^my^{(i)}}{m\sum_{i=1}^m(x^{(i)})^2-\sum_{i=1}^mx^{(i)}(\sum_{i=1}^mx^{(i)})^2} \tag{2.4}

对于图1中的例子，代入公式 ( 2.3 ) (2.3) ( 2.4 ) (2.4) 进行结算得， θ 0 = 3.5 , θ 1 = 1.4 , J ( θ ) = 4.2 \theta_0 = 3.5, \theta_1=1.4,J(\theta) = 4.2

对于n维特征的样本，同样可以采用这种方式来求解。对于特征维度 ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2, \cdots,x_n) ，我们增加一个第0维 x 0 = 1 x_0=1 ，这样增广特征向量 x = ( x 0 , x 1 , ⋯   , x n ) x = (x_0,x_1,\cdots,x_n) ，增广权向量为 θ = ( θ 0 , θ 1 , … , θ n ) \theta = (\theta_0, \theta_1,\dots,\theta_n) .

此时我们的拟合函数变为：

h θ ( x ) = ∑ i = 0 n θ i x i = θ 0 + θ 1 x 1 + ⋯ + θ n x n h_\theta(x) = \sum_{i=0}^n\theta_ix_i =\theta_0+ \theta_1x_1 + \cdots+\theta_nx_n

损失函数变为：

J ( θ ) = ∑ j = 1 m ( h θ ( x ( j ) ) − y ( j ) ) 2 = ∑ j = 1 m ( ∑ i = 0 n θ i x i ( j ) − y ( j ) ) 2 J(\theta)=\sum_{j=1}^m(h_\theta(x^{(j)})-y^{(j)})^2=\sum_{j=1}^m(\sum_{i=0}^n\theta_ix_i^{(j)}-y^{(j)})^2

损失函数 J ( θ ) J(\theta) 分别对 θ i ( i = 0 , 1 , … , n ) \theta_i(i=0,1,\dots,n) 求偏导，得：

∂ J ( θ ) ∂ θ i = 2 ∑ j = 1 m ( h θ ( x ( j ) ) − y ( j ) ) x ( j ) = 2 ∑ j = 1 m ( ∑ i = 0 n θ i x i ( j ) − y ( j ) ) x ( j ) ( i = 0 , 1 , … , n ) \frac{\partial J(\theta)}{\partial\theta_i} = 2\sum_{j=1}^m(h_\theta(x^{(j)})-y^{(j)})x^{(j)}=2\sum_{j=1}^m(\sum_{i=0}^n\theta_ix_i^{(j)}-y^{(j)})x^{(j)}\quad (i=0,1,\dots,n)

令偏导等于0，则有：

∑ j = 1 m ( ∑ i = 0 n θ i x i ( j ) − y ( j ) ) x ( j ) = 0 ( i = 0 , 1 , … , n ) \sum{j=1}^m(\sum{i=0}^n\theta_ix_i^{(j)}-y^{(j)})x^{(j)}=0\quad (i=0,1,\dots,n)

这样最终得到的结果就是一个线性方程组，未知数的个数为n+1，方程的个数也为n+1，这样就可以通过高斯消元法解出 θ i ( i = 0 , 1 , … , n ) \theta_i(i=0,1,\dots,n) ，具体可参见：详解最小二乘法原理和代码

对于线性回归问题，我们可以依据拟合函数的形式进行特征空间变换，即广义线性回归。例如， h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 2 h_\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2^2 ，我们可以令 x 2 : = x 2 2 x_2:=x_2^2 ，这里 : = := 表示赋值，即将右边的值赋给左边。这样又变成了我们所熟悉的拟合函数形式。

对于非线性回归问题，最小二乘法的思想同样适用，只不过函数形式有所变化。例如，对于拟合函数 h θ ( x ) = θ 0 + θ 1 x + θ 2 l n x h_\theta(x)=\theta_0+\theta_1x+\theta_2l nx ，此时 J ( θ ) = ∑ j = 1 m ( h θ ( x ( j ) ) − y ( j ) ) 2 J(\theta)=\sum_{j=1}^m(h_\theta(x^{(j)})-y^{(j)})^2 ，求偏导的结果为：

∂ J ( θ ) ∂ θ i = 2 ∑ j = 1 m ( h θ ( x ( j ) ) − y ( j ) ) ∂ h θ ( x ) θ i ( i = 0 , 1 , 2 ) ; 其 中 ∂ h θ ( x ) θ 0 = 1 , ∂ h θ ( x ) θ 2 = x , ∂ h θ ( x ) θ 2 = l n x \frac{\partial J(\theta)}{\partial\theta_i}=2\sum_{j=1}^{m}(h_\theta(x^{(j)})-y^{(j)})\frac{\partial h_\theta(x)}{\theta_i}\quad (i=0,1,2);其中\frac{\partial h_\theta(x)}{\theta_0} = 1, \frac{\partial h_\theta(x)}{\theta_2} = x, \frac{\partial h_\theta(x)}{\theta_2} = lnx

同样可以构造线性方程组，用高斯消元法求解。

##### 3.矩阵求解最小二乘法

对于函数 h θ ( x ) = θ 0 + θ 1 x 1 + ⋯ + θ n x n h_\theta(x)=\theta_0+\theta_1x_1+\dots+\theta_nx_n ，我们将其用矩阵表示为：

X θ = Y (3.1) X\theta = Y \qquad \tag{3.1}

其中，

X = { ( x ( 1 ) ) T ( x ( 2 ) ) T ⋮ ( x ( m ) ) T } , Y = { y ( 1 ) y ( 2 ) ⋮ y ( m ) ) } , x ( j ) = { x 0 ( j ) ) x 1 ( j ) ⋮ x n ( j ) } , θ = { θ 0 θ 1 ⋮ θ n } X = \left\{\begin{matrix} (x^{(1)})^T \\ (x^{(2)})^T \\ \vdots \$$x^{(m)})^T \end{matrix} \right\} , Y = \left\{\begin{matrix} y^{(1)} \\ y^{(2)} \\ \vdots \\y^{(m)}) \end{matrix} \right\},x^{(j)}=\left\{\begin{matrix} x_0^{(j)}) \\ x_1^{(j)} \\ \vdots \\ x_n^{(j)} \end{matrix} \right\}, \theta = \left\{\begin{matrix} \theta_0 \\ \theta_1 \\ \vdots \\ \theta_n \end{matrix} \right\} m表示样本个数，n为特征维度， x 0 ( i ) = 1 ( i = 0 , 1 , … , m ) x_0^{(i)}=1\quad(i = 0,1,\dots,m) ，即 X X 的第一列全为1， x i ( j ) x_i^{(j)} 表示第j个样本的第i个特征， X X 为增广样本矩阵((1+n)*m维)， Y Y 为真实值组成的列向量。 损失函数表示为： J ( θ ) = ∑ j = 1 m ( h θ ( x ( j ) ) − y ( j ) ) 2 = ( X θ − Y ) T ( X θ − Y ) (3.2) J(\theta)=\sum_{j=1}^m(h_\theta(x^{(j)})-y^{(j)})^2=(X\theta−Y)^T(X\theta−Y) \tag{3.2} 根据最小二乘法，利用矩阵求导得：（具体推导参见线性回归矩阵推导线性回归相关向量求导 ∂ J ( θ ) ∂ θ = 2 X T ( X θ − Y ) \frac{\partial J(\theta)}{\partial\theta}=2X^T(X\theta-Y) 令求导结果等于0矩阵，可得： X T X θ = X T Y ⇒ θ = ( X T X ) − 1 X T Y (3.3) X^TX\theta = X^TY\quad\Rightarrow \quad \theta = (X^TX)^{-1}X^TY \tag{3.3} 对于图1中的例子，利用公式 ( 3.3 ) (3.3) 计算得： θ = { 3.5 1.4 } \theta = \left\{\begin{matrix} 3.5 \\1.4\end{matrix} \right\} ##### 4.总结 最小二乘法可以直接求解参数矩阵，在计算时可以直接套入公式。但是仍有一定的局限性，主要体现在： 1. X T X X^TX 的逆矩阵可能不存在，这个在Matlab中，可以通过求伪逆来进行计算。 2.对于 ( 3.1 ) (3.1) 式，可以将其看成一个线性方程组（假设各方程线性无关）。如果样本个数m小于特征维数n，那么此方程组有无穷多个解。如果m = n，有唯一解。如果m大于n，无解（即存在矛盾解）。最小二乘法一般是在m大于n的时候使用，此时求出来的解是最优近似解。 3.最小二乘法的时间复杂度为 O ( n 3 ) O(n^3) ，当n特别大的时候（一般大于10000），求逆矩阵的过程非常复杂。此时采用最小二乘法，会非常耗时。 参考链接： 最小二乘法小结 半小时学习最小二乘法 展开全文 • 附python代码：（网上很多版本bo计算公式有误）import numpy as np def LSmethod(x,y): n=len(x) numerator = 0#分子 dinominator=0#分母 for i in range(0,n): numerator +=(x[i]-np.mean(x))*(y[i]-np.mean(y... 附python代码：（网上很多版本bo计算公式有误） import numpy as np def LSmethod(x,y): n=len(x) numerator = 0#分子 dinominator=0#分母 for i in range(0,n): numerator +=(x[i]-np.mean(x))*(y[i]-np.mean(y)) dinominator+=(x[i]-np.mean(x))**2 b1=numerator/float(dinominator) b0=np.mean(y)-b1*np.mean(x) return b0,b1 def predict(x,b0,b1): return b0+b1*x x = [1, 3, 2, 1, 3] y = [14, 24, 18, 17, 27] b0, b1 =LSmethod(x, y) print( "intercept:", b0, " slope:", b1) x_test = 6 y_test = predict(6, b0, b1) print ("y_test:", y_test)  展开全文 • 线性回归和最小二乘法 周志华西瓜书3.2、P55公式推导 公式推导如下 对应的需要有些矩阵求导的公式： 其中我们约定，大写字母表示矩阵，小写字母表示标量，小写字母加粗表示向量，大部分书中都是这么约定，不过... • 手动推导用最小二乘法进行线性回归，求参数 • 在本说明中，我们通过实验证明了在各种解析和非解析函数上的新颖观察结果，即如果最小二乘多项式逼近在第二个加权的最小二乘逼近中作为权重重复进行，则此新的第二个逼近为从统一意义上讲几乎是完美的，几乎不需要... • 一款可以帮助开发者方便进行最小二乘相关计算的软件，非常方便 • 介绍了具体最小二乘法的数学推导，有兴趣学习和编码实现最小二乘法的可以看看 • 机器学习使用线性回归方法建模时，求损失函数最优解需要用到最小二乘法。相信很多朋友跟我一样，想先知道公式是什么，然后再研究它是怎么来的。所以不多说，先上公式。对于线性回归方程\(f(x) = ax + b$$，由最小...
• xishu polfit2(Hisnum his[], int n)//最小二乘 二次多项式拟合 y=A1+A2*x+A3*x*x x为灰度 y为灰度数量 { //-----------------公式--------------------------- //n A1 + sumX A2 + sumXX A3 = sumY //sumX A1 +...
• /***********************最小二乘法算斜率*********************/ for(int x=Sample_Num-1;x>=0;x--) { XY_Sum += (Sample_Num-1-x)*value_buf[x];//X*Y的和 Y_Sum += value_buf[x]; //y的和 XX_Sum += x*x; //x的...
• 关于最小二乘法求解，目的是求得最小解，以下以三阶最小二乘法为例。 求矩阵方程，即可得出系数a,b,c,d得值。
• 文章目录一、概述二、最小二乘估计 2021人工智能领域新星创作者，带你从入门到精通，该博客每天更新，逐渐...在高中时候我们学过最小二乘法就是求 a∗和b∗a^*和b^*a∗和b∗ 去拟合一条直线，来最大程度的是我们.
• 机器学习-线性回归线性回归背景最小二乘法计算线性回归数据的准备把数据转换成数学损失函数根据损失函数计算最终结果总结 最近老师让我学习线性回归编程模型，此篇介绍使用最小二乘法实现单机器线性回归。 线性回归...
• 最小二乘法在线最小二乘法计算器 #define Sample_Num 20float value_buf[Sample_Num]={0}；static int cnt = 0;if(cnt >= Sample_Num)cnt = 0;//更新转动窗口数组if(cntvalue_buf[cnt] = (flaot)(angle);//窗口...
• 开环系统参数辨识，带遗忘因子的递推最小二乘估计法（FFRLS)，系统为单入单出的CAR(带控制量的自回归模型）模型,三阶系统
• 一、递归最小二乘法 递推最小二乘法：当矩阵维数增加时，矩阵求逆运算计算量过大，而且不适合在线辨识。为了减少计算量，并且可以实时地辨识出动态系统的特性，可以将最小二乘法转换成参数递推的估计。 取前N组数据...
• 最小二乘法在三坐标测量时常常被提起，那什么是最小二乘法呢？它具备什么样的特点？根据标准，哪些要求必须采用最小二乘法呢？今天我们就来聊一聊这个传说中的最小二乘法。在认识最小二乘法之前，我们必须要先认识一...
• 最小二乘法（又称最小平方法）是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据，并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法...
• <1> 根据坐标位置样本拟合直线 直线公式：y = ax + b； 所求参数 ：（a，b）; 最终算法矩阵： <...圆的展开方程： x² + y² + aX + by +c = 0;...最小二乘法求椭圆 展开的公式：X²+aY²+bX+cY...
• 求和分解出的第一个公式 求和分解出的第二个公式 求和分解出的第三个公式 求和分解出的第四个公式 向量化推导结果 对w求导 求导分解出的第一个公式 求导分解出的第二个公式 ...
• ## 如何理解最小二乘法？

万次阅读 多人点赞 2018-07-20 10:14:09
我们对勒让德的猜测，即最小二乘法，仍然抱有怀疑，万一这个猜测是错误的怎么办？ 数学王子高斯（1777－1855）也像我们一样心存怀疑。 高斯换了一个思考框架，通过概率统计那一套来思考。 让我们回到...

...