精华内容
下载资源
问答
  • 线性回归——简单线性回归、多元线性回归

    万次阅读 多人点赞 2020-04-30 22:13:37
    当只有一个自变量时,称为简单线性回归,当具有多个自变量时,称为多元线性回归。 线性关系的理解: 画出来的图像是直的。 每个自变量的最高次项为1。 拟合是指构建一种算法,使得该算法能够符合真实的数据。从...

    回归分析是用来评估变量之间关系的统计过程。用来解释自变量X与因变量Y的关系。即当自变量X发生改变时,因变量Y会如何发生改变。
    线性回归是回归分析的一种,评估的自变量X与因变量Y之间是一种线性关系。当只有一个自变量时,称为简单线性回归,当具有多个自变量时,称为多元线性回归
    线性关系的理解:

    • 画出来的图像是直的。
    • 每个自变量的最高次项为1。

    拟合是指构建一种算法,使得该算法能够符合真实的数据。从机器学习角度讲,线性回归就是要构建一个线性函数,使得该函数与目标值之间的相符性最好。从空间的角度来看,就是要让函数的直线(面),尽可能靠近空间中所有的数据点(点到直线的平行于y轴的距离之和最短)。线性回归会输出一个连续值。

    线性回归模型

    简单线性回归

    我们可以以房屋面积(x)与房价(y)为例,二者是线性关系,房屋价格正比于房屋面积,假设比例为w:
    在这里插入图片描述
    然而,这种线性方程一定是过原点的,即x为0时,y也一定为0。这可能并不符合现实中某些场景。为了能够让方程具有更广泛的适应性,就要再增加一个截距,设为b,则方程可以变为:
    在这里插入图片描述
    以上方程就是数据建模的模型,w与b就是模型的参数。
    线性回归是用来解释自变量与因变量之间的关系,但这种关系并非严格的函数映射关系。

    多元线性回归

    现实中的数据可能是比较复杂的,自变量也可能不止一个,例如,影响房屋价格也很可能不止房屋面积一个因素,可能还有是否在地铁附近,房间数,层数,建筑年代等诸多因素。不过,这些因素对房价影响的权重是不同的,因此,我们可以使用多个权重来表示多个因素与房屋价格的关系:
    在这里插入图片描述

    • x:影响因素,即特征。
    • w:每个x的影响力度。
    • n:特征的个数。
    • y^:房屋的预测价格。

    在这里插入图片描述
    这样,就可以表示为:
    在这里插入图片描述
    多元线性回归在空间中,可以表示为一个超平面,去拟合空间中的数据点。
    我们的目的就是从现有的数据中,去学习w与b的值。一旦w与b的值确定,就能够确定拟合数据的线性方程,这样就可以对未知的数据x进行预测y(房价)。

    损失函数与参数求解

    损失函数

    对于机器学习来讲,就是从已知数据去建立一个模型,使得该模型能够对未知数据进行预测。实际上,机器学习的过程就是确定模型参数的过程。
    对于监督学习来说,我们可以通过建立损失函数来实现模型参数的求解,损失函数也称目标函数代价函数,简单来说就是关于误差的一个函数。损失函数用来衡量模型预测值与真实值之间的差异。机器学习的目标,就是要建立一个损失函数,使得该函数的值最小。
    也就是说,损失函数是一个关于模型参数的函数(以模型参数w作为自变量的函数),自变量可能的取值组合通常是无限的,我们的目标,就是要在众多可能的组合中,找到一组最合适的自变量组合,使得损失函数的值最小。
    在线性回归中,我们使用平方损失函数(最小二乘法),定义如下:
    在这里插入图片描述

    简单线性回归程序

    我们以鸢尾花数据集中花瓣长度与花瓣宽度为例,通过程序实现简单线性回归。

    import numpy as np
    #用于线性回归的类
    from sklearn.linear_model import LinearRegression
    #用来切分训练集与测试集
    from sklearn.model_selection import train_test_split
    from sklearn.datasets import load_iris
    #设置输出精度。默认为8
    np.set_printoptions(precision=2)
    
    iris = load_iris()
    #获取花瓣长度作为x,花瓣宽度作为y。
    x, y = iris.data[:,2].reshape(-1,1), iris.data[:,3]
    
    lr = LinearRegression()
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25, random_state=0)
    #使用训练集数据,训练模型。
    lr.fit(x_train, y_train)
    print('权重:', lr.coef_)
    print('截距:', lr.intercept_)
    y_hat = lr.predict(x_test)
    print('实际值:', y_test[:5])
    print('预测值:', y_test[:5])
    

    在这里插入图片描述

    import matplotlib.pyplot as plt
    
    plt.rcParams['font.family'] = 'SimHei'
    plt.rcParams['axes.unicode_minus'] = False
    plt.rcParams['font.size'] = 15
    
    plt.figure(figsize=(10,6))
    plt.scatter(x_train, y_train, c='orange', label='训练集')
    plt.scatter(x_test, y_test, c='g', marker='D', label='测试集')
    plt.plot(x, lr.predict(x), 'r-')
    plt.legend()
    plt.xlabel('花瓣长度')
    plt.ylabel('花瓣宽度')
    

    在这里插入图片描述

    plt.figure(figsize=(15,6))
    plt.plot(y_test, label='真实值', color='r', marker='o')
    plt.plot(y_hat, c='g', marker='o', ls='--', label='预测值')
    plt.legend()
    

    在这里插入图片描述

    回归模型预测

    对于回归模型,我们可以采用如下指标进行衡量。

    • MSE
    • RMSE
    • MAE
    • R2

    MSE

    MSE(Mean Squared Error),平均平方差,为所有样本数据误差(真实值与预测值之差)的平方和,然后取均值。
    在这里插入图片描述

    RMSE

    RMSE(Root Mean Squared Error),平均平方误差的平方根,即在MSE的基础上,取平方根。
    在这里插入图片描述

    MAE

    MAE(Mean Absolute Error),平均绝对值误差,为所有样本数据误差的绝对值和。
    在这里插入图片描述

    R2

    R2为决定系数,用来表示模型拟合性的分值,值越高表示模型拟合性越好,在训练集中,R2的取值范围为[0,1]。在R2的取值范围为[-∞,1]。
    R2的计算公式为1减去RSS与TSS的商。其中,TSS(Total Sum of Squares)为所有样本数据与均值的差异,是方差的m倍。而RSS(Residual sum of Squares)为所有样本数据误差的平方和,是MSE的m倍。
    在这里插入图片描述
    在这里插入图片描述
    从公式定义可知,最理想情况,所有的样本数据的预测值与真实值相同,即RSS为0,此时R2为1。

    from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score
    
    print('均方误差(MSE):',mean_squared_error(y_test,y_hat))
    print('根均方误差(RMSE):',np.sqrt(mean_squared_error(y_test,y_hat)))
    print('平均绝对值误差(MAE):',mean_absolute_error(y_test,y_hat))
    print('训练集R^2:',r2_score(y_train,lr.predict(X_train)))
    print('测试集R^2:',r2_score(y_test,y_hat))
    #lr.score其实求解的就是R^2的值,但需要注意,r2_score方法与lr.score方法传递参数的内容是不同的。
    print('训练集R^2:',lr.score(X_train,y_train))
    print('测试集R^2:',lr.score(X_test,y_test))
    

    在这里插入图片描述

    多元线性回归程序

    我们可以以波士顿房价为例来做程序演示

    from sklearn.linear_model import LinearRegression
    from sklearn.model_selection import train_test_split
    from sklearn.datasets import load_boston
    import pandas as pd
    
    boston = load_boston()
    x, y = boston.data, boston.target
    df = pd.DataFrame(np.concatenate([x, y.reshape(-1,1)], axis=1),
    	 	columns = boston.feature_names.tolist()+['MEDV'])
    df.head()
    

    在这里插入图片描述

    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25, random_state=0)
    lr = LinearRegression()
    lr.fit(x_train, y_train)
    y_hat = lr.predict(x_test)
    print('权重:',lr.coef_)
    print('截距:',lr.intercept_)
    print('实际值:',y_test[:10])
    print('测试值:',y_hat[:10])
    print('训练值R^2:',lr.score(X_train, y_train))
    print('测试值R^2:',lr.score(X_test, y_test))
    

    在这里插入图片描述

    展开全文
  • 多重线性回归 多元线性回归Video Link 影片连结 We have taken a look at Simple Linear Regression in Episode 4.1 where we had one variable x to predict y, but what if now we have multiple variables, not ...

    多重线性回归 多元线性回归

    Video Link

    影片连结

    We have taken a look at Simple Linear Regression in Episode 4.1 where we had one variable x to predict y, but what if now we have multiple variables, not just x, but x1,x2, x3 … to predict y — how would we approach this problem? I hope to explain in this article.

    我们看了第4.1集中的简单线性回归,其中我们有一个变量x来预测y ,但是如果现在我们有多个变量,不仅是x,而且还有x1,x2,x3 …来预测y ,我们将如何处理?这个问题? 我希望在本文中进行解释。

    简单线性回归回顾 (Simple Linear Regression Recap)

    From Episode 4.1 we had our data of temperature and humidity:

    第4.1集开始,我们获得了温度和湿度数据:

    Image for post

    We plotted our Data, found and found a linear relationship — making linear regression suitable:

    我们绘制了数据,发现并找到了线性关系,从而使线性回归适用:

    Image for post

    We then calculated our regression line:

    然后,我们计算了回归线:

    Image for post

    using gradient descent to find our parameters θ₀ and θ₁.

    使用梯度下降找到我们的参数 θ₀和θ₁。

    Image for post

    We then used the regression line calculated to make predictions for Humidity given any Temperature value.

    然后,我们使用计算得出的回归线对给定任何温度值的湿度进行预测。

    什么是多元线性回归? (What is Multiple Linear Regression?)

    Multiple linear regression takes the exact same concept as simple linear regression but applies it to multiple variables. So instead of just looking at temperature to predict humidity, we can look at other factors such as wind speed or pressure.

    多元线性回归采用与简单线性回归完全相同的概念,但将其应用于多个变量。 因此,我们不仅可以查看温度来预测湿度,还可以查看其他因素,例如风速或压力

    Image for post

    We are still trying to predict Humidity so this remains as y.

    我们仍在尝试预测湿度,因此仍为y。

    We rename Temperature, Wind Speed and Pressure to 𝑥¹,𝑥² and 𝑥³.

    我们将温度,风速和压力重命名为𝑥¹𝑥²𝑥³。

    Just as with Simple Linear Regression we must ensure that our variables 𝑥₁,𝑥₂ and 𝑥₃ form a linear relationship with y, if not we will be producing a very inaccurate model.

    就像简单线性回归一样,我们必须确保变量𝑥₁,𝑥_2𝑥₃ 与y形成线性关系 ,否则,我们将生成一个非常不准确的模型。

    Lets plot each of our variables against Humidity:

    让我们针对湿度绘制每个变量:

    Image for post
    Image for post
    Image for post
    • Temperature and Humidity form a strong linear relationship

      温度和湿度形成很强的线性关系

    • Wind Speed and Humidity form a linear relationship

      风速和湿度形成线性关系

    • Pressure and Humidity do not form a linear relationship

      压力和湿度不是线性关系

    We therefore can not use Pressure (𝑥³) in our multiple linear regression model.

    因此,我们不能在多元线性回归模型中使用压力 (𝑥³)。

    绘制数据 (Plotting our Data)

    Let’s now plot both Temperature (𝑥¹) and Wind Speed (𝑥²) against Humidity.

    现在让我们绘制两个温度(𝑥¹) 以及相对于湿度的风速(𝑥²)。

    Image for post

    We can see that our data follows a roughly linear relationship, that is we can fit a plane on our data that captures the relationship between Temperature, Wind-speed(𝑥₁, 𝑥₂) and Humidity (y).

    我们可以看到我们的数据遵循大致线性关系,也就是说,我们可以在数据上拟合一个平面 ,以捕获温度,风速(𝑥₁,𝑥²)和湿度(y)之间的关系。

    Image for post

    计算回归模型 (Calculating the Regression Model)

    Because we are dealing with more than one 𝑥 variable our linear regression model takes the form:

    因为我们要处理多个𝑥变量,所以线性回归模型采用以下形式:

    Image for post

    Just as with simple linear regression in order to find our parameters θ₀, θ₁ and θ₂ we need to minimise our cost function:

    与简单的线性回归一样,为了找到我们的参数θ₀,θ₁和θ2,我们需要最小化成本函数:

    Image for post

    We do this using the gradient descent algorithm:

    我们使用梯度下降算法执行此操作:

    Image for post

    This algorithm is explained in more detail here

    此算法在这里更详细地说明

    After running our gradient descent algorithm we find our optimal parameters to be θ₀ = 1.14 , θ₁ = -0.031 and θ₂ =-0.004

    运行梯度下降算法后,我们发现最优参数为θ₀= 1.14,θ₁= -0.031和θ2= -0.004

    Giving our final regression model:

    给出我们的最终回归模型:

    Image for post

    We can then use this regression model to make predictions for Humidity (ŷ) given any Temperature (𝑥¹) or Wind speed value(𝑥²).

    然后,我们可以使用该回归模型对给定温度(𝑥¹)或风速值(𝑥²)的湿度(ŷ)进行预测。

    In general models that contain more variables tend to be more accurate since we are incorporating more factors that have an effect on Humidity.

    通常,包含更多变量的模型往往更准确,因为我们纳入了更多会影响湿度的因素。

    _________________________________________

    _________________________________________

    潜在问题 (Potential Problems)

    When including more and more variables in our model we run into a few problems:

    当在模型中包含越来越多的变量时 ,我们会遇到一些问题:

    • For example certain variables may become redundant. E.g look at our regression line above, θ₂ =0.004, multiplying our wind speed (𝑥²) by 0.004 barely changes our predicted value for humidity ŷ, which makes wind speed less useful to use in our model.

      例如,某些变量可能变得多余。 例如,看一下上面的回归线θ2 = 0.004,将我们的风速()²)乘以0.004几乎不会改变我们对湿度predicted的预测值,这使得风速在模型中的用处不大。
    • Another example is the scale of our data, i.e we can expect temperature to have a range of say -10 to 100, but pressure may have a range of 1000 to 1100. Using different scales of data can heavily affect the accuracy of our model.

      另一个例子是我们的数据规模,即我们可以预期温度范围在-10到100之间,但是压力可能在1000到1100之间。使用不同的数据规模会严重影响我们模型的准确性。

    How we solve these issues will be covered in future episodes.

    我们如何解决这些问题将在以后的章节中介绍。

    上一集 - 下一集 (Prev EpisodeNext Episode)

    如有任何疑问,请留在下面! (If you have any questions please leave them below!)

    Image for post

    翻译自: https://medium.com/ai-in-plain-english/understanding-multiple-linear-regression-2672c955ec1c

    多重线性回归 多元线性回归

    展开全文
  • 我们推送了“多重线性回归的SPSS详细操作步骤”,介绍了在应用多重线性回归模型之前所需要满足的8个适用条件,简单概括如下:(1) 自变量与因变量存在线性关系;(2) 残差间相互独立;(3) 残差服从正态分布;(4) 残差...

    我们推送了“多重线性回归的SPSS详细操作步骤”,介绍了在应用多重线性回归模型之前所需要满足的8个适用条件,简单概括如下:

    (1) 自变量与因变量存在线性关系;

    (2) 残差间相互独立;

    (3) 残差服从正态分布;

    (4) 残差具有方差齐性;

    (5) 因变量为连续变量;

    (6) 自变量为连续变量或分类变量;

    (7) 自变量间不存在多重共线性;

    (8) 样本量应为自变量的20倍以上。

    同时我们也结合实际的研究数据,介绍了如何在SPSS中进行多重线性回归的操作。面对SPSS结果输出中众多的表格,很多时候会感觉一头雾水,不知所云,接下来我们将对多重线性回归的输出结果进行详细的解读。

    一、模型条件验证

    首先我们需要对上述的8个条件进行验证,来确保最终建立的回归模型有效。在上一期的内容里,我们通过观察数据结构进行了初步的判断,数据已经基本满足了条件(5) (6) (8)的要求,下面我们将对其他条件来进行一一验证。

    1. 验证各个自变量与因变量存在线性关系

    在结果输出的Charts部分,Partial Regression Plot输出了每个自变量与因变量之间形成的散点图,由散点图可以判断自变量age,weight及heart_rate与因变量VO2 max之间均呈现一定的线性关系,满足条件(1)。由于自变量gender为二分类变量,因此可以不用考察其与因变量VO2 max的线性关系。

    注意:散点图是建立多重

    展开全文
  • 多元线性回归预测代码,读取EXCLE表格,设置训练数据集合测试数据集,评价方式采用相关系数R2均方根误差RMSE
  • function stats = reglm(y,X,model,varnames)% 多重线性回归分析或广义线性回归分析%% reglm(y,X),产生线性回归分析的方差分析表参数估计结果,并以表格形式显示在屏幕上. 参% 数X是自变量观测值矩阵,它是n行p列...

    function stats = reglm(y,X,model,varnames)

    % 多重线性回归分析或广义线性回归分析

    %

    % reglm(y,X),产生线性回归分析的方差分析表和参数估计结果,并以表格形式显示在屏幕上. 参

    % 数X是自变量观测值矩阵,它是n行p列的矩阵. y是因变量观测值向量,它是n行1列的列向量.

    %

    % stats = reglm(y,X),还返回一个包括了回归分析的所有诊断统计量的结构体变量stats. %

    % stats = reglm(y,X,model),用可选的model参数来控制回归模型的类型. model是一个字符串,

    % 其可用的字符串如下

    % 'linear' 带有常数项的线性模型(默认情况)

    % 'interaction' 带有常数项、线性项和交叉项的模型

    % 'quadratic' 带有常数项、线性项、交叉项和平方项的模型

    % 'purequadratic' 带有常数项、线性项和平方项的模型

    %

    % stats = reglm(y,X,model,varnames),用可选的varnames参数指定变量标签. varnames

    % 可以是字符矩阵或字符串元胞数组,它的每行的字符或每个元胞的字符串是一个变量的标签,它的行

    % 数或元胞数应与X的列数相同. 默认情况下,用X1,X2,…作为变量标签.

    %

    % 例:

    % x = [215 250 180 250 180 215 180 215 250 215 215

    % 136.5 136.5 136.5 138.5 139.5 138.5 140.5 140.5 140.5 138.5 138.5]';

    % y = [6.2 7.5 4.8 5.1 4.6 4.6 2.8 3.1 4.3 4.9 4.1]';

    % reglm(y,x,'quadratic')

    %

    % ------------------------------------方差分析表------------------------------------

    % 方差来源自由度平方和均方F值p值

    % 回归 5.0000 15.0277 3.0055 7.6122 0.0219

    % 残差 5.0000 1.9742 0.3948

    % 总计10.0000 17.0018

    %

    % 均方根误差(Root MSE) 0.6284 判定系数(R-Square) 0.8839

    % 因变量均值(Dependent Mean) 4.7273 调整的判定系数(Adj R-Sq) 0.7678

    %

    % -----------------------------------参数估计-----------------------------------

    % 变量估计值标准误t值p

    展开全文
  • http://www.iikx.com/news/statistics/6460.html
  • 当只考察一个自变量对因变量的影响时,我们称之为简单一元线性回归,如果要多考察一些自变量,此时许多人习惯性将之称为多元线性回归,统计学上建议称之为多重线性回归,避免多元统计方法冲突。案例背景介绍这是...
  • 基于机器学习统计思想实现多重线性回归分析.pdf
  • 多重线性回归分析SPSS操作与解读

    千次阅读 2020-12-19 08:55:17
    转自个人微信公众号【Memo_Cleon】的统计学习笔记:多元线性回归。这次笔记的内容是多元线性回归的SPSS操作及解读。严格来讲,这种一个因变量多个自变量的线性回归叫多变量线性回归或者多因素线性回归更合适一些。...
  • 利用SPSS进行多重线性回归分析-基础篇

    万次阅读 多人点赞 2020-09-16 11:56:00
    简单线性回归是只考虑单因素影响的预测模型,事实上,影响因变量的因素往往不止一个,可能会有多个影响因素,也就是研究一个因变量与多个自变量的线性回归问题,就用到多重线性回归分析了。 多重线性回归的作用: 1...
  • 5、Python多重线性回归(代码案例)

    千次阅读 2018-12-11 10:01:40
    多重线性回归:研究一个因变量与多个自变量间线性关系的方法 1、回归分析的步骤: 01 根据预测目标,确定自变量因变量 02 绘制散点图,确定回归模型类型 03 估计模型参数,建立回归模型 04 对回归模型进行...
  • 多重线性回归分析

    2012-04-24 16:31:38
    多重线性回归分析ppt 讲得易懂,可以下下来看看
  • 多元线性回归多重共线性Linear Regression is one of the simplest and most widely used algorithms for Supervised machine learning problems where the output is a numerical quantitative variable and the ...
  • 梳理大纲: 简单线性回归和多元线性回归 【1】简单线性回归:简单线性回归及最小二乘法的数据推导 【2】多元线性回归:多选线性回归和正规方程解及实现 参考资料: 机器学习 西瓜书 以下微信文章 From【木东居士】 ...
  • 多元线性回归多重共线性的危害 作者:居居 日期:2021-11-05 import pandas as pd import numpy as np import matplotlib.pyplot as plt plt.rcParams['font.sans-serif'] = ['SimHei'] # 步骤一(替换sans-serif...
  • python多重线性回归

    2021-01-13 13:08:00
    一元线性回归是特殊的多重线性回归多重线性回归分析步骤一元线性回归一样:回归分析的步骤:1.根据预测目标,确定自变量因变量。2.绘制散点图,确定回归模型类型。3.估计模型参数,建立回归模型。4.对回归模型...
  • 因此,多重线性回归在实际中应用更为广泛。 多重线性回归(multiple linear regression),有的教材也称之为多元线性回归,就是指一个因变量,多个自变量的线性回归。多重线性回归比单因素的线性回归复杂之处不在于...
  • 多重线性回归

    2012-12-20 20:44:30
    多重线性回归
  • 回归方程实际上是整个回归分析里面最简单的一部分,数据适不适合采用线性回归,回归模型对数据的拟合性如何还需要更进一步的考察验证。 线性回归基本适用条件:独立、线性、正态方差齐同。 适用条件的考察 ...
  • 上篇文章《简单而强大的线性回归详解》(点击跳转)详细介绍了线性回归分析方程、损失方程及求解、模型评估指标等内容,其中在推导多元线性回归使用最小二乘法的求解原理时,对损失函数求导得到参数向量 的方程式上式...
  • 2021年1月版的超越多重线性回归的仓库:在R中应用了广义线性模型多层模型。可以在以下位置找到渲染的版本: : ,可以购买印刷版通过或在 版权 :copyright:2021,Taylor&Francis Group,LLC。 除非美国版权法许可...
  • 前言:本文主要介绍多重线性、岭回归和Lasso的概念、公式推导及sklearn应用,使用的数据集为波士顿房价数据集、加利福尼亚房价数据集。 目录 如何从行列式理解多重线性? 如何理解使用岭回归解决多重线性...
  • 多重线性回归分析的四大纪律三项注意 鉴于多重线性回归已经到了滥用的程度,特总结一下在使用线性回归时需要注意的问题,总结为四大纪律加三项注意。 四大纪律 四大纪律之一: 自变量与因变量之间要存在线性关系...
  • 逐步线性回归能较好地克服多重共线性现象的发生,因此逐步回归分析是探索多变量关系的最常用的分析方法,智能算法是现代数据分析的主要方法。本文通过一个实例进行了对比研究,预测结果显示:在预测的精度上,在隐含层...
  • 机器学习预测天气-逻辑回归-线性回归
  • 一元线性回归是特殊的多重线性回归多重线性回归分析步骤一元线性回归一样: 回归分析的步骤: 根据预测目标,确定自变量因变量。 绘制散点图,确定回归模型类型。 估计模型参数,建立回归模型。 对回归模型...
  • 如何用R建立多重线性回归模型(上)

    千次阅读 2020-01-19 22:52:15
    多重线性回归模型的建立和简单线性回归模型一样,分为4步(文章直达链接) R中内置了很多数据集。其中有一个mtcars 数据集,它比较了不同的车型,每加仑里程(mpg),气缸排量(disp),马力(hp),汽车重量(...
  • 今天小编就为大家分享一篇python 线性回归分析模型检验标准--拟合优度详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  • 多年来,估算方法一直是统计学家的难题,尤其是在与隐藏/难以到达人口有关的... 这是通过将BirnbaumSirken(1965)给出的多样性估计器建模为回归模型来实现的。 本文还给出了未知参数β0β1以及σ2的最小二乘估计。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,493
精华内容 4,197
关键字:

多重线性回归和简单线性回归