逐步回归 订阅
逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的变量之前回归方程中只包含显著性变量。这是一个反复的过程,直到既没有显著的解释变量选入回归方程,也没有不显著的解释变量从回归方程中剔除为止。以保证最后所得到的解释变量集是最优的。依据上述思想,可利用逐步回归筛选并剔除引起多重共线性的变量,其具体步骤如下:先用被解释变量对每一个所考虑的解释变量做简单回归,然后以对被解释变量贡献最大的解释变量所对应的回归方程为基础,再逐步引入其余解释变量。经过逐步回归,使得最后保留在模型中的解释变量既是重要的,又没有严重多重共线性。 展开全文
逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的变量之前回归方程中只包含显著性变量。这是一个反复的过程,直到既没有显著的解释变量选入回归方程,也没有不显著的解释变量从回归方程中剔除为止。以保证最后所得到的解释变量集是最优的。依据上述思想,可利用逐步回归筛选并剔除引起多重共线性的变量,其具体步骤如下:先用被解释变量对每一个所考虑的解释变量做简单回归,然后以对被解释变量贡献最大的解释变量所对应的回归方程为基础,再逐步引入其余解释变量。经过逐步回归,使得最后保留在模型中的解释变量既是重要的,又没有严重多重共线性。
信息
效应不显著
停止引入新自变量
外文名
stepwise regression
中文名
逐步回归
需    要
进行F检验
逐步回归简介
逐步回归是一种线性回归模型自变量选择方法,其基本思想是将变量一个一个引入,引入的条件是其偏回归平方和经验是显著的。同时,每引入一个新变量后,对已入选回归模型的老变量逐个进行检验,将经检验认为不显著的变量删除,以保证所得自变量子集中每一个变量都是显著的。此过程经过若干步直到不能再引入新变量为止。这时回归模型中所有变量对因变量都是显著的。
收起全文
精华内容
下载资源
问答
  • 逐步回归

    千次阅读 2018-08-25 17:01:50
      例:  (Hald,1960)Hald 数据是关于水泥生产的数据。某种水泥在凝固时放出的热量 Y(单位:卡/克)与水泥中 4 ...在生产中测得 12 组数据,见表5,试建立 Y 关于这些因子的“最优”回归方程。 对于例 4 中...

    转载  许愿  https://blog.csdn.net/qq_32095939/article/details/76375684

     

    例: 
    (Hald,1960)Hald 数据是关于水泥生产的数据。某种水泥在凝固时放出的热量 Y(单位:卡/克)与水泥中 4 种化学成品所占的百分比有关: 
    在生产中测得 12 组数据,见表5,试建立 Y 关于这些因子的“最优”回归方程。

    这里写图片描述
    对于例 4 中的问题,可以使用多元线性回归、多元多项式回归,但也可以考虑使用逐步回归。从逐步回归的原理来看,逐步回归是以上两种回归方法的结合,可以自动使得方程的因子设置最合理。对于该问题,逐步回归的代码如下:

    X=[7,26,6,60;1,29,15,52;11,56,8,20;11,31,8,47;7,52,6,33;11,55,9,22;3,71,17,6;1,31,22,44;2,54,18,22;21,47,4,26;1,40,23,34;11,66,9,12];   %自变量数据
    Y=[78.5,74.3,104.3,87.6,95.9,109.2,102.7,72.5,93.1,115.9,83.8,113.3];  %因变量数据
    stepwise(X,Y,[1,2,3,4],0.05,0.10)
    % in=[1,2,3,4]表示X1、X2、X3、X4均保留在模型中
    • 1
    • 2
    • 3
    • 4

    注:这里的stepwise函数表示逐步回归,第一个参数为自变量数据矩阵,第二个参数为因变量数据,第三个参数表示哪几个向量应该在最初的模型中,第四个参数为Max P-value,不设置时默认为0.05,第个参数为Min P-value,不设置时默认为0.10。正常使用直接使用默认值。

    程序运行后一直点Next Step,直到变灰为止。得到最终运行结果后,查看R-square值和p值,前者越接近1,后者越接近0,模型越准。

    这里写图片描述

    最后的回归方程为:

            Y=51.6241+1.47601*X1+0.686734*X2
    展开全文
  • R语言 逐步回归分析 AIC

    万次阅读 多人点赞 2017-09-19 09:38:40
    逐步回归分析是以AIC信息统计量为准则,通过选择最小的AIC信息统计量,来达到删除或增加变量的目的

    关注微信公共号:小程在线

     

    关注CSDN博客:程志伟的博客

    逐步回归分析是以AIC信息统计量为准则,通过选择最小的AIC信息统计量,来达到删除或增加变量的目的。

    R语言中用于逐步回归分析的函数 step()    drop1()     add1()

    #1.载入数据 首先对数据进行多元线性回归分析

    复制代码
    tdata<-data.frame(
      x1=c( 7, 1,11,11, 7,11, 3, 1, 2,21, 1,11,10),
      x2=c(26,29,56,31,52,55,71,31,54,47,40,66,68),
      x3=c( 6,15, 8, 8, 6, 9,17,22,18, 4,23, 9, 8),
      x4=c(60,52,20,47,33,22, 6,44,22,26,34,12,12),
      Y =c(78.5,74.3,104.3,87.6,95.9,109.2,102.7,72.5,
           93.1,115.9,83.8,113.3,109.4)
    )
    tlm<-lm(Y~x1+x2+x3+x4,data=tdata)
    summary(tlm)
    复制代码

    多元线性回归结果分析

    通过观察,回归方程的系数都没有通过显著性检验

    #2.逐步回归分析

    tstep<-step(tlm)
    summary(tstep)

    结果分析:当用x1 x2 x3 x4作为回归方程的系数时,AIC的值为26.94

                  去掉x3 回归方程的AIC值为24.974;去掉x4 回归方程的AIC值为25.011……

                  由于去x3可以使得AIC达到最小值,因此R会自动去掉x3;

    去掉x3之后 AIC的值都增加 逐步回归分析终止  得到当前最优的回归方程

    回归系数的显著性水平有所提高 但是x2 x4的显著性水平仍然不理想

    #3.逐步回归分析的优化

    drop1(tstep)

    结果分析

    如果去掉x4 AIC的值从24.974增加到25.420 是三个变量中增加最小的

     

    #4.进一步进行多元回归分析

    tlm<-lm(Y~x1+x2,data=tdata)
    summary(tlm)

    结果分析

    所有的检验均为显著

    因此所得回归方程为y=52.57735+ 1.46831x1+ 0.66225x2.

    展开全文
  • matlab逐步回归

    2018-01-22 22:16:11
    matlab代码,栅格数据,全球大数据,逐步回归分析程序代码
  • stepwise逐步回归

    2018-02-06 11:46:52
    逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • python实现逐步回归1.基本思想逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则...

    python实现逐步回归

    1.基本思想

    逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的变量之前回归方程中只包含显著性变量。这是一个反复的过程,直到既没有显著的解释变量选入回归方程,也没有不显著的解释变量从回归方程中剔除为止。以保证最后所得到的解释变量集是最优的。

    本例的逐步回归则有所变化,没有对已经引入的变量进行t检验,只判断变量是否引入和变量是否剔除,“双重检验”逐步回归,简称逐步回归。例子的链接:(原链接已经失效),4项自变量,1项因变量。下文不再进行数学推理,进对计算过程进行说明,对数学理论不明白的可以参考《现代中长期水文预报方法及其应用》汤成友,官学文,张世明著;论文《逐步回归模型在大坝预测中的应用》王晓蕾等;

    2. 逐步回归的计算步骤:计算第零步增广矩阵。第零步增广矩阵是由预测因子和预测对象两两之间的相关系数构成的。

    引进因子。在增广矩阵的基础上,计算每个因子的方差贡献,挑选出没有进入方程的因子中方差贡献最大者对应的因子,计算该因子的方差比,查F分布表确定该因子是否引入方程。

    剔除因子。计算此时方程中已经引入的因子的方差贡献,挑选出方差贡献最小的因子,计算该因子的方差比,查F分布表确定该因子是否从方程中剔除。

    矩阵变换。将第零步矩阵按照引入方程的因子序号进行矩阵变换,变换后的矩阵再次进行引进因子和剔除因子的步骤,直到无因子可以引进,也无因子可以剔除为止,终止逐步回归分析计算。

    3.代码实现:

    a.以下代码实现了数据的读取,相关系数的计算子程序和生成第零步增广矩阵的子程序。

    注意:pandas库读取csv的数据结构为DataFrame结构,此处转化为numpy中的(n-dimension array,ndarray)数组进行计:

    import numpy as np

    import pandas as pd

    #数据读取

    #利用pandas读取csv,读取的数据为DataFrame对象

    data = pd.read_csv('sn.csv')

    # 将DataFrame对象转化为数组,数组的最后一列为预报对象

    data= data.values.copy()

    # print(data)

    # 计算回归系数,参数

    def get_regre_coef(X,Y):

    S_xy=0

    S_xx=0

    S_yy=0

    # 计算预报因子和预报对象的均值

    X_mean = np.mean(X)

    Y_mean = np.mean(Y)

    for i in range(len(X)):

    S_xy += (X[i] - X_mean) * (Y[i] - Y_mean)

    S_xx += pow(X[i] - X_mean, 2)

    S_yy += pow(Y[i] - Y_mean, 2)

    return S_xy/pow(S_xx*S_yy,0.5)

    #构建原始增广矩阵

    def get_original_matrix():

    # 创建一个数组存储相关系数,data.shape几行(维)几列,结果用一个tuple表示

    # print(data.shape[1])

    col=data.shape[1]

    # print(col)

    r=np.ones((col,col))#np.ones参数为一个元组(tuple)

    # print(np.ones((col,col)))

    # for row in data.T:#运用数组的迭代,只能迭代行,迭代转置后的数组,结果再进行转置就相当于迭代了每一列

    # print(row.T)

    for i in range(col):

    for j in range(col):

    r[i,j]=get_regre_coef(data[:,i],data[:,j])

    return r

    b.第二部分主要是计算公差贡献和方差比。

    def get_vari_contri(r):

    col = data.shape[1]

    #创建一个矩阵来存储方差贡献值

    v=np.ones((1,col-1))

    # print(v)

    for i in range(col-1):

    # v[0,i]=pow(r[i,col-1],2)/r[i,i]

    v[0, i] = pow(r[i, col - 1], 2) / r[i, i]

    return v

    #选择因子是否进入方程,

    #参数说明:r为增广矩阵,v为方差贡献值,k为方差贡献值最大的因子下标,p为当前进入方程的因子数

    def select_factor(r,v,k,p):

    row=data.shape[0]#样本容量

    col=data.shape[1]-1#预报因子数

    #计算方差比

    f=(row-p-2)*v[0,k-1]/(r[col,col]-v[0,k-1])

    # print(calc_vari_contri(r))

    return f

    c.第三部分调用定义的函数计算方差贡献值

    #计算第零步增广矩阵

    r=get_original_matrix()

    # print(r)

    #计算方差贡献值

    v=get_vari_contri(r)

    print(v)

    #计算方差比

    计算结果:

    此处没有编写判断方差贡献最大的子程序,因为在其他计算中我还需要变量的具体物理含义所以不能单纯的由计算决定对变量的取舍,此处看出第四个变量的方查贡献最大。

    # #计算方差比

    # print(data.shape[0])

    f=select_factor(r,v,4,0)

    print(f)

    #######输出##########

    22.79852020138227

    计算第四个预测因子的方差比(粘贴在了代码中),并查F分布表3.280进行比对,22.8>3.28,引入第四个预报因子。(前三次不进行剔除椅子的计算)。

    d.第四部分进行矩阵的变换。

    #逐步回归分析与计算

    #通过矩阵转换公式来计算各部分增广矩阵的元素值

    def convert_matrix(r,k):

    col=data.shape[1]

    k=k-1#从第零行开始计数

    #第k行的元素单不属于k列的元素

    r1 = np.ones((col, col)) # np.ones参数为一个元组(tuple)

    for i in range(col):

    for j in range(col):

    if (i==k and j!=k):

    r1[i,j]=r[k,j]/r[k,k]

    elif (i!=k and j!=k):

    r1[i,j]=r[i,j]-r[i,k]*r[k,j]/r[k,k]

    elif (i!= k and j== k):

    r1[i,j] = -r[i,k]/r[k,k]

    else:

    r1[i,j] = 1/r[k,k]

    return r1

    e.进行完矩阵变换就循环上面步骤进行因子的引入和剔除

    再次计算各因子的方差贡献:

    前三个未引入方程的方差因子进行排序,得到第一个因子的方差贡献最大,计算第一个预报因子的F检验值,大于临界值引入第一个预报因子进入方程。

    #矩阵转换,计算第一步矩阵

    r=convert_matrix(r,4)

    # print(r)

    #计算第一步方差贡献值

    v=get_vari_contri(r)

    #print(v)

    f=select_factor(r,v,1,1)

    print(f)

    #########输出#####

    108.22390933074443

    进行矩阵变换,计算方差贡献:

    可以看出还没有引入方程的因子2和3,方差贡献较大的是因子2,计算因子2的f检验值5.026>3.28,故引入预报因子2。

    f=select_factor(r,v,2,2)

    print(f)

    ##########输出#########

    5.025864648951804

    继续进行矩阵转换,计算方差贡献:

    这一步需要考虑剔除因子了,有方差贡献可以知道,已引入方程的因子中方差贡献最小的是因子4,分别计算因子3的引进f检验值0.0183

    和因子4的剔除f检验值1.863,均小于3.28(查F分布表)因子3不能引入,因子4需要剔除,此时方程中引入的因子数为2。

    #选择是否剔除因子,

    #参数说明:r为增广矩阵,v为方差贡献值,k为方差贡献值最大的因子下标,t为当前进入方程的因子数

    def delete_factor(r,v,k,t):

    row = data.shape[0] # 样本容量

    col = data.shape[1] - 1 # 预报因子数

    # 计算方差比

    f = (row - t - 1) * v[0, k - 1] / r[col, col]

    # print(calc_vari_contri(r))

    return f

    #因子3的引进检验值0.018233473487350636

    f=select_factor(r,v,3,3)

    print(f)

    #因子4的剔除检验值1.863262422188088

    f=delete_factor(r,v,4,3)

    print(f)

    在此对矩阵进行变换,计算方差贡献:

    已引入因子(因子1和2)方差贡献最小的是因子1,为引入因子方差贡献最大的是因子4,计算这两者的引进f检验值和剔除f检验值。

    #因子4的引进检验值1.8632624221880876,小于3.28不能引进

    f=select_factor(r,v,4,2)

    print(f)

    #因子1的剔除检验值146.52265486251397,大于3.28不能剔除

    f=delete_factor(r,v,1,2)

    print(f)

    不能剔除也不能引进变量,此时停止逐步回归的计算。引进方程的因子为预报因子1和预报因子2,借助上一篇博客写的多元回归。对进入方程的预报因子和预报对象进行多元回归。输出多元回归的预测结果,一次为常数项,第一个因子的预测系数,第二个因子的预测系数。

    #因子1和因子2进入方程

    #对进入方程的预报因子进行多元回归

    # regs=LinearRegression()

    X=data[:,0:2]

    Y=data[:,4]

    X=np.mat(np.c_[np.ones(X.shape[0]),X])#为系数矩阵增加常数项系数

    Y=np.mat(Y)#数组转化为矩阵

    #print(X)

    B=np.linalg.inv(X.T*X)*(X.T)*(Y.T)

    print(B.T)#输出系数,第一项为常数项,其他为回归系数

    ###输出##

    #[[52.57734888 1.46830574 0.66225049]]

    《来源于科技文献,经本人分析整理,以技术会友,广交天下朋友》

    展开全文
  • 原标题:统计学干货 I 逐步回归01. 前言这一篇我们来讲讲逐步回归。什么是逐步回归呢?就是字面意思, 一步一步进行回归。我们知道多元回归中的元是指自变量,多元就是多个自变量,即多个x。这多个x中有一个问题需要...

    原标题:统计学干货 I 逐步回归

    01. 前言

    这一篇我们来讲讲逐步回归。什么是逐步回归呢?就是字面意思, 一步一步进行回归。

    我们知道多元回归中的元是指自变量,多元就是多个自变量,即多个x。这多个x中有一个问题需要我们考虑,所以是不是这多个x都对y有作用? 答案就是有的时候都管用,有的时候部分管用。那对于那些没用的部分我们最好是不让它加入到回归模型里面。我们把这个筛选起作用的变量或者剔除不起作用变量的过程叫做变量选择。

    我们刚提到自变量有用没用,那怎么来评判一个自变量到底有用没用呢? 判断依据就是对自变量进行显著性检验。具体方法是将一个自变量加入到模型中时,有没有使残差平方和显著减少,如果有显著减少则说明这个变量是有用的,可以把这个变量加入到模型中,否则说明是无用的,就可以把这个变量从模型中删除。有没有显著减少的判断标准就是根据F统计量来判断。

    变量选择主要有:向前选择、向后剔除、逐步回归、最优子集等,我们这一篇主要讲前三种。

    02. 向前选择

    向前选择可以理解成从零开始选择,因为模型最开始的时候是没有自变量的,具体的步骤如下:

    Step1:拿现有的k个变量分别和y建立回归模型,最后会得到k个模型以及每个模型中变量对应的F统计量和其p_value,然后从显著的模型中挑选出F统计量最大模型对应的自变量,将该自变量加入到模型中,如果k个模型都不显著,则选择结束。

    Step2:通过第一步我们已经得到了一个显著性变量,并把这个变量加入到了模型中。接下来再在已经加入一个变量的模型里面继续分别加入剩下的变量,能够得到k-1个模型,然后在这k-1个模型里面挑选F值最大且显著的变量继续加入模型。如果没有显著变量,则选择结束。

    重复执行上面两步, 直到没有显著性变量可以加入到模型为止,这就是向前选择。

    03. 向后剔除

    向后剔除是与向前选择相对应的方法,是向前选择的逆方法,具体的步骤如下:

    Step1:将所有的自变量都加入到模型中,建立一个包含k个自变量的回归模型。然后分别去掉每一个自变量以后得到k个包含k-1个变量的模型,比较这k个模型,看去掉哪个变量以后让模型的残差平方和减少的最少,即影响最小的变量,就把这个变量从模型中删除。

    Step2:通过第一步我们已经删除了一个无用的变量,第二步是在已经删除一个变量的基础上,继续分别删除剩下的变量,把使模型残差平方和减少最小的自变量从模型中删除。

    重复上面的两个步骤,直到删除一个自变量以后不会使残差显著减少为止。这个时候,留下来的变量就都是显著的了。

    04. 逐步回归

    逐步回归是向前选择和向后剔除两种方法的结合。是这两种方法的交叉进行,即一遍选择,一边剔除。

    逐步回归在每次往模型中增加变量时用的是向前选择,将F统计量最大的变量加入到模型中,将变量加入到模型中以后,针对目前模型中存在的所有变量进行向后剔除,一直循环选择和剔除的过程,直到最后增加变量不能够导致残差平方和变小为止。

    关于逐步回归的Python实现,网上有很多现成代码的,只要原理清楚了,代码就很好懂了。

    作者:张俊红

    简历诊断

    绞尽脑汁写出的简历投递了几十次却石沉大海?

    HR问起经历,看着拼凑来的简历说不出123...

    爱数据学院,解决你的简历“难题”

    找对病症 一招击破

    资深HR+职场老师,带你深入了解

    数据领域筛选标准

    针对求职岗位个性化辅导

    深挖你的实战经历。

    本周将抽取 25名小伙伴

    进行免费的1v1简历诊断

    责任编辑:

    展开全文
  • 逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 一、逐步回归法介绍逐步回归的基本思想是通过剔除变量中不太重要又和其他变量高度相关的变量,降低多重共线性程度。将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,...
  • 逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 逐步回归基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 在这种情况下可用逐步回归分析,进行x因子的筛选,这样建立的多元回归模型预测效果会更较好。逐步回归分析,首先要建立因变量y与自变量x之间的总回归方程,再对总的方程及每—个自变量进行假设检验。当总的方程不...
  • 逐步回归分析法

    2016-06-06 20:56:58
    逐步回归分析法
  • python实现逐步回归

    万次阅读 多人点赞 2018-10-25 08:49:09
    逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 【模型开发】逐步回归

    千次阅读 2019-07-21 18:16:52
    逐步回归
  • 回归问题-逐步回归(Stepwise Regression)

    万次阅读 2019-10-02 22:43:02
    逐步回归(Stepwise Regression) 逐步回归主要解决的是多变量共线性问题,也就是不是线性无关的关系,它是基于变量解释性来进行特征提取的一种回归方法。 逐步回归的主要做法有三种: (一)Forward selection:...
  • 逐步回归解释

    千次阅读 2020-08-20 16:06:14
    逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。以确保每次引入新的...
  • 逐步回归分析

    千次阅读 2019-04-11 16:21:00
    R语言 逐步回归分析 逐步回归分析是以AIC信息统计量为准则,通过选择最小的AIC信息统计量,来达到删除或增加变量的目的。 R语言中用于逐步回归分析的函数 step() drop1() add1() #1.载入数据 首先对数据...
  • 回归分析 4 多元逐步回归程序
  • 逐步回归c语言程序

    2017-11-21 21:24:54
    逐步回归c语言简明程序,摆脱其他语言的繁琐,能使初学者更易理解
  • 逐步回归是通过假设检验的方法来筛选强特征,但如果直接用特征变量和结果变量做回归,看系数的正负和大小来判断变量的相关性,其实也是合理的,但是为了考虑变量间的相互作用在回归模型中对结果的影响,通常还是应用...
  • 【Python】逐步回归1. 模型选择之AIC与BIC此处模型选择我们只考虑模型参数数量,不涉及模型结构的选择。很多参数估计问题均采用似然函数作为目标函数,当训练数据足够多时,可以不断提高模型精度,但是以提高模型...
  • 逐步回归与自回归模型在水文预报中的应用,曹琨,,根据洪家渡水电站1952-2009年实测径流资料及1951-2008年74项气象因子,分别建立逐步回归与自回归模型对月径流量进行拟合预报,结果均通�
  • Matlab_回归分析_逐步回归

    万次阅读 多人点赞 2017-07-30 11:13:56
    例: (Hald,1960)Hald 数据是关于水泥生产的数据。某种水泥在凝固时放出的热量 Y(单位:卡/克)与水泥中 4 种化学成品所占的百分比...从逐步回归的原理来看,逐步回归是以上两种回归方法的结合,可以自动使得方程的
  • 基于王斌会《多元统计分析及R语言建模》第4章第4节逐步回归。主要介绍回归变量的选择方法,涉及变量选择准则,逐步回归分析的步骤,以及算例。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 1,360
精华内容 544
关键字:

逐步回归