-
2020-08-31 10:28:08
本博文源于《商务统计》旨在讲述多元回归下的变量选择问题之逐步回归的一般步骤。
一般步骤
- 将向前选择和向后剔除两种方法结合来筛选自变量
- 在增加了一个自变量后,它会对模型中所有变量进行考察,看看有没有可能剔除某个自变量。如果在增加了一个自变量后,前面增加的某个自变量对模型的贡献变得不显著,这个变量就会被剔除。
- 按照方法不停地增加变量并考虑剔除以前增加的变量地可能性,直至增加变量已经不能导致SSE(残差平方和)显著减少
- 在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中。
博主上一篇
统计|多元回归下变量选择最优子集法一般步骤及缺点
统计|多元回归下变量选择的向前选择法一般步骤与缺点
统计|理解多元回归变量选择的向后剔除一般步骤及缺点更多相关内容 -
线性回归模型建模步骤 (一元线性回归、多元线性回归)
2020-08-20 17:18:22线性回归模型建模步骤 (一元线性回归、多元线性回归) -
SPSS多元线性回归分析实例操作步骤-spss做多元线性回归.pdf
2021-10-01 23:32:14SPSS多元线性回归分析实例操作步骤-spss做多元线性回归.pdf -
总结下R语言进行简单多元回归的基本步骤
2016-12-25 22:33:25总结下R语言进行简单多元回归的基本步骤 (2012-08-06 22:50:39) 转载▼ 标签: r语言 回归分析 分类: 数据分析 最近论文,刚好研究下R的回归分析。作此笔记,以便...总结下R语言进行简单多元回归的基本步骤
(2012-08-06 22:50:39)
最近论文,刚好研究下R的回归分析。作此笔记,以便将来参考。
1.读入数据,R-STUDIO直接有按钮,否则就> zsj <- read.csv("D:/Paper/data/zsj.csv")数据一般从excel的CSV或者txt里读取,实现整理好以符合R的数据框的结构
ps1:这块有很多包提供从不同来源读取数据的方法,笔者还得慢慢学。。
2.画相关图选择回归方程的形式> plot(Y~X1);abline(lm(Y~X1))> plot(Y~X2);abline(lm(Y~X2))可见X1与Y的关系是明显的线性的,X2也类似此处省略
3.做回归,并检视回归结果> lm.test<-lm(Y~X1+X2,data=zsj)> summary(lm.test)
Call:lm(formula = Y ~ X1 + X2, data = zsj)
Residuals:Min 1Q Median 3Q Max -0.21286 -0.05896 -0.014500.05556 0.30795
Coefficients:Estimate Std. Error t value Pr(>|t|) (Intercept) 0.09317500.0109333 8.522 5.85e-16 *** X10.0109935 0.0003711 29.625 < 2e-16 *** X20.0099941 0.0010459 9.555 < 2e-16 *** ---Signif. codes:0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.08109 on 327 degrees of freedomMultiple R-squared: 0.7953, Adjusted R-squared: 0.7941F-statistic: 635.3 on 2 and 327 DF,p-value: < 2.2e-16
可见各项显著性检验都是得到通过的
4.用残差分析剔除异常点> plot(lm.test,which=1:4)
得到的四个图依次为:4.1普通残差与拟合值的残差图4.2正态QQ的残差图(若残差是来自正态总体分布的样本,则QQ图中的点应该在一条直线上)4.3标准化残差开方与拟合值的残差图(对于近似服从正态分布的标准化残差,应该有95%的样本点落在[-2,2]的区间内。这也是判断异常点的直观方法)4.4cook统计量的残差图(cook统计量值越大的点越可能是异常值,但具体阀值是多少较难判别)
从图中可见,54,65,295三个样本存在异常,需要剔除。
5.检验异方差
5.1GQtest,H0(误差平方与自变量,自变量的平方和其交叉相都不相关),p值很小时拒绝H0,认为上诉公式有相关性,存在异方差> res.test<-residuals(lm.test)> library(lmtest)> gqtest(lm.test)
Goldfeld-Quandt test
data:lm.test GQ = 0.9353, df1 = 162, df2 = 162, p-value = 0.6647
5.2BPtest,H0(同方差),p值很小时认为存在异方差> bptest(lm.test)
studentized Breusch-Pagan test
data:lm.test BP = 3.0757, df = 2, p-value = 0.2148
两个检验都可以看出异方差不存在,不过为了总结所有情况这里还是做了一下修正。。
6.修正异方差修正的方法选择FGLS即可行广义最小二乘6.1修正步骤6.1.1将y对xi求回归,算出res--u6.1.2计算log(u^2)6.1.3做log(u^2)对xi的辅助回归 log(u^2),得到拟合函数g=b0+b1x1+..+b2x26.1.4计算拟合权数1/h=1/exp(g),并以此做wls估计
> lm.test2<-lm(log(resid(lm.test)^2)~X1+X2,data=zsj)> lm.test3<-lm(Y~X1+X2,weights=1/exp(fitted(lm.test2)),data=zsj)> summary(lm.test3)
这里就不再贴回归结果了
7.检验多重共线性
7.1计算解释变量相关稀疏矩阵的条件数k,k<100多重共线性程度很小,100<k<1000较强,>1000严重> XX<-cor(zsj[5:6])> kappa(XX)[1] 2.223986
7.2寻找共线性强的解释变量组合> eigen(XX)#用于发现共线性强的解释变量组合#$values[1] 1.3129577 0.6870423
$vectors[,1] [,2] [1,] 0.7071068 -0.7071068[2,] 0.70710680.7071068
8.修正多重共线性---逐步回归法> step(lm.test)Start:AIC=-1655.03 Y ~ X1 + X2
Df Sum of Sq RSS AIC <none>2.1504 -1655.0 - X21 0.6005 2.7509 -1575.8 - X11 5.7714 7.9218 -1226.7
Call:lm(formula = Y ~ X1 + X2, data = zsj)
Coefficients:(Intercept)X1 X2 0.093175 0.010994 0.009994
可见X2,X1都不去掉的时候AIC值最小,模型最佳。
ps2:step中可进行参数设置:direction=c("both","forward","backward")来选择逐步回归的方向,默认both,forward时逐渐增加解释变两个数,backward则相反 -
多元回归线性模型剔除步骤
2021-08-03 20:41:05多元回归线性模型剔除步骤 -
R语言采用多元回归建模的基本步骤
2016-12-18 21:02:52建立回归模型步骤: #1、参数全部默认情况下的相关系数图 #混合方法之上三角为圆形,下三角为黑色数字 library(corrplot) corr (src[, 1 : 10 ]) corrplot(corr = corr, order = "AOE" ,type= "upper" ,...前言:本次建模过程是基于RedHat6.8或者CentOS6.8,R3.1.2,Rstudio-server
关于R3.1.2,Rstudio-server的整个配置,原始数据(已经脱敏处理,不涉及泄密,如有侵权,请随时联系)以及本分析的源码均放置在GitHub上,通过click here访问数据导入:
#install essential packages install.packages("rJava",dependencies=TRUE) install.packages("xlsx",dependencies=TRUE) install.packages("corrplot",dependencies=TRUE) install.packages("leaps",dependencies=TRUE) install.packages("lmtest",dependencies=TRUE) library(rJava) #setting workstation setwd("/home/steven/workstation") #source data loaded library(xlsx) src <- read.xlsx("/usr/local/workstation/test.xls",1,encoding="UTF-8")
数据处理:
#drop columns that is useless src <- src[,-c(1)] src <- src[,c(1:6,8:10,7)] #1、description statistic attach(src) names(src) mean=sapply(src,mean) max=sapply(src,max) min=sapply(src,min) median=sapply(src,median) sd=sapply(src,sd) cbind(mean,max,min,median,sd)
建立回归模型步骤:
#1、参数全部默认情况下的相关系数图 #混合方法之上三角为圆形,下三角为黑色数字 library(corrplot) corr <- cor(src[,1:10]) corrplot(corr = corr,order="AOE",type="upper",tl.pos="tp") corrplot(corr = corr,add=TRUE, type="lower", method="number",order="AOE", col="black", diag=FALSE,tl.pos="n", cl.pos="n")
输出结果如下:
1. mean max min median sd rs 1211.924227 14000.0000 10.0000 980.00000 1.595892e+03 cs 1.168495 6.0000 0.0000 1.00000 1.471799e+00 area 7.045862 11.0000 1.0000 7.00000 3.168251e+00 type 1.588235 2.0000 1.0000 2.00000 4.923985e-01 cg 2.251246 3.0000 1.0000 3.00000 9.289564e-01 h 1.395813 2.0000 1.0000 1.00000 4.892685e-01 tjg 7843.554775 8454.1182 6909.4630 8092.36154 3.942006e+02 ggjg 14147.557328 16600.0000 11700.0000 14600.00000 1.015608e+03 yyjg 94.608809 106.6788 86.6484 95.00923 3.467941e+00 target 29893.998495 145085.0000 4.9000 27700.00000 1.939754e+04
#1、参数全部默认情况下的相关系数图 #混合方法之上三角为圆形,下三角为黑色数字 library(corrplot) corr <- cor(src[,1:10]) corrplot(corr = corr,order="AOE",type="upper",tl.pos="tp") corrplot(corr = corr,add=TRUE, type="lower", method="number",order="AOE", col="black", diag=FALSE,tl.pos="n", cl.pos="n")
结果如下:
#2.画相关图选择回归方程的形式 plot(target~cg);abline(lm(target~cg)) plot(target~h);abline(lm(target~h)) plot(target~type);abline(lm(target~type)) plot(target~tjg);abline(lm(target~tjg)) plot(target~ggjg);abline(lm(target~ggjg)) plot(target~area);abline(lm(target~area)) plot(target~cs);abline(lm(target~cs)) plot(target~yyjg);abline(lm(target~yyjg)) plot(target~rs);abline(lm(target~rs))
#3.do regression and check results dim(src)[1] lm.test<-lm(target~rs+cs+area+type+cg+h+tjg+ggjg+yyjg,data=src) summary(lm.test)
结果如下:
Residuals: Min 1Q Median 3Q Max -45689 -8172 -999 5979 90290 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 9.678e+04 1.487e+04 6.507 1.22e-10 *** rs 9.556e-02 2.643e-01 0.362 0.71777 cs -5.617e+02 2.887e+02 -1.946 0.05195 . area 2.137e+02 1.390e+02 1.537 0.12463 type -3.414e+04 4.309e+03 -7.923 6.20e-15 *** cg -1.846e+03 2.136e+03 -0.864 0.38776 h 1.336e+04 1.158e+03 11.535 < 2e-16 *** tjg -1.198e+01 2.460e+00 -4.868 1.31e-06 *** ggjg 7.148e+00 1.079e+00 6.625 5.66e-11 *** yyjg -3.731e+02 1.280e+02 -2.916 0.00363 ** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 12980 on 993 degrees of freedom Multiple R-squared: 0.5564, Adjusted R-squared: 0.5523 F-statistic: 138.4 on 9 and 993 DF, p-value: < 2.2e-16
#4.delete variable which is not significant(rs,area) lm.test<-lm(target~cs+type+cg+h+tjg+ggjg+yyjg,data=src) summary(lm.test)
Residuals: Min 1Q Median 3Q Max -46131 -8655 -1038 5716 91466 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 101636.162 14537.438 6.991 4.99e-12 *** cs -572.037 288.600 -1.982 0.04774 * type -34143.617 4296.236 -7.947 5.14e-15 *** cg -1815.420 2127.549 -0.853 0.39370 h 12995.825 1132.191 11.478 < 2e-16 *** tjg -12.728 2.411 -5.279 1.59e-07 *** ggjg 7.474 1.058 7.068 2.96e-12 *** yyjg -389.096 127.090 -3.062 0.00226 ** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 12980 on 995 degrees of freedom Multiple R-squared: 0.5553, Adjusted R-squared: 0.5522 F-statistic: 177.5 on 7 and 995 DF, p-value: < 2.2e-16
#4.1.use residual analysis delete outlier points plot(lm.test,which=1:4) src = src[-c(12,765,788,790),] dim(src)[1]
结果如下:
得到的四个图依次为:
4.1普通残差与拟合值的残差图
4.2正态QQ的残差图(若残差是来自正态总体分布的样本,则QQ图中的点应该在一条直线上)
4.3标准化残差开方与拟合值的残差图(对于近似服从正态分布的标准化残差,应该有95%的样本点落在[-2,2]的区间内。这也是判断异常点的直观方法)
4.4cook统计量的残差图(cook统计量值越大的点越可能是异常值,但具体阀值是多少较难判别)从图中可见,12,765,788,790三个样本存在异常,需要剔除。 Residuals: Min 1Q Median 3Q Max -46131 -8655 -1038 5716 91466 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 101636.162 14537.438 6.991 4.99e-12 *** cs -572.037 288.600 -1.982 0.04774 * type -34143.617 4296.236 -7.947 5.14e-15 *** cg -1815.420 2127.549 -0.853 0.39370 h 12995.825 1132.191 11.478 < 2e-16 *** tjg -12.728 2.411 -5.279 1.59e-07 *** ggjg 7.474 1.058 7.068 2.96e-12 *** yyjg -389.096 127.090 -3.062 0.00226 ** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 12980 on 995 degrees of freedom Multiple R-squared: 0.5553, Adjusted R-squared: 0.5522 F-statistic: 177.5 on 7 and 995 DF, p-value: < 2.2e-16
#5.异方差检验 #5.1GQtest,H0(误差平方与自变量,自变量的平方和其交叉相都不相关), #p值很小时拒绝H0,认为上诉公式有相关性,存在异方差 src.test<-residuals(lm.test) library(lmtest) gqtest(lm.test) #5.2BPtest,H0(同方差),p值很小时认为存在异方差 bptest(lm.test)
结果如下:
Goldfeld-Quandt test data: lm.test GQ = 1.841, df1 = 494, df2 = 493, p-value = 8.865e-12 --------- studentized Breusch-Pagan test data: lm.test BP = 93.9696, df = 7, p-value < 2.2e-16
两个检验的p值都很小时认为存在异方差,需要修正异方差
#6.修正异方差 #修正的方法选择FGLS即可行广义最小二乘 #6.1修正步骤 #6.1.1将y对xi求回归,算出res--u #6.1.2计算log(u^2) #6.1.3做log(u^2)对xi的辅助回归 log(u^2),得到拟合函数g=b0+b1x1+..+b2x2 #6.1.4计算拟合权数1/h=1/exp(g),并以此做wls估计 lm.test2<-lm(log(resid(lm.test)^2)~cs+type+cg+h+tjg+ggjg+yyjg,data=src) lm.test3<-lm(target~cs+type+cg+h+tjg+ggjg+yyjg,weights=1/exp(fitted(lm.test2)),data=src) summary(lm.test3)
结果如下:
Weighted Residuals: Min 1Q Median 3Q Max -5.0707 -1.3281 -0.2952 1.0471 9.3937 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 61648.563 13382.003 4.607 4.62e-06 *** cs -320.525 153.174 -2.093 0.0366 * type -26556.135 4766.749 -5.571 3.26e-08 *** cg -4653.887 2430.178 -1.915 0.0558 . h 11107.677 692.499 16.040 < 2e-16 *** tjg -14.767 2.224 -6.638 5.20e-11 *** ggjg 7.919 1.049 7.548 9.96e-14 *** yyjg 97.193 133.864 0.726 0.4680 --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 1.868 on 995 degrees of freedom Multiple R-squared: 0.7178, Adjusted R-squared: 0.7159 F-statistic: 361.6 on 7 and 995 DF, p-value: < 2.2e-16
#7.1计算解释变量相关稀疏矩阵的条件数k,k<100多重共线性程度很小,100<k<1000较强,>1000严重 src[1:9] XX<-cor(src[1:9]) kappa(XX)
结果如下:
[1] 160.9175
K>100 and K<1000,说明共线性较强,接下来找出共线性强的变量
$values [1] 3.4192494 1.3030312 1.1563047 0.9199288 0.9041041 0.7562702 0.4205589 0.1011783 [9] 0.0193744 $vectors [,1] [,2] [,3] [,4] [,5] [,6] [1,] -0.05733512 -0.501899822 0.2026552 -0.50588080 0.52056535 -0.417997886 [2,] -0.14763837 0.007109461 0.4116265 -0.46530338 -0.75069812 -0.163284493 [3,] -0.05138859 0.665302345 -0.1293286 -0.01422961 0.11408507 -0.699971313 [4,] 0.49655847 -0.112090220 -0.1278988 0.02167963 -0.16337262 -0.239671005 [5,] 0.46448785 -0.167719865 -0.2352263 0.06705893 -0.20715145 -0.265202906 [6,] 0.40186335 -0.218262940 -0.2471633 -0.09210826 -0.11794142 0.001433268 [7,] 0.40615453 0.174700538 0.5215318 0.06040287 0.12878909 0.132238544 [8,] 0.40635458 0.274603051 0.4469450 -0.07777933 0.20683789 0.127659436 [9,] -0.13555751 -0.333404886 0.4101634 0.71008868 -0.09781406 -0.383530067 [,7] [,8] [,9] [1,] -0.02888533 0.034061964 -0.010937600 [2,] 0.03865752 -0.008224625 -0.020908812 [3,] 0.16651561 0.084133996 0.004735702 [4,] -0.30629410 -0.209415519 0.708684433 [5,] -0.36523446 0.094446587 -0.663876582 [6,] 0.83587224 0.093172922 0.004206256 [7,] -0.04882043 0.695383719 0.094120334 [8,] 0.10362759 -0.660605287 -0.217813589 [9,] 0.17586069 -0.101388052 -0.011659019
#8.修正多重共线性---逐步回归法 #ps2:step中可进行参数设置: #direction=c("both","forward","backward")来选择逐步回归 #的方向,默认both,forward时逐渐增加解释变两个数,backward则相反。 step(lm.test)
结果如下:
Start: AIC=19007.25 target ~ cs + type + cg + h + tjg + ggjg + yyjg Df Sum of Sq RSS AIC - cg 1 1.2269e+08 1.6778e+11 19006 <none> 1.6766e+11 19007 - cs 1 6.6200e+08 1.6832e+11 19009 - yyjg 1 1.5794e+09 1.6924e+11 19015 - tjg 1 4.6960e+09 1.7235e+11 19033 - ggjg 1 8.4171e+09 1.7608e+11 19054 - type 1 1.0643e+10 1.7830e+11 19067 - h 1 2.2201e+10 1.8986e+11 19130 Step: AIC=19005.98 target ~ cs + type + h + tjg + ggjg + yyjg Df Sum of Sq RSS AIC <none> 1.6778e+11 19006 - cs 1 5.9084e+08 1.6837e+11 19008 - yyjg 1 1.5277e+09 1.6931e+11 19013 - tjg 1 5.3779e+09 1.7316e+11 19036 - ggjg 1 1.2972e+10 1.8075e+11 19079 - h 1 2.2083e+10 1.8986e+11 19128 - type 1 1.5438e+11 3.2216e+11 19658 Call: lm(formula = target ~ cs + type + h + tjg + ggjg + yyjg, data = src) Coefficients: (Intercept) cs type h tjg ggjg 99781.026 -533.902 -37652.525 12909.485 -13.222 7.941 yyjg -381.819
所以最终入选的变量是:formula = target ~ cs + type + h + tjg + ggjg + yyjg
-
基于灰色理论-多元回归分析的瓦斯含量预测
2020-06-12 18:44:46在此基础上,采用多元回归分析法构建出预测矿井瓦斯含量的数学模型。为检验预测模型的可靠性,任选5个钻孔作为测试钻孔进行瓦斯含量预测,并与地勘时期测得的实际值比较分析,计算误差范围。结果表明:采用预测模型预测... -
线性回归(一元&多元)建模步骤
2020-08-20 17:29:53 -
基于jupyter notebook的python编程—–运用sklearn库,导入文件数据模拟多元线性回归分析
2020-12-22 01:01:49基于jupyter notebook的python编程—–运用sklearn库,...二、以下列的xlsx表格文件为例,编写我们的最小二乘法的python代码的分解步骤1、导入我们需要的基本库2、导入我们数据文件==多元线性回归.xlsx==3、为我们的x,y -
机器学习-回归之一元回归与多元回归算法原理及实战
2019-04-05 14:48:51一元回归分析和多元线性回归 前言 在统计学中,回归分析(Regression Analysis)指的是确定两种或两种以上变量间的相互依赖的定量关系的一种分析方法。该方法常使用数据统计的基本原理,对大量统计数据进行数学处理... -
回归分析 4 多元逐步回归程序
2014-09-05 20:09:56回归分析 4 多元逐步回归程序 -
深度学习笔记(3)基于Tensorflow的多元线性回归:预测波士顿房价
2020-12-22 08:16:51现在给定的要求是,使用一个多元线性模型去拟合这些数据,然后用于预测。 模型 price=f(x1,x2,…,xn)=∑i=1nwixi+b price = f(x_1, x_2, …, x_n) = \sum\limits_{i=1}^{n} w_i x_i + bprice=f(x1,x2,…,xn)=i... -
基于spss的一元线性回归与多元线性回归案例.rar
2019-10-30 19:26:25基于spss的一元线性回归与多元线性回归案例,个人整理出的,包含了部分案例、实验报告、题目,及部分题目答案,适合作为spss、MATLAB等软件数据分析题目联系 -
SPSS多元线性回归分析实例操作步骤.doc
2021-10-05 11:21:08SPSS多元线性回归分析实例操作步骤.doc -
SPSS多元线性回归分析实例操作步骤7.doc
2021-10-05 11:21:09SPSS多元线性回归分析实例操作步骤7.doc -
多元线性回归分析(Stata)
2022-01-14 10:12:47回归分析的介绍与分类 回归分析的任务是:通过研究自变量X和因变量Y的关系,尝试去解释Y的形成机制,进而达到通过X去预测Y的目的 三个关键字:相关性、因变量Y、自变量X 常见的回归分析有五类(划分的依据是因... -
多元线性回归超详细详解(一步一步手推公式)
2022-06-06 16:07:08上一篇我们详细的讲解了一元一次线性回归算法,今天我们为大家讲解多元线性回归是怎么一回事。 何为多元?当我们的输入x只有一维属性时,我们称之为一元。就像我们判断人胖瘦,只需了解体重这一个属性,我们就可以... -
SPSS多元线性回归分析研究实例操作步骤.doc
2021-10-08 18:59:40SPSS多元线性回归分析研究实例操作步骤.doc -
利用MATLAB进行多元线性回归
2021-05-08 01:06:01《利用MATLAB进行多元线性回归》由会员分享,可在线阅读,更多相关《利用MATLAB进行多元线性回归(15页珍藏版)》请在人人文库网上搜索。1、2.线性回归,b=regress(y,X) b,bint,r,rint,s=regress(y,X,alpha),输入: y因... -
SPSS多元线性回归分析报告实例操作步骤.doc
2021-09-28 13:07:15SPSS多元线性回归分析报告实例操作步骤.doc -
SPSS多元回归分析实例
2012-12-26 20:45:06用SPSS 在大多数的实际问题中,影响因变量的因素不是一个而是多个,我们称这类回问题为多元回归分析。可以建立因变量y与各自变量xj(j=1,2,3,…,n)之间的多元线性回归模型 -
matlab多元回归工具箱 Excel数据分析工具进行多元回归分析.doc
2021-04-18 12:54:28matlab多元回归工具箱 Excel数据分析工具进行多元回归分析.docmatlab...使用Excel 数据分析工具进行多元回归分析使用Excel 数据分析工具进行多元回归分析与简单的回归估算分析方法基本相同。但是由于有些电脑在安装... -
SPSS多元线性回归及逐步回归学习笔记
2022-07-12 16:36:16点击分析->回归->线性会出来如图 选择自变量,因变量。点击左侧然后点击即可选择变量并将它添加到自变量、因变量。点击统计,需要额外勾选共线性诊断和然后点击继续,点击设置成如图 。解释:----------------------...
收藏数
10,288
精华内容
4,115