精华内容
下载资源
问答
  • 回归结果解释

    2019-09-13 17:06:41
    模型估计出来后,我们要回答的问题是: ...或者说,这个模型对因变量的解释力如何?(R2) 整个模型是否能显著预测因变量的变化?(F检验) 每个自变量是否能显著预测因变量的变化?(t检验) ...

    模型估计出来后,我们要回答的问题是:

    1. 我们的模型拟合程度如何?或者说,这个模型对因变量的解释力如何?(R2)

    2. 整个模型是否能显著预测因变量的变化?(F检验)

    3. 每个自变量是否能显著预测因变量的变化?(t检验)

     

    转载于:https://my.oschina.net/u/567648/blog/2231249

    展开全文
  • SPSS多元线性回归输出结果的详细解释

    万次阅读 多人点赞 2017-06-27 17:41:05
    最近做了一些用SPSS进行线性回归的实验,还是感觉很多细节把握不好,这里结合我的实验结果,以及网上别人的介绍总结一下,先贴几张SPSS的输出: 下面简单解释一下这三张图中的结果: 第一个表模型汇总表中,...

    先说一句题外话,如果当年在大学里数理统计等课程结合SPSS,SAS,R等软件来讲,应该效果会好很多。

    最近做了一些用SPSS进行线性回归的实验,还是感觉很多细节把握不好,这里结合我的实验结果,以及网上别人的介绍总结一下,先贴几张SPSS的输出:

    下面简单解释一下这三张图中的结果:

    第一个表模型汇总表中,R表示拟合优度(goodness of fit),它是用来衡量估计的模型对观测值的拟合程度。它的值越接近1说明模型越好。调整的R平方比调整前R平方更准确一些,图中的最终调整R方为0.550,表示自变量一共可以解释因变量55%的变化(variance),另外,由于使用的是StepWise Linear Regression (SWLR),分析——回归——线性——“方法”选择“逐步”,所以模型1、2、3的R方逐渐增大,标准误差逐渐减小。

    (据网友的介绍:一般认为,拟合优度达到0.1为小效应(R方0.01),0.3为中等(R方0.09),0.5为大(R方0.25),这是针对自然科学的一般界限。)

     

    第二个表Anova表示方差分析结果,主要看F和sig值两个,F值为方差分析的结果,是一个对整个回归方程的总体检验,指的是整个回归方程有没有使用价值(与随机瞎猜相比),其F值对应的Sig值小于0.05就可以认为回归方程是有用的。另外,从F值的角度来讲:F的值是回归方程的显著性检验,表示的是模型中被解释变量与所有解释变量之间的线性关系在总体上是否显著做出推断。若F>Fa(k,n-k-1),则拒绝原假设,即认为列入模型的各个解释变量联合起来对被解释变量有显著影响,反之,则无显著影响。

     

    这里简单对Fa(k,n-k-1)进行一下解释,k为自变量个数,n为样本容量,n-k-1为自由度。对于我的实验中的情况来讲,k=3,样本容量为146,所以查表的时候应该差Fa(3,142),一般数理统计课本中都有F分布表,a表示的显著性水平(一般取0.05),但我们手头不一定会有课本,就需要借助于excel来查F表,打开excel,在公式区输入:=FINV(0.05,3,142),在单元格中即出现2.668336761,表中的F值显著大于这个值,则认为各个解释变量对因变量有显著影响。

     

    需要注意的是,方差分析是对多个自变量的总体检验,而不是单个自变量(单个自变量在系数表中,为单样本T检验),这就是第三个表回归系数表中的内容。

    系数表格列出了自变量的显著性检验结果(使用单样本T检验),最后一列为T检验的sig,表中均小于0.05,说明自变量对因变量具有显著影响,B表示各个自变量在回归方程中的系数,负值表示IPGF这个自变量对因变量有显著的负向影响,但是由于每个自变量的量纲和取值范围不同,基于B并不能反映各个自变量对因变量影响程度的大小,这时候我们就要借助标准系数。目前表格中的“试用版”实际上是Beta的意思,此时数值越大表示对自变量的影响更大。

     

    从这个分析过程来看,这个实验结果还挺理想的。

    展开全文
  • 回归结果的一般解释

    万次阅读 2016-01-13 16:49:22
    一、参数解释: 1、回归系数(coefficient)  注意回归系数的正负要符合理论和实际。  截距项的回归系数无论是否通过T检验都没有实际的经济意义。 2、回归系数的标准误差(Std.Error)  标准误差...

    一、参数解释:

    1、回归系数(coefficient)

        注意回归系数的正负要符合理论和实际。

        截距项的回归系数无论是否通过T检验都没有实际的经济意义。

    2、回归系数的标准误差(Std.Error)

        标准误差越大,回归系数的估计值越不可靠,这可以通过T值的计算公式可知

    3、T检验值(t-Statistic)

        T值检验回归系数是否等于某一特定值,在回归方程中这一特定值为0,因此T值=回归系数/回归系数的标准误差,因此T值的正负应该与回归系数的正负一致,回归系数的标准误差越大,T值越小,回归系数的估计值越不可靠,越接近于0。另外,回归系数的绝对值越大,T值的绝对值越大。

    4、P值(Prob)

        P值为理论T值超越样本T值的概率,应该联系显著性水平α相比,α表示原假设成立的前提下,理论T值超过样本T值的概率,当P值<α值,说明这种结果实际出现的概率的概率比在原假设成立的前提下这种结果出现的可能性还小但它偏偏出现了,因此拒绝接受原假设。

    5、可决系数(R-squared)

        都知道可决系数表示解释变量对被解释变量的解释贡献,其实质就是看(y尖-y均)与(y=y均)的一致程度。y尖为y的估计值,y均为y的总体均值。

    6、调整后的可决系数(Adjusted R-squared)

        即经自由度修正后的可决系数,从计算公式可知调整后的可决系数小于可决系数,并且可决系数可能为负,此时说明模型极不可靠。

    7、回归残差的标准误差(S.E.of regression)

        残差的经自由度修正后的标准差,OLS的实质其实就是使得均方差最小化,而均方差与此的区别就是没有经过自由度修正。

    8、残差平方和(Sum Squared Resid)

        见上7

    9、对数似然估计函数值(Log likelihood)

        首先,理解极大似然估计法。极大似然估计法虽然没有OLS运用广泛,但它是一个具有更强理论性质的点估计方法。极大似然估计的出发点是已知被观测现象的分布,但不知道其参数。极大似然法用得到观测值(样本)最高概率(离散分布以概率聚集函数表示,连续分布以概率密度函数表示。因为要使得样本中所有样本点都出现,假定抽样是随机的则各个样本点的是独立同分布的,所以最后总的概率表现为概率聚集函数或者概率密度函数的连乘形式,称之为似然函数。要取最大概率,即将似然函数对未知参数求导令导数等于0即可获得极大似然函数。一般为简化函数的处理过程都会对似然函数进行对数化处理,这样最后得到的极大似然函数就称之为对数极大似然函数)的那些参数的值来估计该分布的参数,从而提供一种用于估计刻画一个分布的一组参数的方法。

        其次,理解对数似然估计函数值。对数似然估计函数值一般取负值,实际值(不是绝对值)越大越好。第一,基本推理。对于似然函数,如果是离散分布,最后得到的数值直接就是概率,取值区间为0-1,对数化之后的值就是负数了;如果是连续变量,因为概率密度函数的取值区间并不局限于0-1,所以最后得到的似然函数值不是概率而只是概率密度函数值,这样对数化之后的正负就不确定了。第二,Eviews的计算公式解释。公式值的大小关键取之于残差平方和(以及样本容量),只有当残差平方和与样本容量的比之很小时,括号内的值才可能为负,从而公式值为正,这时说明参数拟合效度很高;反之公式值为负,但其绝对值越小表示残差平方和越小,因而参数拟合效度越高。

    10、DW检验值

         DW统计量用于检验序列的自相关,公式就是测度残差序列与残差的滞后一期序列之间的差异大小,经过推导可以得出DW值与两者相关系数的等式关系,因而很容易判断。DW值的取值区间为0-4,当DW值很小时(大致<1)表明序列可能存在正自相关;当DW值很大时(大致>3)表明序列可能存在负自相关;当DW值在2附近时(大致在1.5到2.5之间)表明序列无自相关;其余的取值区间表明无法确定序列是否存在自相关。当然,DW具体的临界值还需要根据样本容量和解释变量的个数通过查表来确定。

         DW值并不是一个很适用的检验手段,因为它存在苛刻的假设条件:解释变量为非随机的;随机扰动项为一阶自回归形式;解释变量不能包含滞后的被解释变量;必须有截距项;数据无缺失值。当然,可以通过DW-h检验来检验包含滞后被解释变量作为解释变量的序列是否存在自相关。h统计量与滞后被解释变量的回归系数的方差呈正相关关系,可以消除其影响。

    11、被解释变量的样本均值(Mean Dependent Var)

    12、被解释变量的样本标准误差(S.D.Dependent Var)

        上面两个望文即可生义。

    13、赤池信息准则(AIC)

        AIC和SC在时间序列分析过程中的滞后阶数确定过程中非常重要,一般是越小越好。

        一般理解:根据AIC的计算公式(-2*L/N+2*k/N,L为对数似然估计函数值,k为滞后阶数,N为样本容量)可知:当滞后阶数小时,2*k/N小,但因为模型的模拟效果会比较差所以L(负值)会比较小,加上负号之后则变得较大,因此最后的AIC有可能较大;当滞后阶数大时,模型的模拟效果会比较好所以L(负值)会比较大,加上负号之后则变得较小,但是2*k/N过大(损失自由度的代价),因此最后的AIC也有可能较大。综上,AIC较小意味着滞后阶数较为合适。

    14、施瓦茨信息准则(SC)

        与AIC没有任何本质区别,只是加入样本容量的对数值以修正损失自由度的代价。

    15、F统计量(F-statistic)

        F统计量考量的是所有解释变量整体的显著性,所以F检验通过并不代表每个解释变量的t值都通过检验。当然,对于一元线性回归,T检验与F检验是等价的。

    16、prob(F-statistic)

        F统计量的P值,一切的P值都是同样的实质意义。

     

    展开全文
  • Logistic回归结果的回归系数和OR值解读。Logistic回归虽然名字叫”回归”,但却是一种分类学习方法。使用场景大概有两个:第一用来预测,第二寻找因变量的影响因素。一 从线性回归到Logistic回归线性回归和Logistic...

    Logistic回归结果的回归系数和OR值解读。Logistic回归虽然名字叫”回归” ,但却是一种分类学习方法。使用场景大概有两个:第一用来预测,第二寻找因变量的影响因素。

    一 从线性回归到Logistic回归

    线性回归和Logistic回归都是广义线性模型的特例。

    假设有一个因变量y和一组自变量x1, x2, x3, ... , xn,其中y为连续变量,我们可以拟合一个线性方程:

    y =β0+β1*x1+β2*x2+β3*x3+...+βn*xn

    并通过最小二乘法估计各个β系数的值。

    如果y为二分类变量,只能取值0或1,那么线性回归方程就会遇到困难: 方程右侧是一个连续的值,取值为负无穷到正无穷,而左侧只能取值[0,1],无法对应。为了继续使用线性回归的思想,统计学家想到了一个变换方法,就是将方程右边的取值变换为[0,1]。最后选中了Logistic函数:

    y = 1 / (1+e-x)

    这是一个S型函数,值域为(0,1),能将任何数值映射到(0,1),且具有无限阶可导等优良数学性质。

    我们将线性回归方程改写为:

    y = 1 / (1+e-z),

    其中,z =β0+β1*x1+β2*x2+β3*x3+...+βn*xn

    此时方程两边的取值都在0和1之间。

    进一步数学变换,可以写为:

    Ln(y/(1-y)) =β0+β1*x1+β2*x2+β3*x3+...+βn*xn

    Ln(y/(1-y))称为Logit变换。我们再将y视为y取值为1的概率p(y=1),因此,1-y就是y取值为0的概率p(y=0),所以上式改写为:

    p(y=1) = ez/(1+ez),

    p(y=0) = 1/(1+ez),

    其中,z =β0+β1*x1+β2*x2+β3*x3+...+βn*xn.

    接下来就可以使用”最大似然法”估计出各个系数β。

    二 odds与OR复习

    odds: 称为几率、比值、比数,是指某事件发生的可能性(概率)与不发生的可能性(概率)之比。用p表示事件发生的概率,则:odds = p/(1-p)。

    OR:比值比,为实验组的事件发生几率(odds1)/对照组的事件发生几率(odds2)。

    三 Logistic回归结果的解读

    我们用一个例子来说明,这个例子中包含200名学生数据,包括1个自变量和4个自变量:

    因变量:  hon,表示学生是否在荣誉班(honors class),1表示是,0表示否;

    自变量:

    female :性别,分类变量,1=女,0=男

    read: 阅读成绩,为连续变量

    write: 写作成绩,为连续变量

    math:数学成绩,为连续变量

    1、不包含任何变量的Logistic回归

    首先拟合一个不包含任何变量的Logistic回归,

    模型为 ln(p/(1-p) =β0

    回归结果如下(结果经过编辑):

    hon

    系数β

    标准误

    P

    截距

    -1.12546

    0.164

    0.000

    这里的系数β就是模型中的β0= -1.12546,

    我们用p表示学生在荣誉班的概率,所以有ln(p/(1-p) =β0= -1.12546,

    解方程得:p = 0.245。

    odds = p/1-p = 0.3245

    这里的p是什么意思呢?p就是所有数据中hon=1的概率。

    我们来统计一下整个hon的数据:

    hon

    例数

    百分比

    0

    151

    75.5%

    1

    49

    24.5%

    hon取值为1的概率p为49/(151+49) = 24.5% = 0.245,我们可以手动计算出ln(p/(1-p) = -1.12546,等于系数β0。可以得出关系:

    β0=ln(odds)。

    2、包含一个二分类因变量的模型

    拟合一个包含二分类因变量female的Logistic回归,

    模型为 ln(p/(1-p)  =β0+β1*female.

    回归结果如下(结果经过编辑):

    hon

    系数β

    标准误

    P

    female

    0.593

    .3414294

    0.083

    截距

    -1.47

    .2689555

    0.000

    在解读这个结果之前,先看一下hon和female的交叉表:

    hon

    female

    Total

    Male

    Female

    0

    74

    77

    151

    1

    17

    32

    49

    Total

    91

    109

    根据这个交叉表,对于男性(Male),其处在荣誉班级的概率为17/91,处在非荣誉班级的概率为74/91,所以其处在荣誉班级的几率odds1=(17/91)/(74/91) = 17/74 = 0.23;相应的,女性处于荣誉班级的几率odds2 = (32/109)/(77/109)=32/77 = 0.42。女性对男性的几率之比OR = odds2/odds1 = 0.42/0.23 = 1.809。我们可以说,女性比男性在荣誉班的几率高80.9%。

    回到Logistic回归结果。截距的系数-1.47是男性odds的对数(因为男性用female=0表示,是对照组),ln(0.23) = -1.47。变量female的系数为0.593,是女性对男性的OR值的对数,ln(1.809) = 0.593。所以我们可以得出关系: OR = exp(β),或者β= ln(OR)(exp(x)函数为指数函数,代表e的x次方)。

    3、包含一个连续变量的模型

    拟合一个包含连续变量math的Logistic回归,

    模型为 ln(p/(1-p)  =β0+β1*math.

    回归结果如下(结果经过编辑):

    hon

    系数β

    标准误

    P

    math

    .1563404

    .0256095

    0.000

    截距

    -9.793942

    1.481745

    0.000

    这里截距系数的含义是在荣誉班中math成绩为0的odds的对数。我们计算出odds = exp(-9.793942) = .00005579,是非常小的。因为在我们的数据中,没有math成绩为0的学生,所以这是一个外推出来的假想值。

    怎么解释math的系数呢?根据拟合的模型,有:

    ln(p/(1-p)) =  - 9.793942  + .1563404*math

    我们先假设math=54,有:

    ln(p/(1-p))(math=54) = - 9.793942 + .1563404 *54

    然后我们把math提高提高一个单位,令math=55,有:

    ln(p/(1-p))(math=55) = - 9.793942 + .1563404 *55

    两者之差:

    ln(p/(1-p))(math=55) - ln(p/1-p))(math = 54) = 0.1563404.

    正好是变量math的系数。

    由此我们可以说,math每提高1个单位,odds(即p/(1-p),也即处于荣誉班的几率)的对数增加0.1563404。

    那么odds增加多少呢?根据对数公式:

    ln(p/(1-p))(math=55) - ln(p/1-p))(math = 54) = ln((p/(1-p)(math=55)/ (p/(1-p)(math=54))) = ln(odds(math=55)/ odds(math=54)) = 0.1563404.

    所以:

    odds(math=55)/ odds(math=54)  =  exp(0.1563404) = 1.169.

    因此我们可以说,math每升高一个单位,odds增加16.9%。且与math的所处的绝对值无关。

    聪明的读者肯定发现,odds(math=55)/ odds(math=54)不就是OR嘛!

    4、包含多个变量的模型(无交互效应)

    拟合一个包含female、math、read的Logistic回归,

    模型为 ln(p/(1-p) = β0+β1*math+β2*female+β3*read.

    回归结果如下(结果经过编辑):

    hon

    系数β

    标准误

    P

    math

    .1229589

    0.000

    female

    0.979948

    0.020

    read

    .0590632

    0.026

    截距

    -11.77025

    0.000

    该结果说明:

    (1) 性别:在math和read成绩都相同的条件下,女性(female=1)进入荣誉班的几率(odds)是男性(female=0)的exp(0.979948) = 2.66倍,或者说,女性的几率比男性高166%。

    (2) math成绩:在female和read都相同的条件下,math成绩每提高1,进入荣誉班的几率提高13%(因为exp(0.1229589) = 1.13)。

    (3)read的解读类似math。

    5、包含交互相应的模型

    拟合一个包含female、math和两者交互相应的Logistic回归,

    模型为 ln(p/(1-p)  =β0+β1*female+β2*math+β3*female *math.

    所谓交互效应,是指一个变量对结果的影响因另一个变量取值的不同而不同。

    回归结果如下(结果经过编辑):

    hon

    系数β

    标准误

    P

    female

    -2.899863

    0.349

    math

    .1293781

    0.000

    female*math

    .0669951

    0.210

    截距

    -8.745841

    0.000

    注意:female*math项的P为0.21,可以认为没有交互相应。但这里我们为了讲解交互效应,暂时忽略P值,姑且认为他们是存在交互效应的。

    由于交互效应的存在,我们就不能说在保持math和female*math不变的情况下,female的影响如何如何,因为math和female*math是不可能保持不变的!

    对于这种简单的情况,我们可以分别拟合两个方程,

    对于男性(female=0):

    log(p/(1-p))= β0 + β2*math.

    对于女性(female=1):

    log(p/(1-p))= (β0 + β1) + (β2 + β3 )*math.

    然后分别解释。

    展开全文
  • 深入解读Logistic回归结果(一):回归系数,OR关键词:Logistic回归分析、lasso回归系数解读、回归系数解读Logistic回归虽然名字叫”回归”,但却是一种分类学习方法。使用场景大概有两个:第一用来预测,第二寻找因...
  • 下面是一个回归过程,用于拟合收入和教育情况 import pandas as pd import matplotlib.pyplot as plt import seaborn as sms import statsmodels.api as sn sdata = pd.read_csv('../input/traindatas/char7/Salary_...
  • 优质回答 回答者:jayjayR平方就是拟合优度指标,代表了回归平方和(方差分析表中的0.244)占总平方和(方差分析表中的0.256)的比例,也称为决定系数。你的R平方值为0.951,表示X可以解释95.1%的Y值,拟合优度很高,...
  • Logit回归共分为三种,分别是二元Logistic回归、多分类Logistic回归,有序Logistic回归(也称Oridinal回归),此三个方法的区别在于因变量Y的数据类型。如下表:Logistics回归分类哑变量问题有序logistics回归中,X...
  • 内容导航:Q1:请高手帮忙分析下SPSS的多元线性回归结果吧~急啊~~~你的回归方法是直接进入法拟合优度R方等于0.678,表示自变量可以解释因变量的67.8%变化,说明拟合优度还可以。方差检验表中F值对应的概率P值为0.000...
  • 接着我们来实战一下,主要了解一下R语言如何实现线性回归,以及尝试解释线性回归结果。1. 简单与多重线性回归的异同点1.1 简单线性回归与多重线性回归参数个数比较:同:二者均有一个结局变量(如小鼠体长)。异:...
  • 给定一封邮件,判断是不是垃圾邮件给出一个交易明细数据,判断这个交易是否是欺诈交易给出一个肿瘤检查的结果数据,判断这个肿瘤是否为恶性肿瘤 逻辑回归是互联网上最流行也是最有影响力的分类算法,也是深度学习...
  • 逻辑回归结果在spss中的实现1.导入数据后对样本进行描述性统计步骤:分析—描述统计—描述。然后将一些常见的要素选上即可本文案例所选取的标签flag即为y,其余都为解释变量。2.相关性分析步骤:分析—相关—双变量...
  • 作者|Mandy Gu 编译|Flin 来源|towardsdatascience Logistic回归,通过估计事件发生的对数概率来对事件发生的概率进行...当然,底数会影响对结果和系数值的解释。 分离概率 如果我们有估计系数,就很容易分离出p。注
  • →Continue→回到主界面→OK 四、结果解释 Logistic回归结果给出了很多表格,我们重点关注三个表格。 (1)Omnibus Tests of Model Coefficients:模型系数的综合检验。其中Model一行输出了Logistic回归模型中所有...
  • 上一节我们讲过了eviews做多元回归,但是很多同学做问卷之类的都需要用到spss,所以这节我教一下大家如何用spss做多元回归,并对结果进行解读,再对大家所疑惑的显著水平做一些白话的解释。一.线性回归的操作将因变量...
  • 但面对软件给出的一长串统计结果时,很多朋友不知道如何解释这些数字,从而无法对模型的有效性给出合理诊断。通过阅读本文,你将能理解报告中核心数字所代表含义,更精确的阐释回归分析结果。一般来说,回归分析报告...
  • 参考材料:sas高级教程一、基础知识1、优势(odds):注:类似多元线性回归方程,但要求没有那么严格,如此方差中弱化了残差部分,不要求正态分布、独立同分布等。但还是要解决共线性问题(任何模型都要解决的问题)...
  • 1. F值检验因变量的总变异(数据与均值之差的平方和,记为SStotal)由回归平方和(因变量的变异中可以由自变量解释的部分,记为SSR)与误差平方和(记为SSE)构成,如果自变量引起的变异大于随机误差引起的变异,则说明因...
  • 1从地理加权回归(GWR) 工具生成的输出包括以下内容:输出要素类可选系数栅格表面整体模型结果的消息...有关详细信息,请参阅回归分析基础知识和解释 OLS 回归结果。回归分析的一种常用方法是在移动到 GWR 之前识别可...
  • 第七节 描述性统计与分位数回归上节...(2)回归4、格兰杰因果检验评价var结果5、用脉冲响应分析评价结果作业展示分别采用ARIMA模型和VAR模型对韩国、日本与美国生产函数数据进行统计分析无论课堂还是课后作业都要求...
  • 连享会·推文专辑:Stata资源 | 数据处理 | Stata绘图 | Stata程序结果输出 | 回归分析 | 时间序列 | 面板数据 | 离散数据交乘调节 | DID | RDD | 因果推断 | SFA-TFP-DEA文本分析+爬虫 | 空...
  • 逻辑回归的通俗解释

    2017-09-23 00:08:00
    给出一个肿瘤检查的结果数据,判断这个肿瘤是否为恶性肿瘤 逻辑回归是互联网上最流行也是最有影响力的分类算法,也是深度学习(Deep Learning)的基本组成单元。 2 先给出一个逻辑回归的例子 ...
  • [《Interpretable Machine ...内容围绕:对于一个训练好的线性模型,怎样去向模型使用者(客户)解释这个模型(参数含义、为什么得会得出这种预测结果)。 上图为一个线性回归的单个实例,最后一项为误差。 ...
  • 线性回归是使用最为广泛的一种研究方法,其可用于研究X对于Y的研究。...与分层回归相比,分组回归结果含义更明确,也更容易解释。调节作用一、研究背景当前有一项研究,收集了200份调查问卷,用于研究工作忠诚度...
  • 空间统计(五)诊断回归分析结果

    万次阅读 2015-03-31 14:52:33
    为了理解、解释、预测某个问题,我们会进行回归分析。上一篇中提到了回归模型中的因变量和解释变量的概念,用一组解释变量来建模解释因变量,但事实上,选择一组优质的解释变量并不是那么容易。通常我们会根据一些...
  • 第一部分关于R平方1.R平方含义 // R平方,R-squared又被称为判定系数,反映的是模型的解释力,即在线性回归模型当中,自变量多大程度上能够解释因变量的变异。在模型中一般R平方越大越好。统计学原理 // R平方=回归...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 892
精华内容 356
关键字:

解释回归结果