精华内容
下载资源
问答
  • 一元线性回归模型显著性检验方法的改进一元线性回归模型显著性检验方法的改进一元线性回归模型显著性检验方法的改进一元线性回归模型显著性检验方法的改进
  • matlab建立多元线性回归模型进行显著性检验及预测问题例子;x=[143 145 146 147 149 150 153 154 155 156 157 158 159 160 162 164]'; X=[ones(16,1) x]; 增加一个常数项 Y=[88 85 88 91 92 93 93 95 96 98 97 96 ...

    matlab建立多元线性回归模型并进行显著性检验及预测问题

    例子;

    x=[143 145 146 147 149 150 153 154 155 156 157 158 159 160 162 164]'; X=[ones(16,1) x]; 增加一个常数项 Y=[88 85 88 91 92 93 93 95 96 98 97 96 98 99 100 102]'; [b,bint,r,rint,stats]=regress(Y,X) 得结果:b = bint = -16.0730 -33.7071 1.5612 0.7194 0.6047 0.8340 stats = 0.9282 180.9531 0.0000 即对应于b的置信区间分别为[-33.7017,1.5612]、[0.6047,0.834]; r2=0.9282, F=180.9531, p=0.0000 p<0.05, 可知回归模型 y=-16.073+0.7194x 成立. 这个是一元的,如果是多元就增加X的行数!

    function [beta_hat,Y_hat,stats]=regress(X,Y,alpha)

    % 多元线性回归(Y=Xβ+ε)MATLAB代码

    %

    % 参数说明

    % X:自变量矩阵,列为自变量,行为观测值

    % Y:应变量矩阵,同X

    % alpha:置信度,[0 1]之间的任意数据

    % beta_hat:回归系数

    % Y_beata:回归目标值,使用Y-Y_hat来观测回归效果

    % stats:结构体,具有如下字段

    % stats.fTest=[fV,fH],F检验相关参数,检验线性回归方程是否显著 % fV:F分布值,越大越好,线性回归方程越显著 % fH:0或1,0不显著;1显著(好)

    % stats.tTest=[tH,tV,tW],T检验相关参数和区间估计,检验回归系数β是否与Y有显著线性关系

    % tV:T分布值,beta_hat(i)绝对值越大,表示Xi对Y显著的线性作用

    % tH:0或1,0不显著;1显著

    % tW:区间估计拒绝域,如果beta(i)在对应拒绝区间内,那么否认Xi对Y显著的线性作用

    % stats.TUQR=[T,U,Q,R],回归中使用的重要参数

    % T:总离差平方和,且满足T=Q+U

    % U:回归离差平方和

    % Q:残差平方和

    % R∈[0 1]:复相关系数,表征回归离差占总离差的百分比,越大越好

    % 举例说明

    % 比如要拟合 y=a+b*log(x1)+c*exp(x2)+d*x1*x2,注意一定要将原来方程线化 % x1=rand(10,1)*10;

    展开全文
  • 单参数显著性检验——t检验2. 回归方程显著性检验——F检验3. 拟合优度评价指标I——R方/改进R方4. 拟合优度评价指标AIC/BIC/SIC写在最后 1. 单参数显著性检验——t检验 2. 回归方程显著性检验——F检验 3. 拟合...

    【更新日志】
    5/1/2020 对文章中公式与措辞中存在的问题进行修正(感谢评论区小伙伴的指正!)


    1. 前文回顾

    在上一篇文章中,我们分别研究了最小二乘估计量 β^OLSσ^OLS 的相关性质,证明了 β^OLSβ 的一个最优线性无偏估计量(BLUE)σ^2OLSσ2 的一个无偏估计量,并得到了其在正态性误差假设下所对应的分布:
    β^OLSN(β,σ2(XTX)1) \bm{\hat\beta}_{OLS} \thicksim N(\bm\beta, \sigma^2 ( \bm{X}^T \bm{X} )^{-1} ) σ^OLS2σ2χNp12 \frac {\hat \sigma _{OLS}^2} {\sigma^2} \thicksim \chi^2_{N-p-1}

    (详情请见:【统计学习系列】多元线性回归模型(三)——参数估计量的性质)。

    通过最小二乘法拟合好模型的参数后,一个重要的问题就是:这个模型真的“好"吗?满足什么条件、什么性质的模型可以称作一个“好模型”呢?


    2. 单参数显著性检验——t检验

    2.1 问题的提出

    首先,我们应该想到的问题是,在一个多元回归模型中,是不是每一个引入的自变量对因变量都有实实在在的影响呢?这样的影响是显著的吗?我们应不应该在模型中保留这一变量呢?

    在回答这些问题之前,我们先回顾一下总体模型:
    Y=β0+i=1pXiβi+ϵ Y= \beta_0 + \sum_{i=1}^{p} X_{i} \beta_i + \epsilon 其中:
    ϵN(0,σ2) \epsilon \thicksim N(0,\sigma^2)
    让我们聚焦众多参数中的一个:βiβi 的意义是什么呢?当其他变量保持不变,而只有 Xi 变动时,每变动一个单位的 Xi,就会让 Y 平均变动 βi 个单位。而若 Xi 的变动能够确确实实引起 Y 的变动, 那么 βi 应该不等于0。换句话说,若可以验证 βi 不为0,那么就可以证明XiY 存在线性相关关系

    【注1】 这里的关系是线性的。二次即更高阶的相关性并不能由 βi 是否等于0体现;
    【注2】 XiY 存在相关关系,并不能证明二者之间存在 因果关系(Causality)

    然而,我们现在只有 βi 的估计量 β^OLS,i ,而估计量与参数的真实值有一定的误差。由于 β^OLS,i 是一个统计量,因此只要我们在统计意义下验证 βi 是否等于零就可以了。

    至此,我们就可以构造一个如下的假设检验问题:

    H0:βi=0H1:βi0 H_0: \beta_i=0 \\ H_1: \beta_i\ne0

    2.2 检验统计量——t统计量的构造

    若想构造检验统计量,我们需要先对 β^OLS,i 进行变型。

    记矩阵 (XTX)-1 的对角线元素:

    diag(XTX)1=(vi,i)p+1 \text{diag}(\bm{X}^T \bm{X} )^{-1} = (v_{i,i})_{p+1}

    由第一部分中 β^OLS 服从的分布,我们可以得到 β^OLS,i 的分布:

    β^OLS,iN(βi,σ2vi,i), i=0,1,...,p \hat\beta_{OLS, i} \thicksim N(\beta_i, \sigma^2 v_{i,i}) , \ i=0, 1,...,p

    β^OLS 标准化,有:
    β^OLS,iβiσvi,iN(0,1), i=0,1,...,p \frac {\hat\beta_{OLS,i} - \beta_i}{ \sigma \sqrt{v_{i,i}} } \thicksim N(0, 1) , \ i=0, 1,...,p

    然而,此时总体标准差σ 为未知参数,因此需要用样本标准差 σ^ 来代替。由于 σ^2OLS 有分布:

    (NP1)σ^OLS2σ2χNp12 \frac {(N-P-1) \hat \sigma _{OLS}^2} {\sigma^2} \thicksim \chi^2_{N-p-1}

    t 分布的定义:
    (Np1)(β^OLS,iβi)σvi,i/(Np1)σ^OLS2σ2=β^OLS,iβiσ^vi,itNp1 \frac {\sqrt{(N-p-1)} (\hat\beta_{OLS,i} - \beta_i ) } { \sigma \sqrt{v_{i,i}} } / \sqrt{\frac {(N-p-1)\hat \sigma _{OLS}^2} {\sigma^2} } \\ =\frac {\hat\beta_{OLS,i} - \beta_i}{\hat \sigma \sqrt{v_{i,i}} } \thicksim t_{N-p-1}
    若原假设 H0 成立,即 βi = 0,可以定义 t 统计量(又称 t 值):
    t=β^OLS,iσ^vi,itNp1 t= \frac {\hat\beta_{OLS,i}}{\hat \sigma \sqrt{v_{i,i}} } \thicksim t_{N-p-1}

    并称上式分母项β^OLS,i标准误(Standard Error, SE)

    t 统计量的定义式可以看出,t绝对值越大β^OLS,i 越不等于0原假设越有可能出错我们越应该拒绝原假设

    注1t 值的几何意义为 β^OLS,i 偏离其标准误的单位数
    注2:当N足够大时,t 统计量近似服从标准正态分布,因此可以使用标准正态分布进行替代。关于 t 分布与正态分布的关系,可参考文献[1] t分布收敛于标准正态分布的几种证明方法
    注3:关于t分布与t检验相关的更多知识,可参考文献[2] 我懒得找了

    2.3 拒绝域的构造

    然而,t 统计量多大算大呢?多大我们才应该拒绝原假设呢?

    假设原假设 H0 正确,根据 t 统计量所对应的分布,在给定某一概率 1-α(我们称其为置信水平Confidence Level))的前提下,t 统计量应该满足:
    P{t>tα2,Np1}<α P\{ |t| >t_{\frac{\alpha}{2}, N-p-1} \}< \alpha

    其中,tα/2,N-p-1tN-p-1 分布的 α/2 分位数,可以通过计算机软件或者查 t 分布分布表的方式得到。

    在判断原假设是否成立时,我们可以基于一个原则:小概率事件在一次试验中几乎不会发生。若 α 足够小,比如规定为常用的0.05,那么在 H0 正确的前提下t 统计量的绝对值大于 t0.025,N-p-1 的概率不超过5%。换言之,或者说 |t| > t0.025,N-p-1,我们就有足够的理由去认为原假设不正确,从而拒绝原假设。

    基于这种思想,我们可以构造出一个区域(称为拒绝域(Rejection Field)):
    (,tα2,Np1)  (tα2,Np1,+) (-\infin,-t_{\frac{\alpha}{2}, N-p-1}) \ \cup \ (t_{\frac{\alpha}{2}, N-p-1}, +\infin)

    显著性水平检验
    图1 t检验拒绝域构造示意图(阴影部分即为对应显著性水平下的拒绝域。图片来源:百度图片

    t 统计量落入这个区域时,我们都应该拒绝原假设H0,并认为 βi 不等于0,自变量 Xi 与因变量 Y 存在统计意义下显著的线性相关关系Statistically Significant Linear Correlation)。

    注1:拒绝域,顾名思义,即若t值落入这个区间就应该拒绝原假设H0
    注2:在应用时,我们可以记住一句口诀:t值(的绝对值)越大越拒绝

    2.4 浅谈p值

    此外,许多统计软件在回归的结果中会给出参数估计量所对应的p值(p-value)。p值的意义是:拒绝原假设所需要的最小置信度。什么意思呢?就是说,如果给出的p值小于你需要的置信度 α ,那么我们就应该拒绝原假设。也就是说,若:
    p-value<α \text{p-value}<\alpha

    我们应拒绝原假设H0,并认为 βi 不等于0,自变量 Xi 与因变量 Y 存在统计意义下显著的线性相关关系

    注1:与t值正好相反,在应用时,我们可以说:p值越小越拒绝
    注2:使用p值而不使用t值的好处是:p值不依赖于样本容量 N,不用查分布表,使用起来更加简单方便 。


    3. 回归方程显著性检验——F检验

    3.1 问题的提出

    在上一章的t检验中,我们对单一变量进行了显著性影响的评判。然而,这样做的一个缺点是:我们只判断了某一个解释变量对因变量单独的影响,而忽略了各解释变量对因变量的“共同作用”。若每一个变量单独与因变量不具有显著的线性关系,那么是不是模型本身就不能用了呢?未必。换句话说,只有模型中引入的解释变量 X1, …, Xp 均不能解释因变量Y,那么我们所建立的模型才能说是没有意义的。因此,我们需要对模型整体进行检验。与t检验类似,我们可以构造如下的假设检验问题:
    H0:β1=β2=...=βp=0H1: i{1,2,...,p},s.t. βi0 H_0: \beta_1 = \beta_2 = ... = \beta_p =0 \\ H_1: \exist \ i \in \{1,2,...,p\}, s.t. \ \beta_i\ne0

    β0 不能放入检验变量中,因为现在需要检验的是 XY 的线性关系,而不是Y 是否等于0这一问题。

    3.2 F检验统计量的构造

    我们应该如何构建检验统计量呢?让我们重新考察原模型:
    yi=β0+j=1pxijβj+ϵi y_i= \beta_0 + \sum_{j=1}^{p} x_{ij} \beta_j + \epsilon_i

    然而,若原假设H0成立,那么模型将会退化为
    y=β0+ϵi y = \beta_0 + \epsilon_i

    因此,假设回归方程是显著的(即H0不成立),那么由回归方程所拟合的因变量 y^i 应该有较大的方差,而其残差项所对应的方差应该较小,这是因为不同的解释变量 xi 应该对应不同的被解释变量 yi ;若回归方程不显著(H0成立),那么此时回归方程所拟合的变量 y^i 方差应该几乎为零,而其残差项 y^i - yi 则应具有较大的方差

    我们定义回归方程的可解释平方和Explained Sum of Square,ESS)为:
    ESS=i=1N(y^iy^ˉ)2=i=1N(y^iyˉ)2 ESS = \sum_{i=1} ^N(\hat{y}_i - \bar{\hat{y}} )^2 = \sum_{i=1} ^N(\hat{y}_i - \bar{y} )^2

    回归的残差平方和Residual Sum of Square,RSS)为:

    RSS=i=1N(y^iyi)2 RSS = \sum_{i=1} ^N(\hat{y}_i - y_i )^2

    根据上述的分析,如果可解释平方(ESS)和与残差平方和(RSS)之比越大,则说明 XY 整体的影响越显著;若原假设H0成立,则ESS与RSS的比值应该接近于0

    而容易证明,ESS与RSS分别服从卡方分布:
    ESSpχp2 \frac{ESS}{p} \thicksim \chi^2_{p} RSSNp1χNp12 \frac{RSS}{N-p-1} \thicksim \chi^2_{N-p-1}

    :这部分证明将会在未来补充在附录中。

    至此,我们可以构造F统计量:
    F=ESS/pRSS/Np1F(p,Np1) F = \frac{ESS/p}{RSS/N-p-1} \thicksim F(p, N-p-1)

    从F统计量的够造上来看,F统计量越大,说明 XY 存在的影响更大,原假设越可能被拒绝;而F统计量越接近零,说明 XY 存在的影响越小,原假设越可能成立。

    注1:从F统计量的构造上来看,F取值非负(平方和与平方和的比值);
    注2:在应用过程中,可以记住口诀:F越大越拒绝
    注3:有关F分布与F检验更多的相关知识,请有关参考文献[3] 我还是懒得找了

    3.3 拒绝域的构造

    t 统计量拒绝域构造方法类似,在给定置信水平 1 - α 的前提下,F 统计量应该满足:
    P{F>Fα(p,Np1)}<α P\{ F > F_{\alpha} (p, N-p-1) \}< \alpha

    其中,Fα(p, N - p - 1) 是 F(p, N - p - 1) 分布的 α 分位数,可以通过计算机软件或者查 F 分布分布表的方式得到。

    :与 t 统计量的双尾检验区间不同的是,F 检验为单尾检验。

    我们依然依照“小概率事件在一次试验中不会发生”的原则:在 H0 正确的前提下F 统计量大于 Fα(p, N - p - 1) 的概率不超过 α。换言之,F > Fα(p, N - p - 1),我们就有足够的理由去认为原假设不正确,从而拒绝原假设

    基于这种思想,我们可以构造拒绝域
    (Fα(p,Np1),+) (F_\alpha(p, N-p-1), +\infin)
    F分布拒绝域示意图
    图2 F检验拒绝域构造示意图(阴影部分即为对应显著性水平下的拒绝域。图片来源:百度图片

    F 统计量落入拒绝域内时,我们应该拒绝原假设H0,从而认为模型是显著的,或者说解释变量 X 与被解释变量 Y 之间存在显著的线性相关关系


    4. 总结

    在这篇文章中,我们分别研究了单变量的显著性检验模型的显著性检验

    (1)在单变量检验中,我们构造了假设检验问题:
    H0:βi=0H1:βi0 H_0: \beta_i=0 \\ H_1: \beta_i\ne0

    构造了检验统计量—— t 统计量:
    t=β^OLS,iSE(β^OLS,i)t(Np1) t= \frac {\hat\beta_{OLS,i}}{SE(\hat \beta_{OLS,i})}\thicksim t(N-p-1)

    并给出了拒绝域:
    (,tα2(Np1))  (tα2(Np1),+) (-\infin,-t_\frac{\alpha}{2}(N-p-1)) \ \cup \ (t_\frac{\alpha}{2}(N-p-1), +\infin)
    (2)在模型检验中,我们构造了假设检验问题:
    H0:β1=β2=...=βp=0H1: i{1,2,...,p},s.t. βi0 H_0: \beta_1 = \beta_2 = ... = \beta_p =0 \\ H_1: \exist \ i \in \{1,2,...,p\}, s.t. \ \beta_i\ne0

    构造了检验统计量—— F 统计量:
    F=ESS/pRSS/Np1F(p,Np1) F = \frac{ESS/p}{RSS/N-p-1} \thicksim F(p, N-p-1)

    并给出了拒绝域:
    (Fα(p,Np1),+) (F_\alpha(p, N-p-1), +\infin)
    至此,我们解决了如何验证各个解释变量对因变量是否存在显著的线性影响,以及模型中涉及到的解释变量总体是否对因变量是否存在显著的线性影响。


    参考文献

    [1] t分布收敛于标准正态分布的几种证明方法


    写在最后

    欢迎感兴趣的小伙伴来跟作者一起挑刺儿~ 包括但不限于语言上的、排版上的和内容上的不足和疏漏~ 一起进步呀!
    有任何问题,欢迎在本文下方留言,或者将问题发送至勘误邮箱: mikeysun_bugfix@163.com
    谢谢大家!

    展开全文
  • 为了确定多项式法探测周跳时的拟合阶数,将回归模型显著性检验引入多项式阶数的确定,在适当的显著性水平下,采用线性假设检验方法,回归模型估计参数进行假设检验。结果表明:多项式法探测周跳时拟合阶数随着采样间隔...
  • 显著性检验

    2019-10-09 02:46:48
    显著性检验(significance test)就是事先总体(随机变量)的参数或总体分布形式做出一个假设,然后利用样本信息来判断这个假设(备择假设)是否合理,即判断总体的真实情况与原假设是否有显著性差异。或者说,...

    显著性检验(significance test)就是事先对总体(随机变量)的参数或总体分布形式做出一个假设,然后利用样本信息来判断这个假设(备择假设)是否合理,即判断总体的真实情况与原假设是否有显著性差异。或者说,显著性检验要判断样本与我们对总体所做的假设之间的差异是纯属机会变异,还是由我们所做的假设与总体真实情况之间不一致所引起的。 显著性检验是针对我们对总体所做的假设做检验,其原理就是“小概率事件实际不可能性原理”来接受或否定假设。显著性水平代表的意义是在一次试验中小概率事物发生的可能性大小。

    检验“无效假设”成立的机率水平一般定为5%,其含义是将同一实验重复100次,两者结果间的差异有5次以上是由抽样误差造成的,则“无效假设”成立,可认为两组间的差异为不显著,常记为p>0.05。若两者结果间的差异5次以下是由抽样误差造成的,则“无效假设”不成立,可认为两组间的差异为显著,常记为p≤0.05。如果p≤0.01,则认为两组间的差异为非常显著。

    显著性检验即用于实验处理组与对照组或两种不同处理的效应之间是否有差异,以及这种差异是否显著的方法。

    常把一个要检验的假设记作H0,称为原假设(或零假设) (null hypothesis) ,与H0对立的假设记作H1,称为备择假设(alternative hypothesis) 。

    ⑴ 在原假设为真时,决定放弃原假设,称为第一类错误,其出现的概率通常记作α;

    ⑵ 在原假设不真时,决定不放弃原假设,称为第二类错误,其出现的概率通常记作β。

    通常只限定犯第一类错误的最大概率α, 不考虑犯第二类错误的概率β。这样的假设检验又称为显著性检验,概率α称为显著性水平。

    最常用的α值为0.01、0.05、0.10等。一般情况下,根据研究的问题,如果放弃真假设损失大,为减少这类错误,α取值小些 ,反之,α取值大些。

    常用显著性检验

    1.t检验

    适用于计量资料、正态分布、方差具有齐性的两组间小样本比较。包括配对资料间、样本与均数间、两样本均数间比较三种,三者的计算公式不能混淆。

    T检验,亦称student t检验(Student's t test),主要用于样本含量较小(例如n<30),总体标准差σ未知的正态分布资料。

    t检验是用t分布理论来推论差异发生的概率,从而比较两个平均数的差异是否显著。

    在进行t检验时,如果其目的在于检验两个总体均数是否相等,即为双侧检验,如果假设是两个总体均数的大于或者小于的相对关系,则为单侧检验。

    t检验分为单总体检验和双总体检验。单总体t检验是检验一个样本平均数与一个已知的总体平均数的差异是否显著。当总体分布是正态分布,如总体标准差未知且样本容量小于30,那么样本平均数与总体平均数的离差统计量呈t分布。双总体t检验是检验两个样本平均数与其各自所代表的总体的差异是否显著。双总体t检验又分为两种情况,一是独立样本t检验,一是配对样本t检验。

    注:

    a. 选用的检验方法必须符合其适用条件(注意:t检验的前提是资料服从正态分布) 。理论上,即使样本量很小时,也可以进行t检验。(如样本量为10,一些学者声称甚至更小的样本也行),只要每组中变量呈正态分布,两组方差不会明显不同。如上所述,可以通过观察数据的分布或进行正态性检验估计数据的正态假设。方差齐性的假设可进行F检验,或进行更有效的Levene's检验。如果不满足这些条件,可以采用校正的t检验,或者换用非参数检验代替t检验进行两组间均值的比较。

    b. 区分单侧检验和双侧检验。单侧检验的界值小于双侧检验的界值,因此更容易拒绝,犯第Ⅰ错误的可能性大。t检验中的p值是接受两均值存在差异这个假设可能犯错的概率。在统计学上,当两组观察对象总体中的确不存在差别时,这个概率与我们拒绝了该假设有关。一些学者认为如果差异具有特定的方向性,我们只要考虑单侧概率分布,将所得到t-检验的P值分为两半。另一些学者则认为无论何种情况下都要报告标准的双侧t检验概率。

    c. 假设检验的结论不能绝对化。当一个统计量的值落在临界域内,这个统计量是统计上显著的,这时拒绝虚拟假设。当一个统计量的值落在接受域中,这个检验是统计上不显著的,这是不拒绝虚拟假设H0。因为,其不显著结果的原因有可能是样本数量不够拒绝H0 ,有可能犯第Ⅰ类错误。

    d. 正确理解P值与差别有无统计学意义。P越小,不是说明实际差别越大,而是说越有理由拒绝H0 ,越有理由说明两者有差异,差别有无统计学意义和有无专业上的实际意义并不完全相同。

    e. 假设检验和可信区间的关系结论具有一致性差异:提供的信息不同区间估计给出总体均值可能取值范围,但不给出确切的概率值,假设检验可以给出H0成立与否的概率。

    f. 涉及多组间比较时,慎用t检验。

    科研实践中,经常需要进行两组以上比较,或含有多个自变量并控制各个自变量单独效应后的各组间的比较,(如性别、药物类型与剂量),此时,需要用方差分析进行数据分析,方差分析被认为是T检验的推广。在较为复杂的设计时,方差分析具有许多t-检验所不具备的优点。(进行多次的T检验进行比较设计中不同格子均值时)。

    2.t'检验

    应用条件与t检验大致相同,但t′检验用于两组间方差不齐时,t′检验的计算公式实际上是方差不齐时t检验的校正公式。

    3.U检验

    应用条件与t检验基本一致,只是当大样本时用U检验,而小样本时则用t检验,t检验可以代替U检验。

    4.方差分析

    用于正态分布、方差齐性的多组间计量比较。常见的有单因素分组的多样本均数比较及双因素分组的多个样本均数的比较,方差分析首先是比较各组间总的差异,如总差异有显著性,再进行组间的两两比较,组间比较用q检验或LST检验等。

    5.X2检验

    是计数资料主要的显著性检验方法。用于两个或多个百分比(率)的比较。常见以下几种情况:四格表资料、配对资料、多于2行*2列资料及组内分组X2检验。

    6.零反应检验

    用于计数资料。是当实验组或对照组中出现概率为0或100%时,X2检验的一种特殊形式。属于直接概率计算法。

    7.符号检验、秩和检验和Ridit检验

    三者均属非参数统计方法,共同特点是简便、快捷、实用。可用于各种非正态分布的资料、未知分布资料及半定量资料的分析。其主要缺点是容易丢失数据中包含的信息。所以凡是正态分布或可通过数据转换成正态分布者尽量不用这些方法。

    8.Hotelling检验

    用于计量资料、正态分布、两组间多项指标的综合差异显著性检验。

    9.F检验

    F检验又叫方差齐性检验。在两样本t检验中要用到F检验。

    从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采用t'检验或变量变换或秩和检验等方法。其中要判断两总体方差是否相等,就可以用F检验。

    简单的说就是检验两个样本的方差是否有显著性差异,这是选择何种T检验(等方差双样本检验,异方差双样本检验)的前提条件。

    F检验法是英国统计学家Fisher提出的,主要通过比较两组数据的方差 S^2,以确定他们的精密度是否有显著性差异。至于两组数据之间是否存在系统误差,则在进行F检验并确定它们的精密度没有显著性差异之后,再进行t检验。

    注:

    多元线性回归分析中,F检验主要是检验因变量同多个自变量的整体线性关系是否显著,在k个自变量中,只要有一个自变量同因变量的线性关系显著,t检验则是对每个回归系数分别进行单独的检验,以判断每个自变量对因变量的影响是否显著。

    在建立多元线性回归模型时,t检验是用于检验回归方程各个参数是否显著为0的单一检验,F检验是检查所有解释变量的系数是否同时为0的单一检验,F检验是检验所有解释变量的系数是否同时为0的联合检验。

    t统计量与F统计量的构造原理及其概率分布都是不一致的,前者直接考虑参数的估计量是否“足够”接近于0,服从t分布;后者则是从总离差平方和分解式出发,以回归平方与残差平方和的比值来推断解释变量整体对被解释变量的线性影响是否显著,服从F分布。因此,就一般而言,t检验与F检验不能相互替代。但当解释变量之间两两线性无关时,可以借助一个检验推断另一个检验的结果,即若所有解释变量均通过t检验,那么回归方程也能通过F检验。(参考:http://wenku.baidu.com/link?url=owemT9BvQyxjvGvYWXT2CD_0p4C8d_mqNV26k5BZXoZvMyNnAL0fiOuTCkCIKPjbwBZEFSdTFb2FF4oWVFcBcacfZu6P0R_5lnfYG4cHZaq

    转载于:https://www.cnblogs.com/guo-xiang/p/5775886.html

    展开全文
  • 统计假设检验之显著性检验(significance test)

    千次阅读 多人点赞 2019-07-14 17:52:03
    转载于 关于显著性检验,你想要的都在这儿了!!(基础篇) 无论你从事何种领域的科学研究还是统计调查,显著性检验作为判断两个乃至多个数据集之间是否存在差异的方法被广泛应用于各个科研领域。笔者作为科研界...

    转载于 关于显著性检验,你想要的都在这儿了!!(基础篇)


    无论你从事何种领域的科学研究还是统计调查,显著性检验作为判断两个乃至多个数据集之间是否存在差异的方法被广泛应用于各个科研领域。笔者作为科研界一名新人也曾经在显著性检验方面吃过许多苦头。后来醉心于统计理论半载有余才摸到显著性检验的皮毛,也为显著性检验理论之精妙,品种之繁多,逻辑之严谨所折服。在此,特写下这篇博文,以供那些仍然挣扎在显著性检验泥潭的非统计专业的科研界同僚们参考。由于笔者本人也并非统计专业毕业,所持观点粗陋浅鄙,贻笑大方之处还望诸位业界前辈,领域翘楚不吝赐教。小可在此谢过诸位看官了。
    本篇博文致力于解决一下几点问题,在此罗列出来:
    1.什么是显著性检验?
    2.为什么要做显著性检验?
    3.怎么做显著性检验?

    下面就请跟随笔者的步伐一步步走入显著性检验的“前世与今生”。


    一、显著性检验前传:什么是显著性检验?它与统计假设检验有什么关系?为什么要做显著性检验?

    “显著性检验”实际上是英文 significance test 的汉语译名。在统计学中,显著性检验是“统计假设检验”(Statistical hypothesis testing)的一种,显著性检验是用于检测科学实验中实验组与对照组之间是否有差异以及差异是否显著的办法,也是为了突出实验组效果比对照组效果明显,否则的话也便没有什么意义可言。实际上,了解显著性检验的“宗门背景”(统计假设检验)更有助于一个科研新手理解显著性检验。“统计假设检验”这一正名实际上指出了“显著性检验”的前提条件是“统计假设”,换言之“无假设,不检验”。任何人在使用显著性检验之前必须在心里明白自己的科研假设是什么,否则显著性检验就是“水中月,镜中花”,可望而不可即。用更通俗的话来说就是要先对科研数据做一个假设,然后用检验来检查假设对不对。一般而言,把要检验的假设称之为原假设,记为H0;把与H0相对应(相反)的假设称之为备择假设,记为H1。
    如果原假设为真,而检验的结论却劝你放弃原假设。此时,我们把这种错误称之为第一类错误。通常把第一类错误出现的概率记为α
    如果原假设不真,而检验的结论却劝你不放弃原假设。此时,我们把这种错误称之为第二类错误。通常把第二类错误出现的概率记为β
    通常只限定犯第一类错误的最大概率α, 不考虑犯第二类错误的概率β。我们把这样的假设检验称为显著性检验,概率α称为显著性水平。 显著性水平是数学界约定俗成的,一般有α =0.05,0.025.0.01这三种情况。代表着显著性检验的结论错误率必须低于5%或2.5%或1%(统计学中,通常把在现实世界中发生几率小于5%的事件称之为“不可能事件”)。以上这一段话实际上讲授了显著性检验与统计假设检验的关系。

    为了方便接下来的讲授,这里举一个例子。赵先生开了一家日用百货公司,该公司分别在郑州和杭州开设了分公司。现在存在下列数据作为两个分公司的销售额,集合中的每一个数代表着一年中某一个月的公司销售额。
    郑州分公司Z = {23,25,26,27,23,24,22,23,25,29,30}
    杭州分公司H = {24,25,23,26,27,25,25,28,30,31,29}
    现在,赵先生想要知道两个公司的销售额是否有存在明显的差异(是否存在郑州分公司销售额>杭州分公司销售额,抑或反之),以便对接下来公司的战略业务调整做出规划。下属们知道赵老板的难处,纷纷建议“只需要求平均值就知道哪个分公司的销售额更大了”。但是作为拥有高学历的赵先生懂得这样一件哲学即“我们生活在概率的世界之中”。那也就意味着,平均值并不能够说明什么问题,即便杭州分公司的销售额平均值大于郑州分公司的销售额平均值仍然不能说明杭州分公司的销售额一定就大于郑州分公司的销售额,因为“这样一种看似存在的大于关系实质上是偶然造成的而并不是一种必然”。这也便是做显著性检验的意义所在。
    赵先生最终决定,使用方差验检查这两个数据。(请先忽略为什么用方差检验,检验方法的选择下文中会详述)
    最后赵先生发现,方差检验的p 值= 0.2027,那也就意味着,虽然杭州分公司的年平均销售额26.63大于郑州分公司的销售额25.18,但是实质上,两个分公司的销售额并没有明显的差异。(相信此时的你心中有万千草泥马奔过:方差检验是怎么做的?p值是什么鬼?为什么p=0.2027意味着销售额没有明显差异?信息量好大肿么办?)

    不要急,不要慌,让我们从头来过,整理一下赵先生这里究竟发生了什么。这里很有必要了解一下根植于赵先生思维里的“慢动作”。
    第一点:如上文所述的一样,“无假设,不检验”,赵先生做了什么样的假设(Hypothesis)?
    由于赵先生想要知道两个公司的销售额是否有存在明显的差异 ,所以他的假设就是“样本集Z(郑州分公司)和样本集H(杭州分公司)不存在显著性差异,换言之这两个集合没有任何区别(销售额间没有区别)!”这就是赵先生的假设。那么问题来了,为什么赵先生要假设这两个样本集之间不存在任何区别,而不是假设这两个样本集存在区别。因为这个假设(Hypothesis)正是方差检验的原假设(null hypothesis)。那么问题又来了,什么是原假设。所谓原假设是数学界为了方便讨论而默认的“原始的假设”。没有什么为甚么可言,约定俗成罢了。
    第二点:p值怎么回事?
    这里并不用管p值是怎样得到的,直接给出结论。在显著性水平α =0.05的情况下,p>0.05接受原假设,p值<0.05拒绝原假设。我们的原假设是样本集Z和样本集H间不存在显著性差异,但是由于p=0.2027>0.05,所以接受原假设,即样本集Z和样本集H间不存在显著性差异。当然有接受就有拒接,如果这里的p值小于0.05,那么就要拒绝原假设,即集合Z和集合H间存在显著性差异。
    第三点:怎么做方差检验以及为何做方差检验之后再细讲,这里暂且不表。

    在这一章节的最后,给出本章的两个问题的答案,相信你现在已经可以理解:
    1、什么是统计假设检验?
    所谓统计假设检验就是事先对总体(随机变量)的参数或总体分布形式做出一个假设,然后利用样本信息来判断这个假设是否合理。而把只限定第一类错误概率的统计假设检验就称之为显著性检验。 在上例中,我们的假设就是一种显著性检验。因为方差检验不适用于估计参数和估计总体分布,而是用于检验试验的两个组间是否有差异。而方差检验正是用于检测我们所关心的是这两个集合(两个分布)的均值是否存在差异。
    2、为什么要做显著性检验?
    因为我们想要判断样本与我们对总体所做的假设之间的差异是纯属机会变异,还是由我们所做的假设与总体真实情况之间不一致所引起的。 在我们的例子中,差异就是H的均值要高于Z的均值,但是最终的结论p>0.05证明,这个差异纯属机会变异(H均值>Z均值是偶然的,当H和Z的采样点数趋于无穷多时,H的均值会趋近等于Z的均值)而不是假设与真实情况不一致。如果p值<0.05,那么也就意味着我们的假设(H集合和Z集合没差别)与真实情况不一致,这就使得假设不成立,即H集合和Z集合有差别。


    二、怎么做显著性检验?(基于MATLAB)

    显著性检验可以分为参数检验非参数检验。参数检验要求样本来源于正态总体(服从正态分布),且这些正态总体拥有相同的方差,在这样的基本假定(正态性假定方差齐性假定)下检验各总体均值是否相等,属于参数检验。

    当数据不满足正态性和方差齐性假定时,参数检验可能会给出错误的答案,此时应采用基于秩的非参数检验。

    2.1 参数检验(方差分析)

    参数检验的方法及其相应知识点的解释,这里只给出参数检验中常见的方差分析(anova)

    方差分析主要分为①单因素一元方差分析;②双因素一元方差分析 ; ③多因素一元方差分析 ; ④单因素多元方差分析 。下面一节对各种方差分析的实现方法进行介绍。但在介绍之前,我要首先“剧透”一下两个重要的点,理解这些点有助于区别不同类型的方差分析。
    什么叫做因素,什么叫做元?
    先解释一下什么叫做"元"。我假定正在看这篇博文的人一定具有小学以上文化水平,那么想必你一定对“一元二次方程”“二元一次方程”“多元一次方程”这种概念不陌生。所谓的“元”,正是指未知变量的个数。在统计假设检验中,仍然把待检验的未知变量称之为“元”而把影响未知变量的行为(事件)称之为“因素”。有过机器学习基础的同学可以把“元”和“因素”分别理解成机器学习中的“特征个数”和“标签个数”。拥有多个特征便是“多元”,而拥有多个标签便是“多因素”。

    2.1.1 单因素一元方差分析的方法和案例:

    相关MATLAB函数:
    函数一:anova1( X, Group, displayopt)
    参数解释:在第一种用法中,X是一个n行1列的数组,Group也是一个n行1列的数组。X为待检验的样本集,这个样本集中包括若干个对照组和实验组的全部数据。那么机器怎么知道哪个数据属于哪个组呢?很简单,通过Group这个列向量一一对应指明即可。一下这个例子来自于MATLAB的help文档,在这里用于实例说明:
    假定现在有三组数据
    组一(st):82 86 79 83 84 85 86 87
    组二(al1):74 82 78 75 76 77
    组三(al2):79 79 77 78 82 79
    现在需要对这三组数据做方差检验,使用anova1函数的方法如下
    1.首先将所有的数据放在同一个数组strength中:

    >> strength = [82 86 79 83 84 85 86 87 74 82 78 75 76 77 79 79 77 78 82 79];
    

    2.设置对应与strength对应位置的标签为alloy:

    >> alloy = {'st','st','st','st','st','st','st','st','al1','al1','al1','al1','al1','al1','al2','al2','al2','al2','al2','al2'};
    

    3.调用anova1函数

    >> p = anova1(strength,alloy)
    

    最终得到的结果会是一个数值和两幅图,一个值是p值。p值得看法在上文已经介绍过,这里不再细细的介绍。在本例中,p的值如下
    p =1.5264e-004
    显然,从p值看,三组值之间存在显著性差异。有一点必须提一下:这里p存在显著性差异并不意味着三组之间两两都存在显著性差异,而只是说明显著性差异在这三组之间存在。
    第一幅图是一张表,这张表被称之为ANOVA (Analysis of Variance) 表。相信许多非统计专业的同学见到ANOVA表的一瞬间是崩溃的,一堆问题奔涌而出:
    Source是什么鬼?SS是什么鬼,df是什么鬼,MS是什么鬼,F是什么鬼,Prob>F是什么鬼,etc.
    这里为了解决“什么鬼”的问题,对这张表给出详细的解释:

    Source表示方差来源(谁的方差),这里的方差来源包括Groups(组间),Error(组内),Total(总计);
    SS(Sum of squares)表示平方和
    df(Degree of freedom)表示自由度
    MS(Mean squares)表示均方差
    F表示F值(F统计量),F值等于组间均方和组内均方的比值,它反映的是随机误差作用的大小。
    Prob>F表示p值
    这里需要引出两个小问题:第一个小问题是F值怎么使用,第二个小问题是p值和F值的关系是什么?
    率先普及一下p值和F值之间的关系:
    F实际值>F查表值,则p<=0.05
    F实际值<F查表值,则p>0.05
    不难看出F值在本例中等于15.4,它正是组间方差92.4和组内方差6的比值。查F分布表(下图)

    根据 n=19( Total 的df),m=2(Groups的df)
    可得F0.05( m, n-m-1) = F0.05( 2, 16) = 3.634。F实际值15.4>F查表值3.634,所以可以判定显著性差异存在,且p值小于0.05
    以上讲述了如何仅仅使用F值判断显著性差异的方法并讲述了F值同p值之间的关系。

    这里有必要提一下anova1函数中的参数displayopt 的作用。在大规模的anova1调用中(例如把anova1放在for循环中反复调用),需要把displayopt设置为’off’,否则anova1每调用一次就会绘制两幅图,这样会迅速的耗费计算机的内存,容易造成程序崩溃。
    除了上文中介绍的第一种调用anova1的方式,还有一种方式用于均衡的方差分析所谓均衡就是要求不同的组别内的统计数据个数必须相同。在上例中出现的各个组的统计个数分别为{8,6,6}就属于非均衡。在均衡状态下,每个组的数据单独构成X中的一列,这样便可以省略参数Group,调用方式就可以简化为anova1(X)

    在上文中,我们提到过。方差分析必须满足两条假设,分别是正态性假定和方差齐性假定。因此,在一个完整的统计工程中,必须首先检测数据的正态性假定和方差齐性假定,这就涉及到另外两个函数 lillietest 正态检验函数(这正是我们上文提到的分布假设检验而不是参数检验,它检验的目标是数据集服从何种分布)和 vartestn 方差齐性检验(这正是我们上文提到的参数检验而不是分布假设检验 ,它检测的目标是数据集的分布服从什么样的参数,这里就是方差)

    函数二:lillietest(X)

    >> [h,p] = lillietest (strength(1:8))
    h =
         0
    p =
        0.5000
    

    解释:h = 0可以认为数据服从正态分布,h=1则认为不服从正态分布
    p >0.05可以认为接受原假设h = 0,则数据服从正态分布

    >> [h,p] = lillietest (strength(9:14))
    h =
         0
    p =
        0.5000
    >> [h,p] = lillietest (strength(15:20))
    h =
         0
    p =
        0.5000
    

    可以得出结论,strength中三组数都服从正态分布

    函数三:vartestn(X, Group)

    >> p = vartestn(strength,alloy,'off')
    p
    =0.5142
    

    注意:X和Group必须是列向量,否则会报错
    p>0.05则说明X中的不同Group是齐次的,也就是方差性齐。

    2.1.2 双因素一元方差分析的方法和案例:

    正如上文所述,既然是双因素,那便是有多个标签了。因此双因素一元方差分析可以理解成“单特征双标签机器学习技术”。由于双因素一元方差分析要求数据是均衡的,所以它的标签可以省略,就如同上文中介绍的anova1的第二种使用方法一样。这里的例子引用于MATLAB的anova2的help文档,用于说明anova2的使用方法。
    这里有一批爆米花数据,现在我们知道这些爆米花的质量打分同两个因素相关,一个是爆米花的品牌(有三个品牌:Gourmet,National,Generic)另一个是爆米花的制作工艺(油炸,气压)。这些数据如下所述:

    brand Gourmet National Generic
    methods
    油炸 5.5000 4.5000 3.5000
    油炸 5.5000 4.5000 4.0000
    油炸 6.0000 4.0000 3.0000
    气压 6.5000 5.0000 4.0000
    气压 7.0000 5.5000 5.0000
    气压 7.0000 5.0000 4.5000

    现在需要了解的目标有三个,第一:列和列之间是否有显著性差异(品牌间的显著性差异),原假设是显著性差异不存在;第二:行与行之间是否存在显著性差异,原假设是显著性差异不存在 ;第三:品牌和方法之间的交互作用是否明显,原假设是交互作用不明显
    为了完成以上三个问题,所以特别引入anova2函数,anova2函数的参数如下:
    p = anova2( X, reps, displayopt)
    X即为待检验数组。其中,X的每列一代表一种因素,X的每若干行代表另一种因素,这里的若干使用reps指明。displayopt同anova1一样,这里不再详述。anova2的返回是一值一幅图。下面是具体的MATLAB方法:

    >> popcorn =[
      5.5000  4.5000  3.5000
      5.5000  4.5000  4.0000
      6.0000  4.0000  3.0000
      6.5000  5.0000  4.0000
      7.0000  5.5000  5.0000
      7.0000  5.0000  4.5000];
     
    >> [p,table,stats] = anova2(popcorn,3)
     
    p =
        0.0000    0.0001    0.7462
    

    解释:p(1) = 0.0000, 推翻原假设,所以列与列之间的显著性差异存在(品牌间存在显著性差异);p(2) = 0.0001,推翻原假设,所以行与行之间的显著性差异存在(方法间的显著性差异存在);p(3) = 0.7462,保留原假设,则品牌和方法间的交互作用不明显。
    图表中的Columns代表列,Rows代表行,Interaction代表交互作用,其他的与我们在anova2中讲述的完全相同,这里也不再详细分析。

    2.1.3 多因素一元方差分析的方法和案例:

    p = anovan(X, Group, Opt)
    其中,X代表着待检验数据;Group代表着X的因素,由于是多因素,所以Group是多个列组成的。Opt可以选择为’model’,model后面可以填写’full’和’interaction’。
    比如因素有三个x,y,z,那么如果model为interaction,计算结果会包括x的显著性,y的显著性,z的显著性,xy,xz,yz的交互影响显著性
    如果model为full,计算结果会包括x的显著性,y的显著性,z的显著性,xy,xz,yz的交互影响显著性以及xyz的交互显著性。

    这里的例子仍然来自于MATLAB的help文档,y是待检验的数据,g1,g2,g3是与y中数据一一对应的3个因素(数据标签)

    y = [52.7 57.5 45.9 44.5 53.0 57.0 45.9 44.0]';
    g1 = [1 2 1 2 1 2 1 2];
    g2 = {'hi';'hi';'lo';'lo';'hi';'hi';'lo';'lo'};
    g3 = {'may';'may';'may';'may';'june';'june';'june';'june'};
    
    
    
    >> p = anovan(y,{g1 g2 g3},'model','interaction')
     
    p =
     
        0.0347
        0.0048
        0.2578
        0.0158
        0.1444
        0.5000
    

    这里有一个使用的小窍门,如果你想做非平衡双因素一元方差分析那么也可以采用多因素一元方差分析函数。

    2.1.4 单因素多元方差分析的方法和案例:

    [d, p] = manova1(X, Group);

    p,X和Group与之前相同。该方差分析的原假设是“各组的组均值是相同的多元向量”这里对d做出解释:
    d=0,接受原假设
    d=1,拒绝原假设,认为各组的组均值不完全相同,但是不能拒绝它们共线的假设。
    d=2,拒绝原假设,各组的组均值向量可能共面,但是不共线。
    四种商品(x1,x2,x3,x4)按照不同的两种销售方式进行销售,数据如下:

    编号 x1 x2 x3 x4 销售方式
    1 125 60 338 210 1
    2 119 80 233 330 1
    3 63 51 260 203 1
    4 65 51 429 150 1
    5 130 65 403 205 1
    6 65 33 480 260 1
    7 100 34 468 295 2
    8 65 63 416 265 2
    9 110 69 377 260 2
    10 88 78 299 360 2
    11 73 63 390 320 2
    12 103 54 416 310 2
    13 64 51 507 320 2

    >> X =
     
       125    60   338   210
       119    80   233   330
        63    51   260   203
        65    51   429   150
       130    65   403   205
        65    33   480   260
       100    34   468   295
        65    63   416   265
       110    69   377   260
        88    78   299   360
        73    63   390   320
       103    54   416   310
        64    51   507   320
    
    
    
    >> Groups =
     
         1
         1
         1
         1
         1
         1
         2
         2
         2
         2
         2
         2
         2
    >> [d, p] = manova1(X, Groups);
     
    d =
     
         0
    p =
     
        0.0695
    

    因此,拒绝原假设,各组的组均值不是相同的多元向量。

    2.2 非参数检验(Kruskal-Wallis检验和Friedman检验):

    到这里,参数检验部分就算是说完了。我们可以回顾一下,参数检验的四种函数分为anova1,anova2,anovan,manova1。他们都基于共同的两个假设:正态性假定和方差齐性假定 ,分别对应着函数 lillietest 和 vartestn。但是,我们在实际工作中,不可能总是遇到满足这两个假定的统计数据,这时候,如果强行采用参数检验就会造成错误。此时,可以采用基于秩和的非参数检验。这里我们介绍两种非参数检验:Kruskal-Wallis检验,Friedman检验。通过参数检验的部分介绍,想必读者已经对显著性检验入门,有些细节这里不再详细介绍,留作有兴趣读者自行查询。这里对分参数检验只做必要介绍。

    2.2.1 Kruskal-Wallis检验

    Kruskal-Wallis检验又被称之为单因素非参数方差分析,是非参数版的anova1。该检验的原假设是:k个独立样本来自于相同的正态总体。其MATLAB函数如下:

    p = kruskalwallis(X,Group)
    

    X,Group,p和参数检验里的完全相同。不再详细介绍。

    2.2.2 Friedman检验

    Friedman检验又被称之为双因素秩方差分析,是非参数版的anova2。同anova2一样,待检验的数据也必须是均衡的。但是需要特别注意的是,Friedman检验和anova2检验不完全相同,anova2同时注意两个因素对待检验数据的影响,但是,Friedman检验只注重2个因素中的其中一个对待检验数据的影响,而另一个因素则是用来区分区组用的。

    如上图所示矩阵X,Friedman检验只关注X的各个列(因素A)水平之间有无显著差异,他对各行之间(因素B,也被称之为区组因素)完全不感兴趣。因此,Friedman检验的原假设是k个独立样本(X的各列)来自于相同的正态总体。至于为何Friedman检验对因素B不感兴趣,这里通过一个例子说明。该例子来源于《MATLAB统计分析与应用40个案例分析》

    有4名美食评委1234对来自于四个地区ABCD的名厨的名菜水煮鱼做出评价打分,数据如下:

    地区 A B C D
    美食评委
    1 85 82 82 79
    2 87 75 86 82
    3 90 81 80 76
    4 80 75 81 75

    现在我们想知道,这四个地方的水煮鱼品质是否相同。

    数据分析:我们的目标是四个地方水煮鱼的品质是否相同。那么同一个评委对四个地区厨师的打分就具有可参考性,而不同地区评委之间对同一个厨师的打分参考性几乎没有(受评委自己的主观意识影响太强)。因此,我们认为四个地区是因素A,而评委是因素B(区组因素),不同区组之间的数据没有可比较性。

    >> X =
     
        85    82    82    79
        87    75    86    82
        90    81    80    76
        80    75    81    75
    
    >> p = friedman(X,1)
    p = 0.0434
    

    因此可以认为,四个地区制作水煮鱼的水平有显著性差别。至于是那两个之间有显著性差别还需要一一比较。

    结语:讲到这里,常见的显著性检验方法就算是讲完了。希望通过这篇博文可以使显著性检验不再成为各位看官的心头大患,不必再谈“检”色变。如果真的可以做到这样,于愿足矣。

    总结一下:

    1、首先,要知道显著性检验是统计假设检验的一种,显著性检验只考虑犯第一类错误的情况,也就是原假设为真的情况下,我们却错误的拒绝它的概率。在机器学习领域中,如两个分类器的分类指标,分别进行了100轮的测试得到的平均准确率分别是70%和72%,单单从平均值的角度并不能得到A比B的分类效果好,因为这有可能是偶然造成的,并不是一种必然的现象,所以为了科学验证,必须对A和B的所有round得到的准确率结果进行显著性检验。

    2、上面讲解了两种显著性检验的方法,一种是参数检验:方差分析(anova),其中包括了四种不同数据情况下的方差分析方法,但是在使用这种参数检验的时候必须满足两个条件:正态性假定和方差齐性假定,也就是说它们应该服从正态分布并且具有相同的方法,所以在使用方差分析的时候,必须先进行正态性检验和方差齐性检验。由于日常的工作中的数据并不是一直满足上面的情况,所以另一种非参数检验也很有必要。非参数检验提到了两种基于秩和检验(rank sum test)的Kruskal-Wallis检验(克鲁斯卡尔-沃利斯检验)和Friedman检验(弗里德曼检验)。

    3、另外区分参数检验和非参数检验的区别也可以看出,一种是对数据的分布有假设,另一种对数据的分布并没有做出任何假设。这类似与机器学习中参数模型和非参数模型的区别

    展开全文
  • 显著性检验理解

    千次阅读 2018-03-12 11:58:33
    https://wenku.baidu.com/view/c16e77e8af1ffc4ffe47acdc.html无论你从事何种领域的科学研究还是统计...后来醉心于统计理论半载有余才摸到显著性检验的皮毛,也为显著性检验理论之精妙,品种之繁多,逻辑之严谨所...
  • 相关性和显著性检验学习笔记

    万次阅读 2018-09-07 14:49:51
    相关性分析是指两个或多个具备相关性的变量元素进行分析,从而衡量两个变量因素的相关密切程度。相关性的元素之间需要存在一定的联系或者概率才可以进行相关性分析,...为什么要相关系数进行显著性检验?  因...
  • 关于显著性检验,有你想要的!

    万次阅读 2017-12-14 14:21:05
    何为显著性检验显著性检验(significance test)作为判断两个乃至多个数据集之间是否存在差异的方法被广泛应用于各个科研领域。在统计学中,显著性检验是“统计假设检验”(Statistical hypothesis testing)的一...
  •   回归分析就是具有相关关系的两个或两个以上变量之间数量变化的一般关系进行测定,确定因变量和自变量之间数量变动的数学表达式,以便因变量进行估计或预测的统计分析方法。回归分析的数学描述如下:   ...
  • 本篇介绍线性回归的显著性检验和评价方法。示例数据同上篇:DATA<-mtcars[,c("mpg","wt","qsec",...
  • 显著性检验python

    千次阅读 2020-12-16 14:42:24
    信用特征检验/模型稳健性检验的代码实现1.1  常用的检验实现1.1.1  ttest_ind1.1.2  曼-惠特尼U检验(Mann-Whitney U test)1.1.3  KS_检验1.1.4  非参数统计...
  • One PUNCH Man——变量显著性检验

    千次阅读 2019-04-25 15:24:27
    文章目录显著性检验简介t检验单侧检验与双侧检验(区别在于是否知道标准)确定P值和做出推断结论T检验例子栗子no.1栗子No.2F检验 判断一个变量是否显著,我们一般采用T检验和F检验的方式。 显著性检验简介 假设检验...
  • R之相关性的显著性检验

    万次阅读 多人点赞 2017-12-26 19:26:01
    # 在计算好相关系数以后,如何它们进行统计显著性检验呢?常用的原假设为变量间不相关(即总体的相关系数为0)。 # # cor.test()函数单个的Pearson、Spearman和Kendall相 # 关系数进行检验:cor.test(x,y,...
  • 由于R中在进行参数估计时,并不会直接给出各参数的显著性检验,所以这就要用手动计算下。 以下图片来自于,王燕《时间序列分析基于R》P90 还有一张图片我觉得也不错,所以也贴在这了。 ...
  • R语言与显著性检验学习笔记

    万次阅读 多人点赞 2013-07-03 12:36:16
    一、何为显著性检验  显著性检验的思想十分的简单,就是认为小概率事件不可能发生。虽然概率论中我们一直强调小概率事件必然发生,但显著性检验还是相信了小概率事件在我做的这一次检验中没有发生。  显著性检验...
  • 文章目录抽样抽样方法:概率抽样和非概率抽样样本量估计总体概率公式样本量公式汇总均值差异显著性检验单样本总体比例的检验两总体比例之差的显著性检验 抽样 抽样方法:概率抽样和非概率抽样 样本量估计 样本...
  • 实验数据跑完,肯定要进行数据分析,最近看论文都用显著性检验,听说使用的就是T检验,于是开始先了解T检验 简介 小结 t检验(t test)又称学生t检验(Student t-test)可以说是统计推断中非常常见的一种检验...
  • 常用显著性检验

    万次阅读 2015-12-02 09:12:55
     适用于计量资料、正态分布、方差具有齐的两组间小样本比较。包括配对资料间、样本与均数间、两样本均数间比较三种,三者的计算公式不能混淆。  2.t'检验  应用条件与t检验大致相同,但t′检验用于两组间方差...
  • 关于显著性检验,你想要的都在这儿了!!(基础篇)https://www.cnblogs.com/hdu-zsk/p/6293721.html 无论你从事何种领域的科学研究还是统计调查,显著性检验作为判断两个乃至多个数据集之间是否存在差异的方法被...
  • 似然比检验 - 嵌套模型 变量显著性

    千次阅读 2018-11-21 16:51:00
    由一个入学Program是否真正有用引起的,两个线性回归模型的似然比检验。两个模型是嵌套的关系。 参考文章1:(思路) http://blog.sina.com.cn/s/blog_6e60da090102uxzo.html 参考文章2:(感觉更加清晰) ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 19,046
精华内容 7,618
关键字:

对模型进行显著性检验