精华内容
下载资源
问答
  • 通过对有色噪声的特点进行分析,建立二阶回归有色噪声的模型,然后利用抗差估计和自适应滤波相结合的方法,对经有色噪声修正后的信息进行动态滤波。将提出的算法与基于高斯白噪声卡尔曼滤波,以及考虑有色观测噪声...
  • 本节介绍时间序列分析最基础的模型:自回归过程 。为什么基础?因为它和移动平均过程 组合可以得到自回归移动平均过程 。 和分布滞后 组合得到自回归分布滞后模型 。多个 写成向量形式,推广到高维就是向量自回归...

    上一节以一阶自回归为例,介绍了时间序列平稳性和渐进独立性。本节介绍时间序列分析最基础的模型:自回归过程

    equation?tex=AR%28p%29 。为什么基础?因为它和移动平均过程
    equation?tex=MA%28q%29 组合可以得到自回归移动平均过程
    equation?tex=ARMA%28p%2Cq%29
    equation?tex=AR%28p%29 和分布滞后
    equation?tex=DL%28q%29 组合得到自回归分布滞后模型
    equation?tex=ADL%28p%2Cq%29 。多个
    equation?tex=AR%28p%29 写成向量形式,推广到高维就是向量自回归模型
    equation?tex=VAR 等等。后续会一一介绍。

    一、一阶自回归过程(Auto Regressive Process of Order One)

    为什么考虑自回归?今年GDP和去年GDP有关,本周的短期利率和上周的利率有关,我们需要定量描述这种相关性。横截面和面板更多考虑的是不同变量间因果关系的识别,一维的时间序列更关注自身的相关性。

    上一节已经见到

    equation?tex=AR%281%29 的形式:

    equation?tex=y_%7Bt%7D%3D%5Cbeta_%7B0%7D%2B%5Cbeta_%7B1%7Dy_%7Bt-1%7D%2B%5Cepsilon_%7Bt%7D%5C%5C 其中,假设
    equation?tex=%5Cepsilon_%7Bt%7D 为白噪声,那么 那么
    equation?tex=E%5Cepsilon_%7Bt%7D%3D0 ,
    equation?tex=Cov%28%5Cepsilon_%7Bt%7D%2C%5Cepsilon_%7Bs%7D%29%3D0%2C+t%E2%89%A0s

    根据上一节的结论,

    equation?tex=%7C%5Cbeta_%7B1%7D%7C%3C1 时,
    equation?tex=%5Cleft%5C%7B+y_%7Bt%7D%5Cright%5C%7D 为渐进独立的平稳过程(Argodic Stationary Process)。因为
    equation?tex=y_%7Bt-1%7D 取决于
    equation?tex=%28%5Cepsilon_%7Bt-1%7D%2C...%2C%5Cepsilon_%7B1%7D%29
    equation?tex=%5Cepsilon_%7Bt%7D
    equation?tex=%28%5Cepsilon_%7Bt-1%7D%2C...%2C%5Cepsilon_%7B1%7D%29 不相关,那么与
    equation?tex=y_%7Bt-1%7D 也不相关。所以对于参数
    equation?tex=%5Cbeta
    equation?tex=OLS 可以给出一致的估计量。
    equation?tex=OLS 的缺点是损失一个样本,因为
    equation?tex=y_%7Bt-1%7D 有意义需要从
    equation?tex=t%3D2 开始。当然如果知道
    equation?tex=%5Cepsilon_%7Bt%7D 的具体分布,比如假设为正态分布,那么
    equation?tex=MLE 估计的效率更高。

    二、高阶自回归过程

    equation?tex=p阶自回归过程
    equation?tex=AR%28p%29的形式:

    equation?tex=y_%7Bt%7D%3D%5Cbeta_%7B0%7D%2B%5Cbeta_%7B1%7Dy_%7Bt-1%7D%2B%5Ccdot%5Ccdot%5Ccdot%2B%5Cbeta_%7Bp%7Dy_%7Bt-p%7D%2B%5Cepsilon_%7Bt%7D%5C%5C

    其中,

    equation?tex=%5Cepsilon_%7Bt%7D 为白噪声,那么
    equation?tex=E%5Cepsilon_%7Bt%7D%3D0 ,
    equation?tex=Cov%28%5Cepsilon_%7Bt%7D%2C%5Cepsilon_%7Bs%7D%29%3D0%2C+t%E2%89%A0s

    为什么要考虑高阶自回归?

    假设

    equation?tex=%5Cleft%5C%7B+y_%7Bt%7D+%5Cright%5C%7D
    equation?tex=GDP 时间序列数据,并且今年
    equation?tex=GDP 不仅和去年
    equation?tex=GDP 显著相关,还和前年
    equation?tex=GDP 显著相关,即真实模型为
    equation?tex=AR%282%29%EF%BC%9Ay_%7Bt%7D%3D%5Cbeta_%7B0%7D%2B%5Cbeta_%7B1%7Dy_%7Bt-1%7D%2B%5Cbeta_%7B2%7Dy_%7Bt-2%7D%2B%5Cepsilon_%7Bt%7D%5C%5C 但研究者忽略了高阶项,错误识别为
    equation?tex=AR%281%29%EF%BC%9Ay_%7Bt%7D%3D%5Cbeta_%7B0%7D%2B%5Cbeta_%7B1%7Dy_%7Bt-1%7D%2B%5Cnu_t%5C%5C

    那么新的残差项变为

    equation?tex=%5Cnu_t%3D%5Cbeta_%7B2%7Dy_%7Bt-2%7D%2B%5Cepsilon_%7Bt%7D
    equation?tex=%5Cnu_t 不再是白噪声并且存在自相关因为它包含
    equation?tex=y_%7Bt-2%7D 。进一步,
    equation?tex=y_%7Bt-1%7D
    equation?tex=y_%7Bt-2%7D 相关性使得
    equation?tex=y_%7Bt-1%7D
    equation?tex=%5Cnu_t 相关,所以遗漏变量偏差会导致
    equation?tex=OLS 估计量不一致!因此正确识别阶数非常重要。

    三、如何识别阶数

    equation?tex=p

    常用两种方法:序贯规则和信息准则。

    1. 序贯规则(Sequential Rule)

    假设真实模型是滞后3阶,但研究者并不知道。不管滞后3阶还是5阶,先设一个足够大的滞后阶数比如10阶,

    equation?tex=p%3D10 。然后 用
    equation?tex=OLS 估计
    equation?tex=AR%2810%29 。对最高阶滞后项的系数
    equation?tex=%5Chat%5Cbeta_%7B10%7D%5E%7Bols%7D 的显著性做
    equation?tex=t 检验(
    equation?tex=H_%7B0%7D%EF%BC%9A%5Chat%5Cbeta_%7B10%7D%5E%7Bols%7D%3D0
    equation?tex=%5Crightarrow 不能拒绝
    equation?tex=H_%7B0%7D ,那么去掉最高阶,重新估计
    equation?tex=AR%289%29
    equation?tex=%5Crightarrow 不显著,继续估计
    equation?tex=AR%288%29 ......直至
    equation?tex=AR%283%29 显著,Done。

    这种方法效率较低。

    2. 更常用的是信息准则(Information Criteria)。即选择滞后阶数让信息准则最小化。

    常用的有信息准则有两个,赤池信息准则(Akaike Information Criteria, AIC)和贝叶斯信息准则(Bayesian Information Criteria, BIC)。

    equation?tex=%5Chat%7Bp%7D_%7BAIC%7D%3Dargmin+AIC%3Dln%5Cfrac%7BRSS%7D%7BT%7D%2B%5Cfrac%7B2%7D%7BT%7D%28p%2B1%29%5C%5C

    equation?tex=%5Chat%7Bp%7D_%7BBIC%7D%3Dargmin+BIC%3Dln%5Cfrac%7BRSS%7D%7BT%7D%2B%5Cfrac%7BlnT%7D%7BT%7D%28p%2B1%29%5C%5C

    其中,

    equation?tex=RSS
    equation?tex=OLS 残差,
    equation?tex=T 为样本容量。信息准则都由两项组成,第一项是对模型拟合优度的奖励,第二项是对模型参数过多的惩罚。因为我们的优化问题是最小化目标函数,一般来说,包含的参数越多(这里为滞后阶数
    equation?tex=p ),模型解释力越强,残差越小。所以要在两者之间Trade-off。

    为什么信息准则表达式写得这么复杂?

    因为能严格证明,大样本下

    equation?tex=BIC 优化问题的解是真实滞后阶数
    equation?tex=p 的一致估计。即
    equation?tex=plim%5Chat%7Bp%7D_%7BBIC%7D%3Dp 。大样本下
    equation?tex=%5Chat%7Bp%7D_%7BAIC%7D 可能高估
    equation?tex=p 。小样本两者难分优劣。

    如果序贯规则和信息准则给出的结果不一样怎么办?

    避免以来遗漏变量偏差,保守起见,选择滞后阶数较大的进行估计,并且对估计的残差做自相关检验。因为我们在上文中分析了

    equation?tex=AR%282%29 识别为
    equation?tex=AR%281%29 时,残差
    equation?tex=%5Cnu_t 不是白噪声,存在自相关。所以如果残差存在自相关,我们需要进一步扩大滞后阶数。

    小结:本文介绍自回归过程

    equation?tex=AR%28p%29 以及阶数
    equation?tex=p 识别的序贯规则和信息准则。后续的
    equation?tex=ARMA%28p%2Cq%29 也是采用这种方法来判断阶数。下一节准备介绍移动平均过程
    equation?tex=MA%28q%29 与自回归移动平均过程
    equation?tex=ARMA%28p%2Cq%29 及其脉冲响应函数。
    展开全文
  • 综合整理自:百度文库等向量自回归介绍:当我们对变量是否真是外生变量的情况不自信时,传递函数分析的自然扩展就是均等地对待每一个变量。在双变量情况下,我们可以令{yt}的时间路径受序列{zt}的当期或过去的实际值...

    综合整理自:百度文库等

    向量自回归介绍:

    当我们对变量是否真是外生变量的情况不自信时,传递函数分析的自然扩展就是均等地对待每一个变量。在双变量情况下,我们可以令{yt}的时间路径受序列{zt}的当期或过去的实际值的影响,考虑如下简单的双变量体系

    ba7f7d27399cd84f5d567022d456ecb2.png

    式(5.17)和(5.18)并非是诱导型方程,因为yt对zt有一个同时期的影响,而zt对yt也有一个同时期的影响。所幸的是,可将方程转化为更实用的形式,使用矩阵性代数,我们可将系统写成紧凑形式:

    b454fc7693994c690a7a97afecde885e.png

    0055fe087dcbd5e9a66433181348fa29.png

    在实际的应用估计中,我们并不能够直接估计出结构性VAR方程,因为在VAR过程中所固有的反馈,直接进行估计的话,则zt与误差项相关,yt与误差项相关,但是标准估计要求回归变量与误差项不相关。

    805904f9e508c457f0753ca157417f82.png

    75f0eccccac29f9f8b5b8b3f266753bd.png

    因为在识别结构VAR方程时,需要对估计变量进行约束,这样子也就造成了在进行标准VAR估计后,求正交化的脉冲响应函数时,进行估计的变量排列序列会造成脉冲响应函数有些区别。因为在求正交化的脉冲响应函数时,是要得到变量的独立冲击,是要求出各自的和以及其滞后n项。

    脉冲响应函数用于衡量来自随机扰动项的冲击对内生变量当前和未来值的影响。

    方差分解是将系统的预测均方误差分解成为系统中各变量冲击所做的贡献,把系统中任意一个内生变量的波动按其成因分解为与各方程新息相关联的若干个组成部分,从而了解各新息对模型内生变量的相对重要性,即变量的贡献占总贡献的比例。

    Granger非因果性检验:

    (1)滞后期 k 的选取以 VAR 为依据。实际中是一个判断性问题。以 xt和 yt为例,如果xt-1对 yt存在显著性影响,则不必再做滞后期更长的检验。如果 xt-1对 yt不存在显著性影响,则应该再做滞后期更长的检验。一般来说要试检验若干个不同滞后期 k的格兰杰因果关系检验,且结论相同时,才可以最终下结论。

    (2)格兰杰非因果性。

    (3)通常总是把 xt-1 对 yt存在非因果关系表述为xt(去掉下标-1)对 yt存在非因果关系(严格讲,这种表述是不正确的)。

    (4)Granger非因果性检验只在平稳变量之间进行。不存在协整关系的非平稳变量之间不能进行格兰杰因果关系检验。

    (5)格兰杰因果关系不是哲学概念上的因果关系。一则他表示的是 xt-1对 yt的影响。二则它只是说明xt可以作为yt变化的预测因子。

    VAR 模型的特点是:

    (1)不以严格的经济理论为依据。在建模过程中只需明确两件事:①共有哪些变量是相互有关系的,把有关系的变量包括在 VAR 模型中;②确定滞后期 k。使模型能反映出变量间相互影响的绝大部分。

    (2)VAR 模型对参数不施加零约束。(对无显着性的参数估计值并不从模型中剔除,不分析回归参数的经济意义。)

    (3)VAR模型的解释变量中不包括任何当期变量,所有与联立方程模型有关的问题在VAR 模型中都不存在(主要是参数估计量的非一致性问题)。

    (4)VAR 模型的另一个特点是有相当多的参数需要估计。比如一个 VAR 模型含有三个变量,最大滞后期 k = 3,则有 kN^2= 3×3^2= 27个参数需要估计。当样本容量较小时,多数参数的估计量误差较大。

    (5)无约束 VAR 模型的应用之一是预测。由于在 VAR 模型中每个方程的右侧都不含有当期变量,这种模型用于样本外一期预测的优点是不必对解释变量在预测期内的取值做任何预测。

    (6)用VAR模型做样本外近期预测非常准确。做样本外长期预测时,则只能预测出变动的趋势,而对短期波动预测不理想。

    (7)VAR模型中每一个变量都必须具有平稳性。如果是非平稳的,则必须具有协整关系。

    西姆斯(Sims)认为VAR模型中的全部变量都是内生变量。近年来也有学者认为具有单向因果关系的变量,也可以作为外生变量加入VAR 模型。

    滞后阶数的选择

    在VAR模型中,正确选择模型的滞后阶数对于模型估计和协整检验都产生一定的影响,在小样本中情况更是如此。Stata中varsoc命令给出了滞后阶数选择的几种标准,包括最终预测误差(FinalPrediction Error,FPE)、施瓦茨信息准则(Schwarz's BayesianInformation Criterion,SBIC)、汉南—昆(Hannan and QuinnInformation Criterion,HQIC)。对于这些检验,相对于默认的算法,还有另一种算法是lutstats,其运行出来的结果有差别,但对于判断没有多大的影响。

    模型的估计

    VAR模型在stata里的命令为var。其中默认的是2阶滞后。

    命令格式:var depvarlist[if] [in] [,options]

    afea3df3384284624e18821d552e5faa.png

    options包括:

    noconstant          没有常数项

    lags(numlist)       滞后阶数

    exog(varlist)       外生变量

    dfk                 自由度调整

    small               小样本t、F统计量

    lutstats            Lutkepohl滞后阶数选择统计量

    159a48d28ccc0c42a156e0d46611b83a.png

     案例1:

    Fit vector autoregressive model with 2 lags (the default)        . var dln_inv dln_inc dln_consumpFit vector autoregressive model restricted to specified period        . var dln_inv dln_inc dln_consump if qtr<=tq(1978q4) Same as above, but include first, second, and third lags in model        . var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3)Same as above, but report the Lutkepohl versions of the lag-order selection statistics        . var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3) lutstatsReplay results with 99% confidence interval        . var, level(99)

    结果为:

    .  var dln_inv dln_inc dln_consumpVector autoregressionSample:  1960q4 - 1982q4                        Number of obs     =         89Log likelihood =   742.2131                     AIC               =  -16.20704FPE            =   1.84e-11                     HQIC              =  -15.97035Det(Sigma_ml)  =   1.15e-11                     SBIC              =  -15.61983Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv               7     .044295   0.1051   10.45617   0.1067dln_inc               7     .011224   0.1514   15.87886   0.0144dln_consump           7     .009938   0.2400   28.09971   0.0001----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2725654   .1093372    -2.49   0.013    -.4868623   -.0582684         L2. |  -.1340503   .1089367    -1.23   0.218    -.3475624    .0794617             |     dln_inc |         L1. |   .3374819   .4805209     0.70   0.482    -.6043217    1.279286         L2. |   .1827302    .466292     0.39   0.695    -.7311852    1.096646             | dln_consump |         L1. |   .6520473   .5450985     1.20   0.232    -.4163261    1.720421         L2. |   .5980687   .5434576     1.10   0.271    -.4670886    1.663226             |       _cons |  -.0099191   .0126649    -0.78   0.434    -.0347419    .0149037-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0433473   .0277054     1.56   0.118    -.0109542    .0976488         L2. |   .0616319   .0276039     2.23   0.026     .0075293    .1157345             |     dln_inc |         L1. |  -.1232543    .121761    -1.01   0.311    -.3619015    .1153928         L2. |   .0209769   .1181555     0.18   0.859    -.2106036    .2525573             | dln_consump |         L1. |   .3050571   .1381245     2.21   0.027      .034338    .5757762         L2. |   .0490208   .1377087     0.36   0.722    -.2208833     .318925             |       _cons |   .0125949   .0032092     3.92   0.000     .0063049    .0188848-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |   .0027381     .02453     0.11   0.911    -.0453398     .050816         L2. |   .0497402   .0244401     2.04   0.042     .0018384     .097642             |     dln_inc |         L1. |   .2893204   .1078057     2.68   0.007     .0780251    .5006157         L2. |   .3664341   .1046134     3.50   0.000     .1613955    .5714726             | dln_consump |         L1. |  -.2845172   .1222938    -2.33   0.020    -.5242086   -.0448257         L2. |  -.1159776   .1219257    -0.95   0.341    -.3549475    .1229924             |       _cons |   .0123795   .0028414     4.36   0.000     .0068104    .0179485------------------------------------------------------------------------------. end of do-file. set more off. var dln_inv dln_inc dln_consump if qtr<=tq(1978q4)Vector autoregressionSample:  1960q4 - 1978q4                        Number of obs     =         73Log likelihood =    606.307                     AIC               =  -16.03581FPE            =   2.18e-11                     HQIC              =  -15.77323Det(Sigma_ml)  =   1.23e-11                     SBIC              =  -15.37691Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv               7     .046148   0.1286   10.76961   0.0958dln_inc               7     .011719   0.1142   9.410683   0.1518dln_consump           7     .009445   0.2513   24.50031   0.0004----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.3196318   .1192898    -2.68   0.007    -.5534355   -.0858282         L2. |  -.1605508    .118767    -1.35   0.176      -.39333    .0722283             |     dln_inc |         L1. |   .1459851   .5188451     0.28   0.778    -.8709326    1.162903         L2. |   .1146009    .508295     0.23   0.822     -.881639    1.110841             | dln_consump |         L1. |   .9612288   .6316557     1.52   0.128    -.2767936    2.199251         L2. |   .9344001   .6324034     1.48   0.140    -.3050877    2.173888             |       _cons |  -.0167221   .0163796    -1.02   0.307    -.0488257    .0153814-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0439309   .0302933     1.45   0.147    -.0154427    .1033046         L2. |   .0500302   .0301605     1.66   0.097    -.0090833    .1091437             |     dln_inc |         L1. |  -.1527311    .131759    -1.16   0.246    -.4109741    .1055118         L2. |   .0191634   .1290799     0.15   0.882    -.2338285    .2721552             | dln_consump |         L1. |   .2884992   .1604069     1.80   0.072    -.0258926    .6028909         L2. |     -.0102   .1605968    -0.06   0.949    -.3249639    .3045639             |       _cons |   .0157672   .0041596     3.79   0.000     .0076146    .0239198-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |   -.002423   .0244142    -0.10   0.921     -.050274     .045428         L2. |   .0338806   .0243072     1.39   0.163    -.0137607    .0815219             |     dln_inc |         L1. |   .2248134   .1061884     2.12   0.034     .0166879    .4329389         L2. |   .3549135   .1040292     3.41   0.001     .1510199     .558807             | dln_consump |         L1. |  -.2639695   .1292766    -2.04   0.041     -.517347    -.010592         L2. |  -.0222264   .1294296    -0.17   0.864    -.2759039     .231451             |       _cons |   .0129258   .0033523     3.86   0.000     .0063554    .0194962------------------------------------------------------------------------------. var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3)Vector autoregressionSample:  1961q1 - 1978q4                        Number of obs     =         72Log likelihood =   599.9371                     AIC               =  -15.83159FPE            =   2.69e-11                     HQIC              =  -15.45394Det(Sigma_ml)  =   1.16e-11                     SBIC              =  -14.88298Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv              10     .047396   0.1345   11.19296   0.2627dln_inc              10     .011913   0.1388   11.60016   0.2368dln_consump          10     .009479   0.2782   27.75554   0.0010----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2994693   .1237607    -2.42   0.016    -.5420357   -.0569028         L2. |  -.1296602   .1288044    -1.01   0.314    -.3821121    .1227918         L3. |   .0400087   .1249301     0.32   0.749    -.2048497    .2848672             |     dln_inc |         L1. |   .1142036    .556194     0.21   0.837    -.9759165    1.204324         L2. |   .2114059   .5666988     0.37   0.709    -.8993034    1.322115         L3. |   .2262656   .5659136     0.40   0.689    -.8829047    1.335436             | dln_consump |         L1. |   .8977017   .7236713     1.24   0.215    -.5206681    2.316071         L2. |   .7526461   .7314135     1.03   0.303     -.680898     2.18619         L3. |  -.4887645   .6473229    -0.76   0.450    -1.757494    .7799651             |       _cons |  -.0097894   .0193208    -0.51   0.612    -.0476574    .0280785-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0481865   .0311079     1.55   0.121    -.0127839    .1091568         L2. |   .0494307   .0323757     1.53   0.127    -.0140245    .1128858         L3. |   .0103096   .0314018     0.33   0.743    -.0512369    .0718561             |     dln_inc |         L1. |  -.1007283   .1398023    -0.72   0.471    -.3747359    .1732793         L2. |   .0745091   .1424428     0.52   0.601    -.2046737    .3536918         L3. |   .1905335   .1422454     1.34   0.180    -.0882624    .4693294             | dln_consump |         L1. |   .1598733   .1818987     0.88   0.379    -.1966416    .5163882         L2. |  -.1130613   .1838447    -0.61   0.539    -.4733903    .2472677         L3. |  -.0494047   .1627081    -0.30   0.761    -.3683067    .2694974             |       _cons |     .01501   .0048564     3.09   0.002     .0054917    .0245283-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0013755   .0247521    -0.06   0.956    -.0498888    .0471377         L2. |   .0322491   .0257609     1.25   0.211    -.0182413    .0827394         L3. |   .0142341    .024986     0.57   0.569    -.0347375    .0632057             |     dln_inc |         L1. |   .2340344   .1112387     2.10   0.035     .0160106    .4520582         L2. |   .3458198   .1133397     3.05   0.002     .1236782    .5679615         L3. |   .1247139   .1131826     1.10   0.271    -.0971199    .3465478             | dln_consump |         L1. |   -.369419   .1447341    -2.55   0.011    -.6530927   -.0857453         L2. |  -.0403424   .1462826    -0.28   0.783     -.327051    .2463661         L3. |   .0682029   .1294645     0.53   0.598    -.1855428    .3219486             |       _cons |   .0110726   .0038641     2.87   0.004      .003499    .0186461------------------------------------------------------------------------------. var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3) lutstatsVector autoregressionSample:  1961q1 - 1978q4                        Number of obs     =         72Log likelihood =   599.9371          (lutstats) AIC               =  -24.42855FPE            =   2.69e-11                     HQIC              =  -24.08867Det(Sigma_ml)  =   1.16e-11                     SBIC              =   -23.5748Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv              10     .047396   0.1345   11.19296   0.2627dln_inc              10     .011913   0.1388   11.60016   0.2368dln_consump          10     .009479   0.2782   27.75554   0.0010----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2994693   .1237607    -2.42   0.016    -.5420357   -.0569028         L2. |  -.1296602   .1288044    -1.01   0.314    -.3821121    .1227918         L3. |   .0400087   .1249301     0.32   0.749    -.2048497    .2848672             |     dln_inc |         L1. |   .1142036    .556194     0.21   0.837    -.9759165    1.204324         L2. |   .2114059   .5666988     0.37   0.709    -.8993034    1.322115         L3. |   .2262656   .5659136     0.40   0.689    -.8829047    1.335436             | dln_consump |         L1. |   .8977017   .7236713     1.24   0.215    -.5206681    2.316071         L2. |   .7526461   .7314135     1.03   0.303     -.680898     2.18619         L3. |  -.4887645   .6473229    -0.76   0.450    -1.757494    .7799651             |       _cons |  -.0097894   .0193208    -0.51   0.612    -.0476574    .0280785-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0481865   .0311079     1.55   0.121    -.0127839    .1091568         L2. |   .0494307   .0323757     1.53   0.127    -.0140245    .1128858         L3. |   .0103096   .0314018     0.33   0.743    -.0512369    .0718561             |     dln_inc |         L1. |  -.1007283   .1398023    -0.72   0.471    -.3747359    .1732793         L2. |   .0745091   .1424428     0.52   0.601    -.2046737    .3536918         L3. |   .1905335   .1422454     1.34   0.180    -.0882624    .4693294             | dln_consump |         L1. |   .1598733   .1818987     0.88   0.379    -.1966416    .5163882         L2. |  -.1130613   .1838447    -0.61   0.539    -.4733903    .2472677         L3. |  -.0494047   .1627081    -0.30   0.761    -.3683067    .2694974             |       _cons |     .01501   .0048564     3.09   0.002     .0054917    .0245283-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0013755   .0247521    -0.06   0.956    -.0498888    .0471377         L2. |   .0322491   .0257609     1.25   0.211    -.0182413    .0827394         L3. |   .0142341    .024986     0.57   0.569    -.0347375    .0632057             |     dln_inc |         L1. |   .2340344   .1112387     2.10   0.035     .0160106    .4520582         L2. |   .3458198   .1133397     3.05   0.002     .1236782    .5679615         L3. |   .1247139   .1131826     1.10   0.271    -.0971199    .3465478             | dln_consump |         L1. |   -.369419   .1447341    -2.55   0.011    -.6530927   -.0857453         L2. |  -.0403424   .1462826    -0.28   0.783     -.327051    .2463661         L3. |   .0682029   .1294645     0.53   0.598    -.1855428    .3219486             |       _cons |   .0110726   .0038641     2.87   0.004      .003499    .0186461------------------------------------------------------------------------------.  var, level(99)Vector autoregressionSample:  1961q1 - 1978q4                        Number of obs     =         72Log likelihood =   599.9371          (lutstats) AIC               =  -24.42855FPE            =   2.69e-11                     HQIC              =  -24.08867Det(Sigma_ml)  =   1.16e-11                     SBIC              =   -23.5748Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv              10     .047396   0.1345   11.19296   0.2627dln_inc              10     .011913   0.1388   11.60016   0.2368dln_consump          10     .009479   0.2782   27.75554   0.0010----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [99% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2994693   .1237607    -2.42   0.016    -.6182556    .0193171         L2. |  -.1296602   .1288044    -1.01   0.314    -.4614383     .202118         L3. |   .0400087   .1249301     0.32   0.749    -.2817898    .3618072             |     dln_inc |         L1. |   .1142036    .556194     0.21   0.837    -1.318457    1.546864         L2. |   .2114059   .5666988     0.37   0.709    -1.248314    1.671125         L3. |   .2262656   .5659136     0.40   0.689    -1.231431    1.683963             | dln_consump |         L1. |   .8977017   .7236713     1.24   0.215    -.9663522    2.761755         L2. |   .7526461   .7314135     1.03   0.303     -1.13135    2.636642         L3. |  -.4887645   .6473229    -0.76   0.450    -2.156158    1.178629             |       _cons |  -.0097894   .0193208    -0.51   0.612    -.0595564    .0399775-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0481865   .0311079     1.55   0.121    -.0319422    .1283151         L2. |   .0494307   .0323757     1.53   0.127    -.0339636    .1328249         L3. |   .0103096   .0314018     0.33   0.743    -.0705762    .0911954             |     dln_inc |         L1. |  -.1007283   .1398023    -0.72   0.471    -.4608353    .2593787         L2. |   .0745091   .1424428     0.52   0.601    -.2923993    .4414174         L3. |   .1905335   .1422454     1.34   0.180    -.1758665    .5569335             | dln_consump |         L1. |   .1598733   .1818987     0.88   0.379    -.3086667    .6284132         L2. |  -.1130613   .1838447    -0.61   0.539    -.5866139    .3604913         L3. |  -.0494047   .1627081    -0.30   0.761     -.468513    .3697037             |       _cons |     .01501   .0048564     3.09   0.002     .0025008    .0275192-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0013755   .0247521    -0.06   0.956    -.0651327    .0623817         L2. |   .0322491   .0257609     1.25   0.211    -.0341065    .0986046         L3. |   .0142341    .024986     0.57   0.569    -.0501255    .0785937             |     dln_inc |         L1. |   .2340344   .1112387     2.10   0.035    -.0524975    .5205662         L2. |   .3458198   .1133397     3.05   0.002     .0538762    .6377634         L3. |   .1247139   .1131826     1.10   0.271    -.1668252     .416253             | dln_consump |         L1. |   -.369419   .1447341    -2.55   0.011    -.7422294    .0033914         L2. |  -.0403424   .1462826    -0.28   0.783    -.4171413    .3364565         L3. |   .0682029   .1294645     0.53   0.598    -.2652755    .4016812             |       _cons |   .0110726   .0038641     2.87   0.004     .0011192    .0210259------------------------------------------------------------------------------

    VAR模型相关检验

    1)平稳性检验:命令为varstable

    例子:

    use http://www.stata-press.com/data/r11/lutkepohl2,clear

    var dln_inv dln_incdln_consump if qtr>=tq(1961q2) & qtr<=tq(1978q4)

    varstable, graph       /*图示模的分布*/

    代码为

    Setupwebuse lutkepohl2Fit vector autoregressive modelvar dln_inv dln_inc dln_consump if qtr>=tq(1961q2) & qtr<=tq(1978q4)Check stability of the var resultsvarstable Same as above, but graph eigenvalues of the companion matrix varstable, graphSame as above, but suppress polar grid circlesvarstable, graph nogridStore estimation results in var1estimates store var1

    结果为:

    . var dln_inv dln_inc dln_consump if qtr>=tq(1961q2) & qtr<=tq(1978q4)Vector autoregressionSample:  1961q2 - 1978q4                        Number of obs     =         71Log likelihood =   588.8592                     AIC               =  -15.99603FPE            =   2.27e-11                     HQIC              =   -15.7299Det(Sigma_ml)  =   1.26e-11                     SBIC              =  -15.32679Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv               7      .04613   0.1214   9.811165   0.1328dln_inc               7     .011869   0.1056   8.383441   0.2113dln_consump           7     .009545   0.2425   22.73109   0.0009----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.3183992   .1190906    -2.67   0.008    -.5518126   -.0849859         L2. |   -.163626   .1188877    -1.38   0.169    -.3966416    .0693895             |     dln_inc |         L1. |   .2159195   .5383717     0.40   0.688    -.8392697    1.271109         L2. |   .0057851   .5178665     0.01   0.991    -1.009215    1.020785             | dln_consump |         L1. |   .8238562   .6396106     1.29   0.198    -.4297575     2.07747         L2. |   .8851109   .6417706     1.38   0.168    -.3727365    2.142958             |       _cons |  -.0132206   .0165186    -0.80   0.424    -.0455965    .0191553-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |    .044269   .0306417     1.44   0.149    -.0157876    .1043257         L2. |   .0488712   .0305895     1.60   0.110    -.0110831    .1088256             |     dln_inc |         L1. |  -.1326707   .1385217    -0.96   0.338    -.4041682    .1388268         L2. |   .0183007   .1332458     0.14   0.891    -.2428562    .2794576             | dln_consump |         L1. |   .2716157   .1645702     1.65   0.099     -.050936    .5941674         L2. |  -.0256676    .165126    -0.16   0.876    -.3493086    .2979733             |       _cons |   .0159993   .0042502     3.76   0.000     .0076691    .0243296-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0027652   .0246407    -0.11   0.911    -.0510601    .0455297         L2. |   .0352362   .0245987     1.43   0.152    -.0129764    .0834488             |     dln_inc |         L1. |   .2040011   .1113929     1.83   0.067    -.0143251    .4223272         L2. |   .3390123   .1071503     3.16   0.002     .1290017    .5490229             | dln_consump |         L1. |  -.2589165     .13234    -1.96   0.050    -.5182981     .000465         L2. |  -.0054435   .1327869    -0.04   0.967     -.265701     .254814             |       _cons |   .0131123   .0034178     3.84   0.000     .0064135    .0198111------------------------------------------------------------------------------. varstable   Eigenvalue stability condition  +----------------------------------------+  |        Eigenvalue        |   Modulus   |  |--------------------------+-------------|  |   .5456253               |   .545625   |  |  -.3785754 +  .3853982i  |   .540232   |  |  -.3785754 -  .3853982i  |   .540232   |  |  -.0643276 +  .4595944i  |   .464074   |  |  -.0643276 -  .4595944i  |   .464074   |  |  -.3698058               |   .369806   |  +----------------------------------------+   All the eigenvalues lie inside the unit circle.   VAR satisfies stability condition.. varstable, graph   Eigenvalue stability condition  +----------------------------------------+  |        Eigenvalue        |   Modulus   |  |--------------------------+-------------|  |   .5456253               |   .545625   |  |  -.3785754 +  .3853982i  |   .540232   |  |  -.3785754 -  .3853982i  |   .540232   |  |  -.0643276 +  .4595944i  |   .464074   |  |  -.0643276 -  .4595944i  |   .464074   |  |  -.3698058               |   .369806   |  +----------------------------------------+   All the eigenvalues lie inside the unit circle.   VAR satisfies stability condition..

    c92d8b31e78396f74226d684827a8f91.png

    2)检验滞后阶数的显著性:命令varwle

    代码为

    Setupwebuse lutkepohl2Fit vector autoregressive modelvar dln_inv dln_inc dln_consump if qtr<=tq(1978q4), dfk small/*检验特定滞后阶数的联合显著性*/  Obtain Wald lag-exclusion statistics after var varwle

    3)残差正态分布检验

    在stata里,常用的命令为varnorm。它提供了三种检验:峰度、偏度以及Jarque–Bera检验,其中Jarque–Bera检验综合了峰度和偏度的检验,相当于整体的正态分布检验。

    例子:

    use http://www.stata-press.com/data/r11/lutkepohl2,clear

    var dln_inv dln_incdln_consump if qtr<=q(1978q4),lag(1/2) dfk small

    varnorm

    * 三个统计量均无法拒绝残差服从正态分布的原假设

    var dln_inv dln_incdln_consump,lag(1/2) dfk small

    varnorm 

    * 此时可能需要考虑增加滞后阶数或近一步修正模型的设定

    4)残差序列相关检验:命令varlmar

    当Prob > chi2值大于0.05时,我们就可以判定其不存在自相关。

    例子:

    use http://www.stata-press.com/data/r11/lutkepohl2,clear

    var dln_inv dln_incdln_consump if qtr<=q(1978q4),lag(1/2) dfk small

    varlmar

    varlmar, mlag(5)

    4.4 格兰杰因果检验

    格兰杰因果检验的命令为vargranger。格兰杰因果检验的虚无假设是X对Y不存在因果关系。在stata的检验结果里面,当P值小于0.05即拒绝虚无假设,即表明X对Y存在因果关系。

    代码为:

    Setupwebuse lutkepohl2tssetFit a vector autoregressive (VAR) modelvar dln_inv dln_inc dln_consump if qtr<=tq(1978q4)Store estimation results in basicestimates store basicFit a second VAR modelvar dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3) dfk small Perform pairwise Granger causality tests on the second VAR modelvargranger

    脉冲响应和方差分解

    脉冲响应和方差分解是一个问题的两个方面。脉冲响应是衡量模型中的内生变量如何对一个变量的脉冲(冲击)做出响应,而方差分解则是如何将一个变量的响应分解到模型中的内生变量。Stata的irf命令用于计算VAR、SVAR、VEC模型的脉冲响应、动态乘子和方差分解。

    * -- 基本步骤* 步骤1: 估计VAR模型webuse lutkepohl2var dln_inv dln_inc dln_consump,lag(1/2) dfk small* 步骤2: 生成IRF文件irf create order1, step(10) set(myirf1) replace* 步骤3: 画图irf graph oirf, impulse(dln_inc) response(dln_consump) irf(order1) xlabel(#10)

    18eb6e76b847b4e90133abc2b0b79bdc.png

    脉冲响应IRF和方差分解FEVD可以产生在同一个文件里头。irf命令产生了myirf1.irf文件和把一种结果模式放在里面,命名为order1。order1结果包括简单脉冲响应、正交化脉冲响应、累积脉冲响应、累积正交化脉冲响应和Cholesky方差分解。

    下面我们使用相同的var估计模型,但用另一种不同的命令来产生第二种IRF结果模式,命名为order2储存在相同的文件里面,并画出这两种结果:

    irf create order2, step(10)order(dln_inv dln_inc dln_consump) replace

    irf graph oirf, irf(order1order2) impulse(dln_inc) response(dln_consump)

    协整分析和误差修正

    在这里可以对打个比方,协整就像一个喝醉酒的人牵着一条狗,即使人和狗的距离有时近有时远,但两者的距离始终是不会超过绳子的长度,一旦人和狗的距离超过绳子的长度,则接下来在绳子的作用下,人和狗的距离将会被拉近。

    长期均衡关系与协整

    经济理论指出,某些经济变量间确实存在着长期均衡关系。这种均衡关系意味着经济系统不存在破坏均衡的内在机制。如果变量在某时刻受到干扰后偏离其长期均衡点,则均衡机制将会在下一期进行调整以使其重新回到均衡状态。

    假设X与Y间的长期“均衡关系”由下式表现出来:

    Yt=a0+a1Xt+ut

    这样的话,如果上式提示了X与Y间的长期稳定的“均衡关系”,则意味着Y对其均衡点的偏离从本质上说是“临时性”的。因此,一个重要的假设就是随机干扰项ut必须是平稳序列。显然,如果ut有随机性趋势(上升或下降),则会导致Y对其均衡点的任何偏离都会被长期累积下来而不能被消除。随机干扰项ut也被称为非均衡误差,它将在误差修正模型里面被引入作为解释变量。

    如果X与Y是一阶单整序列,即I(1)序列,而ut又是平稳序列,即I(0),则我们称变量X与Y是协整的,记为I(1,1),ut不是平稳序列的话,则称为I(1,0)。而要是X与Y是I(2)序列的话,且ut是平稳序列,则变量X与Y是(2,2)阶协整。

    因此,如果两个变量都是单整变量,只有当它们的单整阶数相同时,才有可能协整。但如果是三个以上的变量,如果具有不同的单整阶数,则有可能经过线性组合构成低阶单整变量。

    在现实的应用中,我们比较看重(d,d)阶协整这类协整关系,因为如果它们是(d,d)阶协整的,则它们之间存在着一个长期稳定的比例关系。

    应用:检验变量之间的协整关系,在建立变量之间的协整关系,在建立计量经济模型中是非常重要的。而且,从变量之间是否具有协整关系出发选择模型的变量,其数据基础是牢固的,其统计性质是优良的。

    最先检验变量的协整关系的方法是两变量的Engle-Granger检验,其方法是先对双变量进行回归估计得出结构方程,进而得出非均衡误差,这样要是检验出的非均衡误差是稳定序列的话,则可判断两变量是(d,d)协整。在检验非均衡误差是稳定序列过程中,其判断标准要根据变量协整的ADF临界值来判断。对于多变量协整检验的方法与双变量的相类似。

    最新发展的协整检验是Johansen于1988年,以及与Juselius一起于1990年提出了一种基于向量自回归模型的多重协整检验方法,通常称为Johansen检验,或JJ检验。在stata这个计量软件里面,其判断协整个数的vecrank命令就是基于JJ检验的。

    误差修正模型

    建立误差修正模型,需要首先对变量进行协整分析,以发现变量之间的协整关系,即长期均衡关系,并以这种关系构成误差修正项。然后建立短期模型,将误差修正项看做一个解释变量,连同其他反映短期波动的解释变量一起,建立短期模型,即误差修正模型。由此我们可以利用误差修正方程进行短期的预测。

    优点:误差修正模型相对于上面的向量自回归,要是我们所分析的经济变量具有协整关系的话,那么向量自回归模型就会容易引起残差的序列相关问题。因为向量自回归模型一般为了平稳,都是采用变量的差分形式,则其差分方程如:DY(t)=a1DX(t)+v(t),其中v(t)=u(t)-u(t-1)

    另外一方面,向量自回归模型由于采用差分形式,则关于变量水平值的重要信息将会被忽略,这样的模型只表达了变量间的短期关系,并没有揭示长期关系。而采用误差修正模型则很好的避免了上述的两个问题了。

    展开全文
  • 上一篇的案例分析和操作是为了使大家了解二阶最小二乘法的应用原理。为了方便操作,SPSS提供了专门的对话框界面。本次分析同样选取人口背景资料对收入的影响的...具体操作(1)“分析” →“回归” →“二阶最小二乘...

    上一篇的案例分析和操作是为了使大家了解二阶最小二乘法的应用原理。为了方便操作,SPSS提供了专门的对话框界面。

    本次分析同样选取人口背景资料对收入的影响的案例。案例分析目的为研究年龄、受教育年限对收入水平有无影响。在该案例中,因变量为收入水平;自变量为年龄、受教育年限。(数据引用自张文彤老师和董伟老师主编的《SPSS统计分析高级教程(第2版)》)。

    具体操作

    (1)“分析” →“回归” →“二阶最小二乘法”

    (2)将“收入水平(lw)”选入因变量列表,将“受教育年限(educ)”、“年龄(age)”选入“解释变量”列表;将“父亲受教育年限(fed)”、“母亲受教育年限(fed)”、“年龄(age)”选入“工具变量”列表。

    (3)点击“确定

    具体操作界面如下:

    (1)“分析” →“回归” →“二阶最小二乘法”

    7d5a017f16752f03b3347455b9608363.png

    (2)将“收入水平(lw)”选入因变量列表,将“受教育年限(educ)”、年龄(age)选入“解释变量”列表;将“父亲受教育年限(fed)”、“母亲受教育年限(fed)”、年龄(age)选入“工具变量”列表。

    890b531cbf96b5838301977608fc4a98.png

    (“解释变量”列表框用于设定最终拟合的方程中的自变量,列表框中的变量将全部用于分析。“工具变量”列表框用于设定第一阶段中用于计算自变量估计值的工具变量。如果有变量在“解释变量”中,但不在“工具变量”中,该变量即为需要估计的内生变量,即受教育年限。)

    ed65b6056437f3befdb1ee18024355d9.png

    结果输出与解释

    (1)

    80593fe5fec45ec2b1747750026d7ba8.png

    在输出的开始部分,会给出各个变量在该模型中的角色列表,显示该变量是预测变量还是工具变量。

    (工具变量的个数与自变量的个数是有一定要求的,工具变量是用来预测内生变量的值,要求工具变量的个数至少要与解释变量的个数相等。如果工具变量与解释变量完全相同,那两阶段的回归与线性回归的结果完全相同,即选入选入解释变量列表框和工具变量列表框的变量完全相同,拟合的就是普通回归模型。)

    (2)

    cf81081d3dab2860bd36042f81e9ca74.png

    这里的模型汇总结果(上图)与上次案例分析中第二阶段回归方程的模型汇总的结果(下图)大致相同。(由于算法的原因,数值上会略有差异)

    (3)

    a191f4a4e6f15fa9c72ec58209dfb65c.png

    该图显示方程的拟合结果,总模型的F=12.933,P〈0.001,整个回归方程模型具有统计上意义。(与上次案例分析中第二阶段回归分析的拟合结果大致相同)

    (4)

    0caad3f6012563c36d654ce542ce07c8.png

    该图为对各个变量的检验结果,此处的educ是采用预测值进行拟合的结果。这里结果与上次案例分析中第二阶段的回归方程的结果大致相同。最终只有年龄变量的显著性〈0.05,影响收入水平的因素只有年龄。

    (5)

    744893cd8942eba3da0374322a79530d.png

    该图为参数估计值的相关系数阵,如图所示 ,系数间的相关性并不明显,因此不考虑共线性问题。

    a546be7cef281e66f46cfee240f1b6d5.gif

    到这里对2SLS的分析就结束啦~接下来了解一下工具变量与内生变量吧~

    //工具变量与内生变量//

    (1)工具变量:第一阶段中用于预测自变量(educ)的变量。在本次案例分析中,工具变量为父亲受教育年限(fed)、母亲受教育年限(fed)和年龄(age)。

    (2)内生变量:又称为内生解释变量。在因果模型中,如果一个变量能够被该系统中的其他变量所决定或被影响,那么该变量为内生变量。在二阶最小二乘法中如果有变量在“解释变量”列表框中,但不在“工具变量”列表框中,该变量即为需要估计的内生变量,即受教育年限(educ)。

    注:工具变量的数量必须不少于解释变量。

    ed65b6056437f3befdb1ee18024355d9.png

    在二阶最小二乘法中,选择工具变量一定要严格把握,只有准确把握工具变量和内生变量的概念之后,才能准确地从模型中找到工具变量。二阶最小二乘法的结果分析比较简单,难点在于对工具变量的选择以及对自变量、因变量双向交互影响的分析。

    参考文献:

    [1]张文彤,董伟.SPSS统计分析高级教程(第二版)[M].北京:高等教育出版社,2013.3

    在主页,回复20190401即可获得数据哦~

    展开全文
  • ARIMA(p,d,q)模型包括三种形式,自回归AR(p)模型,移动平均MA(q)模型以及混合自回归移动平均ARMA(p,q)模型。使用ARMA的一个重要前提是,要分析的时间序列是平稳的时间序列。1模型及数据一般的ARMA模型的形式为:本文...

    ARIMA(p,d,q)模型包括三种形式,自回归AR(p)模型,移动平均MA(q)模型以及混合自回归移动平均ARMA(p,q)模型。使用ARMA的一个重要前提是,要分析的时间序列是平稳的时间序列。

    1

    模型及数据

    一般的ARMA模型的形式为:

    700889980e528356732a8585742001b0.png

    本文研究数据为2009-2019年的中国GDP数据,数据来源国家统计局:

    1e22dfa2de4efc05253d241e5294d8da.png

    2

    数据平稳性检验

    对非平稳的时间序列,如果存在一定的增长或下降趋势,则需要对数据取对数或进行差分处理,然后判断处理后序列的平稳性。

    为了消除异方差性的影响,PMI指数样本先取自然对数序列,再进行ADF检验

    gen lngdp=ln(gdp)tset yeardfuller lngdp, lags(0)

    e5f8c68b55ebd60b26019bf8a4eaf8c3.png

    如图所示,NullHypothesis表示原假设是:lngdp序列具有一个单位根,即lngdp原序列为一个非平稳序列,得到的ADF单位根检验值为-3.294,小于5%显著性水平下的临界值-3.000,拒绝存在一个单位根的原假设,lngdp序列不具有单位根,是平稳序列。

    3

    确定阶数p,q

    通过自相关系数和偏自相关系数等统计量确定ARMA模型的阶数p和q:

    经过以上验证,可以认为原序列是单整的平稳数据,即只需要建立ARMA(p,q)模型。ARMA(p,q)可以转化为AR( )和MA(),其对应的特征为两种函数均表现为逐渐衰减的态势,在样本对应的ACF和PACF图形上,可以进行相应的判断。

    ac lngdp,lag(5)

    得到结果:

    5e91f34c5d4ef4b430cd095e74e420cf.png

    pac lngdp,lag(3)

    533edef2437ce1942536426c7eca99f5.png

    AC图确定的是p,PAC图确定的是q。判断ARIMA模型的传统方法是通过ACF(自相关图)和PACF(偏自相关图), 看ACF和PACF快速衰减的位置,看不同阶数对应快速衰减到标准差之内的位置。观察ACF和PACF的模式,主要看图形分布上是否有如下两个特征:

    1.  截尾:到了某个位置,系数突然变化,像被“截断”了一样;

    2.  拖尾:就是系数整体是一个单调渐变的趋势,但都不为0;

    若ACF拖尾,PACF截尾,用AR算法;

    若ACF截尾,PACF拖尾,用MA算法;

    若ACF,PACF都是拖尾,用ARMA算法;不平稳用ARIMA算法;

    如果,ACF和PACF的模式不明显,则需要尝试不同的参数值,然后通过赤池信息准则来判断。

    如图-所示,lngdp的序列对应的ACF图形表现出了逐渐衰减向零的趋势,在第1期后全部小于零置信区间,虽然在第5期PACF又出现大于零置信区间的情况,但是根据简约原则,不宜建立太高的滞后期模型。lngdp的序列对应的PACF图形逐渐衰减向零的趋势,在第1期截尾。从图中可以看出,序列的自相关系数(AC)在1阶拖尾,偏自相关系数(PAC)在1阶拖尾。初步认定对lngdp序列建立的模型是ARMA(1,1)。

    待续。。。

    欢迎扫码关注,若有问题,请点击“在看”留言或在公众号里留言。

    235fec7a7f7929c746c0c82e18b728fc.png

    展开全文
  • 吴恩达机器学习笔记整理——单变量线性回归通过模型分析,拟合什么类型的曲线。一、基本概念1.训练集由训练样例(training example)组成的集合就是训练集(training set), 如下图所示,其中(x,y)是一个训练样本,训练...
  • 第十章10.1这章会讲什么?...10.2.2关于F值的解释10.2.3作为回归的ANOVA10.2.4F比率(F-ratio)的逻辑10.2.5 总平方和SST10.2.6 模型平方和SSM10.2.7 残差平方和SSR10.2.8 均方根10.2.9 F比率10.3 ANOVA的可靠性1...
  • 回归分析中,最小二乘法是一种重要的估计方法,常用做参数估计。那么什么是二阶最小二乘法(2SLS)?我们又应该如何使用二阶最小二乘法呢?◆◆模型介绍◆◆二阶最小二乘法即两阶段最小二乘法(Two-...
  • 多项式回归

    2021-02-25 13:59:37
    回归分析中,对于线性可分的数据集,如下: 二维平面中的一条直线即可将两类数据点分开 但是 如果是如下的情况: 一条直线就不能很好的将数据分开,线性回归就力不从心了 这个时候可以采用多项式回归 多项式回归...
  • 前言本次分享一篇2017年由何向南教授发表的《Neural Factorization ...利用神经网络作为隐藏层代替了FM的特征二阶交互的部分,提高了模型的性能。文章末尾也给出了该模型的复现代码。本文约1.2k字,预计阅读10分钟。...
  • 线性回归分析两个或者多个变量之间关系的标准工具 在本文中,我们将使用 Python 包 statsmodels 来估计,解释和可视化线性回归模型。在此过程中,我们将讨论各种主题,包括: 简单和多元线性回归 可视化 内生性和...
  • 一、VAR向量自回归先做同阶平稳分析,在进行VAR自回归回归好以后再进行协整检验和单位圆检验,检验好以后用脉冲相应函数和方差分解来研究变量之间的互动关系。首先,导入数据首先做同阶平稳检验分别试探0阶,一阶...
  • 文章目录为什么平稳如此重要自回归AR模型一阶自回归过程二阶回归过程一般自回归过程R语言实现 为什么平稳如此重要 我们知道若随机时间序列XtX_tXt​有如下性质: ①均值E(Xt)=μE(X_{t})=\muE(Xt​)=μ ,均值是与...
  • 时间序列介绍 时间序列分析基础 什么是时间序列 ...它认为序列的统计性质主要由它的低阶矩决定,所以只要保证序列低阶矩平稳(二阶),就能保证序列的主要性质近似稳定。 自回归(AR)模型 移动平...
  • [DataAnalysis]时间序列分析

    万次阅读 2018-01-18 14:01:39
    一、平稳性1、严平稳与宽平稳的定义,一般我们都用二阶宽平稳2、为什么要研究平稳性:若对非平稳时间序列使用现有的方法估计,则会得到虚假回归,估计模型无效。3、ADF与DF统计量检验时间序列的平稳性。二、平稳时间...
  • 空间数据分析与R语言实践

    热门讨论 2014-06-11 23:00:57
    7.4.5 二阶特性 7.4.6 非同质的k函数 7.5 在空间流行病中的一些应用 7.5.1 病例控制研究 7.5.2 二元回归估计 7.5.3 使用广义加模型的二元回归 7.5.4 点源污染 7.5.5 空间聚集的评估 7.5.6 混杂变量和协变量...
  • 在对煤矸石、粉煤灰等充填材料物化性能分析的基础上,采用中心复合实验法研究了水泥、细矸率和减水剂用量对充填体的不同龄期强度特性影响规律,建立各个养护龄期的充填体强度响应面回归模型,为现场不同龄期的充填体...
  • Autoregressive Models - AR...举个例子,一个二阶回归模型AR(2)如下:这里 是系数, 是白噪声。在AR模型中 不能等于零。注意,AR(1)模型让 就是随即游走,因此不平稳:让我们模拟一个AR(1)模型,让为零, 等于0.6...
  • 在函数调用时,需要确保在逐级调用后能够回归到最初的调用点,编译器会隐式实现一个堆栈,用来保存每一级函数调用时返回的函数返回值和地址 //青蛙跳问题 青蛙只能跳一阶或二阶 设有n解台阶 //问有多少种跳法 int ...
  • 17.2二阶系统的根轨迹分析 17.3MATLAB根轨迹相关函数 17.3.1pzmap函数 17.3.2rlocus函数 17.3.3rlocfind函数 17.3.4sgrid函数 17.3.5zgrid函数 17.3.6damp函数 第18章Hopfield网络算法与应用 18.1离散...
  • 从两种农作物的120个样品种群中,涵盖处理中的多个采样日期,使用涵盖61-85个随机选择样品的可见光谱和NIR区域的光谱信息,使用经过改进的偏最小二乘(MPLS)回归,并使用内部交叉验证。 在MPLS协议中,我们在校准...
  • matlab中对红外光谱的预处理代码,源代码 包括 对红外光谱的平滑处理、一阶求导 、二阶求导等。以及 回归分析
  • 纳秒脉冲激光铣削Al

    2021-01-26 13:54:10
    使用响应面二阶回归模型建立铣削工艺参数与表面粗糙度、铣削深度之间的变化关系,通过灵敏度分析方法识别影响表面粗糙度和铣削深度的关键工艺参数;以最小化表面粗糙度和最大化铣削深度为优化目标,利用遗传算法确定...
  • 配书光盘Readme文件 C 语言通用范例开发金典 第1章 数据结构. 1 1.1 数组和字符串 2 1.1.1 一维数组的倒置 2 范例1-1 一维数组的倒置 2 ∷相关函数:fun函数 1.1.2 一维数组应用 3 ...∷相关函数:asin...
  • 回归分析统计量 Maven管理依赖关系的基本用法 Pdf作为数据输入是可怕的,但是使这变得容易。 这个软件包是什么以及如何使用? 从excel文件中读取IAAF评分表,并以机器可读格式写入每个事件的评分表。 另外,执行...
  • 研究了近红外漫反射光谱分析技术运用于煤的灰分和硫分的...结果发现经归一化处理后的灰分含量模型较优,多元散射校正处理后的硫分含量模型较优,证实了基于主成分回归分析煤粉成分的近红外光谱建模具有较高的应用价值。
  • 人工智能数学基础

    2018-06-13 01:56:55
    **3.1 线性回归建模3.2 无约束优化梯度分析** 求极值:输入是标量(一元)时候,极值是一阶导数,当输入是向量(多元)时候,极值是梯度。标量是二阶导数,输入是向量二阶导数是海森矩阵,分别求偏导得出对称矩阵...
  • 随着光栅倾角的增大,CTLPFG 的二阶包层模对应的损耗峰增强,三阶包层模对应的损耗峰变化不明显,且二阶包层模显著强于三阶包层模,二阶模的传输谱对60 °以上的光栅倾角的变化很敏感;级联段数的增加可以明显增加...

空空如也

空空如也

1 2 3
收藏数 57
精华内容 22
关键字:

二阶回归分析