delphi dll是否可用var参数_时间序列之向量自回归(VAR)学习重点

综合整理自:百度文库等

向量自回归介绍:

当我们对变量是否真是外生变量的情况不自信时,传递函数分析的自然扩展就是均等地对待每一个变量。在双变量情况下,我们可以令{yt}的时间路径受序列{zt}的当期或过去的实际值的影响,考虑如下简单的双变量体系

f574e8b91b63cd35a76ee0aba4e171b9.png

式(5.17)和(5.18)并非是诱导型方程,因为yt对zt有一个同时期的影响,而zt对yt也有一个同时期的影响。所幸的是,可将方程转化为更实用的形式,使用矩阵性代数,我们可将系统写成紧凑形式:

455a5eae5f97cdfc149feffcda367894.png

82956f89e9b0cc46603f60df67252295.png

在实际的应用估计中,我们并不能够直接估计出结构性VAR方程,因为在VAR过程中所固有的反馈,直接进行估计的话,则zt与误差项相关,yt与误差项相关,但是标准估计要求回归变量与误差项不相关。

e978da80f3539524ab10779706d8a302.png

43a3d348f3d5a5bdff67650026c8e9aa.png

因为在识别结构VAR方程时,需要对估计变量进行约束,这样子也就造成了在进行标准VAR估计后,求正交化的脉冲响应函数时,进行估计的变量排列序列会造成脉冲响应函数有些区别。因为在求正交化的脉冲响应函数时,是要得到变量的独立冲击,是要求出各自的和以及其滞后n项。

脉冲响应函数用于衡量来自随机扰动项的冲击对内生变量当前和未来值的影响。

方差分解是将系统的预测均方误差分解成为系统中各变量冲击所做的贡献,把系统中任意一个内生变量的波动按其成因分解为与各方程新息相关联的若干个组成部分,从而了解各新息对模型内生变量的相对重要性,即变量的贡献占总贡献的比例。

Granger非因果性检验:

(1)滞后期 k 的选取以 VAR 为依据。实际中是一个判断性问题。以 xt和 yt为例,如果xt-1对 yt存在显著性影响,则不必再做滞后期更长的检验。如果 xt-1对 yt不存在显著性影响,则应该再做滞后期更长的检验。一般来说要试检验若干个不同滞后期 k的格兰杰因果关系检验,且结论相同时,才可以最终下结论。

(2)格兰杰非因果性。

(3)通常总是把 xt-1 对 yt存在非因果关系表述为xt(去掉下标-1)对 yt存在非因果关系(严格讲,这种表述是不正确的)。

(4)Granger非因果性检验只在平稳变量之间进行。不存在协整关系的非平稳变量之间不能进行格兰杰因果关系检验。

(5)格兰杰因果关系不是哲学概念上的因果关系。一则他表示的是 xt-1对 yt的影响。二则它只是说明xt可以作为yt变化的预测因子。

VAR 模型的特点是:

(1)不以严格的经济理论为依据。在建模过程中只需明确两件事:①共有哪些变量是相互有关系的,把有关系的变量包括在 VAR 模型中;②确定滞后期 k。使模型能反映出变量间相互影响的绝大部分。

(2)VAR 模型对参数不施加零约束。(对无显着性的参数估计值并不从模型中剔除,不分析回归参数的经济意义。)

(3)VAR模型的解释变量中不包括任何当期变量,所有与联立方程模型有关的问题在VAR 模型中都不存在(主要是参数估计量的非一致性问题)。

(4)VAR 模型的另一个特点是有相当多的参数需要估计。比如一个 VAR 模型含有三个变量,最大滞后期 k = 3,则有 kN^2= 3×3^2= 27个参数需要估计。当样本容量较小时,多数参数的估计量误差较大。

(5)无约束 VAR 模型的应用之一是预测。由于在 VAR 模型中每个方程的右侧都不含有当期变量,这种模型用于样本外一期预测的优点是不必对解释变量在预测期内的取值做任何预测。

(6)用VAR模型做样本外近期预测非常准确。做样本外长期预测时,则只能预测出变动的趋势,而对短期波动预测不理想。

(7)VAR模型中每一个变量都必须具有平稳性。如果是非平稳的,则必须具有协整关系。

西姆斯(Sims)认为VAR模型中的全部变量都是内生变量。近年来也有学者认为具有单向因果关系的变量,也可以作为外生变量加入VAR 模型。

滞后阶数的选择

在VAR模型中,正确选择模型的滞后阶数对于模型估计和协整检验都产生一定的影响,在小样本中情况更是如此。Stata中varsoc命令给出了滞后阶数选择的几种标准,包括最终预测误差(FinalPrediction Error,FPE)、施瓦茨信息准则(Schwarz's BayesianInformation Criterion,SBIC)、汉南—昆(Hannan and QuinnInformation Criterion,HQIC)。对于这些检验,相对于默认的算法,还有另一种算法是lutstats,其运行出来的结果有差别,但对于判断没有多大的影响。

模型的估计

VAR模型在stata里的命令为var。其中默认的是2阶滞后。

命令格式:var depvarlist[if] [in] [,options]

ee261ff3bb7b06e8b93c0a5866ac990c.png

options包括:

noconstant          没有常数项

lags(numlist)       滞后阶数

exog(varlist)       外生变量

dfk                 自由度调整

small               小样本t、F统计量

lutstats            Lutkepohl滞后阶数选择统计量

34932ce4a899ab07bc69aa35589cb513.png

 案例1:

Fit vector autoregressive model with 2 lags (the default)        . var dln_inv dln_inc dln_consumpFit vector autoregressive model restricted to specified period        . var dln_inv dln_inc dln_consump if qtr<=tq(1978q4) Same as above, but include first, second, and third lags in model        . var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3)Same as above, but report the Lutkepohl versions of the lag-order selection statistics        . var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3) lutstatsReplay results with 99% confidence interval        . var, level(99)

结果为:

.  var dln_inv dln_inc dln_consumpVector autoregressionSample:  1960q4 - 1982q4                        Number of obs     =         89Log likelihood =   742.2131                     AIC               =  -16.20704FPE            =   1.84e-11                     HQIC              =  -15.97035Det(Sigma_ml)  =   1.15e-11                     SBIC              =  -15.61983Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv               7     .044295   0.1051   10.45617   0.1067dln_inc               7     .011224   0.1514   15.87886   0.0144dln_consump           7     .009938   0.2400   28.09971   0.0001----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2725654   .1093372    -2.49   0.013    -.4868623   -.0582684         L2. |  -.1340503   .1089367    -1.23   0.218    -.3475624    .0794617             |     dln_inc |         L1. |   .3374819   .4805209     0.70   0.482    -.6043217    1.279286         L2. |   .1827302    .466292     0.39   0.695    -.7311852    1.096646             | dln_consump |         L1. |   .6520473   .5450985     1.20   0.232    -.4163261    1.720421         L2. |   .5980687   .5434576     1.10   0.271    -.4670886    1.663226             |       _cons |  -.0099191   .0126649    -0.78   0.434    -.0347419    .0149037-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0433473   .0277054     1.56   0.118    -.0109542    .0976488         L2. |   .0616319   .0276039     2.23   0.026     .0075293    .1157345             |     dln_inc |         L1. |  -.1232543    .121761    -1.01   0.311    -.3619015    .1153928         L2. |   .0209769   .1181555     0.18   0.859    -.2106036    .2525573             | dln_consump |         L1. |   .3050571   .1381245     2.21   0.027      .034338    .5757762         L2. |   .0490208   .1377087     0.36   0.722    -.2208833     .318925             |       _cons |   .0125949   .0032092     3.92   0.000     .0063049    .0188848-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |   .0027381     .02453     0.11   0.911    -.0453398     .050816         L2. |   .0497402   .0244401     2.04   0.042     .0018384     .097642             |     dln_inc |         L1. |   .2893204   .1078057     2.68   0.007     .0780251    .5006157         L2. |   .3664341   .1046134     3.50   0.000     .1613955    .5714726             | dln_consump |         L1. |  -.2845172   .1222938    -2.33   0.020    -.5242086   -.0448257         L2. |  -.1159776   .1219257    -0.95   0.341    -.3549475    .1229924             |       _cons |   .0123795   .0028414     4.36   0.000     .0068104    .0179485------------------------------------------------------------------------------. end of do-file. set more off. var dln_inv dln_inc dln_consump if qtr<=tq(1978q4)Vector autoregressionSample:  1960q4 - 1978q4                        Number of obs     =         73Log likelihood =    606.307                     AIC               =  -16.03581FPE            =   2.18e-11                     HQIC              =  -15.77323Det(Sigma_ml)  =   1.23e-11                     SBIC              =  -15.37691Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv               7     .046148   0.1286   10.76961   0.0958dln_inc               7     .011719   0.1142   9.410683   0.1518dln_consump           7     .009445   0.2513   24.50031   0.0004----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.3196318   .1192898    -2.68   0.007    -.5534355   -.0858282         L2. |  -.1605508    .118767    -1.35   0.176      -.39333    .0722283             |     dln_inc |         L1. |   .1459851   .5188451     0.28   0.778    -.8709326    1.162903         L2. |   .1146009    .508295     0.23   0.822     -.881639    1.110841             | dln_consump |         L1. |   .9612288   .6316557     1.52   0.128    -.2767936    2.199251         L2. |   .9344001   .6324034     1.48   0.140    -.3050877    2.173888             |       _cons |  -.0167221   .0163796    -1.02   0.307    -.0488257    .0153814-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0439309   .0302933     1.45   0.147    -.0154427    .1033046         L2. |   .0500302   .0301605     1.66   0.097    -.0090833    .1091437             |     dln_inc |         L1. |  -.1527311    .131759    -1.16   0.246    -.4109741    .1055118         L2. |   .0191634   .1290799     0.15   0.882    -.2338285    .2721552             | dln_consump |         L1. |   .2884992   .1604069     1.80   0.072    -.0258926    .6028909         L2. |     -.0102   .1605968    -0.06   0.949    -.3249639    .3045639             |       _cons |   .0157672   .0041596     3.79   0.000     .0076146    .0239198-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |   -.002423   .0244142    -0.10   0.921     -.050274     .045428         L2. |   .0338806   .0243072     1.39   0.163    -.0137607    .0815219             |     dln_inc |         L1. |   .2248134   .1061884     2.12   0.034     .0166879    .4329389         L2. |   .3549135   .1040292     3.41   0.001     .1510199     .558807             | dln_consump |         L1. |  -.2639695   .1292766    -2.04   0.041     -.517347    -.010592         L2. |  -.0222264   .1294296    -0.17   0.864    -.2759039     .231451             |       _cons |   .0129258   .0033523     3.86   0.000     .0063554    .0194962------------------------------------------------------------------------------. var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3)Vector autoregressionSample:  1961q1 - 1978q4                        Number of obs     =         72Log likelihood =   599.9371                     AIC               =  -15.83159FPE            =   2.69e-11                     HQIC              =  -15.45394Det(Sigma_ml)  =   1.16e-11                     SBIC              =  -14.88298Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv              10     .047396   0.1345   11.19296   0.2627dln_inc              10     .011913   0.1388   11.60016   0.2368dln_consump          10     .009479   0.2782   27.75554   0.0010----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2994693   .1237607    -2.42   0.016    -.5420357   -.0569028         L2. |  -.1296602   .1288044    -1.01   0.314    -.3821121    .1227918         L3. |   .0400087   .1249301     0.32   0.749    -.2048497    .2848672             |     dln_inc |         L1. |   .1142036    .556194     0.21   0.837    -.9759165    1.204324         L2. |   .2114059   .5666988     0.37   0.709    -.8993034    1.322115         L3. |   .2262656   .5659136     0.40   0.689    -.8829047    1.335436             | dln_consump |         L1. |   .8977017   .7236713     1.24   0.215    -.5206681    2.316071         L2. |   .7526461   .7314135     1.03   0.303     -.680898     2.18619         L3. |  -.4887645   .6473229    -0.76   0.450    -1.757494    .7799651             |       _cons |  -.0097894   .0193208    -0.51   0.612    -.0476574    .0280785-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0481865   .0311079     1.55   0.121    -.0127839    .1091568         L2. |   .0494307   .0323757     1.53   0.127    -.0140245    .1128858         L3. |   .0103096   .0314018     0.33   0.743    -.0512369    .0718561             |     dln_inc |         L1. |  -.1007283   .1398023    -0.72   0.471    -.3747359    .1732793         L2. |   .0745091   .1424428     0.52   0.601    -.2046737    .3536918         L3. |   .1905335   .1422454     1.34   0.180    -.0882624    .4693294             | dln_consump |         L1. |   .1598733   .1818987     0.88   0.379    -.1966416    .5163882         L2. |  -.1130613   .1838447    -0.61   0.539    -.4733903    .2472677         L3. |  -.0494047   .1627081    -0.30   0.761    -.3683067    .2694974             |       _cons |     .01501   .0048564     3.09   0.002     .0054917    .0245283-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0013755   .0247521    -0.06   0.956    -.0498888    .0471377         L2. |   .0322491   .0257609     1.25   0.211    -.0182413    .0827394         L3. |   .0142341    .024986     0.57   0.569    -.0347375    .0632057             |     dln_inc |         L1. |   .2340344   .1112387     2.10   0.035     .0160106    .4520582         L2. |   .3458198   .1133397     3.05   0.002     .1236782    .5679615         L3. |   .1247139   .1131826     1.10   0.271    -.0971199    .3465478             | dln_consump |         L1. |   -.369419   .1447341    -2.55   0.011    -.6530927   -.0857453         L2. |  -.0403424   .1462826    -0.28   0.783     -.327051    .2463661         L3. |   .0682029   .1294645     0.53   0.598    -.1855428    .3219486             |       _cons |   .0110726   .0038641     2.87   0.004      .003499    .0186461------------------------------------------------------------------------------. var dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3) lutstatsVector autoregressionSample:  1961q1 - 1978q4                        Number of obs     =         72Log likelihood =   599.9371          (lutstats) AIC               =  -24.42855FPE            =   2.69e-11                     HQIC              =  -24.08867Det(Sigma_ml)  =   1.16e-11                     SBIC              =   -23.5748Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv              10     .047396   0.1345   11.19296   0.2627dln_inc              10     .011913   0.1388   11.60016   0.2368dln_consump          10     .009479   0.2782   27.75554   0.0010----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2994693   .1237607    -2.42   0.016    -.5420357   -.0569028         L2. |  -.1296602   .1288044    -1.01   0.314    -.3821121    .1227918         L3. |   .0400087   .1249301     0.32   0.749    -.2048497    .2848672             |     dln_inc |         L1. |   .1142036    .556194     0.21   0.837    -.9759165    1.204324         L2. |   .2114059   .5666988     0.37   0.709    -.8993034    1.322115         L3. |   .2262656   .5659136     0.40   0.689    -.8829047    1.335436             | dln_consump |         L1. |   .8977017   .7236713     1.24   0.215    -.5206681    2.316071         L2. |   .7526461   .7314135     1.03   0.303     -.680898     2.18619         L3. |  -.4887645   .6473229    -0.76   0.450    -1.757494    .7799651             |       _cons |  -.0097894   .0193208    -0.51   0.612    -.0476574    .0280785-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0481865   .0311079     1.55   0.121    -.0127839    .1091568         L2. |   .0494307   .0323757     1.53   0.127    -.0140245    .1128858         L3. |   .0103096   .0314018     0.33   0.743    -.0512369    .0718561             |     dln_inc |         L1. |  -.1007283   .1398023    -0.72   0.471    -.3747359    .1732793         L2. |   .0745091   .1424428     0.52   0.601    -.2046737    .3536918         L3. |   .1905335   .1422454     1.34   0.180    -.0882624    .4693294             | dln_consump |         L1. |   .1598733   .1818987     0.88   0.379    -.1966416    .5163882         L2. |  -.1130613   .1838447    -0.61   0.539    -.4733903    .2472677         L3. |  -.0494047   .1627081    -0.30   0.761    -.3683067    .2694974             |       _cons |     .01501   .0048564     3.09   0.002     .0054917    .0245283-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0013755   .0247521    -0.06   0.956    -.0498888    .0471377         L2. |   .0322491   .0257609     1.25   0.211    -.0182413    .0827394         L3. |   .0142341    .024986     0.57   0.569    -.0347375    .0632057             |     dln_inc |         L1. |   .2340344   .1112387     2.10   0.035     .0160106    .4520582         L2. |   .3458198   .1133397     3.05   0.002     .1236782    .5679615         L3. |   .1247139   .1131826     1.10   0.271    -.0971199    .3465478             | dln_consump |         L1. |   -.369419   .1447341    -2.55   0.011    -.6530927   -.0857453         L2. |  -.0403424   .1462826    -0.28   0.783     -.327051    .2463661         L3. |   .0682029   .1294645     0.53   0.598    -.1855428    .3219486             |       _cons |   .0110726   .0038641     2.87   0.004      .003499    .0186461------------------------------------------------------------------------------.  var, level(99)Vector autoregressionSample:  1961q1 - 1978q4                        Number of obs     =         72Log likelihood =   599.9371          (lutstats) AIC               =  -24.42855FPE            =   2.69e-11                     HQIC              =  -24.08867Det(Sigma_ml)  =   1.16e-11                     SBIC              =   -23.5748Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv              10     .047396   0.1345   11.19296   0.2627dln_inc              10     .011913   0.1388   11.60016   0.2368dln_consump          10     .009479   0.2782   27.75554   0.0010----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [99% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.2994693   .1237607    -2.42   0.016    -.6182556    .0193171         L2. |  -.1296602   .1288044    -1.01   0.314    -.4614383     .202118         L3. |   .0400087   .1249301     0.32   0.749    -.2817898    .3618072             |     dln_inc |         L1. |   .1142036    .556194     0.21   0.837    -1.318457    1.546864         L2. |   .2114059   .5666988     0.37   0.709    -1.248314    1.671125         L3. |   .2262656   .5659136     0.40   0.689    -1.231431    1.683963             | dln_consump |         L1. |   .8977017   .7236713     1.24   0.215    -.9663522    2.761755         L2. |   .7526461   .7314135     1.03   0.303     -1.13135    2.636642         L3. |  -.4887645   .6473229    -0.76   0.450    -2.156158    1.178629             |       _cons |  -.0097894   .0193208    -0.51   0.612    -.0595564    .0399775-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |   .0481865   .0311079     1.55   0.121    -.0319422    .1283151         L2. |   .0494307   .0323757     1.53   0.127    -.0339636    .1328249         L3. |   .0103096   .0314018     0.33   0.743    -.0705762    .0911954             |     dln_inc |         L1. |  -.1007283   .1398023    -0.72   0.471    -.4608353    .2593787         L2. |   .0745091   .1424428     0.52   0.601    -.2923993    .4414174         L3. |   .1905335   .1422454     1.34   0.180    -.1758665    .5569335             | dln_consump |         L1. |   .1598733   .1818987     0.88   0.379    -.3086667    .6284132         L2. |  -.1130613   .1838447    -0.61   0.539    -.5866139    .3604913         L3. |  -.0494047   .1627081    -0.30   0.761     -.468513    .3697037             |       _cons |     .01501   .0048564     3.09   0.002     .0025008    .0275192-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0013755   .0247521    -0.06   0.956    -.0651327    .0623817         L2. |   .0322491   .0257609     1.25   0.211    -.0341065    .0986046         L3. |   .0142341    .024986     0.57   0.569    -.0501255    .0785937             |     dln_inc |         L1. |   .2340344   .1112387     2.10   0.035    -.0524975    .5205662         L2. |   .3458198   .1133397     3.05   0.002     .0538762    .6377634         L3. |   .1247139   .1131826     1.10   0.271    -.1668252     .416253             | dln_consump |         L1. |   -.369419   .1447341    -2.55   0.011    -.7422294    .0033914         L2. |  -.0403424   .1462826    -0.28   0.783    -.4171413    .3364565         L3. |   .0682029   .1294645     0.53   0.598    -.2652755    .4016812             |       _cons |   .0110726   .0038641     2.87   0.004     .0011192    .0210259------------------------------------------------------------------------------. 

VAR模型相关检验

1)平稳性检验:命令为varstable

例子:

use http://www.stata-press.com/data/r11/lutkepohl2,clear

var dln_inv dln_incdln_consump if qtr>=tq(1961q2) & qtr<=tq(1978q4)

varstable, graph       /*图示模的分布*/

代码为

Setupwebuse lutkepohl2Fit vector autoregressive modelvar dln_inv dln_inc dln_consump if qtr>=tq(1961q2) & qtr<=tq(1978q4)Check stability of the var resultsvarstable Same as above, but graph eigenvalues of the companion matrix varstable, graphSame as above, but suppress polar grid circlesvarstable, graph nogridStore estimation results in var1estimates store var1

结果为:

. var dln_inv dln_inc dln_consump if qtr>=tq(1961q2) & qtr<=tq(1978q4)Vector autoregressionSample:  1961q2 - 1978q4                        Number of obs     =         71Log likelihood =   588.8592                     AIC               =  -15.99603FPE            =   2.27e-11                     HQIC              =   -15.7299Det(Sigma_ml)  =   1.26e-11                     SBIC              =  -15.32679Equation           Parms      RMSE     R-sq      chi2     P>chi2----------------------------------------------------------------dln_inv               7      .04613   0.1214   9.811165   0.1328dln_inc               7     .011869   0.1056   8.383441   0.2113dln_consump           7     .009545   0.2425   22.73109   0.0009----------------------------------------------------------------------------------------------------------------------------------------------             |      Coef.   Std. Err.      z    P>|z|     [95% Conf. Interval]-------------+----------------------------------------------------------------dln_inv      |     dln_inv |         L1. |  -.3183992   .1190906    -2.67   0.008    -.5518126   -.0849859         L2. |   -.163626   .1188877    -1.38   0.169    -.3966416    .0693895             |     dln_inc |         L1. |   .2159195   .5383717     0.40   0.688    -.8392697    1.271109         L2. |   .0057851   .5178665     0.01   0.991    -1.009215    1.020785             | dln_consump |         L1. |   .8238562   .6396106     1.29   0.198    -.4297575     2.07747         L2. |   .8851109   .6417706     1.38   0.168    -.3727365    2.142958             |       _cons |  -.0132206   .0165186    -0.80   0.424    -.0455965    .0191553-------------+----------------------------------------------------------------dln_inc      |     dln_inv |         L1. |    .044269   .0306417     1.44   0.149    -.0157876    .1043257         L2. |   .0488712   .0305895     1.60   0.110    -.0110831    .1088256             |     dln_inc |         L1. |  -.1326707   .1385217    -0.96   0.338    -.4041682    .1388268         L2. |   .0183007   .1332458     0.14   0.891    -.2428562    .2794576             | dln_consump |         L1. |   .2716157   .1645702     1.65   0.099     -.050936    .5941674         L2. |  -.0256676    .165126    -0.16   0.876    -.3493086    .2979733             |       _cons |   .0159993   .0042502     3.76   0.000     .0076691    .0243296-------------+----------------------------------------------------------------dln_consump  |     dln_inv |         L1. |  -.0027652   .0246407    -0.11   0.911    -.0510601    .0455297         L2. |   .0352362   .0245987     1.43   0.152    -.0129764    .0834488             |     dln_inc |         L1. |   .2040011   .1113929     1.83   0.067    -.0143251    .4223272         L2. |   .3390123   .1071503     3.16   0.002     .1290017    .5490229             | dln_consump |         L1. |  -.2589165     .13234    -1.96   0.050    -.5182981     .000465         L2. |  -.0054435   .1327869    -0.04   0.967     -.265701     .254814             |       _cons |   .0131123   .0034178     3.84   0.000     .0064135    .0198111------------------------------------------------------------------------------. varstable   Eigenvalue stability condition  +----------------------------------------+  |        Eigenvalue        |   Modulus   |  |--------------------------+-------------|  |   .5456253               |   .545625   |  |  -.3785754 +  .3853982i  |   .540232   |  |  -.3785754 -  .3853982i  |   .540232   |  |  -.0643276 +  .4595944i  |   .464074   |  |  -.0643276 -  .4595944i  |   .464074   |  |  -.3698058               |   .369806   |  +----------------------------------------+   All the eigenvalues lie inside the unit circle.   VAR satisfies stability condition.. varstable, graph   Eigenvalue stability condition  +----------------------------------------+  |        Eigenvalue        |   Modulus   |  |--------------------------+-------------|  |   .5456253               |   .545625   |  |  -.3785754 +  .3853982i  |   .540232   |  |  -.3785754 -  .3853982i  |   .540232   |  |  -.0643276 +  .4595944i  |   .464074   |  |  -.0643276 -  .4595944i  |   .464074   |  |  -.3698058               |   .369806   |  +----------------------------------------+   All the eigenvalues lie inside the unit circle.   VAR satisfies stability condition..

c147ad65bc0d585f96196ddc8a65f820.png

2)检验滞后阶数的显著性:命令varwle

代码为

Setupwebuse lutkepohl2Fit vector autoregressive modelvar dln_inv dln_inc dln_consump if qtr<=tq(1978q4), dfk small/*检验特定滞后阶数的联合显著性*/  Obtain Wald lag-exclusion statistics after var varwle

3)残差正态分布检验

在stata里,常用的命令为varnorm。它提供了三种检验:峰度、偏度以及Jarque–Bera检验,其中Jarque–Bera检验综合了峰度和偏度的检验,相当于整体的正态分布检验。

例子:

use http://www.stata-press.com/data/r11/lutkepohl2,clear

var dln_inv dln_incdln_consump if qtr<=q(1978q4),lag(1/2) dfk small

varnorm

* 三个统计量均无法拒绝残差服从正态分布的原假设

var dln_inv dln_incdln_consump,lag(1/2) dfk small

varnorm 

* 此时可能需要考虑增加滞后阶数或近一步修正模型的设定

4)残差序列相关检验:命令varlmar

当Prob > chi2值大于0.05时,我们就可以判定其不存在自相关。

例子:

use http://www.stata-press.com/data/r11/lutkepohl2,clear

var dln_inv dln_incdln_consump if qtr<=q(1978q4),lag(1/2) dfk small

varlmar

varlmar, mlag(5)

4.4 格兰杰因果检验

格兰杰因果检验的命令为vargranger。格兰杰因果检验的虚无假设是X对Y不存在因果关系。在stata的检验结果里面,当P值小于0.05即拒绝虚无假设,即表明X对Y存在因果关系。

代码为:

Setupwebuse lutkepohl2tssetFit a vector autoregressive (VAR) modelvar dln_inv dln_inc dln_consump if qtr<=tq(1978q4)Store estimation results in basicestimates store basicFit a second VAR modelvar dln_inv dln_inc dln_consump if qtr<=tq(1978q4), lags(1/3) dfk small Perform pairwise Granger causality tests on the second VAR modelvargranger

脉冲响应和方差分解

脉冲响应和方差分解是一个问题的两个方面。脉冲响应是衡量模型中的内生变量如何对一个变量的脉冲(冲击)做出响应,而方差分解则是如何将一个变量的响应分解到模型中的内生变量。Stata的irf命令用于计算VAR、SVAR、VEC模型的脉冲响应、动态乘子和方差分解。

* -- 基本步骤* 步骤1: 估计VAR模型webuse lutkepohl2var dln_inv dln_inc dln_consump,lag(1/2) dfk small* 步骤2: 生成IRF文件irf create order1, step(10) set(myirf1) replace* 步骤3: 画图irf graph oirf, impulse(dln_inc) response(dln_consump) irf(order1) xlabel(#10)

bede2b0e2d92fcb8ab59b7596222da69.png

脉冲响应IRF和方差分解FEVD可以产生在同一个文件里头。irf命令产生了myirf1.irf文件和把一种结果模式放在里面,命名为order1。order1结果包括简单脉冲响应、正交化脉冲响应、累积脉冲响应、累积正交化脉冲响应和Cholesky方差分解。

下面我们使用相同的var估计模型,但用另一种不同的命令来产生第二种IRF结果模式,命名为order2储存在相同的文件里面,并画出这两种结果:

irf create order2, step(10)order(dln_inv dln_inc dln_consump) replace

irf graph oirf, irf(order1order2) impulse(dln_inc) response(dln_consump)

协整分析和误差修正

在这里可以对打个比方,协整就像一个喝醉酒的人牵着一条狗,即使人和狗的距离有时近有时远,但两者的距离始终是不会超过绳子的长度,一旦人和狗的距离超过绳子的长度,则接下来在绳子的作用下,人和狗的距离将会被拉近。

长期均衡关系与协整

经济理论指出,某些经济变量间确实存在着长期均衡关系。这种均衡关系意味着经济系统不存在破坏均衡的内在机制。如果变量在某时刻受到干扰后偏离其长期均衡点,则均衡机制将会在下一期进行调整以使其重新回到均衡状态。

假设X与Y间的长期“均衡关系”由下式表现出来:

Yt=a0+a1Xt+ut

这样的话,如果上式提示了X与Y间的长期稳定的“均衡关系”,则意味着Y对其均衡点的偏离从本质上说是“临时性”的。因此,一个重要的假设就是随机干扰项ut必须是平稳序列。显然,如果ut有随机性趋势(上升或下降),则会导致Y对其均衡点的任何偏离都会被长期累积下来而不能被消除。随机干扰项ut也被称为非均衡误差,它将在误差修正模型里面被引入作为解释变量。

如果X与Y是一阶单整序列,即I(1)序列,而ut又是平稳序列,即I(0),则我们称变量X与Y是协整的,记为I(1,1),ut不是平稳序列的话,则称为I(1,0)。而要是X与Y是I(2)序列的话,且ut是平稳序列,则变量X与Y是(2,2)阶协整。

因此,如果两个变量都是单整变量,只有当它们的单整阶数相同时,才有可能协整。但如果是三个以上的变量,如果具有不同的单整阶数,则有可能经过线性组合构成低阶单整变量。

在现实的应用中,我们比较看重(d,d)阶协整这类协整关系,因为如果它们是(d,d)阶协整的,则它们之间存在着一个长期稳定的比例关系。

应用:检验变量之间的协整关系,在建立变量之间的协整关系,在建立计量经济模型中是非常重要的。而且,从变量之间是否具有协整关系出发选择模型的变量,其数据基础是牢固的,其统计性质是优良的。

最先检验变量的协整关系的方法是两变量的Engle-Granger检验,其方法是先对双变量进行回归估计得出结构方程,进而得出非均衡误差,这样要是检验出的非均衡误差是稳定序列的话,则可判断两变量是(d,d)协整。在检验非均衡误差是稳定序列过程中,其判断标准要根据变量协整的ADF临界值来判断。对于多变量协整检验的方法与双变量的相类似。

最新发展的协整检验是Johansen于1988年,以及与Juselius一起于1990年提出了一种基于向量自回归模型的多重协整检验方法,通常称为Johansen检验,或JJ检验。在stata这个计量软件里面,其判断协整个数的vecrank命令就是基于JJ检验的。

误差修正模型

建立误差修正模型,需要首先对变量进行协整分析,以发现变量之间的协整关系,即长期均衡关系,并以这种关系构成误差修正项。然后建立短期模型,将误差修正项看做一个解释变量,连同其他反映短期波动的解释变量一起,建立短期模型,即误差修正模型。由此我们可以利用误差修正方程进行短期的预测。

优点:误差修正模型相对于上面的向量自回归,要是我们所分析的经济变量具有协整关系的话,那么向量自回归模型就会容易引起残差的序列相关问题。因为向量自回归模型一般为了平稳,都是采用变量的差分形式,则其差分方程如:DY(t)=a1DX(t)+v(t),其中v(t)=u(t)-u(t-1)

另外一方面,向量自回归模型由于采用差分形式,则关于变量水平值的重要信息将会被忽略,这样的模型只表达了变量间的短期关系,并没有揭示长期关系。而采用误差修正模型则很好的避免了上述的两个问题了。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/328668.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

关于TCP/IP必须知道的几个基础问题

转载自 关于TCP/IP必须知道的几个基础问题描述一下TCP三次握手的过程 接下来我们根据下面这幅图来解释一下TCP三次握手。p.s: 每个箭头代表一次握手。第一次握手 client(客户端)发送一个SYN(seqx)包给server(服务器)&#xff0c;然后“期待”server的ACK回复。p.s: seq为sequ…

升讯威微信营销系统开发实践:(3)中控服务器的设计 .Net 还是 Java?

在上一篇文章中&#xff0c;简要介绍了升讯威微信营销系统的功能设计和架构设计&#xff0c;限于篇幅只能抛砖引玉&#xff0c;从本章节开始将围绕功能的设计和架构的设计进行详细的论述。 中控服务器的设计 在上文中&#xff0c;我们谈到需要一个中控服务器&#xff0c;用来维…

Java 虚拟机部分面试题

https://www.imooc.com/article/31018?block_idtuijian_wz https://www.imooc.com/article/31018?block_idtuijian_wz https://github.com/Snailclimb/Java_Guide https://github.com/Snailclimb/Java_Guide

linux 提取cpio_15. Linux提取RPM包文件(cpio命令)详解

在讲解如何从 RPM 包中提取文件之前&#xff0c;先来系统学习一下 cpio 命令。cpio 命令用于从归档包中存入和读取文件&#xff0c;换句话说&#xff0c;cpio 命令可以从归档包中提取文件(或目录)&#xff0c;也可以将文件(或目录)复制到归档包中。归档包&#xff0c;也可称为文…

升讯威微信营销系统开发实践:(2)功能设计与架构设计

在上一篇中&#xff0c;我们详细分析了微信订阅号和服务号的区别&#xff0c;在本篇中&#xff0c;将进入正题&#xff1a;升讯威微信营销系统的功能设计及架构设计。 一、功能设计 1&#xff09;设计目标 ◇ 为微信服务号提供运营及管理所需的各种功能&#xff0c;包括微官网、…

解读分库分表中间件Sharding-JDBC

转载自 解读分库分表中间件Sharding-JDBC编者按】数据库分库分表从互联网时代开启至今&#xff0c;一直是热门话题。在NoSQL横行的今天&#xff0c;关系型数据库凭借其稳定、查询灵活、兼容等特性&#xff0c;仍被大多数公司作为首选数据库。因此&#xff0c;合理采用分库分表…

java面试设计模式

https://blog.csdn.net/yinyuehepijiu/article/details/38663843

新闻发布项目——实体类(User)

package bdqn.newsMange.entity; /*** User的实体类* author Administrator**/ public class User {private int userId;//编号private String userName;//用户名private String userPassword;//密码private String uRole;//角色public int getUserId() {return userId;}public…

js webpack 配置路径_webpack中如何设置html引入js的路径

如题所示,如果webpack这样配置var htmlWebpackPlugin require(html-webpack-plugin);const CleanWebpackPlugin require(clean-webpack-plugin);let pathsToClean [dist,];module.exports {entry: ./src/app.js,output: {path: __dirname /dist,filename: main.[chunkhash…

HTTP 报文结构

https://www.jianshu.com/p/a2c4ede32d11

Java魔法堂:URI、URL(含URL Protocol Handler)和URN

转载自 Java魔法堂&#xff1a;URI、URL&#xff08;含URL Protocol Handler&#xff09;和URN一、前言                              过去一直搞不清什么是URI什么是URL&#xff0c;现在是时候好好弄清楚它们了&#xff01;本文作为学习笔记…

升讯威微信营销系统开发教程:(1)订阅号和服务号深入分析

微信开发系列教程&#xff0c;将以一个实际的微信平台项目为案例&#xff0c;深入浅出的讲解微信开发、应用各环节的实现方案和技术细节。 原创内容&#xff0c;欢迎转载&#xff0c;转载请注明出处。 首先在第1章节中&#xff0c;我们先理清什么是订阅号&#xff0c;什么又是服…

不安装cudnn可不可以_Linux非root用户如何优雅的安装cuda和cudnn

Linux非root用户如何优雅的安装cuda和cudnn发布时间&#xff1a;2018-05-23 16:11,浏览次数&#xff1a;804, 标签&#xff1a;LinuxrootcudacudnnLinux非root用户如何优雅的安装cuda和cudnn跑深度学习模型时&#xff0c;总会遇到各种版本的问题。如深度学习框架与cuda的版本不…

如果你也会C#,那不妨了解下F#(4):了解函数及常用函数

函数式编程其实就是按照数学上的函数运算思想来实现计算机上的运算。虽然我们不需要深入了解数学函数的知识&#xff0c;但应该清楚函数式编程的基础是来自于数学。 例如数学函数f(x) x^2x&#xff0c;并没有指定返回值的类型&#xff0c;在数学函数中并不需要关心数值类型和返…

新闻发布项目——实体类(newsTb)

package bdqn.newsMange.entity;import java.util.Date;/*** 新闻的实体类* author Administrator**/ public class newsTb {private int newsID;// 编号private int categoryID;//类别编号(外键)private String summary;// 摘要private String title;//题目private String con…

Java URL协议扩展实现

转载自 Java URL协议扩展实现在信息交互系统设计中&#xff0c;不乏有自定义通讯协议设计。本章会介绍如何利用 java.net.URL 类来自定义协议。一般而言&#xff0c; URL 的格式是&#xff1a; protocol://[authority]hostname:port/resource?queryString 。 URL 类能够解析…

axure8 事件改变样式_AxureRP8实战手册-案例2(文本框:边框变色)

案例2. 文本框&#xff1a;边框变色案例来源:百度-登录界面案例效果&#xff1a;光标进入文本框时&#xff1a;(图1-6)案例描述&#xff1a;在登录界面中&#xff0c;包含用户名与密码的输入框。当焦点进入输入框时&#xff0c;输入框边框与内部图标变为蓝色&#xff1b;失去…

URL的getFile()和getPath()方法的区别

转载自 URL的getFile()和getPath()方法的区别 import java.net.MalformedURLException; import java.net.URL; public class dd { /** * param args */ public static void main(String[] args) { try { URL url new URL("file://ftp.yoyodyne.com/pub/files/fo…

webpack打包发布

npm run dev npm run dist --线上 git status git add . git commit -am "online adapter" git push git pull git branch --查看当前分支是在哪里master 还是 admin yarn install v1.3.2 yarn run dist -- 打包 fe-deply.sh --shell脚本 自动发布脚本 gi…

介绍开源的.net通信框架NetworkComms

Networkcomms 是一款C# 语言编写的TCP/UDP通信框架 作者是英国人 以前是收费的 目前作者已经开源 开源地址是:https://github.com/MarcFletcher/NetworkComms.Net networkcomms通讯框架使用简单方便,性能稳定. 从github上下载到源码后,需要Visual studio安装nuget 加载相关D…