三、建模逻辑与改进后的实证框架

(一)货币政策分析框架

“校准”(calibration)与VAR方法作为现代宏观经济学的两种主流实证分析方法,所依据的哲学基础却是截然不同的:校准方法由理论驱动(theory-driven),而VAR技术由数据驱动(data-driven)。校准方法理论驱动的特点在于保持经济理论正确的信念,实证的目的在于让数据与理论相一致。VAR技术的数据驱动表现为“让数据开口说话”,并不施加过多由理论导出的先验约束(prior restriction),实证的目的在于观察数据是否与理论吻合,甚至去发现理论与现实的差距。后者构成了本章实证检验的逻辑起点。

姑且不论检验方法的合适性,格兰杰因果检验作为VAR分析的一个“副产品”仍旧强调所依托的模型的完整性。VAR系统的构建,一方面不能遗漏重要变量,否则会影响估计结果的可靠性;另一方面,因待估参数较多,对数据要求较大等,进入VAR系统的变量不宜过多。因此,实证研究者需要在两者之间进行权衡。这时理论模型的重要性就在于明确哪些变量应该被纳入VAR的分析框架中。Guglielmo et al.(2002)建议其引入货币政策框架来分析价格传导问题。

近年来,西方主流文献对货币政策的研究主要是基于在微观基础上推导出的新凯恩斯模型(Clarida et al.,1999)。附加预期的IS曲线、菲利普斯曲线、央行的最优利率规则可表述为实际产出、通胀和货币政策工具(利率)相互决定的三维动态系统,并已经成为刻画货币政策传导的基准范式(张成思,2008)。若加入了货币供给方程,新凯恩斯框架下一般是作为约束条件来求解最优利率规则。

式中,yt为实际产出;πt为通货膨胀率;it为利率工具;Et为期望式子;为总需求扰动;为成本冲击;为货币政策冲击;π为均衡通胀率;φβκγπγy为联系模型变量的深度参数,具体经济含义此处不再赘述。

具体来看,真实利率降低刺激投资,拉动产出增加(IS曲线),产出(总需求)增加带来通胀的压力(菲利普斯曲线),这时央行就需要根据利率规则来调控中介目标——利率,于是利率通过IS曲线再次作用于产出。这样,货币政策就实现了通胀与产出权衡选择的动态过程。基于这一思想可以构建(结构)向量自回归模型来揭示宏观变量间的动态变化关系。

但是要指出的是,这里最优利率规则的确定或是中央银行从宏观约束条件出发以利率为中介目标来最大化全社会(货币当局)福利,或是直接外生给定利率工具对宏观变量起反应,如泰勒规则(Taylor rule),麦克勒姆规则(McCallum rule)。然而,中国利率市场化的程度与西方发达经济体相去甚远,因此对理论框架的借鉴,既要考虑分析问题的可行性,又要兼顾建模背景的差异性。中国目前是转轨经济,利率管制尚未解除,利率难以在政策传导中发挥其应有的作用,政策当局依然依靠货币数量控制工具。1994年央行制定的金融体制决定将货币政策中介目标由贷款规模改为货币供给量,并于1998年正式以货币供给量为中介目标,进行“相机抉择”的货币政策操作。

因此,在我国尚未完全实现利率市场化的背景下,我们采用广义货币(M2)来衡量我国在货币政策上的反应。与Guglielmo et al.(2002)的五变量模型稍有不同,仅以包含四个变量—货币供应量M2、真实GDP水平、价格水平(PPI和CPI)的向量自回归过程(VAR)来描画货币政策的动态特征。

(二)实证模型介绍

本章沿袭一般文献的做法,采用格兰杰因果检验来揭示价格水平(PPI和CPI)间的传导关系。基于VAR系统来定义的传统的格兰杰因果检验,可分为“基于水平(level)VAR模型的因果关系检验”与“基于差分(difference)VAR模型(即向量误差修正模型,VECM)的因果关系检验”。一般来说,传统水平VAR模型要求变量平稳。如果变量具有单整特征,直接采用水平VAR模型进行因果关系检验,会因统计量的标准渐近分布(如Wald统计量对应的χ2分布)不再有效,而得到一些“谬误”的结论(Sims, Stock and Watson,1990)。鉴于直接差分非平稳的VAR模型会丢失长期推动信息,检验非平稳序列的格兰杰因果关系要求先对变量的协整性作出判断,只有在协整关系成立的条件下,才可在VECM的构架下进行因果检验。以此而论,变量的非平稳属性及变量间的协整性前提极大地限制了传统方法的应用。

因此,当研究者并不关注变量的协整性而只关注其因果关系,或者不存在协整性但需要在兼顾信息完整性前提下研究其因果关系时,就需要一种全新的检验模式,即在不考虑变量的单整性和协整性的情况下进行变量之间的因果关系检验。为此,Toda and Yamamoto(1995)提出了基于滞后期增广VAR模型的因果关系检验。

先考虑一个VAR(p)模型,最佳滞后阶由信息准则确定:

yt=B0+B1yt-1+…+Bpyt-p+εt

式中,yt, B0, εtn维向量(其中n为模型中变量的个数); Br为滞后阶数是r时的n×n系数矩阵(其中r=0,1, …, p);误差向量εt为零均值的独立同分布过程。在运用LAVAR模型进行因果关系检验时,研究者不需要事先检验(pre-test)模型中各变量的平稳性及变量间的协整性,而只需在水平VAR(p)过程中引入一个额外的滞后阶数d(其中d为各变量的最大单整阶数),运用SUR方法估计VAR(p+d)模型(Rambaldi and Doran,1996),并据此进行因果关系检验。总的来说,这一方法是在水平VAR模型的因果关系检验的基础上考虑了额外滞后阶数d对检验结果的影响。

Toda and Yamamoto(1995)提出的VAR(p+d)模型可表示为:

yt=C0+C1yt-1+…+Cpyt-p+…+Cp+dyt-p-d+et

yt中的第k个元素不是第j 个元素的格兰杰原因的原假设,可以记做:

H0:Crj 行、k列元素均为零

需要指出的是,在Granger因果检验中,额外滞后d项的系数是无约束的。Toda and Yamamoto(1995)证明了当残差满足正态分布的假定时,这d项无约束的系数确保了渐近分布理论的适用性。

为了检验上述格兰杰因果关系,Toda and Yamamoto(1995)首先定义了修正的Wald统计量(以下简称MWALD),此后Zapata and Rambaldi(1997)通过Monte Carlo实验比较了MWALD与该假设检验依托的另外两个统计量——Wald和LR——后发现,就水平扭曲(size)和检验势(power)来看,MWALD在样本为50以上时有更佳的表现。

要得到MWALD解析式,可先将估计的VAR(p+d)模型“紧凑”地表示如下(Hacker and Hatemi-J,2006):

Y=CZ+δ

式中,Y=[y1yT]为n×T矩阵(T为样本容量);

C=[C0C1CpCp+d]为n×(1+np+d))矩阵;

Zt=[1 yt yt-1yt-p-d+1′]为(1+n×(p+d))× 1矩阵;

Z=[Z0ZT-1]为(1+np+d))×T矩阵;

δ=[e1eT]为n×T矩阵。

基于以上紧凑表示,MWALD可表示为:

式中,q为一个p ×n(1+np+d)的指标矩阵(也即零约束矩阵),其表示形式为

式中,o1n维零行向量;o2n2维零行向量;αn2维行向量,其第(nk-1)+j)个元素为1,其他元素为零;ΩU表示原假设条件约束下残差的协方差矩阵;,这里vec表示列堆积算子。对MWALD统计量来说,自由度为需要检验的约束的数量,即是p。当误差项服从正态分布时,MWALD统计量渐近地服从自由度为p的标准χ2分布。

但是Hacker and Hatemi-J(2005)通过Monte Carlo仿真模拟发现,当误差项不服从正态性假定或存在自回归的条件异方差(ARCH)效应时,MWALD统计量都容易过度拒绝不存在格兰杰因果关系的原假设。于是Hacker和Hatemi-J建议在格兰杰因果检验中引入杠杆拔靴检验,即借助杠杆调整残差重新抽样生成MWALD的经验分布,由此给出更加精确的临界值,进而减少统计推断中的偏差。

具体操作步骤如下:

第一步,在不存在格兰杰因果关系的原假设约束下采用SUR方法估计Near-VAR模型,得到系数和残差

第二步,使用Near-VAR系统中的单方程投影矩阵(project matrix)对进行“杠杆调整”(leveraged adjustment),然后再去中心化,得到的零均值且不变方差的新残差序列δ

第三步,通过回归式估计系数,原始数据Z和Bootstrap再抽样生成残差,得到Y,即

第四步,以Y为新样本估计无约束模型,计算原假设下的MWALD。

第五步,重复第三步和第四步B次(即Bootstrap次数),得到MWALD统计量的经验分布。接着找出经验分布上的α分位数,即为α水平的“Bootstrap临界值”——

第六步,计算原始数据的真实MWALD统计量。如果在α显著水平下,真实的MWALD大于,那么就可以拒绝不存在格兰杰因果关系的原假设。