计量经济学与实验经济学的若干新近发展及展望Word格式.docx

上传人:b****4 文档编号:17680340 上传时间:2022-12-08 格式:DOCX 页数:9 大小:28.50KB
下载 相关 举报
计量经济学与实验经济学的若干新近发展及展望Word格式.docx_第1页
第1页 / 共9页
计量经济学与实验经济学的若干新近发展及展望Word格式.docx_第2页
第2页 / 共9页
计量经济学与实验经济学的若干新近发展及展望Word格式.docx_第3页
第3页 / 共9页
计量经济学与实验经济学的若干新近发展及展望Word格式.docx_第4页
第4页 / 共9页
计量经济学与实验经济学的若干新近发展及展望Word格式.docx_第5页
第5页 / 共9页
点击查看更多>>
下载资源
资源描述

计量经济学与实验经济学的若干新近发展及展望Word格式.docx

《计量经济学与实验经济学的若干新近发展及展望Word格式.docx》由会员分享,可在线阅读,更多相关《计量经济学与实验经济学的若干新近发展及展望Word格式.docx(9页珍藏版)》请在冰豆网上搜索。

计量经济学与实验经济学的若干新近发展及展望Word格式.docx

计量经济学的发展日益与经济学各分支学科的发展紧密结合,并反过来极大促进了经济学各分支学科的发展。

诺贝尔经济学奖获得者麦克法登(DanielL.McFadden,2000)、赫克曼(JamesHeckman,2000)、格兰杰(CliveW.J.Granger,2003)、恩格尔(RobertF.Engle,2003)与汉森(LarsPeterHansen,2013)都是因为提出新的计量方法促进了劳动经济学、产业经济学、宏观经济学、金融学等相关经济学分支学科的发展而获此殊荣。

在现代经济学的教学与研究体系中,计量经济学已经成为与微观经济学、宏观经济学并列的三大学科,成为经济学各分支学科最核心的方法论基础。

实验经济学则是最近四十余年兴起的一门新的交叉学科,结合认知心理学、神经科学、社会学和人类学的相关研究方法,涵盖了决策论、经济学、金融学、博弈论、管理科学、市场营销或政治学等多个研究领域。

实验经济学以模拟实体经济决策环境和验证理论模型为目的,通过仿真方法创造与实际经济相似的实验室环境,观察分析受到物质报酬激励的受试对象如何在一定规则下进行决策,从而研究人们行为决策。

经济学家通过调整实验参数以及对不同参数下产生的实验数据进行整理、加工与分析来检验已有的经济理论及其前提假设,或者发现新的理论,或者为一些决策提供理论分析的基础。

实验经济学之所以产生和发展的一个重要原因是因为基于可控实验而得到的数据能够很好地避免数据的内生性问题(-endogeneity)。

众所周知,因果关系研究是自然科学研究和

社会科学研究的一个核心内容。

相对于现实环境下自然产生的经济决策实际数据而言,实验经济学数据是在事前已经尽可能控制了各种干扰混淆因素条件下产生的,从而数据相对比较整洁,有利于经济学研究人员发现并研究经济因素之间的因果关系。

实验研究方法已经成为微观经济学、宏观经济学、公共经济学、金融经济学、劳动经济学、金融学、市场学、组织行为学、会计学和管理科学等领域的核心研究方法。

这些领域国际最顶尖学术期刊都会定期发表一些运用实验技术完成的研究成果。

目前已有卡纳曼(DanielKahneman,2002)、史密斯(VernonL.Smith,2002)和罗斯(AlvinE.Roth,2012)三位经济学家因其在实验经济学方面的贡献而荣膺诺贝尔经济学奖。

在下文中,我们首先对计量经济学与实验经济学在最近一二十年来的发展做一简单介绍。

作为与实证研究和应用研究密切相关的学科,计量经济学与实验经济学的发展从来就受到两方面需求的推动,其一是理论发展与政策分析的需求,其二是数据特征与数据可得性的需求。

之后,对国内计量经济学与实验经济学发展的现状做一简单评述,最后对一些亟需发展的计量经济学与实验经济学研究领域提出若干建议。

二、计量经济学的若干最新发展

(一)面板数据计量经济学

面板数据(paneldata)是将截面数据和时间序列数据综合起来的一种新的数据类型。

和单一的时间序列数据相比,面板数据能够提供不同个体在同一时点的横截面信息;

和纯粹的截面数据相比,面板数据又能够提供同一个体在不同时间点的动态变化。

因此,和传统的横截面模型与时间序列模型相比,面板数据模型在模型估计、假设检验和管理科学应用等方面具有明显的优势。

国内外高质量面板数据的出现极大推动了面板数据计量经济学的发展,在宏观经济学和应用微观计量经济学等各个领域都有非常重要的应用。

面板数据计量经济学的最新发展主要集中在三个部分,其一是非线性面板数据建模的发展,包括各类非参数半参数条件均值模型、条件分位数模型和离散数据模型等。

函数系数模型(Caietal.,2000;

Caietal.,2000)采取可加模型的形式,解释变量的系数可以是其他随机变量的函数(称之为光滑变量,smoothingvariable),而光滑变量的选择由经济理论决定。

函数系数模型不仅能够提供更好的数据模拟能力,而且在非参数模型中融入了经济学的解释,因而近年来有不少研究将函数系数模型结合到面板数据中。

其二是非平稳面板数据模型的发展,包括面板数据单位根检验与协整分析,以及包含非平稳变量和未知时间趋势的估计与检验等;

其三是包含横截面相关(cross-sectionaldependence)的面板数据建模。

面板数据通常包含两个维度,行为个体与时间维度。

行为个体可以是微观层面的家庭、个人或企业,也可以是宏观层面的国家、产业或地区。

传统的面板数据建模通常假设面板数据各行为主体之间是完全独立的(横截面独立假设,cross-sectionalindependence),这就完全排除了行为个体之间可能存在的相互影响,从而导致模型估计与检验的一系列问题。

横截面相关性已成为面板数据领域最为活跃的科研方向之一。

目前文献中处理横截面相关的方法主要有三种:

其一是通过因子模型(factormodel)描述横截面相关性,然后通过模型中可观测变量的横截面平均作为因子模型中不可观测的共同因子的代理变量,用以解决因共同因子不可观测性而带来的内生性问题(Pesaran,2006;

Pesaran&

Tosetti,2011等);

其二是交互效应(interactiveeffect)模型,通过PCA的方法直接估计不可观测的共同因子(commonfactor)与因子系数(factorloading),通常使用的估计方法包括QMLE和最小二乘法(Bai,2009,2013等);

其三是使用一系列距约束条件描述横截面弱相关性,不需要借助于常见的因子结构(Chenetal.,2012等)。

最近几年,这一领域的发展主要集中在将横截面相关性与半参数或非参数模型相结合,研究模型的估计与检验方法,这也是目前最为活跃的研究领域之一。

(二)微观计量经济学与政策评估

因果分析与政策效应评估是经济分析最为关注的核心问题,其主要难点在于经济事件与经济政策的内生性问题,以及虚拟事实的不可观测性。

社会经济系统作为一个有机的整体,各类因素各种事件往往存在复杂的相互联系。

由于巨大的社会成本与经济成本,社会经济政策无法使用类似于自然科学中常用的模拟实验的方法。

为了解决内生性问题,经济分析通常借助于所谓的“准实验”(quasi-experiment)机会,使用工具变量方法,以及在工具变量方法上发展起来的一系列估计政策处理效应(treatmenteffect)的方法。

工具变量必须同时满足相关性与外生性的要求。

所谓相关性,是指工具变量必须与内生的结构变量高度相关,否则便称之为弱工具变量(weakinstruments)。

所谓外生性,是指工具变量仅通过内生的结构变量影响回归模型中的被解释变量,而不存在其他独立的影响渠道。

九十年代中期以来,计量经济学家发现当存在弱工具变量的情况下,无论是小样本还是大样本,常见的工具变量估计方法,包括两阶段最小二乘估计与有限信息最大似然估计都无法得到一致性的估计量。

这一时期大量的研究主要集中在工具变量质量的检验,以及存在弱工具变量情况下不同的统计检验方法。

最近十年中,计量经济学家更加关注工具变量的外生性问题,讨论在工具变量严格外生性条件无法满足的情况下对统计检验的影响。

目前较有影响的做法是采用再抽样(resampling;

Berkowitzetal.,2012)或贝叶斯的方法校正近似外生性的影响(Conleyetal.,2012;

Kraay,2012)。

随着大数据时代的来临,计量经济学家也开始关注在存在大量工具变量的情况下工具变量的选择问题。

目前主要的做法分为两类,一类是在工具变量中加入稀疏性(sparcity)假设,采用LASSO等变量选择的方法在第一阶段选择有效的工具变量;

另一类是不采取稀疏性假设,通过主成分分析或岭回归等降维的正则化(regularization)方法处理估计中的问题(Hansenetal.,2008;

Okui,2011;

Carrasco,2012;

Hansen&

Kozbur,2014等)。

当工具变量仅是简单的二元变量时,工具变量法就和政策处理效应的一系列估计方法建立了联系,这部分是近几年来发展最为迅速的研究领域之一。

倍差法(differenceindifference,Card&

Krueger,1994;

Bertrandetal.,2004;

Athey&

Imbens,2006等)是最为常见的处理效应估计方法。

当某一经济政策实施以后,尽管我们可以同时观察到处理组中政策前后的变化,但这个变化同时包含了具体政策的处理效应和不可观测的时间趋势的变化。

如果假设时间趋势在处理组和对照组的变化是相同的,那么我们可以采取两次差分的方式,将共同的时间趋势剔除出去,从而得到平均处理效应的估计值。

倍差法的主要优势在于计算简便,可以接受某种形式的选择性误差(-selectiononunobservables),但主要问题在于处理组和对照组之间必须保持相同时间趋势的假设有时不符合现实,且较难检验。

也有研究者发展一些半参数的倍差法试图放松相同时间趋势的假设(Abadie,2005)。

匹配(matching,Rubin,1973)是另一种较为常见的处理效应的估计方法。

和倍差法不同,使用匹配法的一个重要假设是条件独立性(conditionalindependence或unconfoundedn

esscondition),是指在控制各种变量以后,处理效应的结果不再受到是否接受处理(treatment)的影响。

在条件变量较多的情况下,事实上无法做到严格匹配,倾向匹配得分(propensityscore)是用来处理降低匹配维度的主要方法,一些非参数方法也被广泛用来完成处理组和对照组之间的匹配(Heckmanetal.,1997,1998;

Hahn,1998;

Hahnetal.,2000;

Imbens,2000;

Lechner,2002;

Abadie&

Imbens,2006等)。

当是否接受处理效应的概率成为一个非连续函数时,断点回归(regressiondiscontinuitydesign,RDD;

Trochim,1984;

Lee&

Card,2008等)成为近年来非常热门的估计“准实验”政策处理效应的方法。

当选择变量(-selectionvariable)与是否接受处理效应的关系是确定时,经济学家通常使用精确断点回归(sharpRDD)。

当选择变量与是否接受处理效应存在随机关系时,也就是是否接受处理效应的同时受到一些不可观测的选择变量影响时,经济学家使用所谓的模糊断点回归(fuzzyRDD),这是一个类似于两步法处理工具变量的估计方法。

除平均处理效应(averagetreatmenteffectontreated,ATET)之外,也有越来越多的文献在讨论局部平均处理效应(localaveragetreatmenteffect,LATE,Imbens&

Angrist,1994等)、边际处理效应(marginaltreatmenteffect,MTE)和分位数处理效应(quantiletreatmenteffect)等。

这些政策评估方法被广泛地用于各种社会经济政策的评估,如最低工资效应、反歧视法、失业救济等。

(三)大数据(高维)计量经济学

在目前大数据时代,数据的可得性和多样性导致样本量无限增大,同时变量个数无限增多,从而对分析大数据特点的计量经济学方法有了新的要求。

例如,现在流行的电子购物数据中,每个消费者在电脑前点击的次数以及内容体现了丰富的反映购物行为的信息。

又例如,许多人口普查数据、政策评估调查数据等等都有非常多的变量数目。

另外,变量数目即使有限,因为研究模型不一定是线性形式,许多方程变换、级数展开等等处理方式也使得变量维度增加。

从文本、视频、音频中提取有用变量等等方式也成为高维度数据的重要来源。

一方面,数据本身的可得性增加,另一方面,现代高性能计算机群(HPC)的计算性能和存储功能也使得处理这些大数据成为可能。

21世纪是大数据的世纪,云计算、存储等争相从科技领域进入人们日常生活中。

高维度计量经济学就是研究经济变量数目非常大,有时候甚至大于样本量的情况。

例如在资产定价的研究中,资产数目很大,有研究者(Fanetal.,2008)用因子模型去估计资产回报的相关性,其中资产回报的协方差矩阵的维度也随着样本量而增长,因此如何处理高维度数据在资产投资组合等领域是一个至关重要的问题。

计量经济理论在处理高维度数据时,所面临的主要问题包括如何选择重要的变量以及如何对变量进行选择,以使得模型的预测性能更强,对模型的估计有更好的性质。

在高维计量经济学建模中,一般假设真实模型只包括一部分有限的变量。

高维度计量经济学包括了经典的线性和非线性非参数模型。

在很多实证研究中,一般假设模型是一个比较简单的线性形式,变量是根据经验或者共识来选择。

而高维度计量经济学的方法是通过数据本身来探究其重要性,从而进行变量选择。

在经典岭回归思想的启发下,一系列带惩罚项的估计方法被提出并广泛应用在基因学、统计学、经济学等各学科中。

例如套索估计量(LASSO,Frank&

Friedman,1993;

Tibshirani,1996)的先驱性研究首先提出用一个惩罚项加在经典的最小二乘损失函数上,再用一个调节参数来控制惩罚的力度。

套索估计量可以在变量选择的同时进行参数估计,并且在变量个数较大的情况下解决了传统模型选择方法例如信息准则等的不可计算的问题,减小了模型选择的不确定性。

套索方法有很多良好的性质,其中一个就是可以用来处理变量个数超过样本量的情况,并且能够选择变量。

在过去的二十年中,高维度方法有了长足的发展。

继套索估计量之后,SCAD估计量、Dantzig估计量、弹性网(ElasticNet)估计量等相继发表在顶尖统计学和计量经济学期刊中。

在经济学中,高维度计量经济学的一个重要应用就是处理多工具变量选择的情况。

Belloni,Chemozhukov&

Hansen(2012)提出了用改进的套索方法选择工具变量的方法并提供了理论依据。

另外,Bai&

Ng(2008)用主成分分析,Caner&

Fan(2015)用可适性套索方法进行工具变量的估计和选择。

大数据计量经济学是一个方兴未艾的研究方向,统计学、计算机科学等其他学科的交叉发展也势必进一步推动大数据分析的发展。

(四)金融计量经济学

金融计量学主要是指对金融市场数据,包括金融市场各种交易变量(如价格、交易量、波动率等)进行相应统计分析和计量建模的学科。

作为联接金融理论和实证证据的桥梁,金融计量学在现代金融学中处于一个非常重要的地位,它可以用于检验经济学假说和金融理论,解释金融现象,并对金融市场行为建模和预测。

一方面,金融计量学的发展对现代金融和投资管理产生了深远的影响。

另一方面,金融市场的进一步发展又对金融计量学的研究提出了新的挑战。

金融计量学最早关注的一个问题是如何检验金融市场的有效性,即金融市场价格是否可以被预测。

关于这个问题,最早的文献甚至可以追溯到Working(1934)和Cowles(1933,1944)。

他们主要通过检验股票价格序列是否服从随机游走过程来检验市场的有效性。

Fama(1970)对有效市场理论和实证研究进行了一个很好的综述,他认为市场的有效性假设有三类,即弱有效,半强有效和强有效,而对应的价格走势往往只是一个鞅过程。

这样说来,检验市场的有效性就等价于检验一个时间序列是否为鞅过程。

Hong(1999)提出了一个基于广义谱函数的检验方法,非常有效地解决了这个问题。

该方法不但能够捕捉变量之间存在的线性关系,同时也能够甄别出数据中的非线性关系,因此可被推广并应用来检验经济和金融时间序列数据是否存在相关关系或者是否独立,从而为对这些数据进一步分析建模提供依据(Hong&

Lee,2005,2006;

Hong&

McCloud,2011;

Chen,2011)。

与金融市场有效性检验密切相关的一个研究领域是提出各种模型对金融时间数据进行预测,或者是对各种预测模型进行评价。

这些预测模型大多基于各种经济学理论,包括行为经济学、实验经济学等。

研究人员构造了不同的预测模型来对金融市场进行预测,例如Hongetal.(2007)研究了随机游走模型是否能够对外汇走势提供更好的样本外预测。

Hongetal.(2010)也检验了多种时间序列模型在分析中国的短期利率走势的有效性。

在有效市场理论检验问题之外,资产定价以及与之密切相关的投资组合理论一直也是金融计量学关注的一个重要问题。

自Markowitz(1952)提出了投资组合理论以来,许多资产定价模型相继被提出来,包括Sharpe(1964)针对股票市场提出的资产定价模型(CapitalAssetPricingModel,CAPM)/:

请记住我站域名/,Ross(1976)提出的套利定价模型(APT),以及Heathetal.(1992)提出的针对固定资产收益证券定价的HJM模型。

将这些定价理论模型应用到实践需要对相关的模型参数进行准确估计,而金融计量学家在这个过程中发挥了重要作用。

一个最重要的估计方法即由2013年诺贝尔经济学奖得主Hansen(1982)提出的,Hansen&

Singleton(1982)则将此推广应用到资产定价模型的动态广义

矩方法(DynamicGMM)。

金融计量学关注的另一个重大问题是对波动率的建模,其中一个重要的原因是波动率被广泛认为是风险测度指标之一,但如何对风险进行有效管理的一个前提是对其进行准确建模。

最早的波动率模型包括Engle(1982)提出的ARCH模型以及Taylor(1982)提出的随机波动率模型(stochasticvolatilitymodel),Bollerslev(1986)进一步发展了GARCH模型。

基于这些模型,一些重要问题相继得到研究,比如波动率溢出效应(Hong,2001)、金融风险的传染(Hongetal.,2009)等。

随着金融市场的进一步发展,交易日趋复杂,一些新的问题随之出现并急需解决。

比如说在高频数据的建模中,如何处理市场微观噪音及市场由于一些突发事件带来的跳跃现象是金融计量学关注的另一个重点,相关的文献包括Chan&

Maheu(2002)和Ait-Sahalia&

Jacod(2009)。

而对金融市场中一些非线性和非对称的现象进行研究也成为一个重要研究方向。

比如说在考虑非线性情况下,如何检验市场的有效性,如何对资产定价模型进行稳健、准确的估计等。

此外,人们观察到金融数据普遍呈现厚尾现象,正态分布不再适用于刻画这些数据,在这种情况下,评价极端风险(extremerisk)不可以再用方差来度量。

所以,当分布存在厚尾时,如何来度量风险(包括系统性风险)依然是金融计量学关注的重要问题之一。

(五)动态一般均衡模型的宏观计量经济学

传统实证宏观计量经济学用向量自回归等方法对总体经济变量例如总产出、总消费、总投资、失业率、通胀率等进行分析,其思想起源于凯恩斯经济学。

而真实经济周期模型往往通过模型校准来描述实体经济,在量化研究方面其方法显得更为严格。

动态一般均衡模型则是从宏观经济的微观基础出发,从消费者、生产者、中间厂商和政府部门等的动态最优化决策过程来推导一般均衡结果。

用动态随机一般均衡模型可以增强模型的解释力和经济学含义,并使得过去宏观经济学和微观经济学的两分法问题得到解决。

通过计量经济模型的估计和推断使我们对宏观变量的随机过程得以加深了解,并对模型本身的有效性进行评估。

在过去的三十多年中,从宏观经济学的微观基础出发,研究利率、失业率等宏观变量成为实证宏观计量经济学的新范式。

从政策制定者的角度来说,欧洲中央银行也正式使用动态一般均衡模型作为基础模型并把其预测结果作为指定货币政策的一个重要的参考指标。

尽管在宏观经济学中,不少变量通过加总去掉了很多噪声,向量自回归等传统方法在预测性能上优于以微观基础起步的宏观计量模型,但微观结构模型方面的研究在逐渐放松假设、贴近实体经济方面也有了长足进步。

目前以似然函数方法为基础的动态随机一般均衡模型在样本外预测上的表现可以和向量自回归等方法相比较。

动态随机一般均衡模型从个人、厂商、政府、中央银行等分别最大化其全部时间段内的效用、利润及财政、货币政策目标(例如弥补产出缺口、保持产出增长率等),得到消费、产出、利率和通货膨胀率等变量需满足的最优化条件,再由市场一般均衡的条件推导出欧拉公式,用对数线性化的方法得到简化式和状态空间形式。

动态随机一般均衡模型通过引入外部冲击来模拟现实经济中的经济周期和日常波动。

外部冲击可以有多种形式,例如生产技术冲击、需求冲击、财政支出冲击、货币政策冲击、外贸冲击等,通过这些外部冲击得到模型的随机性。

另外,通过引入工资、价格粘性、消费习惯形成和投资调整成本等假设,模型也更加接近现实经济。

在模型的估计方面,动态一般均衡模型多采用贝叶斯方法进行估计,由前面一般均衡条件得到的公式加上测度方程,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 畜牧兽医

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1