数据与模型的关系.docx

上传人:b****5 文档编号:3611287 上传时间:2022-11-24 格式:DOCX 页数:8 大小:111.13KB
下载 相关 举报
数据与模型的关系.docx_第1页
第1页 / 共8页
数据与模型的关系.docx_第2页
第2页 / 共8页
数据与模型的关系.docx_第3页
第3页 / 共8页
数据与模型的关系.docx_第4页
第4页 / 共8页
数据与模型的关系.docx_第5页
第5页 / 共8页
点击查看更多>>
下载资源
资源描述

数据与模型的关系.docx

《数据与模型的关系.docx》由会员分享,可在线阅读,更多相关《数据与模型的关系.docx(8页珍藏版)》请在冰豆网上搜索。

数据与模型的关系.docx

数据与模型的关系

数据与模型的关系

LT

量经济学应用研究中有关模型与数据之间关系的几个迫切、重要的问题进行讨论。

最后对“数据陷阱”问题进行简单的讨论。

  

  二、模型类型设定对数据的依赖性

  在经济、社会问题研究中,当研究对象确定之后.表征该经济、社会活动结果的数据自然地被确定了。

计量经济学应用研究的第一步,就是根据表征所要研究的经济、社会活动结果的数据类型确定应该建立什么类型的计量经济学模型,在这一步骤中.数据的类型决定了计量经济学模型的类型。

李子奈(2008)指出.一个成功的计量经济学应用研究,最重要的是设定正确的总体回归模型:

并且提出了总体模型设定的若干原则,包括唯一性、一般性、现实性、统计检验必要性和经济系统动力学关系导向原则。

但是这些是在模型类型确定之后的任务.确定模型类型仍然是首要的任务。

用于宏观和微观计量经济分析的数据分为三类:

截面数据(Cross—sectionalData)、时间序列数据(Time—se~esData)和面板数据(PanelData,也译为平行数据、综列数据)。

  

  对于截面数据,只有当数据是在截面总体中由随机抽样得到的样本观测值.并且变量具有连续的随机分布时,才能够将模型类型设定为经典的计量经济学模型。

经典计量经济学模型的数学基础是建立在随机抽样的截面数据之上的。

但是,在实际的经验实证研究中.面对的截面数据经常是非随机抽样得到的.或者是离散的,如果仍然采用经典计量经济学的模型设定,错误就不可避免了。

  

  例如在前述的农户借贷的实例中.如果只利用2820户发生借贷的农户为样本,建立经典的回归模型,被称为“截断数据”(Trunca—tionData)。

这类数据在实际经济分析中十分常见,特别在微观经济社会问题研究中大量存在。

人们抽取的样本经常是“掐头”或者“去尾”的。

对于这类数据,因为抽取每个样本的概率发生了变化,如果仍然采用经典计量经济学模型,其估计结果就产生了“选择性偏误”,应该建立截断数据模型,在这方面J.J.Heckman(1974.1979)做出了基础性贡献。

  

  例如,我们研究的对象是选择的结果,或者是二元选择问题,或者是多元选择问题。

作为模型被解释变量的观测值只能是0、1或者0、1、2、…。

这类问题人们几乎每时每刻都面临着。

选择结果受哪些因素的影响?

各个因素的影响程度有多大?

当然可以通过建立计量经济学模型来分析。

但是,经典计量经济学模型显然是不适用的,应该建立专门的离散选择模型,在这方面.D.LMcFadden(1974)做出了基础性贡献。

  再如,我们经常要研究表现为计数数据(CountData)的社会、经济活动结果受哪些因素的影响。

例如,汽车一个月内发生事故的次数、学生本科4年内不及格的课程门数、大学毕业生参加工作前5年内调换工作的次数、个人一年内到医院就诊的次数,等等。

这些数据都是离散的非负整数,在随机抽取的一组样本中.零元素和绝对值较小的数据出现得较为频繁,重复抽样的正态分布假设不再适用。

显然,对于这样的问题,不可以建立以正态性假设为基础的经典计量经济学模型,应该建立专门发展的计数数据模型,Gilbert(1979)提出了泊松回归模型,Hausman,Hall&Gfiliches(1984)提出了负二项回归模型。

  

  对于时间序列数据,经典计量经济学模型只能建立在平稳时间序列基础之上,因为只有对满足渐进不相关的协方差平稳序列,才可以适用基于截面数据的统计推断方法,建立时间序列模型。

协方差平稳性和渐进不相关性为时间序列分析适用大数定律和中心极限定理创造了条件,替代了截面数据分析中的随机抽样假定(Wooldfidge,2003)。

  

  否则.数据的时间序列性破坏了随机抽样假定.取消了样本点之间的独立性,样本点将发生序列相关。

如果序列相关性不能足够快地趋于零.在统计推断中发挥关键作用的大数定律、中心极限定理等极限法则缺乏应用基础。

很可惜,实际的时间序列很少是平稳的。

由于宏观经济仍然是我国学者进行经验实证研究的主要领域,而宏观时间序列大量是非平稳的,于是出现了大量的错误。

只有经济行为上存在长期均衡关系。

在数据上存在协整关系的非平稳时间序列,才能够建立经典的结构模型.C.W.Granger(1974,1987)等的贡献解决了非平稳时间序列模型设定的数学基础问题。

  

  至于面板数据,截面数据和时间序列数据存在的问题同时存在,并且还提出了模型设定的专门问题,例如变截距和变系数问题、随机影响和固定影响问题等.已经发展形成了一套完整的模型方法体系(见ChengHsiao,1986,2003)。

依据新的模型方法体系设定总体理论模型,才能进行可靠的经验实证。

  

  三、总体回归模型设定对数据关系的依赖性

李子奈(2008)曾经用图2描述数据在总体回归模型设定中的作用。

在经济学理论指导下,通过经济主体动力学关系分析,得到了对研究对象(在单方程计量经济学模型中被称为被解释变量)具有恒常的、显著的影响的因素。

这些关系是否真的存在?

这些因素如何被引入模型?

仍然需要依赖数据。

即经济关系的确认,是以数据之间存在统计相关关系为条件的。

这就是总体回归模型设定对数据关系的依赖性。

所以.在经济主体动力学关系分析的基础上.必须进行数据的统计相关性检验.包括时间序列的因果关系检验.对经济行为分析的结论加以“甄别”,去伪存真。

  

  这里必须强调的是,在图2中.首先是在经济学理论的指导下.对研究对象进行经济行为分析,然后利用数据进行统计分析。

以检验行为分析得到的假设。

如果简单地依据数据关系确定经济关系.显然是不正确的。

数据之间存在统计相关关系,并不是存在经济关系的充分条件,而只是必要条件。

列举一个错误不易被发现的例子.时间序列结构突变点的内生与外生问题。

时间序列的结构变化是计量经济学应用研究中的一个普遍现象,它既是一个经济现象,也是一个统计现象。

在时间序列分析中,将结构突变点外生,是从经济现象人手,然后用统计现象进行检验.将统计检验看作必要条件。

近年来的许多应用研究将结构突变点内生,即从统计现象人手.然后用经济现象进行解释,将统计检验看作充分条件。

结构突变点内生,从统计学方法技术上讲是先进的,但是从逻辑学上讲是存在问题的,误将必要条件作为充分条件。

  

  另一个重要的问题是.用什么“变量”表征“因素”?

经济系统的动力学分析。

得到的只是“恒常的、显著的影响因素”。

例如,资本和劳动是产出量的直接影响因素.收入和价格是需求量的直接影响因素。

用什么“变量”来表征这些“因素”,并且作为解释变量引入模型?

仍然需要依赖数据。

根据数据的可得性和代表性原则,选择恰当的变量。

例如,表征资本的变量应该是固定资本与流动资本之和.但是在很多情况下(例如以企业为研究对象)缺少流动资本的数据,只能采用固定资本,那么会带来什么问题?

固定资本又有原值和净值之分.又应该如何选择?

另外还大量涉及总量与部分之间的选择问题.应该采用总量的必须采用总量,如果用部分代替总量,必须假设在所有的样本点上部分在总量中的比例是相同的.这又是一个需要利用数据进行检验的问题。

  

  四、模型估计对数据质量的依赖性

  确定了模型类型,并正确地完成了总体回归模型的设定.接下来的任务就是根据总体模型采集用于模型估计的样本数据。

前述的关于我国广义技术进步对经济增长贡献的测算一例.已经说明了计量经济学模型的估计结果对样本数据质量存在着依赖性。

  

  在20世纪80年代以前,国际统计界基本上是以提高数据准确性为出发点对数据质量问题展开研究,但是数据质量的内涵远超过单纯的数据准确的概念。

之后,学者们更多地从数据使用者的角度去评判数据的质量,从而形成了数据质量的众多维度。

李子奈(1992)将计量经济学模型的样本数据质量概括为一致性、完整性、准确性和可比性四个方面。

  

  所谓一致性.即母体与样本的一致性,样本必须是从母体中随机抽取的。

在实际应用中.违反一致性的情况经常会发生。

例如。

用企业的数据作为行业生产函数模型的样本数据,用人均收入与消费的数据作为总量消费函数模型的样本数据.用31个省份的数据作为全国总量模型的样本数据,等等。

  

  所谓完整性.即总体模型中包含的所有变量都必须得到相同容量的样本观测值。

这既是模型参数估计的需要,也是经济现象本身应该具有的特征。

但是,在实际中,“遗失数据”的现象是经常发生的。

在出现“遗失数据”时.如果样本容量足够大,样本点之间的联系并不紧密的情况下,可以将“遗失数据”所在的样本点整个地去掉:

如果样本容量有限,或者样本点之间的联系紧密,去掉某个样本点会影响模型的估计质量.则要采取特定的技术将“遗失数据”补上。

  

    所谓一致性.即母体与样本的一致性,样本必须是从母体中随机抽取的。

在实际应用中.违反一致性的情况经常会发生。

例如。

用企业的数据作为行业生产函数模型的样本数据,用人均收入与消费的数据作为总量消费函数模型的样本数据.用31个省份的数据作为全国总量模型的样本数据,等等。

  

  所谓完整性.即总体模型中包含的所有变量都必须得到相同容量的样本观测值。

这既是模型参数估计的需要,也是经济现象本身应该具有的特征。

但是,在实际中,“遗失数据”的现象是经常发生的。

在出现“遗失数据”时.如果样本容量足够大,样本点之间的联系并不紧密的情况下,可以将“遗失数据”所在的样本点整个地去掉:

如果样本容量有限,或者样本点之间的联系紧密,去掉某个样本点会影响模型的估计质量.则要采取特定的技术将“遗失数据”补上。

  

  所谓准确性.有两方面含义,一是所得到的数据必须准确反映它所描述的经济变量的状态,即统计数据或调查数据本身是准确的:

二是它必须是模型研究中所准确需要的,即满足模型对变量口径的要求。

前一个方面是显而易见的,而后一个方面则容易被忽视。

例如,在行业生产函数模型中.作为解释变量的资本、劳动等必须是投入到生产过程中的、对产出量起作用的那部分生产要素。

以劳动为例,应该是投入到生产过程中的、对产出量起作用的那部分劳动者的实际劳动投入。

  

  所谓一致性.即母体与样本的一致性,样本必须是从母体中随机抽取的。

在实际应用中.违反一致性的情况经常会发生。

例如。

用企业的数据作为行业生产函数模型的样本数据,用人均收入与消费的数据作为总量消费函数模型的样本数据.用31个省份的数据作为全国总量模型的样本数据,等等。

  

  所谓完整性.即总体模型中包含的所有变量都必须得到相同容量的样本观测值。

这既是模型参数估计的需要,也是经济现象本身应该具有的特征。

但是,在实际中,“遗失数据”的现象是经常发生的。

在出现“遗失数据”时.如果样本容量足够大,样本点之间的联系并不紧密的情况下,可以将“遗失数据”所在的样本点整个地去掉:

如果样本容量有限,或者样本点之间的联系紧密,去掉某个样本点会影响模型的估计质量.则要采取特定的技术将“遗失数据”补上。

  

  所谓准确性.有两方面含义,一是所得到的数据必须准确反映它所描述的经济变量的状态,即统计数据或调查数据本身是准确的:

二是它必须是模型研究中所准确需要的,即满足模型对变量口径的要求。

前一个方面是显而易见的,而后一个方面则容易被忽视。

例如,在行业生产函数模型中.作为解释变量的资本、劳动等必须是投入到生产过程中的、对产出量起作用的那部分生产要素。

以劳动为例,应该是投入到生产过程中的、对产出量起作用的那部分劳动者的实际劳动投入。

  

  于是,统计中的全体职工人数显然不能作为样本数据.尽管全体职工人数在统计上是很准确的,但其中有相当一部分与生产过程无关.不是模型所需要的。

更严格讲,即使是与生产过程有关的那部分职工,也不宜直接作为样本观测值:

作为样本数据的应该是他们的以劳动时间计量的实际劳动投入。

如果不能得到这样的数据.而是以人数为观测值,相当于设置了一个很强的假设:

在所有样本点上。

每个职工实际投入的劳动(例如劳动小时)是相同的

  所谓可比性.也就是通常所说的数据口径问题,在计量经济学应用模型研究中可以说无处不在而人们容易得到的经济统计数据.一般可比性较差,其原因在于统计范围口径的变化和价格口径的变化,必须进行处理后才能用于模型参数的估计。

计量经济学方法,是从样本数据中寻找经济活动本身客观存在的规律性,如果数据是不可比的,得到的规律性就难以反映实际。

正如前例所表示的.不同的研究者研究同一个经济问题,采用同样的变量和模型数学形式,选择的样本点也相同,但可能得到相差甚远的模型参数估计结果。

为什么?

原因在于样本数据的可比性。

样本数据的可比性问题在截面数据模型中存在但不严重,在时间序列数据模型十分普遍。

例如,在前例的问题中,所建立的模型都是C—D型总量生产函数模型,选择的投入要素都是资本和劳动,数据都来自于中国统计年鉴。

  

  作为被解释变量的国内生产总值(GDP)一般采用按照不变价计算的数据,具有可比性;而劳动一般采用人数作为样本观测值,在不同的样本点上也具有可比性:

如果固定资产原值(或者净值)数据是以资产形成年的价格计量的资产简单相加得到的,显然在不同的样本点上不具有可比性。

于是不同的研究者采用不同的方法对固定资产原值(或者净值)数据进行调整,自然就会有不同的模型估计结果。

  

  如何实现计量经济学模型样本数据的一致性、完整性、准确性和可比性?

这些问题已经不完全属于统计学的范畴,而应该成为计量经济学应用研究本身的任务。

改善数据质量和改善模型方法技术同等重要,前者甚至更加有效。

而且只有认识到样本数据在质量方面存在的问题.才能有针对性地改善模型方法技术。

  

  除了上述的四个方面以外,样本数据的结构变化或奇异点的诊断也对模型估计质量有重要影响。

计量经济学模型方法是一种经验实证分析方法,试图从观测到的局部、特殊出发,经过抽象和假设.再经过检验,得到能够覆盖时序上所有时点或截面上所有个体的一般性法则。

  

  那么,对于观测到的时间序列的结构变化或者截面上的奇异点(为了方便,下面统称为奇异点),就有两种情况:

从经济行为上可以解释和无法解释。

例如自然灾害、战争等原因造成的经济时间序列中的奇异点.在经济行为上是可以解释的;而由于统计或调查的失误、道德问题,以及行为的极端非理性等原因造成的经济时间序列或截面数据中的奇异点,在经济行为上是无法解释的。

  

  凡是在经济行为上可以解释的奇异样本.在计量经济学模型估计过程中被建议保留,通过模型技术的改进加以消除,使之对一般性法则不产生影响,甚至它本身就是一般性法则的一部分:

凡是在经济行为上无法解释的奇异样本.在计量经济学建模过程中被建议剔除,包括直接剔除或者通过引入毫无实际意义的虚拟变量加以消除。

对于建模者而青,首先是必须从样本数据中发现奇异点.这就是数据诊断的任务。

关于样本数据中奇异点的诊断,国内外学者已经进行了广泛的研究。

例如赵进文(2000)、周建(2005)在数据诊断理论方法领域的研究成果,具有很好的应用价值。

但是,在计量经济学应用研究中却经常被忽视。

  

五、模型应用对外生想定数据的依赖性

  计量经济学模型的应用大体包括四个方面:

结构分析、理论检验、经济预测和政策评价。

如果将模型用于经济预测和政策评价.那么预测的结果和评价的结论除了依赖正确的模型外,还依赖于想定的外生变量值或者政策方案,它们都以数据的形式出现,一般统称为“想定数据”那么就提出一个问题:

什么数据是可以被准确“想定”的,什么数据是不可能被准确“想定”的?

  

  例如,建立了一个时间序列模型y1=f(B,Xt),为了利用模型预测yt,必须给定Xt,那么Xt必须独立于B,即不对B产生影响,同时Xt必须不受9(i=l,2,…)的影响,只有在这样的条件下,它们才能够被外生“想定”,才能够被用于预测yt。

道理是显而易见的。

这就要求预测模型的解释变量具有“强外生性”。

  

  再如,如果建立一个用于政策评价的时问序列模型(p,X,Z),Z是政策变量。

经济学常识告诉我们,未来的政策是依赖于9(i=l,2,…)的,即人们必须根据现行政策的执行效果来制定或者调整未来的政策,也就是说人们不可能准确“想定”若干年以后的政策。

所以人们不可能应用计量经济学模型对未来的政策进行准确的评价,只能进行不同政策方案的比较研究,即使如此,也要求作为政策变量的解释变量具有“超外生性”于是提出一个问题:

能否建立一个既能用于预测又能用于政策评价的模型?

答案显然是否定的。

用于预测的外生变量Xt必须不受yt(i=l,2,…)的影响,而用于政策评价的外生变蜒X必须根据yt(i=1,2,…)才能给定Xt模型中的“强外生性”变量不可能同时具有“超外生性”。

而在我们已有的应用研究中,既用于预测又用于政策评价的模型却屡见不鲜。

  

  六、结论与启示

  前面讨论的问题,看上去都是很浅显的,但是却是目前我国计量经济学应用研究中最为严重的问题之一。

数据问题,不是统计学的任务,而是计量经济学的任务。

一项计量经济学应用研究课题,或者一篇计量经济学应用研究论文,必须将相当大部分工作或者相当大部分篇幅放在数据的采集和处理方面。

否则研究课题是不可能成功的.研究论文也是没有价值的。

计量经济学课程教学,必须将模型对数据的依赖性问题作为重要的教学内容,否则,学生学了一堆模型理论方法也是无法正确应用的。

  

  强调计量经济学模型对数据的依赖性,也要避免模型研究掉人“数据陷阱”之中。

社会经济数据是社会经济活动状态的表征+客观性是其最重要的属性,必须是真实、客观地反映事物的本来面目,不能有任何随意的假定、推测和想象。

这样的数据才是模型研究者可资依赖的。

用数据的“关联性”诊断数据的“客观性”。

问题是明显存在的。

所以,一个十分重要的启示是,模型研究者必须首先对客观的社会经济活动进行观察和分析,获得“感觉”。

那些不进行任何调查研究,以通过某种渠道获得的“数据库”作为研究的起点,是很容易掉入“数据陷阱”之中的。

  

  这是“数据陷阱”在计量经济学模型研究中的第一个表现,也是当前严重存在的问题之一。

“数据陷阱”在模型研究中的第二个表现是实用主义倾向。

数据是客观的。

但是被主观地选择使用。

研究者往往按照自己的研究目的和希望得到的结论去选择数据,而在研究报告或者论文中将选择过程隐去,给人一种很“客观”的印象。

为什么同样的问题不同的研究者会得到不同的结论。

这是原因之一。

 

·

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 小学教育 > 小升初

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1