5
3、通过虚拟变量将属性因素引入计量经济模型,引入虚拟变量的个数与样
本容量大小有关。
错,引入虚拟变量的个数样本容量大小无关,与变量属性,模型有无截距项有关。
5、如果联立方程模型中某个结构方程包含了所有的变量,则这个方程不可识别。
正确
没有唯一的统计形式
3、在异方差性的情况下,若采用Eviews软件中常用的OLS法,必定高估了
估计量的标准误。
错,有可能高估也有可能低估。
4、拟合优度检验和F检验是没有区别的。
错
5、联立方程组模型根本不能直接用OLS方法估计参数。
错
递归方程可以用OLS方法估计参数,而其它的联立方程组模型不能直
接用OLS方法估计参数。
1、在对参数进行最小二乘估计之前,没有必要对模型提出古典假定。
错误
在古典假定条件下,OLS估计得到的参数估计量是该参数的最佳线性无
偏估计(具有线性、无偏性、有效性)。
总之,提出古典假定是为了使所作
出的估计量具有较好的统计性质和方便地进行统计推断。
2、当异方差出现时,常用的t和F检验失效;正确
由于异方差类似于t比值的统计量所遵从的分布未知;即使遵从t-分
布,由于方差不在具有最小性。
这时往往会夸大t-检验,使得t检验失效;
由于F-分布为两个独立的χ2变量之比,故依然存在类似于t-分布中的问题。
3、解释变量与随机误差项相关,是产生多重共线性的主要原因。
错误
产生多重共线性的主要原因是:
经济本变量大多存在共同变化趋势;模
型中大量采用滞后变量;认识上的局限使得选择变量不当
5、由间接最小二乘法与两阶段最小二乘法得到的估计量都是无偏估计。
错误
间接最小二乘法适用于恰好识别方程的估计,其估计量为无偏估计;
而两阶段最小二乘法不仅适用于恰好识别方程,也适用于过度识别方程。
两阶段最小二乘法得到的估计量为有偏、一致估计。
5、秩条件是充要条件,因此,单独利用秩条件就可以完成联立方程识别状
态的确定。
错误。
虽然秩条件是充要条件,但其前提是,只有在通过了阶条件的条件
下。
在对联立方程进行识别时,还应该结合阶条件判断是过度识别,还是恰
好识别。
1、半对数模型Y=β0+β1lnX+μ中,参数β1的含义是X的绝对量变化,引起Y的绝对量变化。
错误
半对数模型的参数β1的含义是当X的相对变化时,绝对量发生变化,引起因变量Y的平均值绝对量的变动。
2、对已经估计出参数的模型不需要进行检验。
错误
有必要进行检验。
我们所建立的模型,所用的方法,所用的统计数据,还可能违反计量经济的基本假定,这是也会导致错误的结论。
4、在有M个方程的完备联立方程组中,当识别的阶条件为H−Ni(H为联立方程组中内生变量和前定变量的总数,i为第i个方程中内生变量和前定变量的总数)N时,则表示第i个方程不可识别。
错误。
表示第i个方程过度识别。
1.在研究经济变量之间的非确定性关系时,回归分析是唯一可用的分析方法。
(X)
2.最小二乘法进行参数估计的基本原理是使残差平方和最小。
(Y)
3.无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。
(Y)
4.当我们说估计的回归系数在统计上是显著的,意思是说它显著地异于0。
(Y)
5.总离差平方和(TSS)可分解为残差平方和(ESS)与回归平方和(RSS)之和,其中残差平方和(ESS)表示总离差平方和中可由样本回归直线解释的部分。
(X)
6.多元线性回归模型的F检验和t检验是一致的。
(X)
7.当存在严重的多重共线性时,普通最小二乘估计往往会低估参数估计量的方差。
(X)
8.如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的
自相关。
(X)
9.在存在异方差的情况下,会对回归模型的正确建立和统计推断带来严重后果。
(Y)
10.
检验只能检验一阶自相关。
(Y)
1.残差(剩余)项
的均值
=
=0。
(Y)
2.所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自的真值。
(Y)
3.样本可决系数高的回归方程一定比样本可决系数低的回归方程更能说明解释变量对被解释变量的解释能力。
(X)
4.多元线性回归模型中解释变量个数为
,则对回归参数进行显著性检验的
统计量的自由度一定是
。
(Y)
5.对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。
(X)
6.若回归模型存在异方差问题,可以使用加权最小二乘法进行修正。
(Y)
7.根据最小二乘估计,我们可以得到总体回归方程。
(X)
8.当用于检验回归方程显著性的
统计量与检验单个系数显著性的
统计量结果矛盾
时,可以认为出现了严重的多重共线性(Y)
9.线性回归模型中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。
(Y)
10.一般情况下,用线性回归模型进行预测时,单个值预测与均值预测相等,且置信区间也相同。
(X)
(X)1、在研究经济变量之间的非确定性关系时,回归分析是惟一可用的分析方法。
(X)2、对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。
(Y)3、OLS回归方法的基本准则是使残差平方和最小。
(X)4、在存在异方差的情况下,OLS法总是高估了估计量的标准差。
(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。
(Y)6、线性回归分析中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。
(Y)7、当我们说估计的回归系数在统计上是显著的,意思是说它显著异于0。
(X)8、总离差平方和(TSS)可分解为残差平方(ESS)和与回归平方和(RSS),
其中残差平方(ESS)表示总离差平方和可由样本回归直线解释的部分。
(X)9、所谓OLS估计量的无偏性,是指回归参数的估计值与真实值相等。
(X)10、当模型中解释变量均为确定性变量时,则可以用DW统计量来检验模型的随机误差项所有形式的自相关性。
(X)1、一般情况下,在用线性回归模型进行预测时,个值预测与均值预测结果相等,且它们的置信区间也相同。
(Y)2、对于模型Yi=β0+β1X1i+β2X2i+……+βkXki+μi,i=1,2,……,n;如果X2=X5+X6,则模型必然存在解释变量的多重共线性问题。
(X)3、OLS回归方法的基本准则是使残差项之和最小。
(Y)4、在随机误差项存在正自相关的情况下,OLS法总是低估了估计量的标准差。
(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。
(Y)6、一元线性回归模型的F检验和t检验是一致的。
(X)7、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。
(Y)8、在近似多重共线性下,只要模型满足OLS的基本假定,则回归系数的最小二乘估计量仍然是一BLUE估计量。
(X)9、所谓参数估计量的线性性,是指参数估计量是解释变量的线性组合。
(Y)10、拟合优度的测量指标是可决系数R2或调整过的可决系数,R2越大,说明回归方程对样本的拟合程度越高。
(Y )1、最小二乘法进行参数估计的基本原理是使残差平方和最小。
(X )2、一般情况下,用线性回归模型进行预测时,个值预测与均值预测相等,且置信区间也相同。
( X )3、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。
( Y )4、若回归模型存在异方差问题,应使用加权最小二乘法进行修正。
( X )5、多元线性回归模型的F检验和t检验是一致的。
(Y )6、DW检验只能检验随机误差项是否存在一阶自相关。
( X )7、总离差平方和(TSS)可分解为残差平方(RSS)和与回归平方和(ESS),其中残差平方(RSS)表示总离差平方和可由样本回归直线解释的部分。
(Y )8、拟合优度用于检验回归方程对样本数据的拟合程度,其测量指标是可决系数或调整后的可决系数。
( Y )9、对于模型
;如果
,则模型必然存在解释变量的多重共线性问题。
( Y )10、所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自真值。