高铁梅计量经济学考试重点.docx
《高铁梅计量经济学考试重点.docx》由会员分享,可在线阅读,更多相关《高铁梅计量经济学考试重点.docx(11页珍藏版)》请在冰豆网上搜索。
高铁梅计量经济学考试重点
计量经济学复习资料
1.时间序列波动的四大因素
答:
①趋势变动:
代表经济时间序列长期的趋势特性②循环变动:
以数年为周期的周期性变动。
③季节变动:
以年或季度为周期的变化。
④不规则变动:
偶然因素引起的随机变动。
在经济分析中,季节变动和不规则变动掩盖了经济发展中的客观变化,给研究和分析经济发展趋势和判断目前经济所处的状态带来困难。
因此,需要在经济分析之前将经济时间序列进行季节调整,剔除其中的季节变动要素和不规则要素。
2.季节调整的基本思想与步骤
一个季度或月度的时间序列往往会受到年内季节变动的影响,这种季节变动是由气候条件、生产周期、假期和销售等季节因素造成的。
由于这些因素造成的影响通常大得足以遮盖时间序列短期的基本变动趋势,混淆经济发展中其他客观变化要素,以致难以深入研究和正确解释经济规律,若要掌握经济运行的客观变化规律,必须进行季节调整。
季节调整就是从一个时间序列中估计和剔除季节影响的过程,目的是更好地揭示季节或月度序列的特征或基本趋势。
季节调整的基本步骤为:
①检测异常值:
观察原始数据,绘制原始数据图或计算序列自相关,观察序列是否包含季节性、季节模式的变化、波幅的差异和变化、异常值等季节性变动的因素。
②消除异常值:
在对序列及其季节行为进行初步的图形评估后,使用模型的默认选项进行季节调整。
随后,使用模型计算出经季节调整的趋势,并加回异常观测值。
利用模型把原始时间序列存在的季节因素剔除掉,季节调整后的时间序列是趋势-循环和不规则因素的合成。
③修订及预测:
修订历史数据和预测近期趋势。
季节调整的标准方法为移动平均方法,分为简单移动平均、中心化移动平均和加权移动平均。
它是算术平均的一种,它具有如下特性:
第一,周期(及其整数倍)与移动平均项数相等的周期性变动基本得到消除;第二,互相独立的不规则变动得到平滑。
3.简述X11季节调整方法
X11方法是基于移动平均法的季节调整方法。
通过移动平均,可以削弱原序列的上下波动,从而起到对原序列的修匀或平滑的作用。
X11季节调整方法包括乘法模型和加法模型。
理论上讲,如果不管趋势如何变化,季节因素相对不变,那么加法模型是合适的;如果季节变化随趋势变化而变化,乘法模型是合适的。
它的特征在于除了能适应各种经济指标的性质,根据各种季节调整的目的,选择计算方式外,在不作选择的情况下,也能根据事先编入的统计基准,按数据的特征自动选择计算方式。
在计算过程中可根据数据中的随机因素大小,采用不同长度的移动平均,随机因素越大,移动平均长度越大。
X11方法是通过几次迭代来进行分解的,每一次对组成因子的估算都进一步精化。
4.简述CensusX12季节调整方法
美国商务部国势普查局的X12季节调整程序是在X11方法的基础上发展而来的,包括X11季节调整方法的全部功能,并对X11方法进行了以下3方面的重要改进:
①扩展了贸易日和节假日影响的调节功能,增加了季节、趋势循环和不规则要素分解模型的选择功能;②新的季节调整结果稳定性诊断功能;③增加X12-ARIMA模型的建模和模型选择功能。
5.简述趋势分析的方法
季节调整方法可以对经济时间序列进行分解,但在季节调整方法中,趋势和循环要素视为一体不能分开。
①Hodrick-Prescott(HP)滤波
在宏观经济学中,人们非常关心序列组成成分中的长期趋势,Hodrick-Prescott滤波是被广泛使用的一种方法。
HP滤波的运用比较灵活,它不像阶段平均法那样依赖于经济周期峰和谷的确定。
它把经济周期看成宏观经济波动对某些缓慢变动路径的偏离,这种路径在期间内单调地增长,所以称之为趋势。
HP滤波增大了经济周期的频率,使周期波动减弱。
②频谱滤波(BP滤波)方法
谱分析的基本思想是:
把时间序列看作是互不相关的周期(频率)分量的叠加,通过研究和比较各分量的周期变化,以充分揭示时间序列的频域结构,掌握其主要波动特征。
因此,在研究时间序列的周期波动方面,它具有时域方法所无法企及的优势。
6.一元线性回归模型的基本假定
一元线性回归模型的基本形式为:
一元指的是只有一个解释变量,线性指的是参数和干扰项进入方程的形式是线性的,即被解释变量仅与唯一的解释变量相关。
回归分析的主要目的是根据样本回归函数的方程来估计总体回归函数的方程,它的基本假定有:
①线性回归模型:
回归模型尽管对变量而言不一定是线性的,但它对于参数而言是线性的。
②X值是固定的或独立于随机扰动项。
③随机扰动项的均值为零。
④随机扰动项的方差相等。
⑤各个随机扰动项之间无自相关。
以上三个假定是对随机扰动项的假定。
⑥观测次数n必须大于待估计的参数个数。
⑦在一个给定的样本中,X值不可以全部相同。
而且X变量的取值没有异常。
7.最小二乘法的基本思路
①为了精确地描述Y与X之间的关系,必须使用这两个变量的每一对观察值,才不至于以点概面。
②Y与X之间是否是直线关系?
若是,将用一条直线描述它们之间的关系。
③在Y与X的散点图上画出直线的方法很多。
任务?
——找出一条能够最好地描述Y与X(代表所有点)之间的直线。
④什么是最好?
—找出判断“最好”的原则。
最好指的是找一条直线使得这些点到该直线的纵向距离的和(平方和)最小。
数学原理:
纵向距离是Y的实际值与拟合值之差,差异大拟合不好,差异小拟合好,所以又称为拟合误差或残差。
将所有纵向距离平方和相加,即得误差平方和,“最好”直线就是使误差平方和最小的直线“拟合总误差达到最小”;于是可以运用微分学中求极小值的原理,将求最好拟合直线问题转换为求误差平方和最小。
8.多元线性回归模型及其基本假定
多元是指含有两个以上解释变量,线性是指对参数而言线性。
如果总体回归函数描述了一个被解释变量与多个解释变量之间的线性关系,由此而设定的回归模型就称为多元线性回归模型。
多元线性回归模型的参数与一元线性回归模型的参数有重要区别。
在多元线性回归模型中,解释变量对应的参数是偏回归系数,表达的是控制其他解释变量不变的条件下,该解释变量的单位变动对被解释变量平均值的“净影响”。
这个独特性质使多元回归中不但能够引入多个解释变量,而且能够“分离”出每个解释变量对被解释变量的影响。
新增假定8(其余同一元假定),解释变量之间不存在完全共线性,没有精确的线性关系。
9.系数估计量的性质
数值性质是指由于运用普通最小二乘法而得以成立的那些性质,而不管数据是怎样生成的。
统计性质是仅在数据生成的方式满足一定假设条件下才得以成立。
最小二乘估计量的数值性质有:
①样本均值点在样本线上②残差之和为零③被解释变量Y的真实值与拟合值有共同的均值④残差与解释变量不相关⑤残差与被解释变量Y的拟合值不相关。
最小二乘估计量的统计性质是:
①无偏性,E(β)=β。
②线性性,参数估计量是随机变量Y的线性函数,它决定于样本数据的线性组。
③有效性,最小二乘估计量在所有线性无偏估计量中具有最小方差。
此性质说明,“无偏性”和“最小方差性”,虽然都是一个“优良”的估计式应具有的重要特性,但对它们每一个孤立地来说,其本身并不重要,只有两个结合起来使用才有意义。
④一致性,一致性的充分条件是:
参数估计量是无偏的,且随着样本容量趋于无穷,其方差趋于0。
10.简述拟合优度检验与R方统计量
在估计了模型并确定了回归直线后,还需要了解回归直线与样本观测值拟合得怎么样,也就是说需要测量观测值与该回归直线的离差。
如果观测值离直线越近,拟合优度就越好。
因为OLS估计式具有最小方差性和无偏性,只是反映了这样一个事实,即相对于一切样本回归函数来说,由OLS估计式所确定的样本回归函数具有某些特性,但它并不能说明单个样本回归函数具有较高的拟合程度;
虽然最小二乘法已经使所估计的样本回归函数具有最小残差平方和即达到最小,但残差平方和即的值本身可能会很大;因此,就需要有一个度量拟合优度的相对指标。
总离差平方和可以分解为两部分,一部分是由样本回归直线(解释变量)所解释的部分,是由于X的变化而引起的Y的变化。
一部分是实际观察值与回归直线的拟合值之差,称为残差,是样本回归直线所不能解释的部分,是由随机因素,观测误差等综合影响而产生的。
对于一组确定的样本数据,总离差平方和是一个确定的数值,因此,在总离差平方和中,如果回归平方和所占比例越大,残差平方和所占比例越小,表明回归直线拟合得越好。
用回归平方和(ESS)占总平方和(TSS)的比重作为衡量模型对样本拟合优度的指标,称为判定系数,用符号R2(平方)表示,0≤R2≤1,R2的值越接近1,则表明模型对样本数据的拟合优度越高。
判定系数注意事项:
1.判定系数只是说明列入模型的所有解释变量对被解释变量的联合的影响程度,不说明模型中每个解释变量的影响程度(在多元中)。
回归的主要目的如果是经济结构分析,不能只追求高的判定系数,而是要得到总体回归系数可信的估计量,可决系数高并不表示每个回归系数都可信任。
如果建模的目的只是为了预测因变量值,不是为了正确估计回归系数,一般可考虑有较高的判定系数。
11.回归系数假设检验的基本思想
所估计的回归系数和方差都是通过样本估计的,都是随抽样而变动的随机变量,它们是否可靠?
是否抽样的偶然结果呢?
还需要加以检验。
所谓假设检验,就是对于未知参数,先假设一个确定值,然后根据随机选取的样本数据,采用适当的方法,检验参数的假设值与真实值是否一致,从而决定接受或拒绝假设值。
在所估计样本回归系数概率分布性质已确定的基础上,在对总体回归系数某种原假设成立的条件下,利用适当的有明确概率分布的统计量和给定的显著性水平,构造一个小概率事件,判断原假设结果合理与否。
因为一个小概率事件在一次观察中可以认为基本不发生,如果该事件发生,就认为原假设不真,从而拒绝原假设接受备择假设。
计量经济学中,主要是针对变量的参数真值是否为零来进行显著性检验的。
假设检验的目的是对简单线性回归,判断解释变量X是否是被解释变量Y的显著影响因素。
参数的显著性检验步骤:
①对总体参数提出假设②.构造统计量③在H0成立的条件下,由样本观测值计算tj统计量的值。
④在给定显著性水平的条件下,查t分布表,得临界值。
⑤判断:
若则拒绝这是因为接受H0的概率保证程度很大,
也就是说,接受H1犯错误的概率很小;说明所对应的解释变量对被解释变量Y有显著的线性影响。
若则不能拒绝这种情况,只有接受H0,犯错误的概率才会小;说明对应的解释变量对被解释变量Y线性作用不显著。
假设检验的p值:
p值是基于既定的样本数据所计算的统计量,是拒绝原假设的最低显著性水平。
将给定的显著性水平a与p值比较:
若a/2>p值,则在显著性水平a下拒绝原假设,即认为x对y有显著影响.
若a/2≤p值,则在显著性水平a下接受原假设,即认为x对y有没有显著影响.P值越小,越能拒绝原假设。
12.简述DW检验
当经典线性回归模型的假定“进入总体回归模型的随机误差项是随机的或不相关的”不成立时,就有自相关问题。
自相关一词可定义为“按时间(如在时间序列数据中)或空间(如在横截面数据中)排序的观测序列各成员之间的相关。
即如果存在如下相关性,就有了自相关
在自相关情况下和在异方差情况下一样,平常的OLS估计量虽然仍是线性、无偏和渐近(即在大样本中)正态分布的,但不再是所有线性无偏估计量中方差最小的一个。
D-W检验是一种检验序列自相关的方法,因其原理简单、检验方便,目前已经成为最常用的自相关检验方法之一。
在使用时要注意该方法的假定条件:
①回归含有截距项。
若没有要重新作带有截距项的回归,以求得RSS。
②解释变量X是非随机的,或者在重复抽样中被固定。
③干扰项是按一阶自回归模式生成的,不能用于高阶自回归模式检验。
④假定随机误差项服从正态分布。
⑤回归模型不把滞后因变量当作解释变量之一。
⑥没有数据缺失。
DW的取值范围为:
0≤DW≤4,D.W检验的步骤:
①建立假设②用普通最小二乘法求出线性回归模型的参数估计值③计算DW的值④给定,由n和k的大小查DW分布表,得临界值dL和dU⑤将DW的值dL和dU进行比较,可得如下检验结果:
若0DW检验的特点:
①有两个不能确定的区域,一旦DW值落在这两个区域就无法判断。
随着样本容量的扩大,无决定区域将会逐渐变小。
②DW统计量的上、下界表要求n》15,这是因为样本如果再小,DW检验上下界表的数据不完整,利用残差很难对自相关的存在性做出比较正确的诊断。
③如果随机扰动项不服从独立正态分布,那么,惯常使用的DW检验可能就不可靠。
④DW检验不适应随机误差项具有高阶自相关的检验。
⑤只适用于有常数项的回归模型并且解释变量中不能含滞后的被解释变量。
如果一个回归模型包含了回归子的滞后值,这种情形下的d值常为2左右,从而表明这种模型不存在一阶自相关。
因此,在这种模型中有一个碍于发现序列相关的内在偏误。
这并不意味着自回归模型就没有自相关问题。
13.简述变量测量尺度
比率尺度:
对于一个变量X,取其两个值X1和X2比率X1/X2和距离X2-X1都是有意义的量,且这些值在这种尺度下存在着一种自然顺序(上升或下降)。
大多数经济变量都属于这一类。
区间尺度:
一个区间尺度变量满足比率尺度变量的后两个性质,但不满足第一个性质。
这意味着两个时期之内的距离是有意义的,但两个时期的比率就没有什么意义。
序列尺度:
对于这类变量,只满足比率尺度的第三个性质,自然顺序存在,但不同类别之间的差别不能量化。
比如无差异曲线,虽然每条更高的无差异曲线标志着更高的效用水平,但不能量化一条无差异曲线比另一条无差异曲线到底高多少。
名义尺度:
对于这类变量不具备比率尺度变量的任何一个特征,诸如性别(男、女)和婚姻状况(已婚、未婚、离婚、分居)之类的变量只表示了不同的类别。
14.简述残差及残差检验的方法
①正态性检验:
检验变量是否服从正态分布,简称JB检验,如果JB统计量大于分布的临界值,或对应的概率值较小,则拒绝该变量服从正态分布的假设。
②序列相关检验:
序列相关检验用来检验随机扰动项是否存在自相关。
常用方法有DW检验、Q统计量检验、LM检验。
③ARCH检验:
ARCH检验对于模型是否存在自回归条件异方差性进行检验。
④White检验:
不需要关于异方差的任何先验信息,只需要在大样本的情况下,将OLS估计后所得的残差平方对原始解释变量、其平方项和交叉乘积项构成一个辅助回归,利用辅助回归建立相应的检验统计量来判断异方差性。
目的在于检验那些使通常的OLS标准误和检验统计量无效的异方差形式。
15.预测的定义与分类
预测的定义:
预测是指利用所得的模型和解释变量的信息,对被解释变量的可能的取值或取值范围进行定量估计。
一元线性回归模型的预测是指利用所估计的样本回归模型已包含的过去和现在的样本数据和信息,对未来时期中被解释变量的可能值作出定量估计。
预测的分类:
1内插预测和外推预测(根据待测被解释变量相应时期的解释变量是否已知)。
在解释变量值属于已知的样本区间的情况下预测相应的被解释变量值,这种预测称为内插预测,也可以看成是对被解释变量在同一时间不同空间状态的静态预测;通常用内插预测来检验样本回归方程的预测能力。
当解释变量在样本区间以外但可以用其他方法先估计预测期的解释变量的情况下预测某个被解释变量值,这样的预测称为外推预测。
这种预测可以看成是对被解释变量未来时期的动态预测,建立计量经济模型的目的就是解释经济现象并预测经济变量的未来走势,以合理安排经济资源,因此在实际预测里,常常作的是外推预测。
②均值预测与个值预测(按照预测对象划分)。
均值预测:
对应于选定的X,预测Y的条件均值,即预测总体回归线本身的点。
个值预测:
对应于选定的X,预测对应于X的Y的个别值。
③点预测与区间预测(按照预测方法划分)。
点预测:
对应于选定的X,预测Y的条件均值与个别值。
区间预测:
对应于选定的X,对Y的条件均值与个别值的置信区间作出区间预测。
16.异方差性与Glejser检验、White检验。
经典线性回归模型的基本假定4要求出现在总体回归函数中的随机扰动项是同方差性的,同方差性即相同的散布,对于一元回归模型中的同方差指不管变量X取什么值,以给定Xi为条件的Yi的条件方差都保持不变。
如果对于不同的样本点,随机误差项的方差不再是常数,而互不相同,或被解释变量Y所有观测值的分散程度随解释变量X的变化而变化。
则认为出现了异方差性。
异方差性问题在横截面数据中比在时间序列数据中更为常见。
在横截面数据中,人们通常在一个给定的时点上对总体中的一些成员进行观测,这些成员可能大小不一。
异方差并不破坏OLS估计量的无偏性,但是这些估计量不再是最小方差或有效的。
当异方差性出现时,OLS估计量的方差不能由常用的OLS公式给出。
如果我们一味地使用OLS公式,则以这些公式为依据的t检验和F检验可能产生严重的误导,以致得出错误的结论。
Glejser检验的基本思想:
由OLS法得到残差,取得绝对值,然后将|ei|对某个解释变量回归,根据回归模型的显著性和拟合优度来判断是否存在异方差。
检验的特点:
不仅能对异方差的存在进行判断,而且还能对异方差随某个解释变量变化的函数形式进行诊断。
该检验要求变量的观测值为大样本。
White检验基本思想:
不需要关于异方差的任何先验信息,只需要在大样本的情况下,将OLS估计后所得的残差平方对原始解释变量、其平方项和交叉乘积项构成一个辅助回归,利用辅助回归建立相应的检验统计量来判断异方差性。
目的在于检验那些使通常的OLS标准误和检验统计量无效的异方差形式。
检验的特点:
不需要关于异方差的任何先验认识,只要求变量的取值为大样本。
不仅能够检验异方差的存在性,同时在多变量的情况下,还能判断出是哪一个变量引起的异方差。
17.简述广义矩估计的基本思想。
特点:
广义矩估计方法可以克服随机解释变量问题,可以充分利用多个工具变量的信息,进而克服过度识别问题,同时不需要对模型随机扰动项分布进行事先设定。
GMM包容了许多常用的估计方法,普通最小二乘法、工具变量法、极大似然法,甚至二阶段最小二乘法都是它的特例。
基本思想:
在随机抽样中,样本统计量将依概率收敛于某个常数,这个常数又是分布中未知参数的一个函数。
即在不知道分布的情况下,利用样本矩构造方程(包含总体的未知参数),利用这些方程求得总体的未知参数。
当计量经济学模型设定正确时,存在一些为零的条件矩,假定由这些为零的矩条件可以找到一个含L(L>k)个变量的L×1向量Zi,使得Zi与扰动项无关。
18.简述经济学中的滞后变量
在经济分析中人们发现,一些经济变量,它们的数值是由自身的滞后量或者其他变量的滞后量所决定的,表现在计量经济模型中,解释变量中经常包含某些滞后变量。
在经济学中,变量Y对另一些变量X的依赖很少是瞬时的,常见的情形是,Y对X的响应有一个时间上的延迟,这种时间上的延迟叫做滞后(lag)。
分类:
①分布滞后模型:
仅有X分布在不同时期的滞后变量:
有限分布滞后模型;无限分布滞后模型;②自回归模型:
仅有Y自身滞后变量和当期X:
1阶自回归;q阶自回归。
19.简述逐步最小二乘回归方法。
建立回归模型的时候,可能会面临很多解释变量的取舍问题,这些解释变量(包括相应的滞后变量)在经济意义上可能都对因变量有影响而难以取舍,这种情形下,可以通过逐步回归分析方法利用各种统计准则筛选解释变量。
①单方向筛选法:
这种方法包含前向法和后向法两种,两种方法都是利用最大t值或者相对应的最小p值作为变量入选标准,即根据变量的显著性进行筛选。
前向法根据最小p值进行逐步加入,首先设定变量的入选p值标准(比如0.05),即将入选变量的显著性水平设为5%;其次选择所有变量中p值最小并且小于所设定入选p值标准的变量加入模型,接着在剩余变量中一直筛选下去;当剩余的每个变量加入模型后其p值都大于设定的p值时,或者增加回归变量的数量达到了建模者事先设定的数值时,逐步回归运算结束。
后向法根据最大p值进行逐步剔除,后向法与前向法类似,只不过这种方法一开始就将全部的备选变量加入模型,然后选择p值最大的变量,如果此变量的p值大于事先设定的数值,则将其剔除掉,然后再在剩余的变量中依次选择剔除变量,直到模型中剩余的解释变量所对应的p值都小于设定值,或者增加回归变量的个数达到设定数值时结束筛选。
②逐步筛选法:
是以单方向筛选法为基础的,也包含前向法和后向法两种方法。
逐步前向筛选法最先是和单方向前向法完全相同,将p值最小并且小于所设定入选p值标准的变量加入模型,但不同的是,每次增加变量后还要执行单方向后向法的程序,即检查模型中包含的解释变量中是否存在最大的p值超过设定值的情况,如果存在,则剔除这个变量。
每次按照单方向前向法增加一个变量的时候,都要按照单方向后向法检查是否要剔除一些不显著的变量。
筛选结束规则与上述两种方法相同。
逐步筛选的后向法正好与前向法相反。
这种方法首先将全部的备选变量加入模型,然后剔除掉p值最大并大于事先设定数值的变量,然后执行单方向前向法程序,即检查是否应该在剔除掉的变量选出能够加入进模型的变量。
每次按照单方向后向法剔除一个不显著的变量,都要按照单方向前向法检查是否可以加入一些变量,直到模型中的变量p值都小于设定值,或者增加回归变量的个数达到设定数值时结束筛选。
③互换变量法:
这种方法基于模型整体效果,即通过判断拟合优度R2作为筛选变量的标准。
首先选择能够使得方程的R2增加最大的变量入选,然后选择下一个能使回归方程R2增加最大的变量。
接下来,将第一个选中的变量逐一与未选中的变量互换,一旦出现R2超过现在的数值的情况,就将新的变量换入方程中,再将另一个变量与其他未选中的变量互换。
这个过程一直进行下去,直到R2无法改善的时候,再考虑加入第三个变量。
加入了第三个变量后,仍然要执行类似的变量互换过程,一旦出现R2超过既有数值的情况,就换入新的变量。
当入选变量的个数达到事先设定的数值时,结束筛选。
也可选择使得方程的R2增加较小的变量入选,这种选择标准将由大量的变量组合运算而导致筛选过程较长。
④组合法:
组合方法与互换变量法作用类似,即将给定的所有变量进行组合分别进行回归,使得R2最大的变量组合即为最终的回归方程。
这种方法适合于建模者事先设定了最终希望包含的变量个数的情形。
20.简述序列相关及其产生的后果
如果扰动项不满足古典回归假设,回归方程的估计结果会发生怎样的变化呢?
理论与实践均证明,扰动项关于任何一条古典回归假设的违背,都将导致回归方程的估计结果不再具有上述的良好性质。
因此,必须建立相关的理论,解决扰动项不满足古典回归假设所带来的模型估计问题。
对于不同的样本点,随机扰动项之间不再是完全相互独立的,而是存在某种相关性,则认为出现了序列相关性。
如果回归方程的扰动项存在序列相关,那么应用最小二乘法得到的参数估计量的方差将被高估或者低估。
因此,检验参数显著性水平的t统计量将不再可信。
可以将序列相关可能引起的后果归纳为:
①在线性估计中OLS估计量不再是有效的;②使用OLS公式计算出的标准差不正确,相应的显著性水平的检验不再可信;③如果在方程右边有滞后因变量,OLS估计是有偏的且不一致。
21.简述联立方程系统的识别(秩、阶)
联立方程系统是由多个方程组成,由于各个方程包含的变量之间可能存在互为因果的关系,某个方程的自变量可能就是另一个方程中得因变量,所以需要对系统中的各个方程之间的关系进行严格的定义,否则联立方程系统中的系数就可能无法估计。
因此,在进行联立方程系统估计之前,需要判断它是否可以估计,这就是联立方程系统的识别。
联立方程结构式识别的条件分为秩条件与阶条件,秩条件用以