SPSS因子分析法例子解释.docx

上传人:b****7 文档编号:9496607 上传时间:2023-02-04 格式:DOCX 页数:33 大小:114.75KB
下载 相关 举报
SPSS因子分析法例子解释.docx_第1页
第1页 / 共33页
SPSS因子分析法例子解释.docx_第2页
第2页 / 共33页
SPSS因子分析法例子解释.docx_第3页
第3页 / 共33页
SPSS因子分析法例子解释.docx_第4页
第4页 / 共33页
SPSS因子分析法例子解释.docx_第5页
第5页 / 共33页
点击查看更多>>
下载资源
资源描述

SPSS因子分析法例子解释.docx

《SPSS因子分析法例子解释.docx》由会员分享,可在线阅读,更多相关《SPSS因子分析法例子解释.docx(33页珍藏版)》请在冰豆网上搜索。

SPSS因子分析法例子解释.docx

SPSS因子分析法例子解释

因子分析的基本概念与步骤

一、因子分析的意义

在研究实际问题时往往希望尽可能多地收集相关变量,以期望能对问题有比较全面、完整的把握与认识。

例如,对高等学校科研状况的评价研究,可能会搜集诸如投入科研活动的人数、立项课题数、项目经费、经费支出、结项课题数、发表论文数、发表专著数、获得奖励数等多项指标;再例如,学生综合评价研究中,可能会搜集诸如基础课成绩、专业基础课成绩、专业课成绩、体育等各类课程的成绩以及累计获得各项奖学金的次数等。

虽然收集这些数据需要投入许多精力,虽然它们能够较为全面精确地描述事物,但在实际数据建模时,这些变量未必能真正发挥预期的作用,“投入”与“产出”并非呈合理的正比,反而会给统计分析带来很多问题,可以表现在:

计算量的问题

由于收集的变量较多,如果这些变量都参与数据建模,无疑会增加分析过程中的计算工作量。

虽然,现在的计算技术已得到了迅猛发展,但高维变量与海量数据仍就是不容忽视的。

变量间的相关性问题

收集到的诸多变量之间通常都会存在或多或少的相关性。

例如,高校科研状况评价中的立项课题数与项目经费、经费支出等之间会存在较高的相关性;学生综合评价研究中的

专业基础课成绩与专业课成绩、获奖学金次数等之间也会存在较高的相关性。

而变量之间信息的高度重叠与高度相关会给统计方法的应用带来许多障碍。

例如,多元线性回归分

析中,如果众多解释变量之间存在较强的相关性,即存在高度的多重共线性,那么会给回归

方程的参数估计带来许多麻烦,致使回归方程参数不准确甚至模型不可用等。

类似的问题还有很多。

为了解决这些问题,最简单与最直接的解决方案就是削减变量的个数,但这必然又会导致信息丢失与信息不完整等问题的产生。

为此,人们希望探索一种更为有效的解决方法,它既能大大减少参与数据建模的变量个数,同时也不会造成信息的大量丢失。

因子分析正式这样一种能够有效降低变量维数,并已得到广泛应用的分析方法。

因子分析的概念起源于20世纪初KarlPearson与CharlesSpearmen等人关于智力测验的统计分析。

目前,因子分析已成功应用于心理学、医学、气象、地址、经济学等领域,并因此促进了理论的不断丰富与完善。

因子分析以最少的信息丢失为前提,将众多的原有变量综合成较少几个综合指标,名为因子。

通常,因子有以下几个特点:

因子个数远远少于原有变量的个数

原有变量综合成少数几个因子之后,因子将可以替代原有变量参与数据建模,这将大大减少分析过程中的计算工作量。

因子能够反映原有变量的绝大部分信息

因子并不就是原有变量的简单取舍,而就是原有变量重组后的结果,因此不会造成原有变量信息的大量丢失,并能够代表原有变量的绝大部分信息。

因子之间的线性关系并不显著

由原有变量重组出来的因子之间的线性关系较弱,因子参与数据建模能够有效地解决变量多重共线性等给分析应用带来的诸多问题。

因子具有命名解释性

通常,因子分析产生的因子能够通过各种方式最终获得命名解释性。

因子的命名解释性有助于对因子分析结果的解释评价,对因子的进一步应用有重要意义。

例如,对高校科研情况的因子分析中,如果能够得到两个因子,其中一个因子就是对科研人力投入、经费投入、立项项目数等变量的综合,而另一个就是对结项项目数、发表论文数、获奖成果数等变量的综合,那么,该因子分析就就是较为理想的。

因为这两个因子均有命名可解释性,其中一个反映了科研投入方面的情况,可命名为科研投入因子,另一个反映了科研产出方面的情况,可命名为科研产出因子。

总之,因子分析就是研究如何以最少的信息丢失将众多原有变量浓缩成少数几个因子如何使因子具有一定的命名解释性的多元统计分析方法。

二、因子分析的基本概念

1因子分析模型

因子分析模型中,假定每个原始变量由两部分组成:

共同因子(commonfactors)与唯一因子(uniquefactors)。

共同因子就是各个原始变量所共有的因子,解释变量之间的相关关

系。

唯一因子顾名思义就是每个原始变量所特有的因子,表示该变量不能被共同因子解释的部分。

原始变量与因子分析时抽出的共同因子的相关关系用因子负荷(factorloadings)

表示。

因子分析最常用的理论模式如下:

ZjajFaj2F2aj3F3ajmFmUj(j=1,2,3…,n,n为原始变量总数)

可以用矩阵的形式表示为ZAFU。

其中F称为因子,由于它们出现在每个原始变量的线性表达式中(原始变量可以用Xj表示,这里模型中实际上就是以F线性表示各个原

始变量的标准化分数Zj),因此又称为公共因子。

因子可理解为高维空间中互相垂直的m

个坐标轴,A称为因子载荷矩阵,aji(j1,2,3...n,i1,2,3...m)称为因子载荷,就是第j个原始变量在第i个因子上的负荷。

如果把变量Zj瞧成m维因子空间中的一个向量,则aji表示

Zj在坐标轴Fi上的投影,相当于多元线性回归模型中的标准化回归系数;U称为特殊因子,表示了原有变量不能被因子解释的部分,其均值为0,相当于多元线性回归模型中的残差。

其中,

(1)Zj为第j个变量的标准化分数;

⑵Fi(i=1,2,…,m)为共同因素;

⑶m为所有变量共同因素的数目

(4)Uj为变量Zj的唯一因素;

(5)aji为因素负荷量

2、因子分析数学模型中的几个相关概念

因子载荷個素负荷量factorloadings)

所谓的因子载荷就就是因素结构中原始变量与因素分析时抽取出共同因素的相关

可以证明,在因子不相关的前提下,因子载荷aji就是变量Zj与因子Fi的相关系数,反映了

变量Zj与因子Fi的相关程度。

因子载荷aji值小于等于1,绝对值越接近1,表明因子Fi与

变量Zj的相关性越强。

同时,因子载荷aji也反映了因子Fi对解释变量Zj的重要作用与程

度。

因子载荷作为因子分析模型中的重要统计量,表明了原始变量与共同因子之间的相关关系。

因素分析的理想情况,在于个别因素负荷量aji不就是很大就就是很小,这样每个变

量才能与较少的共同因素产生密切关联,如果想要以最少的共同因素数来解释变量间的关

系程度,则Uj彼此间或与共同因素间就不能有关联存在。

一般说来,负荷量为0、3或更大

被认为有意义。

所以,当要判断一个因子的意义时,需要查瞧哪些变量的负荷达到了0、3或0、3以上。

变量共同度(共同性,Communality)

变量共同度也就就是变量方差,就就是指每个原始变量在每个共同因子的负荷量的平方与,也就就是指原始变量方差中由共同因子所决定的比率。

变量的方差由共同因子与唯一因子组成。

共同性表明了原始变量方差中能被共同因子解释的部分,共同性越大,变量能被因子说明的程度越高,即因子可解释该变量的方差越多。

共同性的意义在于说明如果用

共同因子替代原始变量后,原始变量的信息被保留的程度。

因子分析通过简化相关矩阵,

提取可解释相关的少数因子。

一个因子解释的就是相关矩阵中的方差,而解释方差的大小

称为因子的特征值。

一个因子的特征值等于所有变量在该因子上的负荷值的平方总与。

m

变量Zj的共同度h2的数学定义为:

h2aji2,该式表明变量Zj的共同度就是因子载荷

i1

矩阵A中第j行元素的平方与。

由于变量Zj的方差可以表示成h2u21,因此变量Zj的方差可由两个部分解释:

第一部分为共同度h2,就是全部因子对变量Zj方差解释说明的比例,体现了因子全体对变量Zj的解释贡献程度。

变量共同度h2越接近1,说明因子全体解释说明了变量Zj的较大部分方差,如果用因子全体刻画变量Zj,则变量Zj的信息丢失较少;第二部分为特殊因子U的平方,反应了变量Zj方差中不能由因子全体解释说明的比例,u2

越小则说明变量Zj的信息丢失越少

总之,变量d共同度刻画了因子全体对变量Zj信息解释的程度,就是评价变量Zj信息

丢失程度的重要指标。

如果大多数原有变量的变量共同度均较高(如高于0、8),则说明提取的因子能够反映原有变量的大部分信息(80%以上)信息,仅有较少的信息丢失,因子分析的效果较好。

因子,变量共同度就是衡量因子分析效果的重要依据。

因子的方差贡献(特征值eigenvalue)

n

因子的方差贡献(特征值)的数学定义为:

Si2aji,该式表明,因子Fi的方差贡献就

ji

是因子载荷矩阵A中第i列元素的平方与。

因子Fi的方差贡献反映了因子Fi对原有变量

总方差的解释能力。

该值越高,说明相应因子的重要性越高。

因此,因子的方差贡献与方差贡献率就是衡量因子重要性的关键指标。

为了便于说明,以三个变量抽取两个共同因素为例,三个变量的线性组合分别为:

a11F1

a12F2

U1

a21F1

a22F2

U2

Z3

a31F1

932F2

U3

转换成因素矩阵如下

变量

F1

(共同因素一)

F2

(共同因素二)

共同性

(h2)

唯一因素

(d2)

X1

a11

a12

22

911a12

1h.

X2

a21

a22

22

a21a22

1h22

X3

a31

a32

22

931932

1h32

特征值

222

911921931

222

911921931

解释量

222

a11a21a31

222

a11a21a31

3

3

所谓共同性,就就是每个变量在每个共同因素之负荷量的平方总与(一横列中所有因素负荷量的平方与),也就就是个别变量可以被共同因素解释的变异量百分比,这个值就是个别变量与共同因素间多元相关的平方。

从共同性的大小可以判断这个原始变量与共同

因素之间关系程度。

而各变量的唯一因素大小就就是1减掉该变量共同性的值。

(在主成分分析中,有多少个原始变量便有多少个“component”成分,所以共同性会等于1,没有唯一因素)。

至于特征值就是每个变量在某一共同因素之因素负荷量的平方总与(一直行所有因

素负荷量的平方与)。

在因素分析之共同因素抽取中,特征值大的共同因素会最先被抽取其次就是次大者,最后抽取的共同因素之特征值最小,通常会接近0(在主成分分析中,有几个题项,便有几个成分,因而特征值的总与刚好等于变量的总数)。

将每个共同因素的特征值除以总题数,为此共同因素可以解释的变异量,因素分析的目的,即在因素结构的简单化希望以最少的共同因素,能对总变异量作最大的解释,因而抽取的因素越少越好,但抽取因素之累积解释的变异量则越大越好。

3、社会科学中因素分析通常应用在三个层面:

(1)显示变量间因素分析的组型(pattern)

(2)侦测变量间之群组(clusters)每个群组所包括的变量彼此相关很高,同构型较大,亦即将关系密切的个别变量合并为一个子群。

(3)减少大量变量数目,使之称为一组涵括变量较少的统计自变量(称为因素),每个因素与原始变量间有某种线性关系存在,而以少数因素层面来代表多数、个别、独立的变量。

因素分析具有简化数据变量的功能,以较少层面来表示原来的数据结构,它根据变量间彼此的相关,找出变量间潜在的关系结构,变量间简单的结构关系称为“成份”

(components或“因素”(factors)、

三、因素分析的主要方式

围绕浓缩原有变量提取因子的核心目标,因子分析主要涉及以下五大基本步骤:

1因子分析的前提条件

由于因子分析的主要任务之一就是对原有变量进行浓缩,即将原有变量中的信息重叠

部分提取与综合成因子,进而最终实现减少变量个数的目的。

因此它要求原有变量之间应存在较强的相关关系。

否则,如果原有变量相互独立,相关程度很低,不存在信息重叠,它们不可能有共同因子,那么也就无法将其综合与浓缩,也就无需进行因子分析。

本步骤正就是希望通过各种方法分析原有变量就是否存在相关关系,就是否适合进行因子分析。

SPSS提供了四个统计量可帮助判断观测数据就是否适合作因子分析:

⑴计算相关系数矩阵CorrelationMatrix

在进行提取因子等分析步骤之前,应对相关矩阵进行检验,如果相关矩阵中的大部分相关系数小于0、3,则不适合作因子分析;当原始变量个数较多时,所输出的相关系数矩阵特别大,观察起来不就是很方便,所以一般不会采用此方法或即使采用了此方法,也不方便

在结果汇报中给出原始分析报表。

(2)计算反映象相关矩阵Anti-imagecorrelationmatrix

反映象矩阵重要包括负的协方差与负的偏相关系数。

偏相关系数就是在控制了其她变量对两变量影响的条件下计算出来的净相关系数。

如果原有变量之间确实存在较强的相互重叠以及传递影响,也就就是说,如果原有变量中确实能够提取出公共因子,那么在控制了这些影响后的偏相关系数必然很小。

反映象相关矩阵的对角线上的元素为某变量的MSA(MeasureofSampleAdequacy)统

计量,其数学定义为:

2

rij

MSAi$2,其中,5就是变量人与其她变量Xj(ji)间的简单相关系

rjPj

jiji

数,Pj就是变量Xj(ji)在控制了剩余变量下的偏相关系数。

由公式可知,某变量Xi的

MSAi统计量的取值在0与1之间。

当它与其她所有变量间的简单相关系数平方与远大于

偏相关系数的平方与时,MSAj值接近1。

MSA值越接近1,意味变量xi与其她变量间的相关性越强;当它与其她所有变量间的简单相关系数平方与接近0时,MSAi值接近0。

MSAi值越接近0,意味变量Xi与其她变量间的相关性越弱。

观察反映象相关矩阵,如果反映象相关矩阵中除主对角元素外,其她大多数元素的绝对值均小,对角线上元素的值越接近1,则说明这些变量的相关性较强,适合进行因子分析。

(1)中最后所述理由相同,一般少采用此方法。

(3)巴特利特球度检验Bartletttestofsphericity

Bartlett球体检验的目的就是检验相关矩阵就是否就是单位矩阵(identitymatrix),如果就是单位矩阵,则认为因子模型不合适。

Bartlett球体检验的虚无假设为相关矩阵就是单位阵,如果不能拒绝该假设的话,就表明数据不适合用于因子分析。

一般说来,显著水平值越小(<0、05)表明原始变量之间越可能存在有意义的关系,如果显著性水平很大(如0、10以上)可能表明数据不适宜于因子分析。

(4)KMO(Kaiser-Meyer-OklinMeasureofSmaplingAdequacy)

KMO就是Kaiser-Meyer-Olkin的取样适当性量数。

KMO测度的值越高(接近1、0时),表明变量间的共同因子越多,研究数据适合用因子分析。

通常按以下标准解释该指标值的大小:

KMO值达到0、9以上为非常好,0、8〜0、9为好,0、7〜0、8为一般,0、6〜0、7为差,0、5〜0、6为很差。

如果KMO测度的值低于0、5时,表明样本偏小,需要扩大样本。

综上所述,经常采用的方法为巴特利特球度检验Bartletttestofsphericity与KMO(Kaiser-Meyer-OklinMeasureofSmaplingAdequacy)。

2、抽取共同因子,确定因子的数目与求因子解的方法将原有变量综合成少数几个因子就是因子分析的核心内容。

本步骤正就是研究如何

在样本数据的基础上提取与综合因子。

决定因素抽取的方法,有“主成份分析法”(principalcomponentsanalysis)、主轴法、一般化最小平方法、未加权最小平方法、最大概似法、Alpha因素抽取法与映象因素抽取法等。

使用者最常使用的就是主成份分析法与主轴法,其中,又以主成份分析法使用最为普遍,在SPSS使用手册中,也建议研究者多采用主成份分析法来估计因素负荷量(SPSSInc,1998)。

所谓主成份分析法,就就是以较少的成份解释原始变量方差的较大部分。

进行主成份分析时,先要将每个变量的数值转换成标准值。

主成份分析就就是用多个变量组成一个多维空间,然后在空间内投射直线以解释最大的方差,所得的直线就就是共同因子,该直线最能代表各个变量的性质,而在此直线上的数值所构成的一个变量就就是第一个共同因子,或称第一因子(FJ。

但就是在空间内还有剩余的方差,所以需要投射第二条直线来解释方差。

这时,还要依据第二条准则,即投射的第二条直线与第一条直线成直交关系(即不相关),意为代表不同的方面。

第二条直线上的数值所构成的一个变量,称为第二因子(F2)。

依据该原理可以求出第三、第四或更多的因子。

原则上,因子的数目与原始变量的数目相同,但抽取了主要的因子之后,如果剩余的方差很小,就可以放弃其余的因子,以达到简化数据的目的。

因子数目的确定没有精确的定量方法,但常用的方法就是借助两个准则来确定因子的个数。

一就是特征值(eigenvalue准则,二就是碎石图检验(screetest准则。

特征值准则就就是选取特征值大于或等于1的主成份作为初始因子,而放弃特征值小于1的主成份。

因为每个变量的方差为1,该准则认为每个保留下来的因子至少应该能解释一个变量的方差,否则达不到精简数据的目的。

碎石检验准则就是根据因子被提取的顺序绘出特征值随因子个数变化的散点图,根据图的形状来判断因子的个数。

散点曲线的特点就是由高到低,先陡后平,最后几乎成一条直线。

曲线开始变平的前一个点被认为就是提取的最大因子数。

后面的散点类似于山脚下的碎石,可舍弃而不会丢失很多信息。

3、使因子更具有命名可解释性

通常最初因素抽取后,对因素无法作有效的解释。

这时往往需要进行因子旋转

(rotation),通过坐标变换使因子解的意义更容易解释。

转轴的目的在于改变题项在各因素负荷量的大小,转轴时根据题项与因素结构关系的密切程度,调整各因素负荷量的大小,转轴后,使得变量在每个因素的负荷量不就是变大(接近1)就就是变得更小(接近0),而非转轴前在每个因素的负荷量大小均差不多,这就使对共同因子的命名与解释变量变得更容易。

转轴后,每个共同因素的特征值会改变,但每个变量的共同性不会改变。

常用的转轴方法,有最大变异法(Varimax)、四次方最大值法(Quartimax)、相等最大值法(Equamax)直接斜交转轴法(DirectOblimin)、Promax转轴法,其中前三者属于“直交转轴法”(orthogonalrotations),在直交转轴法中,因素(成份)与因素(成份)间没有相关,亦即其相关为0,因素轴间夹角为90°;而后二者(直接斜交转轴、Promax转轴法)属“斜交转轴”(obliquerotations),采用斜交转轴法,表示因素与因素间彼此有某种程度的相关,亦即因素轴间的夹角不就是90°。

直交转轴法的优点就是因素间提供的信息不会重叠,观察体在某一个因素的分数与在其它因素的分数,彼此独立不相关;而其缺点就是研究者迫使因素间不相关,但在实际情境中,它们彼此有相关的可能性很高。

因而直交转轴方法偏向较多人为操控方式,不需要正确响应现实世界中自然发生的事件(Bryman&Cramer,1997)。

所谓直交旋转法(orthogonalrotations),就就是要求各个因子在旋转时都要保持直角关系,即不相关。

在直交旋转时,每个变量的共同性(commonality)就是不变的。

不同的直交旋转方法有不同的作用。

在直交旋转法中,常用于社会科学研究的方式就是Varimax旋转法。

该方法就是在旋转时尽量弄清楚在每一个因子上各个变量的因子负荷情况,也即让因子矩阵中每一列的的值尽可能变成1或0,该旋转法的作用就是突出每个因子的性质可以更清楚哪些变量就是属于它的。

由此可见,Varimax旋转法可以帮助找出多个因子,以澄清概念的内容。

Quartimax旋转法可以则可以尽量弄清楚每个变量在各个因子上的负荷情况,即让每个变量在某个因子上的负荷尽可能等于1,而在其它因子上则尽可能等于

0。

该方法可以增强第一因子的解释力,而使其它因子的效力减弱。

可见Quartimax旋转法适合于找出一个最强效力的因子。

Equamax旋转法则就是一种折中的做法,即尽可能简化因子,也可弄清楚负荷情况。

其缺点就是可能两方面都未照顾好。

斜交旋转(obliquerotarion)方法就是要求在旋转时各个因子之间呈斜交的关系,表示允许该因子与因子之间有某种程度上的相关。

斜交旋转中,因子之间的夹可以就是任意的,所以用斜交因子描述变量可以使因子结构更为简洁。

选择直接斜交旋转时,必须指定Delta值。

该值的取值范围在0〜一1之间,0值产生最高相关因子,大的负数产生旋转的结果与直交接近。

Promax斜交旋转方法也允许因子彼此相关,它比直接斜交旋转更快,因此适用于大数据集的因子分析。

综上所述,不同的因子旋转方式各有其特点。

因此,究竟选择何种方式进行因子旋转取决于研究问题的需要。

如果因子分析的目的只就是进行数据简化,而因子的确切含义就是什么并不重要,就应该选择直交旋转。

如果因子分析的目的就是要得到理论上有意义的因子,应该选择斜交因子。

事实上,研究中很少有完全不相关的变量,所以,从理论上瞧斜交旋转优于直交旋转。

但就是斜交旋转中因子之间的斜交程度受研究者定义的参数的影响,而且斜交选装中所允许的因子之间的相关程度就是很小的,因为没有人会接受两个高

度相关的共同因子。

如果两个因子确实高度相关,大多数研究者会选取更少的因子重新进行分析。

因此,斜交旋转的优越性大打折扣。

在实际研究中,直交旋转(尤其就是Varimax旋转法)得到更广泛的运用。

4、决定因素与命名

转轴后,要决定因素数目,选取较少因素层面,获得较大的解释量。

在因素命名与结果解释上,必要时可将因素计算后之分数存储,作为其它程序分析之输入变量。

5、计算各样本的因子得分

因子分析的最终目标就是减少变量个数,以便在进一步的分析中用较少的因子代替原有变量参与数据建模。

本步骤正就是通过各种方法计算各样本在各因子上的得分,为进一步的分析奠定基础。

此外,在因素分析中,研究者还应当考虑以下几个方面(Bryman&Cramer,1997):

(1)可从相关矩阵中筛选题项题项间如果没有显著的相关,或相关太小,则题项间抽取的因素与研究者初始构建的层面可能差距很大。

相对的题项间如果有极其显著的正/负相关,则因素分析较易构建成有意义的内容。

因素分析前,研究者可从题项间相关矩阵分布情形,简扼瞧出哪些题项间有密切关系。

(2)样本大小

因素分析的可靠性除与预试样本的抽样有关外,预样本数的多少更有密切关系。

进行因素分析时,预试样本应该多少才能使结果最为可靠,学者间没有一致的结论,然而多数学者均赞同“因素分析要有可靠的结果,受试样本数要比量表题项数还多”,如果一个分量表有40个预试题项,则因素分析时,样本数不得少于40。

此外,在进行因素分析时,学者Gorshc

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 党团工作 > 入党转正申请

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1