概率论与数理统计第七章参数估计第二节点估计文档格式.docx
《概率论与数理统计第七章参数估计第二节点估计文档格式.docx》由会员分享,可在线阅读,更多相关《概率论与数理统计第七章参数估计第二节点估计文档格式.docx(10页珍藏版)》请在冰豆网上搜索。
U(X1,X2,…Xn)称为参数
的点估计量,
把样本值代入U(X1,X2,…Xn)中,
估计值.
得到的一个点
由大数定律,
自然想到把样本体重的平均值作为总体平均体重的一个估计.
样本体重的平均值
我们知道,若,
则.
用样本体重的均值估计.
类似地,用样本体重的方差估计.
可以用样本均值;
也可以用样本中位数;
还可以用别的统计量.
使用什么样的统计量去估计?
问题是:
1.顺序统计量估计法
2.矩估计法
3.极大似然估计
4.最小二乘法
……
这里我们主要介绍前面三种方法.
点估计常用方法:
二、顺序统计量法
1、用中位数估计均值
2、用极差估计标准差
三、矩估计法
矩估计法是英国统计学家K.皮尔逊最早提出来的.由辛钦大数定理,
若总体的数学期望有限,
则有
其中为连续函数.
这表明,当样本容量很大时,在统计上,可以用
用样本矩去估计总体矩.这一事实导出矩估计法.
定义
用样本原点矩估计相应的总体原点矩,又
用样本原点矩的连续函数估计相应的总体原点矩的
连续函数,
这种参数点估计法称为矩估计法.
理论依据:
大数定律
矩估计法的具体做法如下:
那么它的前k阶矩,一般都是这k个参数
设总体的分布函数中含有k个未知参数,
那么用诸的估计量Ai分别代替上式中的诸,
即可得诸的矩估计量:
i=1,2,…,k
从这k个方程中解出
j=1,2,…,k
矩估计量的观察值称为矩估计值.
的函数,记为:
矩法的优点是简单易行,并不需要事先知道总体是什么分布.
缺点是,当总体类型已知时,没有充分利用分布提供的信息.一般场合下,矩估计量不具有唯一性.
其主要原因在于建立矩法方程时,选取那些总体矩用相应样本矩代替带有一定的随意性.
练习1设总体X在[a,b]上服从均匀分布,a,b未知.是来自X的样本,试求a,b的矩估计量.
解
即
解得
于是a,b的矩估计量为
样本矩
总体矩
练习2设总体X的均值和方差都存在,未知.是来自X的样本,试求的矩估计量.
于是的矩估计量为
解:
由矩法,
从中解得
的矩估计.
即为
数学期望
是一阶
原点矩
练习3设总体X的概率密度为
是未知参数,
其中
X1,X2,…,Xn是取自X的样本,求参的矩估计.
四、极大似然估计
它是在总体类型已知条件下使用的一种参数估计方法.
它首先是由德国数学家高斯在
1821年提出的.
Gauss
Fisher
然而,这个方法常归功于英国统计学家费歇.
费歇在1922年重新发现了这一方法,并首先研究了这种方法的一些性质.
极大似然估计法的思想
极大似然估计法,是建立在最大似然原理
的基础上的求点估计量的方法。
最大似然原理的直观想法是:
在试验中概率最大的事件最有可能出现。
因此,一个试验如有若干个可能的结果A,B,C,…,若在一次试验中,结果A出现,
则一般认为A出现的概率最大。
极大似然估计定义:
当给定样本X1,X2,…Xn时,定义似然函数为:
设X1,X2,…Xn是取自总体X的一个样本,样本的联合密度(连续型)或联合分布律(离散型)为
f(x1,x2,…,xn;
)
这里x1,x2,…,xn是样本的观察值.
似然函数:
极大似然估计法就是用使达到最大值的
去估计.即
称为的极大似然估计值.
而相应的统计量
称为的极大似然估计量.
看作参数的函数,它可作为将以多大可
能产生样本值x1,x2,…,xn的一种度量.
求最大似然估计量的一般步骤为:
(1)求似然函数
(2)一般地,求出及似然方程
(3)解似然方程得到最大似然估计值
(4)最后得到最大似然估计量
解
似然函数
练习
解似然函数为
对数似然函数为
练习设X1,X2,…Xn是取自总体X的一个样本
求的最大似然估计值.
其中&
gt;
0,
求导并令其为0
=0
即为的最大似然估计值.
五、评价估计量的标准
这就需要讨论以下问题:
问题的提出
从前面可以看到,对于同一个参数,用不同的
估计方法求出的估计量可能不相同,而且,很明显,
原则上任何统计量都可以作为未知参数的估计量.
(1)对于同一个参数究竟采用哪一个估计量好?
(2)评价估计量的标准是什么?
常用的几条标准是:
1.无偏性
2.有效性
3.一致性
这里我们重点介绍前面两个标准.
1、无偏性
证
推广
特别的:
不论总体X服从什么分布,
只要它的数学期望存在,
所以无偏估计以方差小者为好,这就引进了有效性这一概念.
都是参数的无偏估计量,
的大小来决定二者谁更优.
一个参数往往有不止一个无偏估计,若
我们可以比较
由于
2、有效性
3、一致性