强烈推荐高中数学知识点总结选修23Word格式.docx
《强烈推荐高中数学知识点总结选修23Word格式.docx》由会员分享,可在线阅读,更多相关《强烈推荐高中数学知识点总结选修23Word格式.docx(12页珍藏版)》请在冰豆网上搜索。
=1
1.2.2组合
一般地,从n个不同元素中取出m(m≤n)个元素合成一组,叫做从n个不同元素中取出m个元素的一个组合(combination)。
从n个不同元素中取出m(m≤n)个元素的所有不同组合的个数,叫做从n个不同元素中取出m个元素的组合数,用符号或表示。
组合数公式:
∴
组合数的性质:
(“构建组合意义”——“殊途同归”)
(杨辉三角)
*
1.3二项式定理
1.3.1二项式定理(binomialtheorem)
(n∈N*)
其中各项的系数(k∈{0,1,2,⋯,n})叫做二项式系数(binomialcoefficient);
式中的叫做二项展开式的通项,用Tk+1表示通项展开式的第k+1项:
*注意二项展开式某一项的系数与这一项的二项式系数是两个不同的概念。
1.3.2“杨辉三角”与二项式系数的性质
*表现形式的变化有时能帮助我们发现某些规律!
(1)对称性
(2)当n是偶数时,共有奇数项,中间的一项取得最大值;
当n是奇数时,共有偶数项,中间的两项,同时取得最大值。
(3)各二项式系数的和为
(4)二项式展开式中,奇数项二项式系数之和等于偶数项二项式系数之和:
(5)一般地,
第二章随机变量及其分布
2.1离散型随机变量及其分布
2.1.1离散型随机变量
随着试验结果变化而变化的变量称为随机变量(randomvariable)。
随机变量和函数都是一种映射,随机变量把随机试验的结果映为实数,函数把实数映为实数。
试验结果的范围相当于函数的定义域,随机变量的取值范围相当于函数的值域。
所有取值可以一一列出的随机变量,称为离散型随机变量(discreterandomvariable)。
概率分布列(probabilitydistributionseries),简称为分布列(distributionseries)。
X
x1
x2
⋯
xi
xn
P
p1
p2
pi
pn
也可用等式表示:
根据概率的性质,离散型随机变量的分布列具有如下性质:
(1)pi≥0,i=1,2,⋯,n;
(2)
随机变量X的均值(mean)或数学期望(mathematicalexpectation):
它反映了离散型随机变量取值的平均水平。
随机变量X的方差(variance)刻画了随机变量X与其均值E(X)的平均偏离程度
其算术平方根为随机变量X的标准差(standarddeviation)。
若随机变量X的分布具有下表的形式,则称X服从两点分布(two-pointdistribution),并称p=P(X=1)为成功概率。
(两点分布又称0-1分布。
由于只有两个可能结果的随机试验叫伯努利试验,所以两点分布又叫伯努利分布)
1
1-p
p
若X服从两点分布,则,
一般地,在含有M件次品的N件产品中,任取n件,其中恰有X件次品,则
,k=0,1,2,⋯,m
m
其中m=min{M,n},且n≤N,M≤N,n,M,N∈N*
如果随机变量X的分布列具有上表的形式,则称随机变量X服从超几何分布(hypergeometricdistribution)。
2.2二项分布及其应用
2.2.1条件概率
一般地,设A,B为两个事件,且P(A)>
0,称
为在事件A发生的条件下,事件B发生的条件概率(conditionalprobability)。
如果B和C是两个互斥事件,则
2.2.2事件的相互独立性
设A,B为两个事件,若
则称事件A与事件B相互独立(mutuallyindependent)。
可以证明,如果事件A与B相互独立,那么A与,与B,与也都相互独立。
2.2.3独立重复试验与二项分布
一般地,在相同条件下重复做的n次试验称为n次独立重复试验(independentandrepeatedtrials)。
其中Ai(i=1,2,⋯,n)是第i次试验的结果。
一般地,在n次独立重复试验中,用X表示事件A发生的次数,设每次试验中事件A发生的概率为p,则
此时称随机变量X服从二项分布(binomialdistribution),记作,并称p为成功概率。
若,则
*随机变量的均值是常数,而样本的平均值是随着样本的不同而变化的,因此样本的平均值是随机变量。
随机变量的方差是常数,而样本的方差是随着样本的不同而变化的,因此样本的方差是随机变量。
2.4正态分布
一般地,如果对于任何实数a,b(a<
b),随机变量X满足
则称随机变量X服从正态分布(normaldistribution)。
正态分布完全由参数μ和σ确定,记作N(μ,σ2)。
如果随机变量X服从正态分布,则记为X~N(μ,σ2).
的图像称为正态分布密度曲线,简称正态曲线。
(参数μ是反映随机变量取值的平均水平的特征数,可用样本的均值去估计;
σ是衡量随机变量总体波动大小的特征数,可用样本的标准差去估计。
)
标准正态分布:
X~N(0,1)
经验表明,一个随机变量如果是众多的、互不相干的、不分主次的偶然因素作用结果之和,它就服从或近似服从正态分布。
正态曲线的特点:
(1)曲线位于x轴上方,与x轴不相交;
(2)曲线是单峰的,它关于直线x=μ对称;
(3)曲线在x=μ处达到峰值;
(4)曲线与x轴之间的面积为1。
*σ越小,曲线越“高瘦”,表示总体分布越集中;
σ越大,曲线越“矮胖”,表示总体分布越分散;
若X~N(μ,σ2),则对于任何实数a>
0,
该面积随着σ的减少而变大。
这说明σ越小,X落在区间(,]的概率越大,即X集中在μ周围概率越大。
特别有
在实际应用中,通常认为服从于正态分布N(μ,σ2)的随机变量X只取之间的值,并简称之为原则。
第三章统计案例
3.1回归分析的基本思想
回归分析(regressionanalysis)是对具有相关关系的两个变量进行统计分析的一种常用方法。
对于一组具有线性相关关系的数据
其中,,称为样本点的中心,回归直线过样本点的中心。
回归方程:
线性回归模型:
其中a和b为模型的未知参数,e是y与bx+a之间的误差。
通常e为随机变量,称为随机误差(randomerror)。
与函数关系不同,在回归模型中,y的值由x和随机因素e共同确定,即x只能解释部分y的变化,因此我们把x称为解释变量,把y称为预报变量。
随机误差e的方差越小,用bx+a预报真实值y的精度越高。
随机误差是引起预报值与真实值y之间存在误差的原因之一,其大小取决于随机误差的方差。
另一方面,和为斜率和截距的估计值,它们与真实值a和b之间也存在误差,这种误差是引起预报值与真实值y之间存在误差的另一个原因。
由于随机误差,所以是e的估计量。
对于样本点
它们的随机误差为
其估计值为
称为相应于点的残差(residual)。
可以通过残差发现原始数据中的可疑数据,判断所建立模型的拟合效果。
以样本编号为横坐标,残差为纵坐标,可作出残差图。
检查残差较大的样本点,确认采集该样本点过程中是否有人为错误,如有,应予以纠正,再重新利用线性回归模型拟合数据;
如没有,则需寻找其它原因。
另外,对于已经获取的样本数据,
中的为确定的数。
因此越大,意味着残差平方和越小,即模型拟合效果越好;
越小,残差平方和越大,即模型拟合效果越差。
表示解释变量对于预报变量变化的贡献率,越接近于1,表示回归的效果越好。
一般地,建立回归模型的基本步骤:
(1)确定研究对象,明确哪个变量是解释变量,哪个变量是预报变量;
(2)画出解释变量和预报变量的散点图,观察它们之间的关系(如是否存在线性关系等)
(3)有经验确定回归方程的类型(如我们观察到数据呈线性关系,则选用线性回归方程)
(4)按一定规则(如最小二乘法)估计回归方程中的参数;
(5)得出结果后分析残差图是否有异常(如个别数据对应残差过大,残差呈现不随机的规律性等)。
若存在异常,则检查数据是否有误,或模型是否合适等。
回归模型的适用范围:
(1)回归方程只适用于我们所研究的样本的总体;
(2)我们所建立的回归方程一般都有时间性;
(3)样本取值的范围会影响回归方程的适用范围;
(4)不能期望回归方程得到的预报值就是预报变量的精确值。
一般地,比较两个函数模型的拟合程度的步骤如下:
(1)分别建立对应于两个模型的回归方程与,其中和分别是参数a和b的估计值
(2)分别计算两个模型的R2值
(3)若,则模型1比模型2拟合效果更好;
若,则模型2比模型1拟合效果更好。
3.2独立性检验的基本思想
不同的“值”表示不同类别的变量叫做分类变量。
列出两个分类变量的频数表称为列联表(contingencytable)。
常用等高条形图展示列联表数据的频率特征。
利用随机变量K2来判断“两个分类变量有关系”的方法称为独立性检验(testofindependence)。
反证法原理与独立性检验原理的比较
反证法原理
在假设H0下,如果推出一个矛盾,就证明了H0不成立
独立性检验原理
在假设H0下,如果出现一个与H0相矛盾的小概率事件,就推断H0不成立,且该推断犯错误的概率不超过这个小概率
一般地,假设有两个分类变量X和Y,它们的取值分别为{x1,x2}和{y1,y2},其样本频数列联表(称为2×
2列联表)为:
y1
y2
总计
a
b
a+b
c
d
c+d
a+c
b+d
a+b+c+d
假设H0:
X与Y没有关系,即X与Y独立。
则有P(XY)=P(X)P(Y);
根据频率近似于概率,故有
化简得
因此,越小,两者关系越弱;
越大,两者关系越强;
基于以上分析,构造随机变量
,其中为样本容量
K2的值越小则关系越小,K2的值越大则关系越大。
(实际应用中通常要求a,b,c,d都不小于5)
计算K2的观测值k并与K2作比较。
统计学研究发现,在H0成立的情况下,
即在H0成立的情况下,K2的观测值超过6.635的概率非常小,近似为0.01,是一个小概率事件。
若观测值k大于6.635,则有理由判定H0不成立,即“X与Y有关系”。
但这种判断会犯错误,犯错误的概率不会超过0.01.