现代数学复习.docx
《现代数学复习.docx》由会员分享,可在线阅读,更多相关《现代数学复习.docx(14页珍藏版)》请在冰豆网上搜索。
现代数学复习
模糊数学考试范围(20分):
题型:
填空、计算
填空:
模糊集合的概念:
设X是论域,模糊集合指的是论域X上的每一个x和X上的模糊子集A的隶属度的集合。
模糊集合的表示方法:
向量表示法、zadeh表示法和序偶表示法。
隶属函数:
用来描述论域X上的每一个x和X上的模糊子集A的隶属成度的函数。
模糊集合的交、并和补运算
λ截集:
截集是一个普通集合,Aλ={x∈X,A(X)>λ},x对于A的隶属度大于λ,x就属于Aλ。
描述模糊集合和普通集合的关系。
模糊矩阵的截阵:
P29
语言变量与模糊集合的关系:
P39图3.1:
语言变量X,语法规则G,语言值集合T(X),语义规则M,论域U。
计算:
1.笛卡尔积3分P26
2.λ截阵P29
3.模糊关系合成P30例2.5
Ur.s(x,z)=V(Ur(x,y)^Us(y,z))类似矩阵乘积,先取小,后取大。
max-min规则。
4.模糊推理:
10分
简单模糊条件语句:
P41例3.1(重点)
例:
设x={x1,x2,x3,x4,x5}={1,2,3,4,5}
Y={y1,y2,y3,y4,y5}={1,2,3,4,5}
A∈X,A=”X取小”,B∈Y,B=”Y取大
求A---》B”若A则B,R=A—》B是若x小则y大的模糊关系,求解R
UA(x)=1/1+0.5/2+0/3+0/4+0/5UB(y)=0/1+0/2+0/3+0.5/4+1/5
UR(x,y)=UA->B(x,y)=(1-UA(x))V(UA(x)^UB(y))
AxB=【(1,1)(1,2)(1,3)(1,4)(1,5)
(2,1)(2,2)(2,3)(2,4)(2,5)
(3,1)(3,2)(3,3)(3,4)(3,5)
(4,1)(4,2)(4,3)(4,4)(4,5)
(5,1)(5,2)(5,3)(5,4)(5,5)】笛卡尔矩阵序偶关系
R=UR(x,y)=
【UR(1,1)UR(1,2)UR(1,3)UR(1,4)UR(1,5)
UR(2,1)UR(2,2)UR(2,3)UR(2,4)UR(2,5)
UR(3,1)UR(3,2)UR(3,3)UR(3,4)UR(3,5)
UR(4,1)UR(4,2)UR(4,3)UR(4,4)UR(4,5)
UR(5,1)UR(5,2)UR(5,3)UR(5,4)UR(5,5)】
UR(1,1)==(1-UA
(1))V(UA
(1)^UB
(1))=(1-1)V(1^0)=0
R=
【0000.51
0.50.50.50.50.5
11111
11111
11111】
多维简单模糊条件语句:
P43例3.2
例:
已知:
A=1/x1+0.4/x2
B=0.1/y1+0.7/y2+1/y3
C=0.3/z1+0.5/z2+1/z3
求“ifAandB,则C”的模糊关系R
(1)首先求出R1=AxB,即UR1(x,y)=UA(x)XUB(y)
记住主要进行拉直运算。
R1=0.10.71
进化计算:
一、遗传算法(GA)
概念题:
遗传算法根据生物进化的模型提出的一种优化算法。
生物的发展进化主要有三个原因:
遗传(繁殖)、变异和选择(交叉)。
遗传算子:
交叉、变异和繁殖。
遗传算法的一般结构和主要流程:
P70P73图5.1
种群,染色体(参数空间编码),适值(适值函数)。
后代是由前一代染色体通过遗传运算(交叉和变异)形成的,在新一代形成种,根据适值的大小选择部分后代,从而保持种群大小是常数。
模式位数θ(H)代表H中非*位的个数P81页
H=00*1*0θ(H)=4
模式的定义长度δ(H)代表H中最两端的有定义位置之间的距离P81页
H=00*1*0δ(H)=6-1=5
计算题:
遗传运算:
1.交叉,规范法交叉算子。
(1)部分映射交叉(PMX)
①交换映射段
②确定映射段中基因的对应关系
③步骤2后,如基因中存在非法值,按映射段对应关系形成合法子代
①V1=2451763②V1=2436263③V1’=7436215
V2=5136247V2=5151747V2’=3651742
(都是在原基音码中找)
(2)顺序交叉(OX)
①交换映射段
②从第2个断点后,如原基因不合法,按父代基因顺序以合法值逐位填空
①V1=2451763②V1=3624③V1’=36245
V2=5136247V2=5174V2’=51743
④V1=136245⑤V1’=1736245
V2=651743V2’=6251743
(3)循环交叉(CX)
2确定环,通过两染色体两两相同基因数值构成环
②其中一个后代是由一个父代的环上基因和另一个父代非环基因构成
V1=215679348v1’=247618395
V2=647318295v2’=615379248
二、禁忌搜索(TA)20分
概念题:
填空:
重要结论
禁忌搜索算法最重要的思想是记住以往已搜索过的局部最优解的一些对象,并在进一步迭代搜索中尽量避开这些对象,进而使得搜索途径多样化。
在禁忌搜索中涉及到邻域移动、禁忌表、选择策略和破禁策略。
计算题:
例题:
由7种不同材料叠加而成的绝缘体,绝缘性能C(X),C(X)与材料排序有关。
解:
1.状态表达:
采用自然数顺序编码,初始解2573461
2.邻域搜索:
采用两两交换基因所在位置。
3.邻域规模:
排列组合7选2共21种组合。
4.禁忌表大小:
3
5.搜索步骤(搜索5代停止,考试最多3代),得出最优解。
A(x)为适值函数(只大不小,破禁水平),C(X)当前解适值
迭代0:
随机选择的初始解2573461
T=Ф,C(X)=10,A(S(x))=10
S为初始解中任意两个位置上的数字交换得到,共有21个。
搜索表是按适值大小排列。
适值最大的为此代最优解。
搜索表T表
S
C(S(x))
54
74
36
23
41
16*
14
12
10
9
1
2
3
Ф
结论:
交换54两个数字得到的解为第一代最优解2473561,作为下次迭代的开始点。
此时,禁忌表的插入值54。
迭代1:
上一次迭代的最优解2473561为开始搜索点。
T如下图,C(X)=16,A(S(x))=16
S为初始解中任意两个位置上的数字交换得到,共有21个。
搜索表T表
S
C(S(x))
31
23
36
71
61
18*
17
15
13
11
1
2
3
54
结论:
交换31两个数字得到的解为此代最优解2471563,作为下次迭代的开始点。
此时,禁忌表的插入值13。
迭代2:
上一次迭代的最优解2471563为开始搜索点。
T如下图,当前解的适值C(X)=18,最优解适值A(S(x))=18
S为初始解中任意两个位置上的数字交换得到,共有21个。
搜索表T表
S
C(S(x))
13
24
76
45
53
16*
14
12
11
9
1
2
3
13
54
结论:
交换31两个数字得到的解为此代最优解2473561,但是不能作为下次迭代的开始点,因为禁忌表中已经禁止13交换。
所以选择交换24两个数字得到的解,选择次优解4271563作为下次迭代的开始点。
此时,禁忌表的插入值24。
迭代3:
上一次迭代的最优解4271563为开始搜索点。
T如下图,C(X)=14,A(S(x))=18
S为初始解中任意两个位置上的数字交换得到,共有21个。
搜索表T表
S
C(S(x))
45
53
71
13
24
20*
16
14
11
8
1
2
3
24
13
54
结论:
交换45两个数字得到的解为此代最优解5271463,适值20。
尽管交换45存在于禁忌表中,但是交换45得到适值20超过以往几代的最优解,满足破禁条件(当此时的适值大于先前的破禁水平时,破禁),所以选择交换45两个数字得到的解5271463作为下次迭代的开始点。
此时,禁忌表的插入值45。
迭代4:
上一次迭代的最优解5271463为开始搜索点。
T如下图,C(X)=20,A(S(x))=20
S为初始解中任意两个位置上的数字交换得到,共有21个。
搜索表T表
S
C(S(x))
71
43
63
54
26
20*
17
15
14
12
1
2
3
45
24
13
结论:
停止于第5代,交换71两个数字得到的解为此代最优解5217463。
三、模拟退火SA(不重要只考概念题)
模拟退火SA它源于对固体退火过程的模拟;采用metropolis接受准则;并用一组称为冷却进度表的参数控制算法过程,使算法在多项式时间里给出一个近似最优解。
SA依据metropolis(通过波尔兹曼概率算法选择新解)准则接受新解,因此除接受优化解外,还在一定范围内接受恶化解,这正是SA与其他局部搜索算法的本质区别所在。
单点寻优速度快;吸收劣解跳出局部最优,全局最优。
SA4个重要参量,即冷却进度表(t0,Lk,T(t),tf)初始温度t0、Markov链长(内循环终止准则)、温度更新函数T(t)、终止温度tf(外循环终止准则)-P121页
SA算法过程:
P126页
SA应用的问题类:
TSP旅行商问题,MCP最大截问题,ZKP背包问题。
四、神经网络(20分计算题、5分概念题)
大题20分:
反馈网络仿真(应用hebb学习规则)
概念题:
人工神经元结构模型:
Ii=WijXj–ΘjYj=f(Ii)
人工神经网络模型:
前馈神经网络和反馈神经网络模型。
其中反馈网络模型是重点。
神经网络的学习方法是体现人工神经网络智能特性的主要标志,主要包括:
学习机理、学习方式(有教师、无教师、再励学习)和学习规则(hebb学习规则是重点)。
前馈神经网络的定义、特点、类型及训练学习方法、包括感知器网络和BP网络。
前馈神经网络:
感知器网络模型及算法,感知器是采用有教师指导的学习算法;BP网络。
反馈神经网络的定义、特点、类型及训练学习方法。
计算题:
反馈神经网络:
离散hopfield网络;
吸引子:
若网络的状态X,满足X=f(wx-θ)则称X为稳定点或吸引子。
定理1:
对于离散H网,若按异步方式调整状态,且连接权矩阵W为对称矩阵,则对任何初态网络都能最终收敛到吸引子。
定理2:
对于离散H网,若按同步方式调整状态,且连接权矩阵W为非负定矩阵,则对任何初态网络都能最终收敛到吸引子。
例子:
五个状态,X
(1)=[1111]T,X
(2)=[-1-1-1-1]T,X(3)=[-1111]T,X(4)=[1-1-1-1]T,X
(1)=[11-1-1]T,
1x》0
-1x《0
目标函数:
y=f(x)=
问题:
1.利用hebb规则设计w矩阵
2.判断X
(1),X
(2),是否吸引子
3.X(3),X(4),X(5),是否收敛到吸引子
解:
1.W=X
(1)X
(1)T+X
(2)X
(2)T—2I
=
2.X
(1)=f(wX
(1))=[1111]T,状态X
(1)运算后等于本身,所以X
(1)为吸引子,另X
(2)=-X
(1),根据定理X
(2)也为吸引子。
3.按异步方式调整以神经元调整顺序1234来判断X(3),X(4),X(5),是否收敛到吸引子。
对于X(3),
设X(0)=X(3)=[-1111]T,
第一代运算:
只选第一个神经元的权值,仅仅改变第一个神经元的输出。
其它神经元原样输出。
第一个神经元输出X1
(1)=f(wX(0))=f(6)=1
第二个神经元输出X2
(1)=1的值不变
第三个神经元输出X3
(1)=1的值不变
第四个神经元输出X4
(1)=1的值不变
X
(1)=[1111]T=X
(1)吸引子,经过一代训练收敛到吸引子,无需在训练。
对于X(4),
设X(0)=X(4)=[1-1-1-1]T,以神经元调整顺序1234训练,计算如上收敛到吸引子。
对于X(5),
设X(0)=X(5)=[11-1-1]T,以神经元调整顺序1234训练
第一代运算:
只选第一个神经元的权值,仅仅改变第一个神经元的输出。
其它神经元原样输出。
第一个神经元输出X1
(1)=f(wX(0))=f(-2)=-1
第二个神经元输出X2
(1)=1的值不变
第三个神经元输出X3
(1)=-1的值不变
第四个神经元输出X4
(1)=-1的值不变
X
(1)=[-11-1-1]T经过一代训练未收敛到吸引子,需在训练。
第二代运算:
只选第二个神经元的权值,仅仅改变第二个神经元的输出。
其它神经元原样输出。
第一个神经元输出X1
(2)=-1的值不变
第二个神经元输出X2
(1)=f(wX
(1))=f(-6)=-1
第三个神经元输出X3
(1)=-1的值不变
第四个神经元输出X4
(1)=-1的值不变
X
(1)=[-1-1-1-1]T=X
(2)吸引子,经过二代训练收敛到吸引子,训练结束。
按同步方式调整:
对于X(3),
设X(0)=X(3)=[-1111]T,
第一代运算:
所有神经元都参加运算。
X
(1)=f(wX(0))=[1111]T,
第二代运算:
所有神经元都参加运算。
X
(2)=f(wX
(1))=[1111]T,
经过两代训练收敛到吸引子,无需在训练。
对于X(4),同上
对于X(5),
设X(0)=X(5)=[11-1-1]T,
第一代运算:
所有神经元都参加运算。
X
(1)=f(wX(0))=[-1-111]T,
第二代运算:
所有神经元都参加运算。
X
(2)=f(wX
(1))=[11-1-1]T,
经过两代训练不能收敛到吸引子,无需在训练。