人工智能典型例题MATLAB仿真实验报告.docx

上传人:b****5 文档编号:8363151 上传时间:2023-01-30 格式:DOCX 页数:18 大小:42.93KB
下载 相关 举报
人工智能典型例题MATLAB仿真实验报告.docx_第1页
第1页 / 共18页
人工智能典型例题MATLAB仿真实验报告.docx_第2页
第2页 / 共18页
人工智能典型例题MATLAB仿真实验报告.docx_第3页
第3页 / 共18页
人工智能典型例题MATLAB仿真实验报告.docx_第4页
第4页 / 共18页
人工智能典型例题MATLAB仿真实验报告.docx_第5页
第5页 / 共18页
点击查看更多>>
下载资源
资源描述

人工智能典型例题MATLAB仿真实验报告.docx

《人工智能典型例题MATLAB仿真实验报告.docx》由会员分享,可在线阅读,更多相关《人工智能典型例题MATLAB仿真实验报告.docx(18页珍藏版)》请在冰豆网上搜索。

人工智能典型例题MATLAB仿真实验报告.docx

人工智能典型例题人工智能典型例题MATLAB仿真实验报告仿真实验报告研究生(人工智能)报告研究生(人工智能)报告题目:

人工智能实验报告学号姓名专业电磁场与微波技术指导教师院(系、所)华中科技大学研究生院制华中科技大学研究生院制1问题二问题二利用一阶谓词逻辑求解猴子摘香蕉问题利用一阶谓词逻辑求解猴子摘香蕉问题:

房内有一个猴子,一个箱子,天:

房内有一个猴子,一个箱子,天花板上花板上挂了一串香蕉,其位置如图所示,猴子为了拿到香蕉,它必须把箱子搬挂了一串香蕉,其位置如图所示,猴子为了拿到香蕉,它必须把箱子搬到香蕉下面,到香蕉下面,然后再爬到箱子上。

请定义必要的谓词,列出问题的初始化状态然后再爬到箱子上。

请定义必要的谓词,列出问题的初始化状态(即下图所示状态即下图所示状态),目标状态,目标状态(猴子拿到了香蕉,站在箱子上,箱子位于位猴子拿到了香蕉,站在箱子上,箱子位于位置置b)。

abc图1猴子香蕉问题解:

解:

定义描述环境状态的谓词。

定义描述环境状态的谓词。

AT(x,w):

x在t处,个体域:

x?

monkey,w?

a,b,c,box;HOLD(x,t):

x手中拿着t,个体域:

t?

box,banana;EMPTY(x):

x手中是空的;ON(t,y):

t在y处,个体域:

y?

b,c,ceiling;CLEAR(y):

y上是空的;BOX(u):

u是箱子,个体域:

u?

box;BANANA(v):

v是香蕉,个体域:

v?

banana;使用谓词、连结词、量词来表示环境状态。

使用谓词、连结词、量词来表示环境状态。

问题的初始状态可表示为:

So:

AT(monkey,a)?

EMPTY(monkey)?

ON(box,c)?

ON(banana,ceiling)?

CLEAR(b)?

BOX(box)?

BANANA(banana)要达到的目标状态为:

Sg:

AT(monkey,box)?

HOLD(monkey,banana)?

ON(box,b)?

CLEAR(ceiling)?

CLEAR(c)?

BOX(box)?

BANANA(banana)从初始状态到目标状态的转化,猴子需要完成一系列操作,定义操作类谓词从初始状态到目标状态的转化,猴子需要完成一系列操作,定义操作类谓词表示表示其动作。

其动作。

WALK(m,n):

猴子从m走到n处,个体域:

m,n?

a,b,c;CARRY(s,r):

猴子在r处拿到s,个体域:

r?

c,ceiling,s?

box,banana;CLIMB(u,b):

猴子在b处爬上u;这3个操作也可分别用条件和动作来表示。

条件直接用谓词公式表示,是为完成相应操作所必须具备的条件;当条件中的事实使其均为真时,则可激活操作规则,于是可执行该规则中的动作部分。

动作通过前后状态的变化表示,即通过从动作前删除或增加谓词公式来描述动作后的状态。

WALK(m,n):

猴子从m走到n处条件:

AT(monkey,m)删除:

删除:

AT(monkey,m)动作:

增加:

增加:

AT(monkey,n)CARRY(s,r):

猴子在r处拿到s条件:

AT(monkey,r)?

EMPTY(monkey)?

ON(s,r)?

BOX(box)?

BANANA(banana)动作:

删除:

EMPTY(monkey)ON(s,r)增加:

HOLD(monkey,s)CLEAR(r)CLIMB(u,b):

猴子在b处爬上u条件:

AT(monkey,b)?

HOLD(monkey,u)?

CLEAR(b)?

BOX(box)?

BANANA(banana)删除:

删除:

AT(monkey,b)HOLD(monkey,u)CLEAR(c)动作:

增加:

增加:

AT(monkey,u)EMPTY(monkey)ON(u,c)按照行动计划,一步步进行状态替换,直至目标状态。

按照行动计划,一步步进行状态替换,直至目标状态。

AT(monkey,a)?

EMPTY(monkey)?

ON(box,c)?

ON(banana,ceiling)?

CLEAR(b)?

BOX(box)?

BANANA(banana)WALK(a,c)用用a代换代换m,用用c代换代换nAT(monkey,c)?

EMPTY(monkey)?

ON(box,c)?

ON(banana,ceiling)?

CLEAR(b)?

BOX(box)?

BANANA(banana)CARRY(c,box)用用c代换代换s,用用box代代换换rAT(monkey,c)?

HOLD(monkey,box)?

ON(banana,ceiling)?

CLEAR(b)?

CLEAR(c)?

BOX(box)BANANA(banana)WALK(c,b)用用c代换代换m,用用b代换代换nAT(monkey,b)?

HOLD(monkey,box)?

ON(banana,ceiling)?

CLEAR(b)?

CLEAR(c)?

BOX(box)BANANA(banana)CLIMB(box,b)用用box代换代换uAT(monkey,box)?

EMPTY(monkey)?

ON(box,b)?

ON(banana,ceiling)?

CLEAR(c)?

BOX(box)BANANA(banana)CARRY(banana,ceiling)用用bananaf弋换弋换s,用用ceiling代换代换rAT(monkey,box)?

HOLD(monkey,banana)?

ON(box,b)?

CLEAR(ceiling)?

CLEAR(c)?

BOX(box)?

BANANA(banana)(目标得解)猴子行动的规则序列是:

WALK(a,c)tCARRY(c,box)宀WALK(c,b)宀CLIMB(box,b)宀CARRY(banana,ceiling)当猴子执行某一个操作之前,需要检查当前状态是否可使所要求的条件得到满足,即证明当前状态是否蕴涵操作所要求的状态的过程。

在行动过程中,检查条件的满足性后才进行变量的代换。

代入新条件后的新状态如果是目标状态,则问题解决;否则看是否满足下面的操作,如果不满足或即使满足却又回到了原来的状态,那么代入无效。

#includebox;1:

monkeythebox;*/structStateintmonkey;/*-1:

MonkeyatA;0:

MonkeyatB;1:

MonkeyatC;*/intbox;/*-1:

boxatA;0:

boxatB;1:

boxatC;*/intbanana;/*BananaatB,Banana=0*/intmonbox;/*-1:

monkeyonthe;structStateStates150;char*routesave150;/*functionmonkeygoto,itmakesthemonkeygototheotherplace*/voidmonkeygoto(intb,inti)inta;a=b;if(a=_1)routesavei=MonkeygotoA;Statesi+1=Statesi;Statesi+1.monkey=-1;elseif(a=0)routesavei=MonkeygotoB;Statesi+1=Statesi;Statesi+1.monkey=0;elseif(a=1)routesavei=MonkeygotoC;Statesi+1=Statesi;Statesi+1.monkey=1;elseprintf(parameteriswrong);/*endfunctionmonkeyygoto*/*functionmovebox,themonkeymovetheboxtotheotherplace*/voidmovebox(inta,inti)intB;B=a;if(B=-1)routesavei=monkeymoveboxtoA;Statesi+1=Statesi;Statesi+1.monkey=-1;Statesi+1.box=-1;elseif(B=0)routesavei=monkeymoveboxtoB;Statesi+1=Statesi;Statesi+1.monkey=O;Statesi+1.box=0;elseif(B=1)routesavei=monkeymoveboxtoC;Statesi+1=Statesi;Statesi+1.monkey=1;Statesi+1.box=1;elseprintf(parameteriswrong);/*endfunctionmovebox*/ontothebox*/voidclimbonto(inti)routesavei=Monkeyclimbontothebox;Statesi+1=Statesi;Statesi+1.monbox=1;/*functionclimbdown,monkeyclimbdownfromthebox*/voidclimbdown(inti)routesavei=Monkeyclimbdownfromthebox;Statesi+1=Statesi;Statesi+1.monbox=-1;/*functionclimbonto,themonkeyclimb/*functionreach,ifthemonkey,box,andbananaareatthesameplace,themonkeyreachbanana*/voidreach(inti)routesavei=Monkeyreachthebanana;/*outputthesolutiontotheproblem*/voidshowSolution(inti)intc;printf(%sn,Resulttoproblem:

);for(c=0;c=150)printf(%sn,steplengthreached150,haveproblem);return;for(c=0;cer图2具有一个隐含层的BP网络模型示意图BP算法的主要思想是把学习过程分为信号的正向传播与误差的反向传播两个阶段。

在正向传播阶段,输入信息从输入层经隐含层传向输出层,在输出端产生输出信号。

在信号的向前传递过程中网络的权值固定不变,每一层神经元的状态只影响下一层神经元的状态。

如果在输出层不能得到期望的输出,则转入误差信号反向传播。

在反向传播阶段,未能满足精度要求的误差信号由输出端开始,以某种方式逐层向前传播,并将误差分摊给各层的所有单元,依据误差信号动态的调整各单元层的连接权重。

通过周而复始的正向传播与反向调节,神经元间的权值得到不断的修正。

当输出信号的误差满足精度要求时,停止学习。

BP神经网络的神经网络的MATLAB实现实现进行BP神经网络设计时,需要考虑以下问题:

网络的拓扑结构(隐层的层数及各层的神经元的数目);神经元的变换函数选取;网络的初始化(连接权值和阈值的初始化);训练参数设置;训练样本的归一化处理;样本数据导入方式等。

根据以上分析可知,对于网络的实现有四个基本的步骤:

1)网络建立:

通过函数newff实现,它根据样本数据自动确定输入层、输出层的神经元数目;隐层神经元数目以及隐层的层数、隐层和输出层的变换函数、训练算法函数需由用户确定。

2)初始化:

通过函数init实现,当newff在创建网络对象的同时,自动调动初始化函数init,根据缺省的参数对网络进行连接权值和阈值初始化。

3)网络训练:

通过函数train实现,它根据样本的输入矢量P、目标矢量T;和预先已设置好的训练函数的参数;对网络进行训练。

4)网络仿真:

通过函数sim实现,它根据已训练好的网络,对测试数据进行仿真计算。

仿真结果仿真结果仿真面板如下图3护与利Algofitti州wT亦对曲号;Gf曇Hintrar(r冃厂MrinFrrnrOwwillwEMitA(dafauHdewPragreiKEpoch:

EiESSTEKstiars1CMKX3Time:

血仙PerFc-mnancEf0L-B65OjOIOOGradient;0l371l:

丄1.0te-D5VaidatiiarCheciccDG(pJutpQriQfTTiTrihiingi5MtU制cmninilril图3仿真面板输入矢量P与相对应的目标矢量T之间的函数关系仿真图如下,训练次数达到6855时,即结束,红色线代表训练后,蓝色线代表原数据。

1-0.8-0.6-0.4-0.200.20.40.60.81BestTrainingPerformanceis0.0099994atepoch7432-0.500.5BP神经网络逼近非线性函数的Matlab实现)esrnFEderauasnaeTraiBestJ-Goalirrirr_c1500060007000010002000300040007432Epochs-2-o-210Gradient=0.01336,atepoch6855ValidationChecks=0,atepoch685510-102000400060006855Epochsr7aoo+tearH*oo-tunruo4-2o2468aaaaaaaTraining:

R=0.97122Target图4BP神经网络逼近非线性函数图红)与原数据(蓝)1.训练次数为训练次数为10000次时,测试集次时,测试集P2时,仿真如下时,仿真如下lfesnkrnFEdATauasnaeM0Gradient=0.013405,atepoch605010DeHaa9-110-210ValidationChecks=0,atepoch605010-10200040006050Epochs0060P7QOOO+tepa丁SKDO一二tupuo64202468O000图5测试集P2的仿真结果MATLAB仿真程序源码仿真程序源码clear;clc;P=-1:

0.1:

1;P2=-1:

0.25:

1;%测试集P2T=-0.96-0.577-0.07290.3770.6410.660.4610.1336-0.201-0.434-0.5-0.393-0.16470.09880.30720.3960.34490.1816-0.0312-0.2183-0.3201;net=newff(-1,1,5,1,tansig,tansig,traingd);%可以改变训练不熟来查看网络的训练结果net.trainParam.epochs=10000;net.trainParam.goal=0.01;%目标误差LPlr=0.1;%设置学习速率net=train(net,P,T);y=sim(net,P);y1=sim(net,P2);figurehndl1=plot(P,y);set(hndl1,linewidth,2);set(hndl1,color,red);holdonhndl2=plot(P,T);set(hndl2,linewidth,2);%测试集P2hndl3=plot(P2,y1);set(hndl3,linewidth,2);set(hndl3,color,black);title(BP神经网络逼近非线性函数的Matlab实现);%标题legend(BP神经网络逼近非线性函数,原数据曲线);

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工作范文 > 行政公文

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1