1、 最大训练时间(缺省为inf)net,tr=train(net,P,t); %网络训练a=sim(net,P) %网络仿真%通用径向基函数网络%其在逼近能力,分类能力,学习速度方面均优于BP神经网络%在径向基网络中,径向基层的散步常数是spread的选取是关键%spread越大,需要的神经元越少,但精度会相应下降,spread的缺省值为1%可以通过net=newrbe(P,T,spread)生成网络,且误差为0%可以通过net=newrb(P,T,goal,spread)生成网络,神经元由1开始增加,直到达到训练精度或神经元数目最多为止%GRNN网络,迅速生成广义回归神经网络(GRNN)P=4
2、 5 6;T=1.5 3.6 6.7;net=newgrnn(P,T);%仿真验证p=4.5;v=sim(net,p)%PNN网络,概率神经网络P=0 0 ;1 1;0 3;1 4;3 1;4 1;4 3;Tc=1 1 2 2 3 3 3;%将期望输出通过ind2vec()转换,并设计、验证网络T=ind2vec(Tc);net=newpnn(P,T);Y=sim(net,P);Yc=vec2ind(Y)%尝试用其他的输入向量验证网络P2=1 4;0 1;5 2Y=sim(net,P2);%应用newrb()函数构建径向基网络,对一系列数据点进行函数逼近P=-1:0.1:1;T=-0.9602
3、 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609.0.1336 -0.2013 -0.4344 -0.500 -0.3930 -0.1647 -0.0988.0.3072 0.3960 0.3449 0.1816 -0.0312 -0.2189 -0.3201;%绘制训练用样本的数据点plot(P,T,r*);title(训练样本xlabel(输入向量Pylabel(目标向量T%设计一个径向基函数网络,网络有两层,隐层为径向基神经元,输出层为线性神经元%绘制隐层神经元径向基传递函数的曲线p=-3:.1:3;a=radbas(p);plot(p,a)径向基
4、传递函数)输入向量p%隐层神经元的权值、阈值与径向基函数的位置和宽度有关,只要隐层神经元数目、权值、阈值正确,可逼近任意函数%例如a2=radbas(p-1.5);a3=radbas(p+2);a4=a+a2*1.5+a3*0.5;plot(p,a,b,p,a2,g,p,a3,r,p,a4,m-径向基传递函数权值之和输入p输出a%应用newrb()函数构建径向基网络的时候,可以预先设定均方差精度eg以及散布常数sceg=0.02;sc=1; %其值的选取与最终网络的效果有很大关系,过小造成过适性,过大造成重叠性net=newrb(P,T,eg,sc);%网络测试*输入X=-1:.01:Y=si
5、m(net,X);hold onplot(X,Y);hold offlegend(目标,输出%应用grnn进行函数逼近P=1 2 3 4 5 6 7 8;T=0 1 2 3 2 1 2 1;.markersize,30)axis(0 9 -1 4)待逼近函数PT%网络设计%对于离散数据点,散布常数spread选取比输入向量之间的距离稍小一些spread=0.7;net=newgrnn(P,T,spread);A=sim(net,P);outputline=plot(P,A,o,10,color,1 0 0);检测网络T和A%应用pnn进行变量的分类P=1 2;2 2;1 1; %输入向量Tc=
6、1 2 3; %P对应的三个期望输出%绘制出输入向量及其相对应的类别plot(P(1,:),P(2,:),for i=1:3text(P(1,i)+0.1,P(2,i),sprintf(class %g,Tc(i)endaxis(0 3 0 3);三向量及其类别P(1,:)P(2,:spread=1;net=newgrnn(P,T,speard);Ac=vec2ind(A); %绘制输入向量及其相应的网络输出,Ac(i)网络测试结果%广义回归神经网络%GRNN神经网络,主要用于函数逼近。x=-2:0.01:1y=2*x.6+3*x.5-3*x.3+x.2+1P=x(1:15:end)T=y(1
7、:spread=0.05 0.2 0.4 0.6 0.8;l_style=r.-bo-ko-.k*-r-;length(spread) net=newgrnn(P,T,spread(i); a=sim(net,P); plot(P,a,l_stylei) hold on spread=0.05spread=0.2spread=0.4spread=0.6spread=0.8train dataGRNN神经网络spread探讨load data;% 载入数据并将数据分成训练和预测两类p_train=p(1:10,:p_test=p(11:13,:t_train=t(1:t_test=t(11:%
8、将各个矩阵转置以便适应网络结构p_train=p_traint_train=t_trainp_test=p_testt_test=t_test% 将数据归一化pn,minp,maxp,tn,mint,maxt=premnmx(p_train,t_train);p2n=tramnmx(p_test,minp,maxp);for sc=0.1: tic, net=newgrnn(pn,tn,sc); sc toc Out=sim(net,p2n); a2=postmnmx(Out,mint,maxt); e=t_test-a2 perf=mse(e); Y=sim(net,pn); a3=post
9、mnmx(Y,mint,maxt); ep=a3-t_train; perfp=mse(ep); hold on; figure(1); title(网络的预测误差 plot(sc,perf,g: figure(2);网络的逼近误差 plot(sc,perfp,r:%通用感应器神经网络P=-0.5 -0.5 0.3 -0.1 -40;-0.5 0.5 -0.5 1 50;%输入向量T=1 1 0 0 1;%期望输出plotpv(P,T);%描绘输入点图像net=newp(-40 1;-1 50,1);%生成网络,其中参数分别为输入向量的范围和神经元感应器数量linehandle=plotpc(
10、net.iw1,net.b1);net.adaptparam.passes=3;for a=1:25%训练次数net,Y,E=adapt(net,P,T);linehandle=plotpc(net.iw1,net.b1,linehandle);drawnow;%通用线性网络程序%通用newlind进行预测time=0:0.025:5;T=sin(time*4*pi);Q=length(T);P=zeros(5,Q);%P中存储信号T的前5(可变,根据需要而定)次值,作为网络输入。P(1,2:Q)=T(1,1:(Q-1);P(2,3:(Q-2);P(3,4:(Q-3);P(4,5:(Q-4);P(5,6:(Q-5);plot(time,T)%绘制信号T曲线时间ylabe
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1