ImageVerifierCode 换一换
格式:DOCX , 页数:10 ,大小:80.23KB ,
资源ID:11167559      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/11167559.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(神经网络数据归一化总结.docx)为本站会员(b****7)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

神经网络数据归一化总结.docx

1、神经网络数据归一化总结神经网络数据归一化汇总几个要说明的函数接口:Y,PS = mapminmax(X)Y,PS = mapminmax(X,FP)Y = mapminmax(apply,X,PS)X = mapminmax(reverse,Y,PS)用实例来讲解,测试数据 x1 = 1 2 4, x2 = 5 2 3; y,ps = mapminmax(x1)y = -1.0000 -0.3333 1.0000ps = name: mapminmax xrows: 1 xmax: 4 xmin: 1 xrange: 3 yrows: 1 ymax: 1 ymin: -1 yrange: 2其

2、中y是对进行某种规范化后得到的数据,这种规范化的映射记录在结构体ps中.让我们来看一下这个规范化的映射到底是怎样的?Algorithm:It is assumed that X has only finite real values, and that the elements of each row are not all equal. y = (ymax-ymin)*(x-xmin)/(xmax-xmin) + ymin; 关于此算法的一个问题.算法的假设是每一行的元素都不想相同,那如果都相同怎么办?实现的办法是,如果有一行的元素都相同比如xt = 1 1 1,此时xmax = xmin

3、= 1,把此时的变换变为y = ymin,matlab内部就是这么解决的.否则该除以0了,没有意义!也就是说对x1 = 1 2 4采用这个映射 f: 2*(x-xmin)/(xmax-xmin)+(-1),就可以得到y = -1.0000 -0.3333 1.0000我们来看一下是不是: 对于x1而言 xmin = 1,xmax = 4;则y(1) = 2*(1 - 1)/(4-1)+(-1) = -1; y(2) = 2*(2 - 1)/(4-1)+(-1) = -1/3 = -0.3333; y(3) = 2*(4-1)/(4-1)+(-1) = 1;看来的确就是这个映射来实现的.对于上面

4、algorithm中的映射函数 其中ymin,和ymax是参数,可以自己设定,默认为-1,1;比如:y,ps = mapminmax(x1) ps.ymin = 0; y,ps = mapminmax(x1,ps)y = 0 0.3333 1.0000ps = name: mapminmax xrows: 1 xmax: 4 xmin: 1 xrange: 3 yrows: 1 ymax: 1 ymin: 0 yrange: 1则此时的映射函数为: f: 1*(x-xmin)/(xmax-xmin)+(0),是否是这样的这回你可自己验证.O(_)O如果我对x1 = 1 2 4采用了某种规范化的

5、方式, 现在我要对x2 = 5 2 3采用同样的规范化方式同样的映射,如下可办到: y1,ps = mapminmax(x1); y2 = mapminmax(apply,x2,ps)y2 = 1.6667 -0.3333 0.3333即对x1采用的规范化映射为: f: 2*(x-1)/(4-1)+(-1),(记录在ps中),对x2也要采取这个映射.x2 = 5,2,3,用这个映射我们来算一下.y2(1) = 2(5-1)/(4-1)+(-1) = 5/3 = 1+2/3 = 1.66667y2(2) = 2(2-1)/(4-1)+(-1) = -1/3 = -0.3333y2(3) = 2(

6、3-1)/(4-1)+(-1) = 1/3 = 0.3333X = mapminmax(reverse,Y,PS)的作用就是进行反归一化,讲归一化的数据反归一化再得到原来的数据: y1,ps = mapminmax(x1); xtt = mapminmax(reverse,y1,ps)xtt = 1 2 4此时又得到了原来的x1(xtt = x1);=Matlab 数字归一化问题(by yingzhilian)-归一化化定义:我是这样认为的,归一化化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。首先归一化是为了后面数据处理的方便,其次是保正程序运行时收敛加快。在m

7、atlab里面,用于归一化的方法共有三种:(1)premnmx、postmnmx、tramnmx(2)prestd、poststd、trastd(3)是用matlab语言自己编程。premnmx指的是归一到1 1,prestd归一到单位方差和零均值。(3)关于自己编程一般是归一到0.10.9 。具体用法见下面实例。为什么要用归一化呢?首先先说一个概念,叫做奇异样本数据,所谓奇异样本数据数据指的是相对于其他输入样本特别大或特别小的样本矢量。下面举例:m=0.11 0.15 0.32 0.45 30; 0.13 0.24 0.27 0.25 45;其中的第五列数据相对于其他4列数据就可以成为奇异样

8、本数据(下面所说的网络均值bp)。奇异样本数据存在所引起的网络训练时间增加,并可能引起网络无法收敛,所以对于训练样本存在奇异样本数据的数据集在训练之前,最好先进形归一化,若不存在奇异样本数据,则不需要事先归一化。具体举例:close allclearecho onclc%BP建模%原始数据归一化 m_data=1047.92 1047.83 0.39 0.39 1.0 3500 5075; 1047.83 1047.68 0.39 0.401.0 3452 4912; 1047.68 1047.520.400.41 1.03404 4749; 1047.521047.270.410.42 1.

9、03356 4586; 1047.271047.41 0.42 0.431.033084423; 1046.731046.74 1.70 1.80 0.7527332465; 1046.741046.821.801.78 0.752419 2185; 1046.82 1046.731.781.750.75 21051905; 1046.731046.48 1.75 1.85 0.70 17911625; 1046.481046.031.851.820.70 1477 1345; 1046.03 1045.33 1.82 1.680.7011631065; 1045.331044.951.681

10、.71 0.70849785; 1044.951045.21 1.711.720.70533508; 1045.21 1045.641.721.70 0.70 567526; 1045.64 1045.44 1.701.690.70601544; 1045.44 1045.781.691.69 0.70635562; 1045.78 1046.201.691.52 0.75667580;%定义网络输入p和期望输出tpauseclcp1=m_data(:,1:5);t1=m_data(:,6:7);p=p1;t=t1;pn,minp,maxp,tn,mint,maxt=premnmx(p,t)%

11、设置网络隐单元的神经元数(530验证后5个最好) n=5;%建立相应的BP网络pauseclcnet=newff(minmax(pn),n,2,tansig,purelin,traingdm);inputWeights=net.IW1,1;inputbias=net.b1;layerWeights=net.IW1,1;layerbias=net.b2;pauseclc% 训练网络net.trainParam.show=50;net.trainParam.lr=0.05;net.trainParam.mc=0.9;net.trainParam.epochs=200000;net.trainPar

12、am.goal=1e-3;pauseclc%调用TRAINGDM算法训练BP网络net=train(net,pn,tn);%对BP网络进行仿真A=sim(net,pn);E=A-tn;M=sse(E)N=mse(E)pauseclcp2=1046.20 1046.05 1.52 1.538 0.75; 1046.05 1046.85 1.538 1.510 0.75; 1046.85 1046.60 1.510 1.408 0.75; 1046.60 1046.77 1.408 1.403 0.75; 1046.77 1047.18 1.403 1.319 0.75;p2=p2;p2n=tra

13、mnmx(p2,minp,maxp);a2n=sim(net,p2n);a2=postmnmx(a2n,mint,maxt)echo offpauseclc程序说明:所用样本数据(见m_data)包括输入和输出数据,都先进行归一化,还有一个问题就是你要进行预测的样本数据(见本例p2)在进行仿真前,必须要用tramnmx函数进行事先归一化处理,然后才能用于预测,最后的仿真结果要用postmnmx进行反归一,这时的输出数据才是您所需要的预测结果。个人认为:tansig、purelin、logsig是网络结构的传递函数,本身和归一化没什么直接关系,归一化只是一种数据预处理方法。=2009-4-4 1

14、6:39:21 上传下载附件 (62.86 KB) 需要说明的事并不是任何问题都必须事先把原始数据进行规范化,也就是数据规范化这一步并不是必须要做的,要具体问题具体看待,测试表明有时候规范化后的预测准确率比没有规范化的预测准确率低很多.就最大最小值法而言,当你用这种方式将原始数据规范化后,事实上意味着你承认了一个假设就是测试数据集的每一模式的所有特征分量的最大值(最小值)不会大于(小于)训练数据集的每一模式的所有特征分量的最大值(最小值),但这条假设显然过于强,实际情况并不一定会这样.使用平均数方差法也会有同样类似的问题.故数据规范化这一步并不是必须要做的,要具体问题具体看待. faruto

15、按实现上面的规范化代码:1. function normal = normalization(x,kind)2. % by Li Yang BNU MATH Email:farutoliyang QQ:5166674083. % last modified 2009.2.244. %5. if nargin 26. kind = 2;%kind = 1 or 2 表示第一类或第二类规范化7. end8. m,n= size(x);9. normal = zeros(m,n);10. % normalize the data x to 0,111. if kind = 112. for i =

16、1:m13. ma = max( x(i,:) );14. mi = min( x(i,:) );15. normal(i,:) = ( x(i,:)-mi )./( ma-mi );16. end17. end18. % normalize the data x to -1,119. if kind = 220. for i = 1:m21. mea = mean( x(i,:) );22. va = var( x(i,:) );23. normal(i,:) = ( x(i,:)-mea )/va;24. end25. end复制代码=关于神经网络(matlab)归一化的整理-由于采集的各

17、数据单位不一致,因而须对数据进行-1,1归一化处理,归一化方法主要有如下几种,供大家参考:(by james)1、线性函数转换,表达式如下:y=(x-MinValue)/(MaxValue-MinValue)说明:x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值。2、对数函数转换,表达式如下:y=log10(x)说明:以10为底的对数函数转换。3、反余切函数转换,表达式如下:y=atan(x)*2/PI归一化是为了加快训练网络的收敛性,可以不进行归一化处理归一化的具体作用是归纳统一样本的统计分布性。归一化在0-1之间是统计的概率分布,归一化在-1-+1之

18、间是统计的坐标分布。归一化有同一、统一和合一的意思。无论是为了建模还是为了计算,首先基本度量单位要同一,神经网络是以样本在事件中的统计分别几率来进行训练(概率计算)和预测的,归一化是同一在0-1之间的统计概率分布;当所有样本的输入信号都为正值时,与第一隐含层神经元相连的权值只能同时增加或减小,从而导致学习速度很慢。为了避免出现这种情况,加快网络学习速度,可以对输入信号进行归一化,使得所有样本的输入信号其均值接近于0或与其均方差相比很小。归一化是因为sigmoid函数的取值是0到1之间的,网络最后一个节点的输出也是如此,所以经常要对样本的输出归一化处理。所以这样做分类的问题时用0.9 0.1 0

19、.1就要比用1 0 0要好。但是归一化处理并不总是合适的,根据输出值的分布情况,标准化等其它统计变换方法有时可能更好。关于用premnmx语句进行归一化:premnmx语句的语法格式是:Pn,minp,maxp,Tn,mint,maxt=premnmx(P,T)其中P,T分别为原始输入和输出数据,minp和maxp分别为P中的最小值和最大值。mint和maxt分别为T的最小值和最大值。premnmx函数用于将网络的输入数据或输出数据进行归一化,归一化后的数据将分布在-1,1区间内。我们在训练网络时如果所用的是经过归一化的样本数据,那么以后使用网络时所用的新数据也应该和样本数据接受相同的预处理,

20、这就要用到tramnmx。下面介绍tramnmx函数:Pn=tramnmx(P,minp,maxp)其中P和Pn分别为变换前、后的输入数据,maxp和minp分别为premnmx函数找到的最大值和最小值。(by terry2008)matlab中的归一化处理有三种方法1. premnmx、postmnmx、tramnmx2. restd、poststd、trastd3. 自己编程具体用那种方法就和你的具体问题有关了(by happy)pm=max(abs(p(i,:); p(i,:)=p(i,:)/pm;和for i=1:27p(i,:)=(p(i,:)-min(p(i,:)/(max(p(i

21、,:)-min(p(i,:);end 可以归一到0 1 之间0.1+(x-min)/(max-min)*(0.9-0.1)其中max和min分别表示样本最大值和最小值。这个可以归一到0.1-0.9=byratbaby补充一个吧, 归一还可以用 mapminmax。这个函数可以把矩阵的每一行归一到-1 1. y1,PS = mapminmax(x1). 其中x1 是需要归一的矩阵 y1是结果当需要对另外一组数据做归一时,比如SVM 中的 training data用以上方法归一,而test data就可以用下面的方法做相同的归一了y2 = mapminmax(apply,x2,PS)当需要把归一的数据还原时,可以用以下命令x1_again = mapminmax(reverse,y1,PS)

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1