神经网络数据归一化总结.docx

上传人:b****7 文档编号:11167559 上传时间:2023-02-25 格式:DOCX 页数:10 大小:80.23KB
下载 相关 举报
神经网络数据归一化总结.docx_第1页
第1页 / 共10页
神经网络数据归一化总结.docx_第2页
第2页 / 共10页
神经网络数据归一化总结.docx_第3页
第3页 / 共10页
神经网络数据归一化总结.docx_第4页
第4页 / 共10页
神经网络数据归一化总结.docx_第5页
第5页 / 共10页
点击查看更多>>
下载资源
资源描述

神经网络数据归一化总结.docx

《神经网络数据归一化总结.docx》由会员分享,可在线阅读,更多相关《神经网络数据归一化总结.docx(10页珍藏版)》请在冰豆网上搜索。

神经网络数据归一化总结.docx

神经网络数据归一化总结

神经网络数据归一化汇总

几个要说明的函数接口:

[Y,PS]=mapminmax(X)

[Y,PS]=mapminmax(X,FP)

Y=mapminmax('apply',X,PS)

X=mapminmax('reverse',Y,PS)

用实例来讲解,测试数据x1=[124],x2=[523];

>>[y,ps]=mapminmax(x1)

y=

  -1.0000  -0.3333  1.0000

ps=

    name:

'mapminmax'

    xrows:

1

    xmax:

4

    xmin:

1

  xrange:

3

    yrows:

1

    ymax:

1

    ymin:

-1

  yrange:

2

其中y是对进行某种规范化后得到的数据,这种规范化的映射记录在结构体ps中.让我们来看一下这个规范化的映射到底是怎样的?

Algorithm:

ItisassumedthatXhasonlyfiniterealvalues,andthattheelementsofeachrowarenotallequal.

∙y=(ymax-ymin)*(x-xmin)/(xmax-xmin)+ymin;

∙[关于此算法的一个问题.算法的假设是每一行的元素都不想相同,那如果都相同怎么办?

实现的办法是,如果有一行的元素都相同比如xt=[111],此时xmax=xmin=1,把此时的变换变为y=ymin,matlab内部就是这么解决的.否则该除以0了,没有意义!

]

也就是说对x1=[124]采用这个映射f:

2*(x-xmin)/(xmax-xmin)+(-1),就可以得到y=[-1.0000  -0.3333  1.0000]

我们来看一下是不是:

对于x1而言xmin=1,xmax=4;

则y

(1)=2*(1-1)/(4-1)+(-1)=-1;

  y

(2)=2*(2-1)/(4-1)+(-1)=-1/3=-0.3333;

  y(3)=2*(4-1)/(4-1)+(-1)=1;

看来的确就是这个映射来实现的.

对于上面algorithm中的映射函数其中ymin,和ymax是参数,可以自己设定,默认为-1,1;

比如:

>>[y,ps]=mapminmax(x1)

>>ps.ymin=0;

>>[y,ps]=mapminmax(x1,ps)

y=

      0  0.3333  1.0000

ps=

    name:

'mapminmax'

    xrows:

1

    xmax:

4

    xmin:

1

  xrange:

3

    yrows:

1

    ymax:

1

    ymin:

0

  yrange:

1

则此时的映射函数为:

f:

1*(x-xmin)/(xmax-xmin)+(0),是否是这样的这回你可自己验证.O(∩_∩)O

如果我对x1=[124]采用了某种规范化的方式,现在我要对x2=[523]采用同样的规范化方式[同样的映射],如下可办到:

>>[y1,ps]=mapminmax(x1);

>>y2=mapminmax('apply',x2,ps)

y2=

  1.6667  -0.3333  0.3333

即对x1采用的规范化映射为:

f:

2*(x-1)/(4-1)+(-1),(记录在ps中),对x2也要采取这个映射.

x2=[5,2,3],用这个映射我们来算一下.

y2

(1)=2(5-1)/(4-1)+(-1)=5/3=1+2/3=1.66667

y2

(2)=2(2-1)/(4-1)+(-1)=-1/3=-0.3333

y2(3)=2(3-1)/(4-1)+(-1)=1/3=0.3333

X=mapminmax('reverse',Y,PS)的作用就是进行反归一化,讲归一化的数据反归一化再得到原来的数据:

>>[y1,ps]=mapminmax(x1);

>>xtt=mapminmax('reverse',y1,ps)

xtt=

    1    2    4

此时又得到了原来的x1(xtt=x1);

=================================

Matlab数字归一化问题(byyingzhilian)

-------------------------------------------------------

归一化化定义:

我是这样认为的,归一化化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。

首先归一化是为了后面数据处理的方便,其次是保正程序运行时收敛加快。

在matlab里面,用于归一化的方法共有三种:

(1)premnmx、postmnmx、tramnmx

(2)prestd、poststd、trastd

(3)是用matlab语言自己编程。

premnmx指的是归一到[-11],prestd归一到单位方差和零均值。

(3)关于自己编程一般是归一到[0.1  0.9]。

具体用法见下面实例。

为什么要用归一化呢?

首先先说一个概念,叫做奇异样本数据,所谓奇异样本数据数据指的是相对于其他输入样本特别大或特别小的样本矢量。

下面举例:

m=[0.110.150.320.4530;

    0.130.240.270.2545];

其中的第五列数据相对于其他4列数据就可以成为奇异样本数据(下面所说的网络均值bp)。

奇异样本数据存在所引起的网络训练时间增加,并可能引起网络无法收敛,所以对于训练样本存在奇异样本数据的数据集在训练之前,最好先进形归一化,若不存在奇异样本数据,则不需要事先归一化。

具体举例:

closeall

clear

echoon

clc

%BP建模

%原始数据归一化

m_data=[1047.921047.830.390.391.035005075;

  1047.831047.680.390.40  1.034524912;

  1047.681047.52  0.40  0.411.0  34044749;

  1047.52  1047.27  0.41  0.421.0  33564586;

  1047.27  1047.410.420.43  1.0  3308  4423;

  1046.73  1046.741.701.800.75  2733  2465;

  1046.74  1046.82  1.80  1.780.75  24192185;

  1046.821046.73  1.78  1.75  0.752105  1905;

  1046.73  1046.481.751.850.701791  1625;

  1046.48  1046.03  1.85  1.82  0.7014771345;

  1046.031045.331.821.68  0.70  1163  1065;

  1045.33  1044.95  1.68  1.710.70  849  785;

  1044.95  1045.211.71  1.72  0.70  533  508;

  1045.211045.64  1.72  1.700.70567  526;

  1045.641045.441.70  1.69  0.70  601  544;

  1045.441045.78  1.69  1.690.70  635  562;

  1045.781046.20  1.69  1.520.75  667  580];

%定义网络输入p和期望输出t

pause

clc

p1=m_data(:

1:

5);

t1=m_data(:

6:

7);

p=p1';t=t1';

[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t)

%设置网络隐单元的神经元数(5~30验证后5个最好)

n=5;

%建立相应的BP网络

pause

clc

net=newff(minmax(pn),[n,2],{'tansig','purelin'},'traingdm');

inputWeights=net.IW{1,1};

inputbias=net.b{1};

layerWeights=net.IW{1,1};

layerbias=net.b{2};

pause

clc

%训练网络

net.trainParam.show=50;

net.trainParam.lr=0.05;

net.trainParam.mc=0.9;

net.trainParam.epochs=200000;

net.trainParam.goal=1e-3;

pause

clc

%调用TRAINGDM算法训练BP网络

net=train(net,pn,tn);

%对BP网络进行仿真

A=sim(net,pn);

E=A-tn;

M=sse(E)

N=mse(E)

pause

clc

p2=[1046.201046.051.521.5380.75;

  1046.051046.851.5381.5100.75;

  1046.851046.601.5101.4080.75;

  1046.601046.771.4081.4030.75;

  1046.771047.181.4031.3190.75];

p2=p2';

p2n=tramnmx(p2,minp,maxp);

a2n=sim(net,p2n);

a2=postmnmx(a2n,mint,maxt)

echooff

pause

clc

程序说明:

所用样本数据(见m_data)包括输入和输出数据,都先进行归一化,还有一个问题就是你要进行预测的样本数据(见本例p2)在进行仿真前,必须要用tramnmx函数进行事先归一化处理,然后才能用于预测,最后的仿真结果要用postmnmx进行反归一,这时的输出数据才是您所需要的预测结果。

个人认为:

tansig、purelin、logsig是网络结构的传递函数,本身和归一化没什么直接关系,归一化只是一种数据预处理方法。

==================================================================================

2009-4-416:

39:

21上传

下载附件(62.86KB)

需要说明的事并不是任何问题都必须事先把原始数据进行规范化,也就是数据规范化这一步并不是必须要做的,要具体问题具体看待,测试表明有时候规范化后的预测准确率比没有规范化的预测准确率低很多.就最大最小值法而言,当你用这种方式将原始数据规范化后,事实上意味着你承认了一个假设就是测试数据集的每一模式的所有特征分量的最大值(最小值)不会大于(小于)训练数据集的每一模式的所有特征分量的最大值(最小值),但这条假设显然过于强,实际情况并不一定会这样.使用平均数方差法也会有同样类似的问题.故数据规范化这一步并不是必须要做的,要具体问题具体看待.  [faruto按]

实现上面的规范化代码:

1.functionnormal=normalization(x,kind)

2.%byLiYangBNUMATHEmail:

farutoliyang@QQ:

516667408

3.%lastmodified2009.2.24

4.%

5.ifnargin<2

6.  kind=2;%kind=1or2表示第一类或第二类规范化

7.end

8.[m,n]  =size(x);

9.normal=zeros(m,n);

10.%%normalizethedataxto[0,1]

11.ifkind==1  

12.  fori=1:

m

13.      ma=max(x(i,:

));

14.      mi=min(x(i,:

));

15.      normal(i,:

)=(x(i,:

)-mi)./(ma-mi);

16.  end

17.end

18.%%normalizethedataxto[-1,1]

19.ifkind==2

20.  fori=1:

m

21.      mea=mean(x(i,:

));

22.      va=var(x(i,:

));

23.      normal(i,:

)=(x(i,:

)-mea)/va;

24.  end

25.end

复制代码

====================================================

==================

关于神经网络(matlab)归一化的整理----------------------------------------------------------------------

由于采集的各数据单位不一致,因而须对数据进行[-1,1]归一化处理,归一化方法主要有如下几种,供大家参考:

(byjames)

1、线性函数转换,表达式如下:

y=(x-MinValue)/(MaxValue-MinValue)

说明:

x、y分别为转换前、后的值,MaxValue、MinValue分别为样本的最大值和最小值。

2、对数函数转换,表达式如下:

y=log10(x)

说明:

以10为底的对数函数转换。

3、反余切函数转换,表达式如下:

y=atan(x)*2/PI

归一化是为了加快训练网络的收敛性,可以不进行归一化处理

归一化的具体作用是归纳统一样本的统计分布性。

归一化在0-1之间是统计的概率分布,归一化在-1--+1之间是统计的坐标分布。

归一化有同一、统一和合一的意思。

无论是为了建模还是为了计算,首先基本度量单位要同一,神经网络是以样本在事件中的统计分别几率来进行训练(概率计算)和预测的,归一化是同一在0-1之间的统计概率分布;

当所有样本的输入信号都为正值时,与第一隐含层神经元相连的权值只能同时增加或减小,从而导致学习速度很慢。

为了避免出现这种情况,加快网络学习速度,可以对输入信号进行归一化,使得所有样本的输入信号其均值接近于0或与其均方差相比很小。

归一化是因为sigmoid函数的取值是0到1之间的,网络最后一个节点的输出也是如此,所以经常要对样本的输出归一化处理。

所以这样做分类的问题时用[0.90.10.1]就要比用[100]要好。

但是归一化处理并不总是合适的,根据输出值的分布情况,标准化等其它统计变换方法有时可能更好。

关于用premnmx语句进行归一化:

premnmx语句的语法格式是:

[Pn,minp,maxp,Tn,mint,maxt]=premnmx(P,T)

其中P,T分别为原始输入和输出数据,minp和maxp分别为P中的最小值和最大值。

mint和maxt分别为T的最小值和最大值。

premnmx函数用于将网络的输入数据或输出数据进行归一化,归一化后的数据将分布在[-1,1]区间内。

我们在训练网络时如果所用的是经过归一化的样本数据,那么以后使用网络时所用的新数据也应该和样本数据接受相同的预处理,这就要用到tramnmx。

下面介绍tramnmx函数:

[Pn]=tramnmx(P,minp,maxp)

其中P和Pn分别为变换前、后的输入数据,maxp和minp分别为premnmx函数找到的最大值和最小值。

(byterry2008)

matlab中的归一化处理有三种方法

1.premnmx、postmnmx、tramnmx

2.restd、poststd、trastd

3.自己编程

具体用那种方法就和你的具体问题有关了

(byhappy)

pm=max(abs(p(i,:

)));p(i,:

)=p(i,:

)/pm;

fori=1:

27

p(i,:

)=(p(i,:

)-min(p(i,:

)))/(max(p(i,:

))-min(p(i,:

)));

end可以归一到01之间

0.1+(x-min)/(max-min)*(0.9-0.1)其中max和min分别表示样本最大值和最小值。

这个可以归一到0.1-0.9

=================================by  ratbaby

补充一个吧,归一还可以用mapminmax。

这个函数可以把矩阵的每一行归一到[-11].

[y1,PS]=mapminmax(x1).其中x1是需要归一的矩阵y1是结果

当需要对另外一组数据做归一时,比如SVM中的trainingdata用以上方法归一,而testdata就可以用下面的方法做相同的归一了

y2=mapminmax('apply',x2,PS)

当需要把归一的数据还原时,可以用以下命令

x1_again=mapminmax('reverse',y1,PS)

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 经管营销 > 经济市场

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1