卷积神经网络CNN代码解析Word下载.docx

上传人:b****0 文档编号:13636899 上传时间:2022-10-12 格式:DOCX 页数:12 大小:523.92KB
下载 相关 举报
卷积神经网络CNN代码解析Word下载.docx_第1页
第1页 / 共12页
卷积神经网络CNN代码解析Word下载.docx_第2页
第2页 / 共12页
卷积神经网络CNN代码解析Word下载.docx_第3页
第3页 / 共12页
卷积神经网络CNN代码解析Word下载.docx_第4页
第4页 / 共12页
卷积神经网络CNN代码解析Word下载.docx_第5页
第5页 / 共12页
点击查看更多>>
下载资源
资源描述

卷积神经网络CNN代码解析Word下载.docx

《卷积神经网络CNN代码解析Word下载.docx》由会员分享,可在线阅读,更多相关《卷积神经网络CNN代码解析Word下载.docx(12页珍藏版)》请在冰豆网上搜索。

卷积神经网络CNN代码解析Word下载.docx

 

该模型使用了mnist的数字mnist_uint8.mat作为训练样本,作为cnn的一个使用样例,

每个样本特征为一个28*28=的向量。

网络结构为:

让我们来看看各个函数:

一、Test_example_CNN:

Test_example_CNN:

1设置CNN的基本参数规格,如卷积、降采样层的数量,卷积核的大小、降采样的降幅

2cnnsetup函数初始化卷积核、偏置等

3cnntrain函数训练cnn,把训练数据分成batch,然后调用

3.1cnnff完成训练的前向过程,

3.2cnnbp计算并传递神经网络的error,并计算梯度(权重的修改量)

3.3cnnapplygrads把计算出来的梯度加到原始模型上去

4cnntest函数,测试当前模型的准确率

该模型采用的数据为mnist_uint8.mat,

含有70000个手写数字样本其中60000作为训练样本,10000作为测试样本。

把数据转成相应的格式,并归一化。

设置网络结构及训练参数

初始化网络,对数据进行批训练,验证模型准确率

绘制均方误差曲线

二、Cnnsetup.m

该函数你用于初始化CNN的参数。

设置各层的mapsize大小,

初始化卷积层的卷积核、bias

尾部单层感知机的参数设置

*

bias统一设置为0

权重设置为:

-1~1之间的随机数/sqrt(6/(输入神经元数量+输出神经元数量))

对于卷积核权重,输入输出为fan_in,fan_out

fan_out=net.layers{l}.outputmaps*net.layers{l}.kernelsize^2;

%卷积核初始化,1层卷积为1*6个卷积核,2层卷积一共6*12=72个卷积核。

对于每个卷积输出featuremap,

%fan_in=表示该层的一个输出map,所对应的所有卷积核,包含的神经元的总数。

1*25,6*25

fan_in=numInputmaps*net.layers{l}.kernelsize^2;

fin=1*25or6*25

fout=1*6*25or6*12*25

net.layers{l}.k{i}{j}=(rand(net.layers{l}.kernelsize)-0.5)*2*sqrt(6/(fan_in+fan_out));

1卷积降采样的参数初始化

2尾部单层感知机的参数(权重和偏量)设置:

三、cnntrain.m

该函数用于训练CNN。

生成随机序列,每次选取一个batch(50)个样本进行训练。

批训练:

计算50个随机样本的梯度,求和之后一次性更新到模型权重中。

在批训练过程中调用:

Cnnff.m完成前向过程

Cnnbp.m完成误差传导和梯度计算过程

Cnnapplygrads.m把计算出来的梯度加到原始模型上去

四、cnnff.m

1、取得CNN的输入

2、两次卷积核降采样层处理

3、尾部单层感知机的数据处理,需要把subFeatureMap2连接成为一个(4*4)*12=192的向量,但是由于采用了50样本批训练的方法,subFeatureMap2被拼合成为一个192*50的特征向量fv;

Fv作为单层感知机的输入,全连接的方式得到输出层

五、cnnbp.m

该函数实现2部分功能,计算并传递误差,计算梯度

1、计算误差和LossFunction

2、计算尾部单层感知机的误差

3、把单层感知机的输入层featureVector的误差矩阵,恢复为subFeatureMap2的4*4二维矩阵形式

插播一张图片:

4、误差在特征提取网络【卷积降采样层】的传播

如果本层是卷积层,它的误差是从后一层(降采样层)传过来,误差传播实际上是用降采样的反向过程,也就是降采样层的误差复制为2*2=4份。

卷积层的输入是经过sigmoid处理的,所以,从降采样层扩充来的误差要经过sigmoid求导处理。

如果本层是降采样层,他的误差是从后一层(卷积层)传过来,误差传播实际是用卷积的反向过程,也就是卷积层的误差,反卷积(卷积核转180度)卷积层的误差,原理参看插图。

5、计算特征抽取层和尾部单层感知机的梯度

五、cnnapplygrads.m

该函数完成权重修改,更新模型的功能

1更新特征抽取层的权重weight+bias

2更新末尾单层感知机的权重weight+bias

六、cnntest.m

验证测试样本的准确率

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 农林牧渔 > 水产渔业

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1