我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx

上传人:b****6 文档编号:16664458 上传时间:2022-11-25 格式:DOCX 页数:5 大小:21.12KB
下载 相关 举报
我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx_第1页
第1页 / 共5页
我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx_第2页
第2页 / 共5页
我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx_第3页
第3页 / 共5页
我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx_第4页
第4页 / 共5页
我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
下载资源
资源描述

我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx

《我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx》由会员分享,可在线阅读,更多相关《我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx(5页珍藏版)》请在冰豆网上搜索。

我用Python实现了12500张猫狗图像的精准分类Word文件下载.docx

给猫和狗的图像分类有很多的图像数据集是专门用来给深度学习模型进行基准测试的,我在这篇文章中用到的数据集来自CatvsDogsKagglecompetition,这份数据集包含了大量狗和猫的带有标签的图片。

和每一个Kaggle比赛一样,这份数据集也包含两个文件夹:

训练文件夹:

它包含了25000张猫和狗的图片,每张图片都含有标签,这个标签是作为文件名的一部分。

我们将用这个文件夹来训练和评估我们的模型。

测试文件夹:

它包含了12500张图片,每张图片都以数字来命名。

对于这份数据集中的每幅图片来说,我们的模型都要预测这张图片上是狗还是猫(1=狗,0=猫)。

事实上,这些数据也被Kaggle用来对模型进行打分,然后在排行榜上排名。

我们观察一下这些图片的特点,这些图片各种各样,分辨率也各不相同。

图片中的猫和狗形状、所处位置、体表颜色各不一样。

它们的姿态不同,有的在坐着而有的则不是,它们的情绪可能是开心的也可能是伤心的,猫可能在睡觉,而狗可能在汪汪地叫着。

照片可能以任一焦距从任意角度拍下。

这些图片有着无限种可能,对于我们人类来说在一系列不同种类的照片中识别出一个场景中的宠物自然是毫不费力的事情,然而这对于一台机器来说可不是一件小事。

实际上,如果要机器实现自动分类,那么我们需要知道如何强有力地描绘出猫和狗的特征,也就是说为什么我们认为这张图片中的是猫,而那张图片中的却是狗。

这个需要描绘每个动物的内在特征。

深度神经网络在图像分类任务上效果很好的原因是,它们有着能够自动学习多重抽象层的能力,这些抽象层在给定一个分类任务后又可以对每个类别给出更简单的特征表示。

深度神经网络可以识别极端变化的模式,在扭曲的图像和经过简单的几何变换的图像上也有着很好的鲁棒性。

让我们来看看深度神经网络如何来处理这个问题的。

配置深度学习环境深度学习的计算量非常大,当你在自己的电脑上跑一个深度学习模型时,你就能深刻地体会到这一点。

但是如果你使用GPUs,训练速度将会大幅加快,因为GPUs在处理像矩阵乘法这样的并行计算任务时非常高效,而神经网络又几乎充斥着矩阵乘法运算,所以计算性能会得到令人难以置信的提升。

我自己的电脑上并没有一个强劲的GPU,因此我选择使用一个亚马逊云服务(AWS)上的虚拟机,这个虚拟机名为p2.xlarge,它是亚马逊EC2的一部分。

这个虚拟机的配置包含一个12GB显存的英伟达GPU、一个61GB的RAM、4个vCPU和2496个CUDA核。

可以看到这是一台性能巨兽,让人高兴的是,我们每小时仅需花费0.9美元就可以使用它。

当然,你还可以选择其他配置更好的虚拟机,但对于我们现在将要处理的任务来说,一台p2.xlarge虚拟机已经绰绰有余了。

我的虚拟机工作在DeepLearningAMICUDA8UbuntuVersion系统上,现在让我们对这个系统有一个更清楚的了解吧。

这个系统基于一个Ubuntu16.04服务器,已经包装好了所有的我们需要的深度学习框架(TensorFlow,Theano,Caffe,Keras),并且安装好了GPU驱动(听说自己安装驱动是噩梦般的体验)。

如果你对AWS不熟悉的话,你可以参考下面的两篇文章:

https:

//blog.keras.io/running-jupyter-notebooks-on-gpu-on-aws-a-starter-guide.html

这两篇文章可以让你知道两点:

建立并连接到一个EC2虚拟机。

配置网络以便远程访问jupyternotebook。

用TensorFlow和Keras建立一个猫/狗图片分类器环境配置好后,我们开始着手建立一个可以将猫狗图片分类的卷积神经网络,并使用到深度学习框架TensorFlow和Keras。

先介绍下Keras:

Keras是一个高层神经网络API,它由纯Python编写而成并基于Tensorflow、Theano以及CNTK后端,Keras为支持快速实验而生,能够把你的idea迅速转换为结果。

从头开始搭建一个卷积神经网络首先,我们设置一个端到端的pipeline训练CNN,将经历如下几步:

数据准备和增强、架构设计、训练和评估。

我们将绘制训练集和测试集上的损失和准确度指标图表,这将使我们能够更直观地评估模型在训练中的改进变化。

数据准备

在开始之前要做的第一件事是从Kaggle上下载并解压训练数据集。

我们必须重新组织数据以便让Keras更容易地处理它们。

我们创建一个data文件夹,并在其中创建两个子文件夹:

trainvalidation

在上面的两个文件夹之下,每个文件夹依然包含两个子文件夹:

catsdogs

最后我们得到下面的文件结构:

data/train/dogs/dog001.jpgdog002.jpg...cats/cat001.jpgcat002.jpg...validation/dogs/dog001.jpgdog002.jpg...cats/cat001.jpgcat002.jpg

这个文件结构让我们的模型知道从哪个文件夹中获取到图像和训练或测试用的标签。

这里提供了一个函数允许你来重新构建这个文件树,它有2个参数:

图像的总数目、测试集r的比重。

我使用了:

n:

25000(整个数据集的大小)r:

0.2ratio=0.2n=25000organize_datasets(path_to_data='

./train/'

n=n,ratio=ratio)

现在让我们装载Keras和它的依赖包吧:

图像生成器和数据增强

在训练模型时,我们不会将整个数据集装载进内存,因为这种做法并不高效,特别是你使用的还是你自己本地的机器。

我们将用到ImageDataGenerator类,这个类可以无限制地从训练集和测试集中批量地引入图像流。

在ImageDataGenerator类中,我们将在每个批次引入随机修改。

这个过程我们称之为数据增强(dataaugmentation)。

它可以生成更多的图片使得我们的模型不会看见两张完全相同的图片。

这种方法可以防止过拟合,也有助于模型保持更好的泛化性。

我们要创建两个ImageDataGenerator对象。

train_datagen对应训练集,val_datagen对应测试集,两者都会对图像进行缩放,train_datagen还将做一些其他的修改。

基于前面的两个对象,我们接着创建两个文件生成器:

train_generatorvalidation_generator

每个生成器在实时数据增强的作用下,在目录处可以生成批量的图像数据。

这样,数据将会无限制地循环生成。

模型结构

我将使用拥有3个卷积/池化层和2个全连接层的CNN。

3个卷积层将分别使用32,32,64的3*3的滤波器(fiter)。

在两个全连接层,我使用了dropout来避免过拟合。

我使用随机梯度下降法进行优化,参数learningrate为0.01,momentum为0.9。

Keras提供了一个非常方便的方法来展示模型的全貌。

对每一层,我们可以看到输出的形状和可训练参数的个数。

在开始拟合模型前,检查一下是个明智的选择。

model.summary()

下面让我们看一下网络的结构。

结构可视化在训练模型前,我定义了两个将在训练时调用的回调函数(callbackfunction):

一个用于在损失函数无法改进在测试数据的效果时,提前停止训练。

一个用于存储每个时期的损失和精确度指标:

这可以用来绘制训练错误图表。

我还使用了keras-tqdm,这是一个和keras完美整合的非常棒的进度条。

它可以让我们非常容易地监视模型的训练过程。

要想使用它,你仅需要从keras_tqdm中加载TQDMNotebookCallback类,然后将它作为第三个回调函数传递进去。

下面的图在一个简单的样例上展示了keras-tqdm的效果。

关于训练过程,还有几点要说的:

我们使用fit_generator方法,它是一个将生成器作为输入的变体(标准拟合方法)。

我们训练模型的时间超过50个epoch。

这个模型运行时的计算量非常大:

如果你在自己的电脑上跑,每个epoch会花费15分钟的时间。

如果你和我一样在EC2上的p2.xlarge虚拟机上跑,每个epoch需要花费2分钟的时间。

分类结果

我们在模型运行34个epoch后达到了89.4%的准确率(下文展示训练/测试错误和准确率),考虑到我没有花费很多时间来设计网络结构,这已经是一个很好的结果了。

现在我们可以将模型保存,以备以后使用。

model.save(`./models/model4.h5)

下面我们在同一张图上绘制训练和测试中的损失指标值:

当在两个连续的epoch中,测试损失值没有改善时,我们就中止训练过程。

下面绘制训练集和测试集上的准确度。

这两个指标一直是增长的,直到模型即将开始过拟合的平稳期。

装载预训练的模型我们在自己设计的CNN上取得了不错的结果,但还有一种方法能让我们取得更高的分数:

直接载入一个在大型数据集上预训练过的卷积神经网络的权重,这个大型数据集包含1000个种类的猫和狗的图片。

这样的网络会学习到与我们分类任务相关的特征。

我将加载VGG16网络的权重,具体来说,我要将网络权重加载到所有的卷积层。

这个网络部分将作为一个特征检测器来检测我们将要添加到全连接层的特征。

与LeNet5相比,VGG16是一个非常大的网络,它有16个可以训练权重的层和1.4亿个参数。

要了解有关VGG16的信息,请参阅此篇pdf链接:

//arxiv.org/pdf/1409.1556.pdf现在我们将图像传进网络来得到特征表示,这些特征表示将会作为神经网络分类器的输入。

图像在传递到网络中时是有序传递的,所以我们可以很容易地为每张图片关联上标签。

现在我们设计了一个小型的全连接神经网络,附加上从VGG16中抽取到的特征,我们将它作为CNN的分类部分。

在15个epoch后,模型就达到了90.7%的准确度。

这个结果已经很好了,注意现在每个epoch在我自己的电脑上跑也仅需1分钟。

许多深度学习领域的大牛人物都鼓励大家在做分类任务时使用预训练网络,实际上,预训练网络通常使用的是在一个非常大的数据集上生成的非常大的网络。

而Keras可以让我们很轻易地下载像VGG16、GoogleNet、ResNet这样的预训练网络。

想要了解更多关于这方面的信息,请参考这里:

//keras.io/applications/

有一句很棒的格言是:

不要成为英雄!

不要重复发明轮子!

使用预训练网络吧!

接下来还可以做什么?

如果你对改进一个传统CNN感兴趣的话,你可以:

在数据集层面上,引入更多增强数据。

研究一下网络超参数(networkhyperparameter):

卷积层的个数、滤波器的个数和大小,在每种组合后要测试一下效果。

改变优化方法。

尝试不同的损失函数。

使用更多的全连接层。

引入更多的aggressivedropout。

如果你对使用预训练网络获得更好的分类结果感兴趣的话,你可以尝试:

使用不同的网络结构。

使用更多包含更多隐藏单元的全连接层。

如果你想知道CNN这个深度学习模型到底学习到了什么东西,你可以:

将featuremaps可视化。

可以参考:

//arxiv.org/pdf/1311.2901.pdf

如果你想使用训练过的模型:

可以将模型放到WebAPP上,使用新的猫和狗的图像来进行测试。

这也是一个很好地测试模型泛化性的好方法。

总结这是一篇手把手教你在AWS上搭建深度学习环境的教程,并且教你怎样从头开始建立一个端到端的模型,另外本文也教了你怎样基于一个预训练的网络来搭建一个CNN模型。

用Python来做深度学习是让人愉悦的事情,而Keras让数据的预处理和网络层的搭建变得更加简单。

如果有一天你需要按自己的想法来搭建一个神经网络,你可能需要用到其他的深度学习框架。

现在在自然语言处理领域,也有很多人开始使用卷积神经网络了,下面是一些基于此的工作:

使用了CNN的文本分类:

//chara.cs.illinois.edu/sites/sp16-cs591txt/files/0226-presentation.pdf自动为图像生成标题:

//cs.stanford.edu/people/karpathy/sfmltalk.pdf字级别的文本分类:

//papers.nips.cc/paper/5782-character-level-convolutional-networks-fortext-classification.pdf

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 畜牧兽医

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1