ImageVerifierCode 换一换
格式:DOCX , 页数:13 ,大小:520.34KB ,
资源ID:5274404      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/5274404.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(完整版深度神经网络及目标检测学习笔记2.docx)为本站会员(b****3)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

完整版深度神经网络及目标检测学习笔记2.docx

1、完整版深度神经网络及目标检测学习笔记2深度神经网络及目标检测学习笔记https:/youtu.be/MPU2HistivI上面是一段实时目标识别的演示,计算机在视频流上标注出物体的类别,包括人、汽车、自行车、狗、背包、领带、椅子等。今天的计算机视觉技术已经可以在图片、视频中识别出大量类别的物体,甚至可以初步理解图片或者视频中的内容,在这方面,人工智能已经达到了3岁儿童的智力水平。这是一个很了不起的成就,毕竟人工智能用了几十年的时间,就走完了人类几十万年的进化之路,并且还在加速发展。道路总是曲折的,也是有迹可循的。在尝试了其它方法之后,计算机视觉在仿生学里找到了正确的道路(至少目前看是正确的)。

2、通过研究人类的视觉原理,计算机利用深度神经网络(Deep Neural Network,NN)实现了对图片的识别,包括文字识别、物体分类、图像理解等。在这个过程中,神经元和神经网络模型、大数据技术的发展,以及处理器(尤其是GPU)强大的算力,给人工智能技术的发展提供了很大的支持。本文是一篇学习笔记,以深度优先的思路,记录了对深度学习(Deep Learning)的简单梳理,主要针对计算机视觉应用领域。一、神经网络1.1 神经元和神经网络神经元是生物学概念,用数学描述就是:对多个输入进行加权求和,并经过激活函数进行非线性输出。由多个神经元作为输入节点,则构成了简单的单层神经网络(感知器),可以进

3、行线性分类。两层神经网络则可以完成复杂一些的工作,比如解决异或问题,而且具有非常好的非线性分类效果。而多层(两层以上)神经网络,就是所谓的深度神经网络。神经网络的工作原理就是神经元的计算,一层一层的加权求和、激活,最终输出结果。深度神经网络中的参数太多(可达亿级),必须靠大量数据的训练来设置。训练的过程就好像是刚出生的婴儿,在父母一遍遍的重复中学习“这是苹果”、“那是汽车”。有人说,人工智能很傻嘛,到现在还不如三岁小孩。其实可以换个角度想:刚出生婴儿就好像是一个裸机,这是经过几十万年的进化才形成的,然后经过几年的学习,就会认识图片和文字了;而深度学习这个“裸机”用了几十年就被设计出来,并且经过

4、几个小时的“学习”,就可以达到这个水平了。1.2 BP算法神经网络的训练就是它的参数不断变化收敛的过程。像父母教婴儿识图认字一样,给神经网络看一张图并告诉它这是苹果,它就把所有参数做一些调整,使得它的计算结果比之前更接近“苹果”这个结果。经过上百万张图片的训练,它就可以达到和人差不多的识别能力,可以认出一定种类的物体。这个过程是通过反向传播(Back Propagation,BP)算法来实现的。建议仔细看一下BP算法的计算原理,以及跟踪一个简单的神经网络来体会训练的过程。1.3 小结人工神经网络就是根据人的神经元模型而构建的一个感知算法,利用大量的神经元组合对人的认知行为进行拟合。目前我们仍然

5、无法精确的知道它为什么能工作、如何工作,如同我们仍然无法精确知道人的大脑是如何工作一样。在摸索过程中,我们好像应该更多地思考人类自己是怎么去“看”的,这会更有助于设计更好的算法。比如本文开头的视频识别算法,它很快,但是不够精确,而有些可以“看清”细节的算法,就会非常慢。就像我们人类自己,走马观花只能看到概貌,驻足观赏才能看清细节。我们越了解自己,就越能做得更好。二、卷积神经网络2.1 简介卷积神经网络(Convocational Neural Network,CNN)是一个特殊的深层神经网络,目前在计算机视觉领域广泛使用,可以认为它是一个二维向量(图片就是一个二维向量)的感知器。CNN算法的核

6、心是对图像(二维向量)进行矩阵卷积运算,这就相当于是对图像进行加权求和。为了减小计算量,CNN采用了局部感知和权值共享的方法。局部感知,就是用一个NN(如N=3)的矩阵(称为卷积核)去滑动扫描图像,进行卷积运算。权值共享,就是扫描图片的滑动矩阵的权值是共享的(相同的)。在实际运算中,这个卷积核相当于一个特征提取的过滤器(filter)。举例来说,假设一个1010的图像,用一个33的卷积核以步长1做一次卷积运算,那么会得到一个88的特征图(feature map)。为了使得到的feature map和原图等大小,一般给原图进行扩充为1212,这样卷积一次以后,得到的仍然是1010大小的图像。在这

7、个例子中,如果不采用权值共享,则一共需要100个权值参数,权值共享后,只需要33=9个权值参数。在实际中,一个RGB图像是三个通道,而卷积核也可能有多个。这样计算起来会比上面的例子复杂些,但基本原理是一样的。2.2 CNN计算流程一个典型的CNN算法的流程大概是这样的:首先是输入,然后是n个卷积和池化的组合,最后全连接层感知分类。在这个流程里,卷积运算主要是用来提取特征。一个典型的卷积计算如下图所示。图中input是同一个图像的三个通道,周边有填充0;有两个卷积核Filter W0和Filter W1,一个filter滑动到一个位置后计算三个通道的卷积,求和,加bias,得到这个filter在

8、该位置的最终结果;每个filter的输出是各个通道的汇总;输出的个数与filter个数相同。在这里还要加上激活函数,对计算结果进行非线性变换。常用的激活函数有tanh、ReLU、sigmoid等。激活函数的作用好像可以解释为:过滤掉一些可以忽略的不重要因素,以避免其对决策产生过度影响。池化是为了降维,有最大池化(Max Pooling)和平均池化(Average Pooling)。一个22最大池化的示例如下图。最后是全连接层,它将前面卷积层提取的特征映射到样本标记空间,它输出一个分类的概率,也就是最终的结果。2.3 典型的CNN模型LeNet,最早用于数字识别的CNN,用55卷积核,22最大池

9、化,识别输入为2828的灰度点阵,网络结构是(CONVPOOLCONVPOOLCONVFC)。AlexNet,2012 ImageNet比赛第一名,准确度超过第二名10%。网络结构如下图。5个CONV、3个POOL、2个LRN、3个FC,卷积核分别是1111、55、33,采用ReLU作为激活函数。VGG,有跟多的卷积层(1619),使用33卷积核。GoogLeNet,采用Inception来减少参数(用11卷积核降维)。ResNet,很多很多层的网络,从152层到据说上千层。采用残差网络来解决多层网络难以训练的问题。以上网络的对比如下表。2.4 训练集应该可以感受到,人工智能也好,深度学习也好

10、,算法的优劣是一方面,而训练数据集的好坏,对最终的效果影响更大。而训练集又非常难做,需要大量的数据,且标记这些数据需要巨大的工作量(过去的8年ImageNet就在做这个工作)。逐渐,一些数据集就慢慢出了名。很多算法的性能数据都会指明是在哪个数据集上训练的。一些有名的数据集如下。MNIST:深度学习领域的“Hello World!”,一个手写数字数据库,有60000个训练样本集和10000个测试样本集,每个样本图像的宽高为28*28。数据集以二进制存储,不能直接查看。数据集大小为12M。ImageNet:MIT李飞飞团队过去几年的成果,目前有1400多万幅图片,涵盖2万多个类别。数据集大小为1T

11、。ImageNet根据WordNet层次(目前只有名词)组织的一个图像数据库,其中每个节点的层次结构是由成千上万的图像描绘。目前,有平均每个节点超过五百的图像。COCO:Common Objects in Context,是一个新的图像识别、分割、和字幕数据集,由微软赞助,具有上下文识别、语义描述等特点。数据集大小为40G。PASCAL VOC:图片集包括20个目录,数据集图像质量好,标注完备,非常适合用来测试算法性能。数据集大小为2G。由于数据集生成有一定难度且工作量巨大,两年来GAN(Generative Adversarial Nets,生成对抗网络)快速发展,并在很多应用场景的训练集生

12、成产生了巨大作用,比如车牌识别。三、物体检测3.1 检测流程在实际场景中,我们需要在一副图像中找出有哪些物体,这是一个多对多的映射(所谓的回归)。按照已有的CNN方法,常规的检测流程就是:先找到哪些区域有物体,然后再用CNN来对其分类。区域选择最原始的办法就是用不同大小的滑动窗口对整幅图像进行扫描。这样不但计算量大,也容易造成误判。一个改进的方法是所谓Region Proposal,即预先找出物体可能在的位置。这里需要提到以下几个概念。IoU:Intersection over Union,Region Proposal与Ground Truth的窗口的交集比并集的比值,如果IoU低于0.5,

13、那么相当于目标还是没有检测到。Ground Truth就是实际物体真实的区域。mAP,mean Average Precision,平均精度均值。是对多个验证集求PR曲线的均值。PR曲线是Precision和Recall作为横纵坐标轴的曲线,Precision是准确率,即检测出的样本有多少是正确的,Recall是召回率,即应该被检测出的样本有多少被检测出来。PR曲线越高,说明算法越好,即又多又准。3.2 典型的算法从2014年的R-CNN(Region proposal+CNN)开始,出现了一系列目标检测算法,从R-CNN到fast R-CNN和faster R-CNN,以及SPP-NET,R

14、-FCN,还有YOLOv1v3和SSD、DSSD。R-CNN:采用selective search方法(一种Region Proposal方法,Region Proposal的方法有selective search、edge box)进行区域选择,选出2000个左右。将每个区域缩放至227227,再送入CNN计算特征,最后由SVM(支持向量机)分类。很明显,R-CNN很慢。SPP-NET:为了加快R-CNN的速度,采取对一副图像的多个Region Proposal一次提取特征。这就要求网络必须适应不同尺寸的图像。方法是在全连接层之前加入一个网络层,让它对任意尺寸的输入产生固定的输出(将图像分成

15、16、4、1个块)。SPP-NET训练步骤繁琐,并且仍然不够快。fast R-CNN:与R-CNN相比,fast R-CNN在最后一个卷积层后加了一个ROI pooling layer,同时损失函数使用了多任务损失函数(multi-task loss),将边框回归直接加入到CNN网络中训练,最后用softmax替代SVM进行分类。fast R-CNN不是真正的端到端训练测试,还是需要selective search来进行Region Proposal,所以还是不够快,不能做实时的检测。Faster R-CNN:采用RPN(Region Proposal Networks)用Anchor机制和边

16、框回归直接得到多尺度多长宽比的Region Proposal。Fast R-CNN做到了真正的端到端,但可惜的是仍然不能达到实时检测。RPN需要详细了解一下。R-FCN: Object Detection via Region-based Fully Convolutional Networks,基于区域的全卷积网络物体检测。嫁接ResNet的卷积层,采用RPN获取ROI,针对每个ROI,在POOL之前加入位置信息(通过score map)。R-FCN的score map计算有点绕,需要慢慢理解。YOLO:虽然精度不是最好,但确是目前实时性最好的算法,可以在视频中实时检测出很多物体。倒也符合人

17、类视觉的特点,一眼望去先看个大概,要想看细节,那就定格仔细看吧。YOLO系列的算法后面详细总结。SSD:SSD结合了YOLO中的回归思想和Faster R-CNN中的anchor机制,使用全图各个位置的多尺度区域特征进行回归,既保持了YOLO速度快的特性,也保证了窗口预测的跟Faster R-CNN一样比较精准。一般后续出现的算法都会与之前的算法做性能对比,SSD和YOLOv1比,YOLOv2、v3又和SSD比,在不同的训练集上也有不同的mAP,看起来真是眼花缭乱。因为机缘巧合,我先接触到YOLO系列算法,在自己的电脑上运行DEMO,也仔细看了YOLO的发展,于是给一个稍微详细的总结。3.3

18、YOLO系列算法YOLO算法主要是针对以往物体检测算法速度较慢的弊端,利用一个单独的端到端网络,将原始图像输入,直接输出物体位置和类别。YOLO没有显式的求取Region Proposal的过程(R-CNN和Fast R-CNN采用selective search获取,Faster R-CNN和R-FCN则采用了RPN)。YOLO的名字也来自于其核心特征:You Only Look Once,只看一次。从2015年到2018年3月,YOLO一共出了三个版本v1、v2(YOLO9000)、v3,性能逐渐提高, mAP与其它算法持平或略胜一筹。3.3.1 YOLOv1YOLO将对象检测框架化为空间

19、分离边界框和相关类别概率的回归问题。单个神经网络在一次评估中直接从完整图像预测边界框和类概率。由于整个检测流水线是单个网络,因此可以直接针对检测性能端到端地进行优化,使得统一架构非常快。基础YOLO模型以45帧/秒的速度实时处理图像。较小版本的网络Fast YOLO每秒处理可达155帧,同时实现其他实时检测器的mAP的两倍。与最先进的检测系统相比,YOLO产生更多的定位误差,但不太可能预测背景上的误报。最后,YOLO表现出对目标识别很好的通用性。YOLO检测网络有24个卷积层,其次是2个完全连接的层。 交替的11卷积层减少了来自前面层的特征空间。在分辨率的一半(224 * 224输入图像)上预

20、分割ImageNet分类任务上的卷积图层,然后将分辨率加倍以进行检测。YOLO将输入图像分成SS个格子,若某个物体Ground truth的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这个物体。每个边界框由5个预测组成:x,y,w,h和置信度。(x, y)坐标表示相对于网格单元边界的框的中心。宽度和高度是相对于整个图像预测的。最后,置信度预测表示预测框与任何ground truth框之间的IOU。每个网格单元还预测C条件类概率Pr(Classi|Object)。这些概率取决于包含对象的网格单元。仅预测每个网格单元的一组类概率,而不管箱B的数量。在测试时间,将条件类概率和单个盒子置信度

21、预测相乘, 这给出了每个盒子的类别特定置信度评分。这些分数编码该类出现在盒子中的概率以及预测盒子如何适合该对象。YOLO的输出维度为SS(B5+C)。检测中采用了S=7,B=2,C=20。YOLO对占比较小的目标检测效果一般。虽然每个格子可以预测B个bounding box,但是最终只选择IOU最高的bounding box作为物体检测输出,即每个格子最多只能预测出一个物体。当物体占画面比例较小,如图像中包含鸟群时,每个格子包含多个物体,但却只能检测出其中一个。YOLO训练时的Loss函数如下其中coord=5,noobj=0.5,是权重系数。公式包括三部分,分别是坐标误差、IOU误差和分类误

22、差。3.3.2 YOLO9000YOLOv2对之前的版本做了改进。取消了dropout,在卷积层全部使用Batch Normalization;采用448448的分辨率训练检测网络;借鉴Faster R-CNN的思想预测bbox的偏移,移除了全连接层,并且删掉了一个POOL层使特征的分辨率更大。网络结构图如下:YOLOv2的性能比v1有了提升,具体数据在v3部分进行对比。3.3.3 YOLOv3YOLOv3是2018年3月25号发布的,里面对当前各种物体检测算法做了性能对比。在320 * 320分辨率下,YOLOv3达到28.2 mAP、22 ms,与SSD一样精确,但速度提高了三倍。对旧的0

23、.5 IOU mAP检测指标YOLOv3表现不俗。在Titan X上,它达到了51 ms、57.9 AP50,而RetinaNet则是198 ms、57.5 AP50,性能相似,但是快了3.8倍。YOLOv3主要在多尺度预测、基础分类网络及分类器上做了改进。采用多尺度预测,每种尺度预测3个box(类似FPN)。anchor的设计方式仍然使用聚类,得到9个聚类中心,将其按照大小均分给3中尺度。尺度1:在基础网络之后添加一些卷积层再输出box信息。尺度2:从尺度1中的倒数第二层的卷积层上采样(2)再与最后一个1616大小的特征图相加,再次通过多个卷积后输出box信息。相比尺度1变大两倍。尺度3:与

24、尺度2类似,使用了3232大小的特征图。基础网络采用了Darknet-53,这个新网络比v2的Darknet-19强大得多,但仍比ResNet-101或ResNet-152更高效。边框预测采用之前的logistic。YOLO的优点很明显,就是速度快、简单,背景误检率低,通用性强。对于非自然图像物体的检测率远远高于DPM和RCNN系列检测方法。但相比RCNN系列物体检测方法,YOLO的缺点是物体位置精准性较差,且召回率低。YOLO系列算法可以在Ubuntu上运行,我自己在Windows 10上也跑起来了,硬件:Nvidia Geforce MX150,软件:Visual Studio 2015+CUDA9.1+OpenCV3.0。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1