循环神经网络与LSTM.pdf

上传人:b****1 文档编号:3210817 上传时间:2022-11-20 格式:PDF 页数:33 大小:3.32MB
下载 相关 举报
循环神经网络与LSTM.pdf_第1页
第1页 / 共33页
循环神经网络与LSTM.pdf_第2页
第2页 / 共33页
循环神经网络与LSTM.pdf_第3页
第3页 / 共33页
循环神经网络与LSTM.pdf_第4页
第4页 / 共33页
循环神经网络与LSTM.pdf_第5页
第5页 / 共33页
点击查看更多>>
下载资源
资源描述

循环神经网络与LSTM.pdf

《循环神经网络与LSTM.pdf》由会员分享,可在线阅读,更多相关《循环神经网络与LSTM.pdf(33页珍藏版)》请在冰豆网上搜索。

循环神经网络与LSTM.pdf

循环神经网络与LSTM七月算法七月算法寒老师寒老师20162016年年77月月33日日4月机器学习算法班1主要内容n神经网络与循环神经网络神经网络与循环神经网络1.1.强大的功能强大的功能2.2.层级结构层级结构3.3.多种多种RNNRNNnLSTMLSTM11.长时依赖问题长时依赖问题2.2.“记忆细胞“记忆细胞”与状态与状态nLSTM变体LSTM变体11.GRU.GRU等等4月机器学习算法班循环神经网络与应用o模仿论文(连公式都格式很正确)4月机器学习算法班循环神经网络与应用o模仿莎士比亚的作品4月机器学习算法班循环神经网络与应用o模仿小四的作品4月机器学习算法班循环神经网络与应用o看图说话4月机器学习算法班神经网络到循环神经网络o我们知道神经网络结构如下o那循环神经网络和它是什么关系呢?

4月机器学习算法班o为什么有BP神经网络,CNN,还要RNN?

n传统神经网络(包括CNN),输入和输出都是互相独立的。

图像上的猫和狗是分隔开的,但有些任务,后续的输出和之前的内容是相关的。

“我是中国人,我的母语是_”nRNN引入“记忆”的概念循环2字来源于其每个元素都执行相同的任务。

但是输出依赖于输入和“记忆”循环神经网络4月机器学习算法班o简单来看,把序列按时间展开循环神经网络之结构4月机器学习算法班oXt是时间t处的输入oSt是时间t处的“记忆”,St=f(UXt+WSt1),f可以是tanh等oOt是时间t出的输出,比如是预测下个词的话,可能是softmax输出的属于每个候选词的概率循环神经网络之结构4月机器学习算法班o可以把隐状态St视作“记忆体”,捕捉了之前时间点上的信息。

o输出Ot由当前时间及之前所有的“记忆”共同计算得到。

o很可惜,实际应用中,St并不能捕捉和保留之前所有信息(记忆有限?

)o不同于CNN,这里的RNN其实整个神经网络都共享一组参数(U,V,W),极大减小了需要训练和预估的参数量o图中的Ot在有些任务下是不存在的,比如文本情感分析,其实只需要最后的output结果就行循环神经网络之结构细节4月机器学习算法班RNN模仿贴吧留言例子4月机器学习算法班o详见ipythonnotebookRNN模仿贴吧留言例子4月机器学习算法班o详见ipythonnotebookRNN模仿贴吧留言例子4月机器学习算法班o双向RNNo有些情况下,当前的输出不只依赖于之前的序列元素,还可能依赖之后的序列元素o比如从一段话踢掉部分词,让你补全o直观理解:

2个RNN叠加不同类型的RNN4月机器学习算法班o深层双向RNNo和双向RNN的区别是每一步/每个时间点我们设定多层结构不同类型的RNN4月机器学习算法班o前面提到的RNN解决了,对之前的信息保存的问题o但是!

从在长期依赖的问题。

n看电影的时候,某些情节的推断需要依赖很久以前的一些细节。

n很多其他的任务也一样。

n很可惜随着时间间隔不断增大时,RNN会丧失学习到连接如此远的信息的能力。

n也就是说,记忆容量有限,一本书从头到尾一字不漏的去记,肯定离得越远的东西忘得越多。

n怎么办:

LSTM循环神经网络之LSTM4月机器学习算法班oLSTM是RNN一种,大体结构几乎一样。

区别是?

o它的“记忆细胞”改造过。

o该记的信息会一直传递,不该记的会被“门”截断。

循环神经网络之LSTM4月机器学习算法班o之前提到的RNN结构如下循环神经网络之LSTM4月机器学习算法班o咱们把“记忆细胞”表示得炫酷一点循环神经网络之LSTM4月机器学习算法班oLSTM呢?

o“记忆细胞”变得稍微复杂了一点点循环神经网络之LSTM4月机器学习算法班o图太复杂,细节看不懂?

别着急,我们解释解释。

循环神经网络之LSTM4月机器学习算法班oLSTM关键:

“细胞状态”o细胞状态类似于传送带。

直接在整个链上运行,只有一些少量的线性交互。

信息在上面流传保持不变会很容易。

循环神经网络之LSTM4月机器学习算法班oLSTM怎么控制“细胞状态”?

o通过“门”让信息选择性通过,来去除或者增加信息到细胞状态o包含一个sigmoid神经网络层和一个pointwise乘法操作oSigmoid层输出0到1之间的概率值,描述每个部分有多少量可以通过。

0代表“不许任何量通过”,1就指“允许任意量通过”循环神经网络之LSTM4月机器学习算法班o第1步:

决定从“细胞状态”中丢弃什么信息=“忘记门”o比如完形填空中填“他”或者“她”的问题,细胞状态可能包含当前主语的类别,当我们看到新的代词,我们希望忘记旧的代词。

LSTM的几个关键“门”与操作4月机器学习算法班o第2步:

决定放什么新信息到“细胞状态”中Sigmoid层决定什么值需要更新Tanh层创建一个新的候选值向量上述2步是为状态更新做准备LSTM的几个关键“门”与操作4月机器学习算法班o第3步:

更新“细胞状态”更新Ct-1为Ct把旧状态与ft相乘,丢弃掉我们确定需要丢弃的信息加上it*。

这就是新的候选值,根据我们决定更新每个状态的程度进行变化。

LSTM的几个关键“门”与操作4月机器学习算法班o第4步:

基于“细胞状态”得到输出首先运行一个sigmoid层来确定细胞状态的哪个部分将输出接着用tanh处理细胞状态(得到一个在-1到1之间的值),再将它和sigmoid门的输出相乘,输出我们确定输出的那部分。

比如我们可能需要单复数信息来确定输出“他”还是“他们”LSTM的几个关键“门”与操作4月机器学习算法班o变种1增加“peepholeconnection”让门层也会接受细胞状态的输入。

LSTM的变体4月机器学习算法班o变种2通过使用coupled忘记和输入门之前是分开确定需要忘记和添加的信息,这里是一同做出决定。

LSTM的变体4月机器学习算法班o变种3:

GatedRecurrentUnit(GRU),2014年提出将忘记门和输入门合成了一个单一的更新门同样还混合了细胞状态和隐藏状态,和其他一些改动。

比标准LSTM简单。

LSTM的变体4月机器学习算法班o2015的paperLSTM:

ASearchSpaceOdyssey中,对各种变体做了对比,发现其实本质上它们大同小异。

?

o2015的论文AnEmpiricalExplorationofRecurrentNetworkArchitectures中,google和facebook的大神尝试了1w+种RNN架构,发现并非所有任务上LSTM都表现最好。

?

o现在有更多的RNN研究方向,比如attentionmodel和GridLSTM等等?

LSTM比较?

4月机器学习算法班感谢大家!

恳请大家批评指正!

4月机器学习算法班

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 考试认证 > IT认证

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1