您好,欢迎来到年旅网。
搜索
您的当前位置:首页Tensorflow2.0——LSTM

Tensorflow2.0——LSTM

来源:年旅网

LSTM

随着距离的增加,RNN无法有效的利用历史信息。而长短记忆神经网络——LSTM,能够学习长的依赖关系。

LSTM的链状结构,有四层,这四层以特殊的方式进行交互。

LSTM的三个门

【Forget 门】

LSTM的第一步是决定我们要从细胞状态中丢弃什么信息。 该决定由被称为“忘记门”的Sigmoid层实现。它查看ht-1(前一个输出)和xt(当前输入),并为单元格状态Ct-1(上一个状态)中的每个数字输出0和1之间的数字。1代表完全保留,而0代表彻底删除。

若根据以前的语料来预测下一个单词,在这样的问题中,细胞状态可能包括当前主题的性别,从而决定使用正确的代词。 当我们看到一个新主题时,我们想要忘记旧主题的性别。

下一步是决定我们要在细胞状态中存储什么信息。 这部分分为两步。 首先,称为“输入门层”的Sigmoid层决定了我们将更新哪些值。 接下来一个tanh层创建候选向量Ct,该向量将会被加到细胞的状态中。 在下一步中,我们将结合这两个向量来创建更新值。

我们希望将新主题的性别添加到单元格状态,以替换我们忘记的旧对象。

【Output 门】

现在是时候去更新上一个状态值Ct−1了,将其更新为Ct。将上一个状态值乘以ft,以此表达期待忘记的部分。之后我们将得到的值加上 it∗C̃ t。这个得到的是新的候选值, 按照我们决定更新每个状态值的多少来衡量。

在语言模型的例子中,对应着实际删除关于旧主题性别的信息,并添加新信息。

对于语言模型的例子,由于只看到一个主题,考虑到后面可能出现的词,它可能需要输出与动词相关的信息。 例如,它可能会输出主题是单数还是复数,以便我们知道动词应该如何组合在一起。

GRU


GRU比LSTM少了一个门,有reset gate和update gate两个门,效率会更高,结果有时也会更好。

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- oldu.cn 版权所有 浙ICP备2024123271号-1

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务