AI算法基础 [11]:门控递归单元GRU
前言
门控递归单元(Gated Recurrent Unit,GRU)是LSTM的一个流行的简化变种,由Cho, et al. (2014)提出。
算法原理
GRU将遗忘门和输入门合并成一个更新门(update gate)(输出为),将胞元状态和隐藏层状态合二为一,并且加了一个作用于隐藏层状态的重置门(reset gate)(输出为)。
GRU聪明的一点就在于使用了同一个门控同时完成了遗忘()和记忆()的操作。遗忘和记忆的程度之和为1,就保证了的尺度不变,也就省去了输出前的tanh操作。
与LSTM的对应关系
-
- GRU的对应到LSTM的胞元状态;
-
- GRU重置门其实对应到LSTM的输出门,则GRU的对应到LSTM的隐藏层状态,相当于隐藏层状态即算即用,也就不用额外的变量存储隐藏层状态了;
-
- GRU的对应到LSTM的遗忘门输出,GRU的更新门输出对应到LSTM的输入门输出;
总结
GRU能达到与LSTM相同的功能,但参数比LSTM要少,需要的计算资源和时间成本更少,没有理由不流行嘛 ( :
参考
[1] Understanding LSTM Networks
[2] 人人都能看懂的GRU
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 旭穹の陋室!
评论