循环神经网络的变种
在上一节中,我计算了RNN中梯度的反向传播过程。在时间步 ,所有 时刻的梯度会通过各个隐藏状态 向 反向传播。然而,由于包含连乘项 ,梯度随着时间步的增加会呈指数级衰减或增长,导致梯度消失或爆炸。为了应对梯度消失问题,Hochreiter和Schmidhuber(1997) 提出了一种利用门控机制(gate mechanism)来控制信息流动的方法。接下来,我们将介绍两种广泛使用的门控循环神经网络变体——长短期记忆网络(LSTM)和门控循环单元(GRU),并解释门控机制如何帮助缓解梯度消失问题。
长短期记忆网络(LSTM)
LSTM单元的基本结构
长短期记忆网络(Long Short-Term Memory,LSTM)是一种特殊的循环神经网络(RNNs),它通过引入三个门控单元来控制信息的流动。LSTM中每个单元的计算公式如下 1这里我们忽略了从隐藏状态 到输出 的计算,因为这部分和RNN是一样的。在LSTM中,我们主要关注单元状态 和隐藏状态 的计算。:
其中, 表示 Hadamard 积(逐元素乘积,elementwise product), 分别对应于输入门、遗忘门、输出门和单元状态的偏置项。这里, 和 分别表示输入和隐藏状态的维度。通常情况下, 分别称为输入门、遗忘门和输出门的激活值, 表示候选单元状态, 为单元状态,即 LSTM 的内部记忆,而 是LSTM的隐藏状态,也是网络的输出。各权重矩阵和偏置项定义如下: 和 是输入门的权重, 和 是遗忘门的权重, 和 是输出门的权重, 和 是单元状态的权重。
我们首先根据更新方程来理解LSTM的基本构造。首先,LSTM 中的三个门控单元 、 和 的计算方式是相同的(权重矩阵不同)。每个门控单元通过与输入和前一隐藏状态的线性组合并施加激活函数来得到。这三个向量中每一个元素的值域都在 之间,因此我们可以将他们看作是权重。
与RNN不同,LSTM中额外增加了一个单元状态(cell state)。从更新方程中我们可以发现, 的计算与RNN中隐藏状态的计算方式完全一致,我们可以将LSTM中的候选单元状态与RNN中的隐藏状态作为类比,看作是历史信息的潜在表示。对于单元状态 的计算,可以看作是对于历史信息的更新(加权求和)。通过遗忘门 控制历史信息 的保留程度,通过输入门 控制新信息 的输入。这样的好处在于,在第 个维度,历史信息可以完全保留( )或者完全遗忘( ),新信息可以完全输入( )或者完全忽略( )。与RNN中隐藏状态的计算相比,LSTM中单元状态的更新多了一步与历史信息的加权求和,这使得LSTM能够更好的保留重要的历史信息。如果我们将 看作是短期记忆(因为仅考虑了 ),那么 可以看作是长期记忆,通过这个加权求和,实现了对历史信息的长期记忆,这也是LSTM名字的由来(Long Short-Term Memory : make the short-term memory long)。
在LSTM中,同样使用了一个隐藏状态 。从 的计算方程来看,我们可以将其视作是单元状态 的一个可输出表示,这是因为输出门 控制了单元状态的输出到隐藏状态 的过程,即从 中提取了与输出有关的信息。
门控循环单元(GRU)
RNN的基本结构
门控循环单元(Gated Recurrent Unit,GRU)是另一种使用了门控机制的循环神经网络(RNNs),它通过引入两个门控单元来控制信息的流动。GRU的计算公式如下:
其中 和 分别是更新门和重置门的激活值, 是候选隐藏状态, 是隐藏状态; 和 是更新门权重, 和 是重置门权重, 和 是候选隐藏状态的权重。
在GRU中同样使用了门控机制,可以看作是LSTM的一个简化版本。与LSTM不同的是,GRU中只有一个隐藏状态 ,而没有单元状态 。GRU 的门控机制包含两个门:更新门 和重置门 ,它们的计算方式与 LSTM 中的门控单元相似。更新门 控制历史信息和新信息的融合比例,而重置门 决定历史信息的保留程度。候选隐藏状态 则通过前一时刻的历史信息 和当前输入 计算得出,其中 可与 LSTM 中的 类比,用于调控历史信息的保留比例。GRU中隐藏状态的计算与LSTM中的隐藏状态计算类似,但是没有了单元状态的概念,因此隐藏状态 既是网络的输出,也是网络的内部记忆。
LSTM v.s. GRU
在RNN中,隐藏状态可以被视为目标序列的潜在表示。LSTM引入了一个单独的单元状态(Cell state)来保存历史信息,它作为时间 前所有信息的摘要。相比之下,GRU直接利用隐藏状态来结合历史信息。这种方法不仅减少了所需的参数数量,例如LSTM中的输出门 ,还缓解了将单元状态转换为隐藏状态时产生的偏差(bias)。
除了在表示历史信息方式上的区别,这两种模型在门控机制的使用上也有所不同。例如,LSTM分别使用输入门和遗忘门 和 来确定历史信息 与新信息 之间的权重。这种方法可能导致当 和 取极端值时,单元状态 变得难以解释 2例如,当 时,。。相比之下,GRU使用更新门 (及其补数 )作为权重,确保隐藏状态 仅由历史信息 和新信息 决定。当 接近于0时,表明新信息比历史信息更为重要,且 完全由 决定。然而,鉴于序列建模中的自相关衰减现象,GRU还引入了重置门 来保留历史信息。该门可以被解释为ARMA模型中的AR系数,功能上类似于LSTM中的遗忘门 。重置门决定了要保留多少历史信息,以生成候选隐藏状态 。这可以视为一种双重保险,利用了序列中存在的强相关性。
从更新方程上来看,GRU的参数更少,因此计算效率更高。在实际应用中,LSTM和GRU在许多数据集上具有相同的效果(comparable performance)。
门控机制有什么用?
在RNN的BPTT中,我们发现,梯度消失或者爆炸主要的原因在于 中会出现连乘项 。由于GRU与RNN相同,使用了隐藏状态作为历史信息的潜在表示,同时,GRU和LSTM相比更简单,所以我们以一个简化的GRU模型为例来说明门控机制在BPTT中的作用。
为了简化计算,不失一般性地,我们将激活函数设为 identity
函数:,同时忽略偏置项。由于GRU中门控单元的计算也会包括 和 ,这会让我们的计算变得复杂。因此,在这里我们考虑门控单元为常数,即 和 ,其中 和 是一个对角矩阵,每个对角元素都是常数。这样我们可以将 的计算简化为:
()
我们可以对 () 进行进一步化简:
此时,根据链式法则,我们有:
()
值得注意的是, 和 中对角元素的值域都在 之间。为了更进一步理解门控机制的作用,我们可以考虑几种极端情况:
当 时, ,即历史信息完全保留,新信息完全忽略。此时梯度 ,连乘项不会为0;
当 时,,即历史信息完全忽略,新信息完全保留;此时梯度 ,由于此时历史信息和未来信息之间没有任何联系,因此梯度(正常)消失;
当 时,,此时更新方程与RNN相同;
当 和 的取值在 之间时,我们可以看到,门控机制 缓解 3虽然LSTM和GRU声称(claim)解决了梯度消失的问题,但实际上只是缓解了这个问题。感兴趣的同学可以参考文章: Do RNN and LSTM have Long Memory? 。 了连乘项 带来的问题。