md_files/科研/循环神经网络.md

371 lines
14 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

## 循环神经网络RNN
循环神经网络Recurrent Neural Network简称RNN是一类专门用于处理序列数据的神经网络模型。与传统的前馈神经网络不同RNN具有“记忆”功能能够捕捉数据序列中的时间依赖关系。
### 基本结构
RNN的核心在于它的循环结构这个结构使得信息可以沿着时间步流动。一个典型的RNN单元在时间步 $t$ 接收输入向量 $x_t$ 和前一时刻的隐藏状态 $h_{t-1}$,然后计算当前时刻的隐藏状态 $h_t$。这种循环过程允许模型利用之前的状态信息来影响当前的预测。
### 隐藏状态的更新
隐藏状态更新通常通过如下公式实现:
$$
h_t = f(W_{xh} \cdot x_t + W_{hh} \cdot h_{t-1} + b_h)
$$
其中:
- $h_t$ 表示时间步 $t$ 的隐藏状态(所有隐藏层神经元激活值的集合。)。
- $x_t$ 是时间步 $t$ 的输入向量。
- $W_{xh}$ 是输入到隐藏状态的权重矩阵。
- $W_{hh}$ 是隐藏状态之间的递归**连接权重**矩阵。
- $b_h$ 是偏置项。
- $f$ 是激活函数通常会选择非线性函数如tanh或ReLU以引入非线性变换。
在这种更新过程中,当前的隐藏状态 $h_t$ 同时依赖于当前的输入 $x_t$ 和之前的隐藏状态 $h_{t-1}$这使得RNN能够捕捉长时间序列中的上下文关系。
### 输出层
有时RNN还会在每个时间步产生输出输出计算方式通常为
$$
y_t = g(W_{hy} \cdot h_t + b_y)
$$
其中:
- $y_t$ 是时间步 $t$ 的输出。
- $W_{hy}$ 是隐藏状态到输出的权重矩阵。
- $b_y$ 是输出层的偏置项。
- $g$ 是输出层激活函数例如softmax用于分类任务
### 困惑度
假设我们有一个测试序列,其中包含 3 个单词,模型对每个单词的预测概率分别为:
- $P(w_1) = 0.5$
- $P(w_2|w_1) = 0.2$
- $P(w_3|w_1, w_2) = 0.1$
根据困惑度的公式:
$$
\text{Perplexity} = \exp\left(-\frac{1}{N} \sum_{i=1}^{N} \log P(w_i | \text{context})\right)
$$
当模型对每个单词都能百分之百预测即概率为1则平均交叉熵为0困惑度为 $\exp(0)=1$。这表示模型没有任何不确定性,是理想状态。
我们这里 $N=3$。下面是具体的计算步骤:
1. **计算每个单词的对数概率**
$$
\log P(w_1) = \log(0.5) \approx -0.6931
$$
$$
\log P(w_2|w_1) = \log(0.2) \approx -1.6094
$$
$$
\log P(w_3|w_1, w_2) = \log(0.1) \approx -2.3026
$$
2. **求和并求平均**
将这些对数值相加:
$$
\sum_{i=1}^{3} \log P(w_i|\text{context}) = -0.6931 - 1.6094 - 2.3026 \approx -4.6051
$$
然后求平均:
$$
\text{平均对数概率} = \frac{-4.6051}{3} \approx -1.5350
$$
3. **计算困惑度**
取负值再求指数:
$$
\text{Perplexity} = \exp\left(1.5350\right) \approx 4.64
$$
### 训练过程与挑战
整体训练流程可以总结为下面几个步骤,每个 epoch 都会重复这些步骤:
1. **前向传播**
- 对于一个完整的句子(或者一个批次中的多个句子),模型按顺序处理所有时间步,生成每个时间步的输出。
- 比如,对于句子“我 爱 编程”,模型会依次处理“我”、“爱”、“编程”,得到对应的输出(例如每个时间步预测下一个词的概率分布)。
2. **计算损失**
- 将模型在所有时间步的输出与真实目标序列(也就是每个时间步的正确答案)进行比较,计算整体损失。
- 损失通常是所有时间步损失的总和或平均值,例如均方误差或交叉熵损失。
3. **反向传播BPTT**
- 对**整个句子**进行反向传播即通过时间Back Propagation Through TimeBPTT计算所有时间步的梯度。
- 这一步会利用链式法则,把整个序列中各个时间步的梯度累积起来,形成每个参数的总梯度。
4. **参数更新**
- 使用优化器(如 Adam、SGD 等)根据计算得到的梯度更新模型参数。
5. **重复整个过程**
- 以上步骤构成了一个训练迭代周期(一个 epoch在一个 epoch 中,所有训练样本都会被送入模型进行训练。
- 然后在下一个 epoch 中,再次重复整个流程,直到达到预设的 epoch 数或满足其他停止条件。
在训练过程中RNN通过反向传播算法具体为“反向传播通过时间”BPTT来更新参数。然而由于梯度在长序列上传播时可能出现梯度消失或梯度爆炸问题使得RNN在捕捉长程依赖关系时面临挑战。为此后来发展出了如长短时记忆网络LSTM和门控循环单元GRU等改进模型它们在结构上增加了门控机制有效缓解了这一问题。
## 门控循环单元GRU
GRUGated Recurrent Unit门控循环单元是一种常用的循环神经网络变种旨在解决标准 RNN 中梯度消失或梯度爆炸的问题,同时比 LSTM 结构更简单。
### 基本结构
GRU 通过两个门gate来控制信息的流动
1. **更新门 $z_t$**
控制当前隐藏状态需要保留多少来自过去的信息以及引入多少新的信息。
2. **重置门 $r_t$**
决定如何结合新输入和过去的记忆,尤其是在产生候选隐藏状态时。
另外GRU 计算一个候选隐藏状态 $\tilde{h}_t$,并结合更新门 $z_t$ 的信息,更新最终的隐藏状态 $h_t$。
### 隐藏状态更新公式
对于每个时间步 $t$GRU 的计算过程通常包括以下步骤:
1. **更新门 $z_t$**
$$
z_t = \sigma(W_{xz} x_t + W_{hz} h_{t-1} + b_z)
$$
其中:
- $x_t$ 是当前时间步的输入;
- $h_{t-1}$ 是上一时刻的隐藏状态;
- $b_z$ 是偏置向量;
- $\sigma(\cdot)$ 是 sigmoid 函数,用于将输出限制在 $[0, 1]$ 区间。
2. **重置门 $r_t$**
$$
r_t = \sigma(W_{xr} x_t + W_{hr} h_{t-1} + b_r)
$$
其中参数意义与更新门类似,重置门决定忘记多少过去的信息。
3. **候选隐藏状态 $\tilde{h}_t$**
$$
\tilde{h}_t = \tanh(W_{xh} x_t + W_{hh} (r_t \odot h_{t-1}) + b_h)
$$
这里:
- $r_t \odot h_{t-1}$ 表示**重置门** $r_t$ 和上一时刻隐藏状态的逐元素相乘Hadamard 乘积),用以调制历史信息的影响;
- $\tanh(\cdot)$ 激活函数,用来生成候选隐藏状态,将输出限制在 $[-1, 1]$。
4. **最终隐藏状态 $h_t$**
GRU 结合更新门和候选隐藏状态更新最终隐藏状态:
$$
h_t = (1 - z_t) \odot h_{t-1} + z_t \odot \tilde{h}_t.
$$
这表明更新门 $z_t$ 决定了新信息 $\tilde{h}_t$ 与旧信息 $h_{t-1}$ 的比例。
### 公式
GRU 更新公式如下:
$$
\begin{aligned}
z_t &= \sigma(W_{xz} x_t + W_{hz} h_{t-1} + b_z), \\
r_t &= \sigma(W_{xr} x_t + W_{hr} h_{t-1} + b_r), \\
\tilde{h}_t &= \tanh(W_{xh} x_t + W_{hh}(r_t \odot h_{t-1}) + b_h), \\
h_t &= (1 - z_t) \odot h_{t-1} + z_t \odot \tilde{h}_t.
\end{aligned}
$$
## 长短时记忆网络LSTM
LSTM 是一种常用的循环神经网络变种,专门为解决标准 RNN 中的梯度消失问题而设计。它通过引入额外的“记忆单元”和多个门控机制,有效地控制信息的保存、遗忘和输出,从而捕捉长距离的依赖关系。
---
### 基本结构
LSTM 的核心在于其“细胞状态”cell state这是一个贯穿整个序列传递的信息流同时有三个主要的门gate来控制细胞状态的更新过程
1. **遗忘门 $f_t$**
决定当前时间步需要遗忘多少之前的记忆信息。
2. **输入门 $i_t$**
决定当前时间步有多少新的信息写入细胞状态。
3. **输出门 $o_t$**
决定当前时间步从细胞状态中输出多少信息作为隐藏状态。
此外,还引入了一个候选细胞状态 $\tilde{c}_t$ 用于更新细胞状态。
---
### 隐藏状态更新公式
对于**每个时间步** $t$LSTM 的更新过程通常可以写为以下公式(所有权重矩阵用 $W$ 和 $U$ 表示,各门的偏置为 $b$
$$
\begin{aligned}
\textbf{遗忘门:} \quad f_t = \sigma\Big(W_{xf}\, x_t + W_{hf}\, h_{t-1} + b_f\Big) \\
\textbf{输入门:} \quad i_t = \sigma\Big(W_{xi}\, x_t + W_{hi}\, h_{t-1} + b_i\Big) \\
\textbf{输出门:} \quad o_t = \sigma\Big(W_{xo}\, x_t + W_{ho}\, h_{t-1} + b_o\Big) \\\\
\textbf{候选细胞状态:} \quad \tilde{c}_t = \tanh\Big(W_{xc}\, x_t + W_{hc}\, h_{t-1} + b_c\Big) \\
\textbf{细胞状态更新:} \quad c_t = f_t \odot c_{t-1} + i_t \odot \tilde{c}_t \\
\textbf{隐藏状态:} \quad h_t = o_t \odot \tanh(c_t)
\end{aligned}
$$
**连续传递**
在时间步 $t$ 中计算出的隐藏状态 $h_t$ 会作为下一时间步 $t+1$ 的输入之一,与当前输入 $x_{t+1}$ 一起用于后续计算。这样,每个 $h_t$ 都包含了前面所有时间步的信息,从而实现信息的传递和累积。
**最终输出预测**
如果任务是做序列到单个输出(例如分类、回归等),通常最后一个时间步(即 $h_T$)会用作整个序列的表示,并作为最终的特征传递给预测层(如全连接层)进行输出预测。但需要注意的是,在一些任务中,比如序列标注或序列生成,每个时间步的隐藏状态都可能参与输出预测或进一步处理。
### 直观理解
- **细胞状态 $c_t$**
细胞状态是贯穿整个序列的“记忆通道”,负责长期保存信息。它像一条传送带,在不同时间步中线性传递,避免信息被频繁修改,**从而维持长期记忆**。
- **隐藏状态$h_t$**
代表的是当前时间步的输出或者说是短时记忆。它是基于当前输入以及细胞状态经过非线性激活处理后的结果,反映了对当前时刻输入信息的即时响应。
- **遗忘门 $f_t$**
用于丢弃上一时刻不再需要的信息。如果遗忘门输出接近 0说明遗忘了大部分过去的信息如果接近 1则保留大部分信息。
**类比**若模型遇到新段落遗忘门可能关闭输出接近0丢弃前一段的无关信息若需要延续上下文如故事主线则保持开启输出接近1
- **输入门 $i_t$ 和候选细胞状态 $\tilde{c}_t$**
输入门控制有多少候选信息被写入细胞状态。候选细胞状态是基于当前输入和上一时刻隐藏状态生成的新信息。
**类比**:阅读时遇到关键情节,输入门打开,将新信息写入长期记忆(如角色关系),同时候选状态 $\tilde{c}_t$提供新信息的候选内容。
- **输出门 $o_t$**
控制从细胞状态中输出多少信息作为当前时间步的隐藏状态。隐藏状态 $h_t$ 通常用于后续计算(例如,生成输出、参与下一时刻计算)。
**类比**:根据当前任务(如预测下一个词),输出门决定暴露细胞状态的哪部分(如只关注时间、地点等关键信息)。
### 双层或多层LSTM
双层 LSTM 是指将两个 LSTM 层堆叠在一起:
- **第一层 LSTM**
处理输入序列 $x_1, x_2, \ldots, x_T$ 后,生成每个时间步的隐藏状态 $h_t^{(1)}$。
- **第二层 LSTM**
以第一层输出的隐藏状态序列 $\{h_1^{(1)}, h_2^{(1)}, \ldots, h_T^{(1)}\}$ 作为输入,进一步计算新的隐藏状态 $h_t^{(2)}$。
作用与优势:
- **捕捉更复杂的模式**
- 第一层:提取低层次特征(如局部变化、短时依赖)。
- 第二层:整合低层特征,捕捉长距离依赖或抽象模式。
- **更强的表达能力**
通过多层堆叠,网络能建模更复杂的序列数据映射关系。
## 时序卷积网络TCN
TCN是一种专为处理序列数据设计的深度学习架构。它通过结合因果卷积、扩张卷积和残差连接解决了传统RNN和LSTM在并行化能力和梯度稳定性上的局限性。
**卷积操作**:与 RNN 逐步递归处理序列不同TCN 利用一维卷积一次性对整个序列进行并行处理,这使得训练时可以充分利用硬件的并行计算能力。
### 1. 因果卷积Causal Convolution
因果卷积确保模型在预测时刻$t$的数据时,仅使用$t$时刻之前的信息,避免未来数据泄漏。
因果卷积类似于一个滑动窗口(窗口大小=$k$),每次用当前和过去的$k-1$个值加权求和,生成当前时刻的输出。
通过以下调整保证因果性:
- **卷积核方向**:仅对当前及过去的时间步进行卷积。
- **填充Padding**:在输入序列的**左侧填充 $(k-1)$ 个零**$k$ 为卷积核大小),确保输出长度与输入一致,且不泄露未来信息。
**公式定义**
对于卷积核 $W \in \mathbb{R}^k$ 和输入 $X \in \mathbb{R}^T$,因果卷积的输出 $Y \in \mathbb{R}^T$ 为:
$$
Y_t = \sum_{i=0}^{k-1} W_i \cdot X_{t-i} \quad \text{(若 } t-i < 0 \text{ } X_{t-i}=0 \text{}
$$
**示例**
- 输入序列 $X$: `[x0, x1, x2, x3]`长度 $T=4$
- 卷积核 $W$: `[w0, w1, w2]`大小 $k=3$
- 输出 $Y$: `[y0, y1, y2, y3]`与输入长度相同
**输入填充**左侧补 k1=2*k*1=2 个零得到 `[0, 0, x0, x1, x2, x3]`
**通常卷积核需要翻转:**`[w2, w1, w0]`
1. **计算 $y_0$$t=0$**:
$$
y_0 = w0 \cdot x0 + w1 \cdot 0 + w2 \cdot 0 = w0 \cdot x0
$$
2. **计算 $y_1$$t=1$**:
$$
y_1 = w0 \cdot x1 + w1 \cdot x0 + w2 \cdot 0
$$
3. **计算 $y_2$$t=2$**:
$$
y_2 = w0 \cdot x2 + w1 \cdot x1 + w2 \cdot x0
$$
4. **计算 $y_3$$t=3$**:
$$
y_3 = w0 \cdot x3 + w1 \cdot x2 + w2 \cdot x1
$$
### 最终输出
$$
Y = \left[ w0 x0, \; w0 x1 + w1 x0, \; w0 x2 + w1 x1 + w2 x0, \; w0 x3 + w1 x2 + w2 x1 \right]
$$
### 2. 扩张卷积Dilated Convolution
通过**膨胀因子 $d$**在卷积核元素之间插入空洞间隔从而在不增加参数量的情况下**扩大感受野**。
- **传统卷积**$d=1$):连续覆盖 $k$ 个时间步 $X_t, X_{t-1}, X_{t-2}$)。
- **扩张卷积**$d>1$):跳跃式覆盖,跳过中间部分时间步(如 $X_t, X_{t-d}, X_{t-2d}$)。
**公式定义**
$$
Y_t = \sum_{i=0}^{k-1} W_i \cdot X_{t-d\cdot i} \quad
$$
### 3. 残差连接Residual Connection
TCN借鉴ResNet通过残差块缓解梯度消失问题。
**公式定义**
$$
\text{Output} = \sigma\bigl(F(x) + W_{1\times1} x \bigr)
$$
- $F(x)$:卷积层的输出
- $\sigma$激活函数通常为ReLU
- $W_{1\times1}$1×1卷积核用于调整输入$x$的维度
- $x$:原始输入