非常抽象的课,关于rnn
理解难度很大
-
NN:建立了“记忆”传递的基础架构,但受限于梯度消失与长序列处理能力;
-
LSTM:引入复杂的门控机制(遗忘/输入/输出门)与双状态($h_0, c_0$),有效攻克长距离依赖;
- GRU:简化 LSTM 结构,通过合并状态与优化门控(更新/重置门)提升效率。
非常抽象的课,关于rnn
理解难度很大
NN:建立了“记忆”传递的基础架构,但受限于梯度消失与长序列处理能力;
LSTM:引入复杂的门控机制(遗忘/输入/输出门)与双状态($h_0, c_0$),有效攻克长距离依赖;