02nlp

非常抽象的课,关于rnn

理解难度很大

  • NN:建立了“记忆”传递的基础架构,但受限于梯度消失与长序列处理能力;

  • LSTM:引入复杂的门控机制(遗忘/输入/输出门)与双状态($h_0, c_0$),有效攻克长距离依赖;

  • GRU:简化 LSTM 结构,通过合并状态与优化门控(更新/重置门)提升效率。

     

发表评论