聊聊RNN与Attention

RNN系列: 聊聊RNN&LSTM 聊聊RNN与seq2seq attention mechanism,称为注意力机制。基于Attention机制,seq2seq可以像a56爆大奖在线娱乐们人类一样,将“注意力”集中在必要的信息上。 Attention的结构 seq2seq存在的问题 seq2seq中使用编码器对时序
posted @ 2023-11-01 11:34  又见阿郎  阅读(113)  评论(0编辑  收藏  举报