摘要: attention_mechanism = tf.contrib.seq2seq.BahdanauAttention(num_units=FLAGS.rnn_hidden_size, memory = encoder_outputs, memory_sequence_length = encoder 阅读全文
posted @ 2018-01-04 20:08 dmesg 阅读(3169) 评论(0) 推荐(0) 编辑
摘要: multi lstm attention时序之间,inputs维度是1024,加上attention之后维度是2018,输出1024,时序之间下次再转成2048的inputs 但是如果使用multi lstm的话inputs维度是1024,加上attention之后维度是2018,输出1024,这个 阅读全文
posted @ 2018-01-04 17:11 dmesg 阅读(633) 评论(0) 推荐(0) 编辑