Tensorflow: 获得注意力激活以可视化 Seq2Seq 中的注意力

创建于 2016-03-27  ·  3评论  ·  资料来源: tensorflow/tensorflow

所有注意力论文都对某些输入的注意力权重进行了一些可视化。 有没有人能够通过translate.py的 Seq2Seq 注意力解码器模型运行样本并获得注意力激活来进行这样的可视化?

最有用的评论

链接已损坏。 什么是正确的链接?

所有3条评论

注意掩码可在此处用作张量:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

在运行调用期间将其取出并可视化应该很容易。 您可以尝试将其发布到 StackOverflow,以查看普通社区中是否有人完成了此可视化。 我正在关闭这个问题,因为我们在 TensorFlow 中有所需的功能。

链接已损坏。 什么是正确的链接?

同样的问题

此页面是否有帮助?
0 / 5 - 0 等级