所有注意力论文都对某些输入的注意力权重进行了一些可视化。 有没有人能够通过translate.py
的 Seq2Seq 注意力解码器模型运行样本并获得注意力激活来进行这样的可视化?
注意掩码可在此处用作张量:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
在运行调用期间将其取出并可视化应该很容易。 您可以尝试将其发布到 StackOverflow,以查看普通社区中是否有人完成了此可视化。 我正在关闭这个问题,因为我们在 TensorFlow 中有所需的功能。
链接已损坏。 什么是正确的链接?
同样的问题
最有用的评论
链接已损坏。 什么是正确的链接?