すべてのアテンションペーパーは、いくつかの入力に対するアテンションウェイトの視覚化を特徴としています。 translate.py
でSeq2Seq Attention Decoderモデルを介してサンプルを実行し、そのような視覚化を行うためにアテンションアクティベーションを取得できる人はいますか?
アテンションマスクはここでテンソルとして利用できます:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
実行呼び出し中にそれを取り出して視覚化するのは簡単なはずです。 これをStackOverflowに投稿して、一般コミュニティの誰かがこの視覚化を行ったかどうかを確認できます。 TensorFlowに必要な機能があるため、この問題を解決します。
リンクが壊れています。 正しいリンクは何ですか?
同じ問題
最も参考になるコメント
リンクが壊れています。 正しいリンクは何ですか?