Tensorflow: Seq2Seqで注意を視覚化するための注意アクティベーションの取得

作成日 2016年03月27日  ·  3コメント  ·  ソース: tensorflow/tensorflow

すべてのアテンションペーパーは、いくつかの入力に対するアテンションウェイトの視覚化を特徴としています。 translate.pyでSeq2Seq Attention Decoderモデルを介してサンプルを実行し、そのような視覚化を行うためにアテンションアクティベーションを取得できる人はいますか?

最も参考になるコメント

リンクが壊れています。 正しいリンクは何ですか?

全てのコメント3件

アテンションマスクはここでテンソルとして利用できます:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

実行呼び出し中にそれを取り出して視覚化するのは簡単なはずです。 これをStackOverflowに投稿して、一般コミュニティの誰かがこの視覚化を行ったかどうかを確認できます。 TensorFlowに必要な機能があるため、この問題を解決します。

リンクが壊れています。 正しいリンクは何ですか?

同じ問題

このページは役に立ちましたか?
0 / 5 - 0 評価