Tensorflow: Obtenir des activations d'attention pour visualiser l'attention dans Seq2Seq

Créé le 27 mars 2016  ·  3Commentaires  ·  Source: tensorflow/tensorflow

Tous les documents d'attention comportent une visualisation des poids d'attention sur certaines entrées. Quelqu'un a-t-il pu exécuter un échantillon via le modèle Seq2Seq Attention Decoder dans translate.py et obtenir les activations d'attention pour effectuer une telle visualisation ?

Commentaire le plus utile

Le lien est rompu. Quel est le bon lien ?

Tous les 3 commentaires

Le masque d'attention est disponible en tant que tenseur ici :
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

Il devrait être facile de le récupérer lors d'un appel d'exécution et de le visualiser. Vous pouvez essayer de publier ceci sur StackOverflow pour voir si quelqu'un dans la communauté en général a fait cette visualisation. Je ferme ce problème, car nous avons la fonctionnalité requise dans TensorFlow.

Le lien est rompu. Quel est le bon lien ?

même problème

Cette page vous a été utile?
0 / 5 - 0 notes