Tous les documents d'attention comportent une visualisation des poids d'attention sur certaines entrées. Quelqu'un a-t-il pu exécuter un échantillon via le modèle Seq2Seq Attention Decoder dans translate.py
et obtenir les activations d'attention pour effectuer une telle visualisation ?
Le masque d'attention est disponible en tant que tenseur ici :
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
Il devrait être facile de le récupérer lors d'un appel d'exécution et de le visualiser. Vous pouvez essayer de publier ceci sur StackOverflow pour voir si quelqu'un dans la communauté en général a fait cette visualisation. Je ferme ce problème, car nous avons la fonctionnalité requise dans TensorFlow.
Le lien est rompu. Quel est le bon lien ?
même problème
Commentaire le plus utile
Le lien est rompu. Quel est le bon lien ?