Todos los artículos de atención presentan alguna visualización de los pesos de atención en alguna entrada. ¿Alguien ha podido ejecutar una muestra a través del modelo de decodificador de atención Seq2Seq en translate.py
y obtener las activaciones de atención para hacer tal visualización?
La máscara de atención está disponible como tensor aquí:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
Debería ser fácil recuperarlo durante una llamada de ejecución y visualizarlo. Puede intentar publicar esto en StackOverflow para ver si alguien de la comunidad general ha realizado esta visualización. Estoy cerrando este problema, ya que tenemos la funcionalidad requerida en TensorFlow.
El vínculo está roto. ¿Cuál es el enlace correcto?
el mismo problema
Comentario más útil
El vínculo está roto. ¿Cuál es el enlace correcto?