Tensorflow: Activaciones de atención para visualizar la atención en Seq2Seq

Creado en 27 mar. 2016  ·  3Comentarios  ·  Fuente: tensorflow/tensorflow

Todos los artículos de atención presentan alguna visualización de los pesos de atención en alguna entrada. ¿Alguien ha podido ejecutar una muestra a través del modelo de decodificador de atención Seq2Seq en translate.py y obtener las activaciones de atención para hacer tal visualización?

Comentario más útil

El vínculo está roto. ¿Cuál es el enlace correcto?

Todos 3 comentarios

La máscara de atención está disponible como tensor aquí:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

Debería ser fácil recuperarlo durante una llamada de ejecución y visualizarlo. Puede intentar publicar esto en StackOverflow para ver si alguien de la comunidad general ha realizado esta visualización. Estoy cerrando este problema, ya que tenemos la funcionalidad requerida en TensorFlow.

El vínculo está roto. ¿Cuál es el enlace correcto?

el mismo problema

¿Fue útil esta página
0 / 5 - 0 calificaciones