Tensorflow: Mendapatkan Aktivasi Perhatian untuk Memvisualisasikan Perhatian di Seq2Seq

Dibuat pada 27 Mar 2016  ·  3Komentar  ·  Sumber: tensorflow/tensorflow

Semua makalah perhatian menampilkan beberapa visualisasi bobot perhatian pada beberapa masukan. Adakah yang bisa menjalankan sampel melalui model Decoder Perhatian Seq2Seq di translate.py dan mendapatkan aktivasi perhatian untuk melakukan visualisasi seperti itu?

Komentar yang paling membantu

Tautannya rusak. Apa tautan yang benar?

Semua 3 komentar

Masker perhatian tersedia sebagai tensor di sini:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

Seharusnya mudah untuk mengambilnya saat menjalankan panggilan dan memvisualisasikannya. Anda dapat mencoba memposting ini ke StackOverflow untuk melihat apakah seseorang di komunitas umum telah melakukan visualisasi ini. Saya menutup masalah ini, karena kami memiliki fungsi yang diperlukan di TensorFlow.

Tautannya rusak. Apa tautan yang benar?

permasalahan yang sama

Apakah halaman ini membantu?
0 / 5 - 0 peringkat