Semua makalah perhatian menampilkan beberapa visualisasi bobot perhatian pada beberapa masukan. Adakah yang bisa menjalankan sampel melalui model Decoder Perhatian Seq2Seq di translate.py
dan mendapatkan aktivasi perhatian untuk melakukan visualisasi seperti itu?
Masker perhatian tersedia sebagai tensor di sini:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
Seharusnya mudah untuk mengambilnya saat menjalankan panggilan dan memvisualisasikannya. Anda dapat mencoba memposting ini ke StackOverflow untuk melihat apakah seseorang di komunitas umum telah melakukan visualisasi ini. Saya menutup masalah ini, karena kami memiliki fungsi yang diperlukan di TensorFlow.
Tautannya rusak. Apa tautan yang benar?
permasalahan yang sama
Komentar yang paling membantu
Tautannya rusak. Apa tautan yang benar?