Alle Aufmerksamkeitspapiere enthalten eine Visualisierung der Aufmerksamkeitsgewichte bei einigen Eingaben. Konnte jemand ein Beispiel durch das Seq2Seq-Aufmerksamkeits-Decoder-Modell in translate.py
laufen lassen und die Aufmerksamkeitsaktivierungen erhalten, um eine solche Visualisierung durchzuführen?
Die Aufmerksamkeitsmaske steht hier als Tensor zur Verfügung:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
Es sollte einfach sein, es während eines Laufaufrufs herauszuholen und zu visualisieren. Sie können versuchen, dies in StackOverflow zu posten, um zu sehen, ob jemand in der allgemeinen Community diese Visualisierung durchgeführt hat. Ich schließe dieses Problem, da wir die erforderliche Funktionalität in TensorFlow haben.
Der Link ist kaputt. Was ist der richtige Link?
gleiches Problem
Hilfreichster Kommentar
Der Link ist kaputt. Was ist der richtige Link?