Tensorflow: Aufmerksamkeitsaktivierungen erhalten, um Aufmerksamkeit in Seq2Seq . zu visualisieren

Erstellt am 27. März 2016  ·  3Kommentare  ·  Quelle: tensorflow/tensorflow

Alle Aufmerksamkeitspapiere enthalten eine Visualisierung der Aufmerksamkeitsgewichte bei einigen Eingaben. Konnte jemand ein Beispiel durch das Seq2Seq-Aufmerksamkeits-Decoder-Modell in translate.py laufen lassen und die Aufmerksamkeitsaktivierungen erhalten, um eine solche Visualisierung durchzuführen?

Hilfreichster Kommentar

Der Link ist kaputt. Was ist der richtige Link?

Alle 3 Kommentare

Die Aufmerksamkeitsmaske steht hier als Tensor zur Verfügung:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

Es sollte einfach sein, es während eines Laufaufrufs herauszuholen und zu visualisieren. Sie können versuchen, dies in StackOverflow zu posten, um zu sehen, ob jemand in der allgemeinen Community diese Visualisierung durchgeführt hat. Ich schließe dieses Problem, da wir die erforderliche Funktionalität in TensorFlow haben.

Der Link ist kaputt. Was ist der richtige Link?

gleiches Problem

War diese Seite hilfreich?
0 / 5 - 0 Bewertungen