Tensorflow: تنشيط التنشيط لتصور الانتباه في Seq2Seq

تم إنشاؤها على ٢٧ مارس ٢٠١٦  ·  3تعليقات  ·  مصدر: tensorflow/tensorflow

تحتوي جميع أوراق الانتباه على بعض التصور لأوزان الانتباه على بعض المدخلات. هل تمكن أي شخص من تشغيل عينة من خلال نموذج Seq2Seq Attention Decoder في translate.py والحصول على تنشيط الانتباه للقيام بمثل هذا التصور؟

التعليق الأكثر فائدة

الارتباط معطل. ما هو الرابط الصحيح؟

ال 3 كومينتر

قناع الانتباه متاح هنا كموتّر:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522

يجب أن يكون من السهل إحضارها أثناء إجراء مكالمة وتصورها. يمكنك محاولة نشر هذا على StackOverflow لمعرفة ما إذا كان شخص ما في المجتمع العام قد قام بهذا التصور. أقوم بإغلاق هذه المشكلة ، نظرًا لأن لدينا الوظائف المطلوبة في TensorFlow.

الارتباط معطل. ما هو الرابط الصحيح؟

نفس المشكلة

هل كانت هذه الصفحة مفيدة؟
0 / 5 - 0 التقييمات