تحتوي جميع أوراق الانتباه على بعض التصور لأوزان الانتباه على بعض المدخلات. هل تمكن أي شخص من تشغيل عينة من خلال نموذج Seq2Seq Attention Decoder في translate.py
والحصول على تنشيط الانتباه للقيام بمثل هذا التصور؟
قناع الانتباه متاح هنا كموتّر:
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/python/ops/seq2seq.py#L522
يجب أن يكون من السهل إحضارها أثناء إجراء مكالمة وتصورها. يمكنك محاولة نشر هذا على StackOverflow لمعرفة ما إذا كان شخص ما في المجتمع العام قد قام بهذا التصور. أقوم بإغلاق هذه المشكلة ، نظرًا لأن لدينا الوظائف المطلوبة في TensorFlow.
الارتباط معطل. ما هو الرابط الصحيح؟
نفس المشكلة
التعليق الأكثر فائدة
الارتباط معطل. ما هو الرابط الصحيح؟