Tensorflow: حفظ حالة المحسن (adagrad / الزخم / إلخ.)

تم إنشاؤها على ١٤ نوفمبر ٢٠١٦  ·  1تعليق  ·  مصدر: tensorflow/tensorflow

أهلا جميعا،

لقد طرحت هذا السؤال في الأسبوع الماضي على stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
مشكلتي هي أنني أريد حفظ حالة المُحسِّن (في حالتي ، تراكم adagrad) حتى أتمكن من إيقاف تعليمي والمتابعة متى أردت.

ما لم أكن مخطئًا ، لا يمكن حفظ حالة المُحسِّن (لا يمكنك تمرير مُحسِّن إلى tf.train.Saver ، أليس كذلك؟). قد يكون الحل السريع (الاختراق؟) بالنسبة لي هو استدعاء Optimizer.get_slot_names () وحفظ مرجع كل فتحة.
ستكون المشكلة التالية هي إعادة هذا المرجع إلى الفتحات ، حيث لا أعتقد أن هناك set_slot (الاسم ، المرجع) في الوقت الحالي.

لذا فإن أسئلتي هي:

  • هل أنا محق في أن هذا مستحيل حاليًا؟
  • هل نريد أن يكون لدينا set_slot (name، op) وظيفة في فئة Optimizer؟ (أنا على استعداد للمساعدة في هذا)
  • هل نريد أن نكون قادرين على تمرير مُحسِّن إلى كائن Saver؟

>كل التعليقات

شكرًا لك على طرح السؤال حول Stackoverflow ، وهو مكان أفضل له. سيتم حفظ حالة المحسن افتراضيًا ، ولن يتم حفظها فقط لأنك تخبر المدخر على وجه التحديد بما يجب حفظه.

هل كانت هذه الصفحة مفيدة؟
0 / 5 - 0 التقييمات