أهلا جميعا،
لقد طرحت هذا السؤال في الأسبوع الماضي على stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
مشكلتي هي أنني أريد حفظ حالة المُحسِّن (في حالتي ، تراكم adagrad) حتى أتمكن من إيقاف تعليمي والمتابعة متى أردت.
ما لم أكن مخطئًا ، لا يمكن حفظ حالة المُحسِّن (لا يمكنك تمرير مُحسِّن إلى tf.train.Saver ، أليس كذلك؟). قد يكون الحل السريع (الاختراق؟) بالنسبة لي هو استدعاء Optimizer.get_slot_names () وحفظ مرجع كل فتحة.
ستكون المشكلة التالية هي إعادة هذا المرجع إلى الفتحات ، حيث لا أعتقد أن هناك set_slot (الاسم ، المرجع) في الوقت الحالي.
لذا فإن أسئلتي هي:
شكرًا لك على طرح السؤال حول Stackoverflow ، وهو مكان أفضل له. سيتم حفظ حالة المحسن افتراضيًا ، ولن يتم حفظها فقط لأنك تخبر المدخر على وجه التحديد بما يجب حفظه.