Привет всем,
На прошлой неделе я задал этот вопрос о stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Моя проблема в том, что я хочу сохранить состояние оптимизатора (в моем случае аккумуляторы adagrad), чтобы я мог остановить обучение и продолжить, когда захочу.
Если я не ошибаюсь, состояние оптимизатора не может быть сохранено (вы не можете передать оптимизатор в tf.train.Saver, верно?). Быстрое (хакерское?) Решение для меня может заключаться в вызове Optimizer.get_slot_names () и сохранении операции каждого слота.
Следующей проблемой будет возвращение этой операции в слоты, поскольку я не думаю, что на данный момент существует set_slot (name, op).
Итак, мои вопросы:
Спасибо, что задали вопрос о stackoverflow, это лучшее место для этого. Состояние оптимизатора будет сохранено по умолчанию и не сохраняется только потому, что вы специально указываете хранителю, что нужно сохранить.