Tensorflow: Сохранение состояния оптимизатора (adagrad / momentum / и т. Д.)

Созданный на 14 нояб. 2016  ·  1Комментарий  ·  Источник: tensorflow/tensorflow

Привет всем,

На прошлой неделе я задал этот вопрос о stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Моя проблема в том, что я хочу сохранить состояние оптимизатора (в моем случае аккумуляторы adagrad), чтобы я мог остановить обучение и продолжить, когда захочу.

Если я не ошибаюсь, состояние оптимизатора не может быть сохранено (вы не можете передать оптимизатор в tf.train.Saver, верно?). Быстрое (хакерское?) Решение для меня может заключаться в вызове Optimizer.get_slot_names () и сохранении операции каждого слота.
Следующей проблемой будет возвращение этой операции в слоты, поскольку я не думаю, что на данный момент существует set_slot (name, op).

Итак, мои вопросы:

  • Я прав, что в настоящее время это невозможно?
  • Хотим ли мы иметь функцию set_slot (name, op) в классе Optimizer? (Я готов помочь с этим)
  • Хотим ли мы передать оптимизатор объекту Saver?

>Все замечания

Спасибо, что задали вопрос о stackoverflow, это лучшее место для этого. Состояние оптимизатора будет сохранено по умолчанию и не сохраняется только потому, что вы специально указываете хранителю, что нужно сохранить.

Была ли эта страница полезной?
0 / 5 - 0 рейтинги