Tensorflow: Ahorro del estado del optimizador (adagrad / momentum / etc.)

Creado en 14 nov. 2016  ·  1Comentario  ·  Fuente: tensorflow/tensorflow

Hola a todos,

La semana pasada hice esta pregunta en stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Mi problema es que quiero guardar el estado del optimizador (en mi caso los acumuladores adagrad) para poder detener mi aprendizaje y continuar cuando quiera.

A menos que me equivoque, el estado del optimizador no se puede guardar (no puede pasar un optimizador a un tf.train.Saver, ¿verdad?). Una solución rápida (¿hacky?) Para mí podría ser llamar a Optimizer.get_slot_names () y guardar la operación de cada ranura.
El siguiente problema sería volver a colocar esta operación en las ranuras, ya que no creo que haya un set_slot (nombre, operación) en este momento.

Entonces mis preguntas son:

  • ¿Tengo razón en que esto es imposible actualmente?
  • ¿Queremos tener una función set_slot (name, op) en la clase Optimizer? (Estoy dispuesto a ayudar con esto)
  • ¿Queremos poder pasar un optimizador a un objeto Saver?

>Todos los comentarios

Gracias por hacer la pregunta sobre stackoverflow, que es un mejor lugar para hacerlo. El estado del optimizador se guardará de forma predeterminada y solo no se guardará porque le está diciendo específicamente al ahorrador qué debe guardar.

¿Fue útil esta página
0 / 5 - 0 calificaciones