Hola a todos,
La semana pasada hice esta pregunta en stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Mi problema es que quiero guardar el estado del optimizador (en mi caso los acumuladores adagrad) para poder detener mi aprendizaje y continuar cuando quiera.
A menos que me equivoque, el estado del optimizador no se puede guardar (no puede pasar un optimizador a un tf.train.Saver, ¿verdad?). Una solución rápida (¿hacky?) Para mí podría ser llamar a Optimizer.get_slot_names () y guardar la operación de cada ranura.
El siguiente problema sería volver a colocar esta operación en las ranuras, ya que no creo que haya un set_slot (nombre, operación) en este momento.
Entonces mis preguntas son:
Gracias por hacer la pregunta sobre stackoverflow, que es un mejor lugar para hacerlo. El estado del optimizador se guardará de forma predeterminada y solo no se guardará porque le está diciendo específicamente al ahorrador qué debe guardar.