大家好,
上周我在 stackoverflow 上问了这个问题: https :
我的问题是我想保存优化器的状态(在我的例子中是 adagrad 累加器),这样我就可以停止学习并在需要时继续。
除非我弄错了优化器的状态不能被保存(你不能将优化器传递给 tf.train.Saver,对吧?)。 对我来说一个快速(hacky?)解决方案可能是调用 Optimizer.get_slot_names() 并保存每个插槽的操作。
下一个问题是将这个操作放回插槽中,因为我认为目前没有 set_slot(name,op) 。
所以我的问题是:
感谢您在stackoverflow上提出问题,这是一个更好的地方。 优化器状态将默认保存,并且不会保存,因为您特别告诉保存器要保存什么。