Tensorflow: 保存优化器状态(adagrad/momentum/等)

创建于 2016-11-14  ·  1评论  ·  资料来源: tensorflow/tensorflow

大家好,

上周我在 stackoverflow 上问了这个问题: https :
我的问题是我想保存优化器的状态(在我的例子中是 adagrad 累加器),这样我就可以停止学习并在需要时继续。

除非我弄错了优化器的状态不能被保存(你不能将优化器传递给 tf.train.Saver,对吧?)。 对我来说一个快速(hacky?)解决方案可能是调用 Optimizer.get_slot_names() 并保存每个插槽的操作。
下一个问题是将这个操作放回插槽中,因为我认为目前没有 set_slot(name,op) 。

所以我的问题是:

  • 我是对的,这目前是不可能的吗?
  • 我们想在优化器类中有一个 set_slot(name,op) 函数吗? (我愿意帮忙解决这个问题)
  • 我们是否希望能够将优化器传递给 Saver 对象?

>所有评论

感谢您在stackoverflow上提出问题,这是一个更好的地方。 优化器状态将默认保存,并且不会保存,因为您特别告诉保存器要保存什么。

此页面是否有帮助?
0 / 5 - 0 等级