Tensorflow: Salvando estado do otimizador (adagrad / momentum / etc.)

Criado em 14 nov. 2016  ·  1Comentário  ·  Fonte: tensorflow/tensorflow

Ei todo mundo,

Na semana passada, fiz esta pergunta no stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Meu problema é que eu quero salvar o estado do otimizador (no meu caso, os acumuladores adagrad) para que eu possa parar meu aprendizado e continuar quando eu quiser.

A menos que eu esteja enganado, o estado do otimizador não pode ser salvo (você não pode passar um otimizador para um tf.train.Saver, certo?). Uma solução rápida (hacky?) Para mim pode ser chamar Optimizer.get_slot_names () e salvar a operação de cada slot.
O próximo problema seria colocar esse op de volta nos slots, pois não acho que haja um set_slot (name, op) no momento.

Então, minhas perguntas são:

  • Estou certo de que isso é impossível atualmente?
  • Queremos ter uma função set_slot (nome, op) na classe Optimizer? (Estou disposto a ajudar com isso)
  • Queremos passar um otimizador para um objeto Saver?

>Todos os comentários

Obrigado por fazer a pergunta sobre stackoverflow, que é um lugar melhor para isso. O estado do otimizador será salvo por padrão e só não é salvo porque você está dizendo especificamente ao protetor o que salvar.

Esta página foi útil?
0 / 5 - 0 avaliações