Ei todo mundo,
Na semana passada, fiz esta pergunta no stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Meu problema é que eu quero salvar o estado do otimizador (no meu caso, os acumuladores adagrad) para que eu possa parar meu aprendizado e continuar quando eu quiser.
A menos que eu esteja enganado, o estado do otimizador não pode ser salvo (você não pode passar um otimizador para um tf.train.Saver, certo?). Uma solução rápida (hacky?) Para mim pode ser chamar Optimizer.get_slot_names () e salvar a operação de cada slot.
O próximo problema seria colocar esse op de volta nos slots, pois não acho que haja um set_slot (name, op) no momento.
Então, minhas perguntas são:
Obrigado por fazer a pergunta sobre stackoverflow, que é um lugar melhor para isso. O estado do otimizador será salvo por padrão e só não é salvo porque você está dizendo especificamente ao protetor o que salvar.