Tensorflow: Sauvegarde de l'état de l'optimiseur (adagrad / momentum / etc.)

Créé le 14 nov. 2016  ·  1Commentaire  ·  Source: tensorflow/tensorflow

Salut tout le monde,

La semaine dernière, j'ai posé cette question sur stackoverflow : https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Mon problème est que je veux sauvegarder l'état de l'optimiseur (dans mon cas les accumulateurs adagrad) pour pouvoir arrêter mon apprentissage et continuer quand je veux.

Sauf erreur, l'état de l'optimiseur ne peut pas être enregistré (vous ne pouvez pas passer un optimiseur à un tf.train.Saver, n'est-ce pas ?). Une solution rapide (hacky?) Pour moi, pourrait être d'appeler Optimizer.get_slot_names () et d'enregistrer l'opération de chaque emplacement.
Le prochain problème serait de remettre cette op dans les slots, car je ne pense pas qu'il y ait un set_slot(name,op) pour le moment.

Alors mes questions sont :

  • Ai-je raison de dire que c'est actuellement impossible?
  • Voulons-nous avoir une fonction set_slot(name,op) dans la classe Optimizer ? (Je suis prêt à aider avec cela)
  • Voulons-nous pouvoir passer un optimiseur à un objet Saver ?

>Tous les commentaires

Merci d'avoir posé la question sur stackoverflow, qui est un meilleur endroit pour cela. L'état de l'optimiseur sera enregistré par défaut et n'est pas enregistré uniquement parce que vous indiquez spécifiquement à l'économiseur ce qu'il doit enregistrer.

Cette page vous a été utile?
0 / 5 - 0 notes