Tensorflow: オプティマイザーの状態の保存(adagrad / momentumなど)

作成日 2016年11月14日  ·  1コメント  ·  ソース: tensorflow/tensorflow

みなさん、こんにちは。

先週、stackoverflowでこの質問をしました: https
私の問題は、オプティマイザー(私の場合はadagradアキュムレーター)の状態を保存して、学習を停止し、いつでも続行できるようにすることです。

間違えない限り、オプティマイザーの状態を保存することはできません(オプティマイザーをtf.train.Saverに渡すことはできませんよね?)。 私にとっての簡単な(ハッキー?)解決策は、Optimizer.get_slot_names()を呼び出して、各スロットの操作を保存することです。
次の問題は、現時点ではset_slot(name、op)がないと思うので、このopをスロットに戻すことです。

だから私の質問は:

  • これは現在不可能だと私は正しいですか?
  • オプティマイザークラスにset_slot(name、op)関数が必要ですか? (私はこれを手伝うつもりです)
  • オプティマイザーをセーバーオブジェクトに渡せるようにしたいですか?

>すべてのコメント

より良い場所であるstackoverflowについて質問していただきありがとうございます。 オプティマイザーの状態はデフォルトで保存されますが、何を保存するかをセーバーに具体的に指示しているため、保存されません。

このページは役に立ちましたか?
0 / 5 - 0 評価