みなさん、こんにちは。
先週、stackoverflowでこの質問をしました: https :
私の問題は、オプティマイザー(私の場合はadagradアキュムレーター)の状態を保存して、学習を停止し、いつでも続行できるようにすることです。
間違えない限り、オプティマイザーの状態を保存することはできません(オプティマイザーをtf.train.Saverに渡すことはできませんよね?)。 私にとっての簡単な(ハッキー?)解決策は、Optimizer.get_slot_names()を呼び出して、各スロットの操作を保存することです。
次の問題は、現時点ではset_slot(name、op)がないと思うので、このopをスロットに戻すことです。
だから私の質問は:
より良い場所であるstackoverflowについて質問していただきありがとうございます。 オプティマイザーの状態はデフォルトで保存されますが、何を保存するかをセーバーに具体的に指示しているため、保存されません。