Tensorflow: Menyimpan status pengoptimal (adagrad / momentum / dll.)

Dibuat pada 14 Nov 2016  ·  1Komentar  ·  Sumber: tensorflow/tensorflow

Hei semuanya,

Minggu lalu saya mengajukan pertanyaan ini pada stackoverflow: https://stackoverflow.com/questions/40547198/saving-the-state-of-the-adagrad-algorithm-in-tensorflow .
Masalah saya adalah saya ingin menyimpan status pengoptimal (dalam kasus saya akumulator adagrad) sehingga saya dapat menghentikan pembelajaran saya dan melanjutkan kapan pun saya mau.

Kecuali jika saya salah, status pengoptimal tidak dapat disimpan (Anda tidak dapat meneruskan pengoptimal ke tf.train.Saver, kan?). Solusi cepat (retas?) bagi saya mungkin adalah memanggil Optimizer.get_slot_names() dan menyimpan operasi setiap slot.
Masalah selanjutnya adalah mengembalikan op ini ke dalam slot, karena menurut saya tidak ada set_slot(name,op) saat ini.

Jadi pertanyaan saya adalah:

  • Apakah saya benar bahwa saat ini tidak mungkin?
  • Apakah kita ingin memiliki fungsi set_slot(name,op) di kelas Optimizer? (Saya bersedia membantu dengan ini)
  • Apakah kita ingin dapat meneruskan pengoptimal ke objek Saver?

>Semua komentar

Terima kasih telah mengajukan pertanyaan tentang stackoverflow, yang merupakan tempat yang lebih baik untuk itu. Status pengoptimal akan disimpan secara default, dan hanya tidak disimpan karena Anda secara khusus memberi tahu penghemat apa yang harus disimpan.

Apakah halaman ini membantu?
0 / 5 - 0 peringkat