Pytorch: Hapus peredam dari SGD

Dibuat pada 31 Agu 2016  ·  3Komentar  ·  Sumber: pytorch/pytorch

Saya pikir kita dapat menghapus parameter peredam dari SGD di sini https://github.com/pytorch/pytorch/blob/master/torch/optim/sgd.py#L10 , ini membingungkan dan mengubah momentum jika digunakan

Komentar yang paling membantu

Perubahan peredam default baru saja memukul saya :) Menghabiskan beberapa hari mencari tahu mengapa net porting berhenti mencapai tingkat akurasi yang tepat. Terima kasih @szagoruyko atas tipnya.

Sebelumnya, dengan momentum = 0.9 (dan 1 - dampening = 0.1 ), gradien lama 9x lebih penting daripada yang sekarang. Sekarang hanya 10% kurang penting ( 1 - dampening = 1 ).

Mungkin ini layak disebutkan di
http://pytorch.org/docs/optim.html atau di http://pytorch.org/tutorials/beginner/former_torchies_tutorial.html , karena kecepatan pembelajaran sekarang perlu disesuaikan saat mem-porting kode obor lua, meskipun ekspektasi naif.

Semua 3 komentar

mungkin setel nilai default ke 0 alih-alih momentum ?

Perubahan peredam default baru saja memukul saya :) Menghabiskan beberapa hari mencari tahu mengapa net porting berhenti mencapai tingkat akurasi yang tepat. Terima kasih @szagoruyko atas tipnya.

Sebelumnya, dengan momentum = 0.9 (dan 1 - dampening = 0.1 ), gradien lama 9x lebih penting daripada yang sekarang. Sekarang hanya 10% kurang penting ( 1 - dampening = 1 ).

Mungkin ini layak disebutkan di
http://pytorch.org/docs/optim.html atau di http://pytorch.org/tutorials/beginner/former_torchies_tutorial.html , karena kecepatan pembelajaran sekarang perlu disesuaikan saat mem-porting kode obor lua, meskipun ekspektasi naif.

Apakah halaman ini membantu?
0 / 5 - 0 peringkat