أعتقد أنه يمكننا إزالة معلمة الترطيب من SGD هنا https://github.com/pytorch/pytorch/blob/master/torch/optim/sgd.py#L10 ، فهي مربكة وتغير الزخم إذا تم استخدامها
ربما تعيين القيمة الافتراضية إلى 0 بدلاً من momentum
؟
جعله الافتراضي إلى 0.
تم إصلاحه عبر https://github.com/pytorch/pytorch/commit/4eb12a26bc5e3671c03f154f61076fd72fcfd233
لقد أصابني هذا التغيير في التخميد الافتراضي :) قضيت بضعة أيام في معرفة سبب توقف الشبكة المنقولة عن الوصول إلى مستويات الدقة الصحيحة. شكرا szagoruyko للمعلومات .
في السابق ، مع الزخم = 0.9 (و 1 - dampening = 0.1
) ، كان التدرج القديم أكثر أهمية بمقدار 9 مرات من التدرج الحالي. الآن أصبحت أقل أهمية بنسبة 10٪ فقط ( 1 - dampening = 1
).
ربما هذا جدير بالذكر في
http://pytorch.org/docs/optim.html أو في http://pytorch.org/tutorials/beginner/former_torchies_tutorial.html ، نظرًا لأن معدلات التعلم تحتاج الآن إلى التعديل عند نقل كود lua Torch ، على الرغم من التوقعات الساذجة.
التعليق الأكثر فائدة
لقد أصابني هذا التغيير في التخميد الافتراضي :) قضيت بضعة أيام في معرفة سبب توقف الشبكة المنقولة عن الوصول إلى مستويات الدقة الصحيحة. شكرا szagoruyko للمعلومات .
في السابق ، مع الزخم = 0.9 (و
1 - dampening = 0.1
) ، كان التدرج القديم أكثر أهمية بمقدار 9 مرات من التدرج الحالي. الآن أصبحت أقل أهمية بنسبة 10٪ فقط (1 - dampening = 1
).ربما هذا جدير بالذكر في
http://pytorch.org/docs/optim.html أو في http://pytorch.org/tutorials/beginner/former_torchies_tutorial.html ، نظرًا لأن معدلات التعلم تحتاج الآن إلى التعديل عند نقل كود lua Torch ، على الرغم من التوقعات الساذجة.