Detectron: ناتج التدريب

تم إنشاؤها على ٨ مارس ٢٠١٨  ·  4تعليقات  ·  مصدر: facebookresearch/Detectron

{"دقة_كلس": 0.923639 ،
"إيتا": "يوم واحد ، 13:30:44"،
"iter": 120000،
"الخسارة": 0.562384 ،
"loss_bbox": 0.107754 ،
"loss_cls": 0.243266 ،
"loss_rpn_bbox": 0.085141 ،
"loss_rpn_cls": 0.100456 ،
"lr": 0.010000،
"mb_qsize": 64 ،
"mem": 6407 ،
"الوقت": 0.562685}

س 1 ما معنى دقّة_كلس “mb_qsize” ميم “”?
Q2 : "loss_bbox": 0.107754 + "loss_cls": 0.243266 + "loss_cls": 0.243266 + "loss_rpn_bbox": 0.085141 + "loss_rpn_cls": 0.100456 = 0.536617 ، ألا يساوي "الخسارة": 0.562384؟

التعليق الأكثر فائدة

accuracy_cls هي دقة التصنيف على مجموعات العائد على الاستثمار الصغيرة التي شوهدت في التدريب. لاحظ أن هذه متوازنة بنسبة 1: 3 f oreground: الخلفية افتراضيًا ، لذلك إذا كانت الشبكة تخمن الخلفية فقط ، فستكون دقتها 75٪ (وهذا لا يعني أنها جيدة).

mb_qsize هو حجم قائمة انتظار إخراج محمل البيانات. يجب أن يكون هذا قريبًا من 64 (ممتلئًا) معظم الوقت. إذا انخفض إلى 0 ، فسيتم توقف وحدات معالجة الرسومات في انتظار البيانات.

mem هو الحد الأقصى لمقدار ذاكرة GPU على وحدة معالجة رسومات واحدة يستخدمها caffe2 (لاحظ أن هذا لا يعكس بعض استخدام ذاكرة GPU خارج ما يمكن لـ caffe2 تتبعه ، على سبيل المثال ، cudnn caches ، وما إلى ذلك).

مجموع الخسائر لا يساوي الخسارة الإجمالية لأن كل قيمة مسجلة يتم ترشيحها بشكل منفصل لتنعيم قيم المخرجات المعروضة.

ال 4 كومينتر

accuracy_cls هي دقة التصنيف على مجموعات العائد على الاستثمار الصغيرة التي شوهدت في التدريب. لاحظ أن هذه متوازنة بنسبة 1: 3 f oreground: الخلفية افتراضيًا ، لذلك إذا كانت الشبكة تخمن الخلفية فقط ، فستكون دقتها 75٪ (وهذا لا يعني أنها جيدة).

mb_qsize هو حجم قائمة انتظار إخراج محمل البيانات. يجب أن يكون هذا قريبًا من 64 (ممتلئًا) معظم الوقت. إذا انخفض إلى 0 ، فسيتم توقف وحدات معالجة الرسومات في انتظار البيانات.

mem هو الحد الأقصى لمقدار ذاكرة GPU على وحدة معالجة رسومات واحدة يستخدمها caffe2 (لاحظ أن هذا لا يعكس بعض استخدام ذاكرة GPU خارج ما يمكن لـ caffe2 تتبعه ، على سبيل المثال ، cudnn caches ، وما إلى ذلك).

مجموع الخسائر لا يساوي الخسارة الإجمالية لأن كل قيمة مسجلة يتم ترشيحها بشكل منفصل لتنعيم قيم المخرجات المعروضة.

هذا رائع!

أي تفسير أم طبيعي أن ينمو بهذه السرعة؟

json_stats: {"duration_cls": 0.351562، "eta": "121 days، 0:34:07"، "iter": 0، "loss": 6.128010، "loss_bbox": 0.007976، "loss_cls": 3.535384، "loss_rpn_bbox_fpn2 ": 0.000000،" loss_rpn_bbox_fpn3 ": 0.000000،" loss_rpn_bbox_fpn4 ": 0.000000،" loss_rpn_bbox_fpn5 ": 0.063088،" loss_rpn_bbox_fpn6 ": 0.000000،" loss_rpn_cls_fpn2 ": 2.373329،" loss_rpn_cls_fpn3 ": 0.110721،" loss_rpn_cls_fpn4 ": 0.032310،" loss_rpn_cls_fpn5 ": 0.005202، "loss_rpn_cls_fpn6": 0.000000، "lr": 0.000333، "mb_qsize": 64، "mem": 2965، "time": 174.274131}

I0409 23: 48: 21.545917 14708 Context_gpu.cu:305] GPU 0: 3037 ميغابايت

I0409 23: 48: 21.586969 14708 Context_gpu.cu:309] الإجمالي: 3037 ميغابايت

I0409 23: 48: 23.049207 14711 Context_gpu.cu:305] GPU 0: 3169 ميغابايت

I0409 23: 48: 23.049262 14711 Context_gpu.cu:309] الإجمالي: 3169 ميغابايت

json_stats: {"resolution_cls": 0.972342، "eta": "7 days، 4:53:41"، "iter": 20، "loss": 16.139348، "loss_bbox": 0.666931، "loss_cls": 11.527749، "loss_rpn_bbox_fpn2 ": 0.000000،" loss_rpn_bbox_fpn3 ": 0.000000،" loss_rpn_bbox_fpn4 ": 0.000000،" loss_rpn_bbox_fpn5 ": 0.074818،" loss_rpn_bbox_fpn6 ": 0.000000،" loss_rpn_cls_fpn2 "loss_fpn_fp_fp_fp_fp_fp_fp_0.005، 0.000000 0.052323، "loss_rpn_cls_fpn6": 0.000000، "lr": 0.000360، "mb_qsize": 64، "mem": 3254، "time": 10.377150} `

RafaRuiz أنا أيضًا أحصل على نفس النتائج ...

هل اكتشفت سبب نموها بهذه السرعة؟

هل كانت هذه الصفحة مفيدة؟
0 / 5 - 0 التقييمات