Detectron: Keluaran dari pelatihan

Dibuat pada 8 Mar 2018  ·  4Komentar  ·  Sumber: facebookresearch/Detectron

{"accuracy_cls": 0.923639,
"eta": "1 hari, 13:30:44",
"itu": 120000,
"kerugian": 0,562384,
"loss_bbox": 0.107754,
"loss_cls": 0.243266,
"loss_rpn_bbox": 0,085141,
"loss_rpn_cls": 0.100456,
"lr": 0,010000,
"mb_qsize": 64,
"me": 6407,
"waktu": 0,562685}

Q1:apa yang dimaksud dengan “accuracy_cls”,“mb_qsize”,mem“”?
Q2:"loss_bbox": 0.107754 + "loss_cls": 0.243266 + "loss_cls": 0.243266 + "loss_rpn_bbox": 0.085141 + "loss_rpn_cls": 0.100456 = 0.536617 , tidak sama dengan "loss": 0.562384?

Komentar yang paling membantu

accuracy_cls adalah akurasi klasifikasi pada mini-batch RoI yang terlihat dalam pelatihan. Perhatikan bahwa ini seimbang 1:3 untuk latar depan: latar belakang secara default, jadi jika jaringan hanya menebak latar belakang, akurasinya akan menjadi 75% (yang tidak berarti itu bagus).

mb_qsize adalah ukuran antrian keluaran pemuat data. Ini harus mendekati 64 (penuh) sebagian besar waktu. Jika turun ke 0 maka GPU akan terhenti menunggu data.

mem adalah jumlah maksimum memori GPU pada satu GPU yang digunakan oleh caffe2 (perhatikan bahwa ini tidak mencerminkan beberapa penggunaan memori GPU di luar yang dapat dilacak oleh caffe2, misalnya, cache cudnn, dll.).

Jumlah kerugian tidak sama dengan kerugian total karena setiap nilai yang dicatat difilter secara median secara terpisah untuk menghaluskan nilai keluaran yang ditampilkan.

Semua 4 komentar

accuracy_cls adalah akurasi klasifikasi pada mini-batch RoI yang terlihat dalam pelatihan. Perhatikan bahwa ini seimbang 1:3 untuk latar depan: latar belakang secara default, jadi jika jaringan hanya menebak latar belakang, akurasinya akan menjadi 75% (yang tidak berarti itu bagus).

mb_qsize adalah ukuran antrian keluaran pemuat data. Ini harus mendekati 64 (penuh) sebagian besar waktu. Jika turun ke 0 maka GPU akan terhenti menunggu data.

mem adalah jumlah maksimum memori GPU pada satu GPU yang digunakan oleh caffe2 (perhatikan bahwa ini tidak mencerminkan beberapa penggunaan memori GPU di luar yang dapat dilacak oleh caffe2, misalnya, cache cudnn, dll.).

Jumlah kerugian tidak sama dengan kerugian total karena setiap nilai yang dicatat difilter secara median secara terpisah untuk menghaluskan nilai keluaran yang ditampilkan.

Itu bagus!

Adakah penjelasan, atau apakah normal jika ia tumbuh secepat ini?

json_stats: {"accuracy_cls": 0.351562, "eta": "121 hari, 0:34:07", "iter": 0, "loss": 6.128010, "loss_bbox": 0.007976, "loss_cls": 3.535384, "loss_rpn_bbox_fpn2 ": 0.000000, "loss_rpn_bbox_fpn3": 0.000000, "loss_rpn_bbox_fpn4": 0.000000, "loss_rpn_bbox_fpn5": 0,063088, "loss_rpn_bbox_fpn6": 0.000000, "loss_rpn_cls_fpn2": 2,373329, "loss_rpn_cls_fpn3": 0,110721, "loss_rpn_cls_fpn4": 0,032310, "loss_rpn_cls_fpn5": 0.005202, "loss_rpn_cls_fpn6": 0,000000, "lr": 0,000333, "mb_qsize": 64, "mem": 2965, "time": 174.274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0: 3037 MB

I0409 23:48:21.586969 14708 context_gpu.cu:309] Total: 3037 MB

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0: 3169 MB

I0409 23:48:23.049262 14711 context_gpu.cu:309] Total: 3169 MB

json_stats: {"accuracy_cls": 0.972342, "eta": "7 hari, 4:53:41", "iter": 20, "loss": 16.139348, "loss_bbox": 0.666931, "loss_cls": 11.527749, "loss_rpn_bbox_fpn2 ": 0.000000, "loss_rpn_bbox_fpn3": 0.000000, "loss_rpn_bbox_fpn4": 0.000000, "loss_rpn_bbox_fpn5": 0,074818, "loss_rpn_bbox_fpn6": 0.000000, "loss_rpn_cls_fpn2": 0.000000, "loss_rpn_cls_fpn3": 0.000000, "loss_rpn_cls_fpn4": 0.000000, "loss_rpn_cls_fpn5": 0.052323, "loss_rpn_cls_fpn6": 0,000000, "lr": 0,000360, "mb_qsize": 64, "mem": 3254, "time": 10.377150}`

@RafaRuiz saya juga mendapatkan hasil yang sama...

Tahukah Anda mengapa ia tumbuh begitu cepat?

Apakah halaman ini membantu?
0 / 5 - 0 peringkat