Detectron: トレーニングからの出力

作成日 2018年03月08日  ·  4コメント  ·  ソース: facebookresearch/Detectron

{"accuracy_cls":0.923639、
"eta": "1日、13:30:44"、
「iter」:120000、
「損失」:0.562384、
"loss_bbox":0.107754、
"loss_cls":0.243266、
"loss_rpn_bbox":0.085141、
"loss_rpn_cls":0.100456、
"lr":0.010000、
"mb_qsize":64、
「mem」:6407、
「時間」:0.562685}

Q1:「accuracy_cls」、「mb_qsize」、mem「」の意味は?
Q2: "loss_bbox":0.107754 + "loss_cls":0.243266 + "loss_cls":0.243266 + "loss_rpn_bbox":0.085141 + "loss_rpn_cls":0.100456 = 0.536617、 "loss":0.562384と等しくありませんか?

最も参考になるコメント

accuracy_clsは、トレーニングで見られるRoIミニバッチの分類精度です。 これらはデフォルトで1:3 f oreground:backgroundのバランスが取れているため、ネットワークがバックグラウンドを推測しているだけの場合、その精度は75%になります(これは、それが良いことを意味するわけではありません)。

mb_qsizeは、データローダーの出力キューサイズです。 ほとんどの場合、これは64(フル)に近いはずです。 0に低下すると、GPUはデータを待機して停止します。

memは、caffe2が使用する単一のGPU上のGPUメモリの最大量です(これは、caffe2が追跡できる範囲外のGPUメモリ使用量(cudnnキャッシュなど)を反映していないことに注意してください)。

記録された各値は、表示された出力値を平滑化するために個別に中央値フィルター処理されるため、損失の合計は合計損失と等しくありません。

全てのコメント4件

accuracy_clsは、トレーニングで見られるRoIミニバッチの分類精度です。 これらはデフォルトで1:3 f oreground:backgroundのバランスが取れているため、ネットワークがバックグラウンドを推測しているだけの場合、その精度は75%になります(これは、それが良いことを意味するわけではありません)。

mb_qsizeは、データローダーの出力キューサイズです。 ほとんどの場合、これは64(フル)に近いはずです。 0に低下すると、GPUはデータを待機して停止します。

memは、caffe2が使用する単一のGPU上のGPUメモリの最大量です(これは、caffe2が追跡できる範囲外のGPUメモリ使用量(cudnnキャッシュなど)を反映していないことに注意してください)。

記録された各値は、表示された出力値を平滑化するために個別に中央値フィルター処理されるため、損失の合計は合計損失と等しくありません。

すごい!

何か説明がありますか、それともこれほど速く成長するのは正常ですか?

json_stats:{"accuracy_cls":0.351562、 "eta": "121 days、0:34:07"、 "iter":0、 "loss":6.128010、 "loss_bbox":0.007976、 "loss_cls":3.535384、 "loss_rpn_bbox_fpn2 ":0.000000、" loss_rpn_bbox_fpn3 ":0.000000、" loss_rpn_bbox_fpn4 ":0.000000、" loss_rpn_bbox_fpn5 ":0.063088、" loss_rpn_bbox_fpn6 ":0.000000、" rpn_fpn2 ":2.373329、" loss_rp 0.005202、 "loss_rpn_cls_fpn6":0.000000、 "lr":0.000333、 "mb_qsize":64、 "mem":2965、 "time":174.274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0:3037 MB

I0409 23:48:21.586969 14708 context_gpu.cu:309]合計:3037 MB

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0:3169 MB

I0409 23:48:23.049262 14711 context_gpu.cu:309]合計:3169 MB

json_stats:{"accuracy_cls":0.972342、 "eta": "7 days、4:53:41"、 "iter":20、 "loss":16.139348、 "loss_bbox":0.666931、 "loss_cls":11.527749、 "loss_rpn_bbox_fpn2 ":0.000000、" loss_rpn_bbox_fpn3 ":0.000000、" loss_rpn_bbox_fpn4 ":0.000000、" loss_rpn_bbox_fpn5 ":0.074818、" loss_rpn_bbox_fpn6 ":0.000000、" rpn_cls_fpn2 ":0.000000、" 0.052323、 "loss_rpn_cls_fpn6":0.000000、 "lr":0.000360、 "mb_qsize":64、 "mem":3254、 "time":10.377150} `

@RafaRuiz私も同じ結果を得ています...

なぜそれがとても速く成長するのか理解しましたか?

このページは役に立ちましたか?
0 / 5 - 0 評価