Detectron: Saída do treinamento

Criado em 8 mar. 2018  ·  4Comentários  ·  Fonte: facebookresearch/Detectron

{"accuracy_cls": 0,923639,
"eta": "1 dia, 13:30:44",
"iter": 120000,
"perda": 0,562384,
"loss_bbox": 0,107754,
"loss_cls": 0,243266,
"loss_rpn_bbox": 0,085141,
"loss_rpn_cls": 0,100456,
"lr": 0,010000,
"mb_qsize": 64,
"mem": 6407,
"hora": 0,562685}

Q1:qual o significado de “accuracy_cls”,“mb_qsize”,mem“”?
Q2:"loss_bbox": 0,107754 + "loss_cls": 0,243266 + "loss_cls": 0,243266 + "loss_rpn_bbox": 0,085141 + "loss_rpn_cls": 0,100456 = 0,5365617, não é igual a "loss": 0,5365628?

Comentários muito úteis

accuracy_cls é a precisão da classificação nos mini-lotes de RoI vistos no treinamento. Observe que eles são balanceados 1:3 foreground:background por padrão, portanto, se uma rede estiver apenas adivinhando o plano de fundo, sua precisão será de 75% (o que não significa que seja bom).

mb_qsize é o tamanho da fila de saída do carregador de dados. Isso deve estar perto de 64 (completo) na maioria das vezes. Se cair para 0, as GPUs ficarão paradas aguardando dados.

mem é a quantidade máxima de memória da GPU em uma única GPU usada pelo caffe2 (observe que isso não reflete algum uso de memória da GPU fora do que o caffe2 pode rastrear, por exemplo, caches cudnn, etc.).

A soma das perdas não é igual à perda total porque cada valor registrado é filtrado separadamente para suavizar os valores de saída exibidos.

Todos 4 comentários

accuracy_cls é a precisão da classificação nos mini-lotes de RoI vistos no treinamento. Observe que eles são balanceados 1:3 foreground:background por padrão, portanto, se uma rede estiver apenas adivinhando o plano de fundo, sua precisão será de 75% (o que não significa que seja bom).

mb_qsize é o tamanho da fila de saída do carregador de dados. Isso deve estar perto de 64 (completo) na maioria das vezes. Se cair para 0, as GPUs ficarão paradas aguardando dados.

mem é a quantidade máxima de memória da GPU em uma única GPU usada pelo caffe2 (observe que isso não reflete algum uso de memória da GPU fora do que o caffe2 pode rastrear, por exemplo, caches cudnn, etc.).

A soma das perdas não é igual à perda total porque cada valor registrado é filtrado separadamente para suavizar os valores de saída exibidos.

Isso é ótimo!

Alguma explicação, ou é normal que cresça tão rápido?

json_stats: {"accuracy_cls": 0.351562, "eta": "121 dias, 0:34:07", "iter": 0, "loss": 6.128010, "loss_bbox": 0.007976, "loss_cls": 3.535384, "loss_rpn_bbox_fpn2 ": 0.000000 " loss_rpn_bbox_fpn3": 0.000000 " loss_rpn_bbox_fpn4": 0.000000 " loss_rpn_bbox_fpn5": 0,063088, "loss_rpn_bbox_fpn6": 0.000000 " loss_rpn_cls_fpn2": 2,373329, "loss_rpn_cls_fpn3": 0,110721, "loss_rpn_cls_fpn4": 0,032310, "loss_rpn_cls_fpn5": 0,005202, "loss_rpn_cls_fpn6": 0,000000, "lr": 0,000333, "mb_qsize": 64, "mem": 2965, "tempo": 174,274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0: 3037 MB

I0409 23:48:21.586969 14708 context_gpu.cu:309] Total: 3037 MB

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0: 3169 MB

I0409 23:48:23.049262 14711 context_gpu.cu:309] Total: 3169 MB

json_stats: {"accuracy_cls": 0,972342, "eta": "7 dias, 4:53:41", "iter": 20, "loss": 16,139348, "loss_bbox": 0,666931, "loss_cls": 11,527749, "loss_rpn_bbox_fpn2 ": 0.000000 " loss_rpn_bbox_fpn3": 0.000000 " loss_rpn_bbox_fpn4": 0.000000 " loss_rpn_bbox_fpn5": 0,074818, "loss_rpn_bbox_fpn6": 0.000000 " loss_rpn_cls_fpn2": 0.000000 " loss_rpn_cls_fpn3": 0.000000 " loss_rpn_cls_fpn4": 0.000000 " loss_rpn_cls_fpn5": 0,052323, "loss_rpn_cls_fpn6": 0,000000, "lr": 0,000360, "mb_qsize": 64, "mem": 3254, "tempo": 10,377150}`

@RafaRuiz Também estou obtendo os mesmos resultados ...

Você descobriu por que cresce tão rápido?

Esta página foi útil?
0 / 5 - 0 avaliações