Detectron: Salida del entrenamiento

Creado en 8 mar. 2018  ·  4Comentarios  ·  Fuente: facebookresearch/Detectron

{"precisión_cls": 0.923639,
"eta": "1 día, 13:30:44",
"itero": 120000,
"pérdida": 0.562384,
"loss_bbox": 0.107754,
"pérdida_cls": 0.243266,
"pérdida_rpn_bbox": 0.085141,
"pérdida_rpn_cls": 0.100456,
"lr": 0.010000,
"mb_qsize": 64,
"mem": 6407,
"tiempo": 0.562685}

P1: ¿cuál es el significado de "accuracy_cls", "mb_qsize", mem""?
Q2:"loss_bbox": 0.107754 + "loss_cls": 0.243266 + "loss_cls": 0.243266 + "loss_rpn_bbox": 0.085141 + "loss_rpn_cls": 0.100456 = 0.536617, no es igual a "loss"3 84?562

Comentario más útil

accuracy_cls es la precisión de clasificación en los mini lotes de RoI vistos en el entrenamiento. Tenga en cuenta que estos están balanceados 1:3 primer plano: fondo de forma predeterminada, por lo que si una red solo está adivinando el fondo, su precisión será del 75% (lo que no significa que sea buena).

mb_qsize es el tamaño de la cola de salida del cargador de datos. Esto debería estar cerca de 64 (completo) la mayor parte del tiempo. Si cae a 0, las GPU se detendrán esperando datos.

mem es la cantidad máxima de memoria de GPU en una sola GPU utilizada por caffe2 (tenga en cuenta que esto no refleja el uso de memoria de GPU fuera de lo que caffe2 puede rastrear, por ejemplo, cachés cudnn, etc.).

La suma de las pérdidas no es igual a la pérdida total porque cada valor registrado se filtra por la mediana por separado para suavizar los valores de salida mostrados.

Todos 4 comentarios

accuracy_cls es la precisión de clasificación en los mini lotes de RoI vistos en el entrenamiento. Tenga en cuenta que estos están balanceados 1:3 primer plano: fondo de forma predeterminada, por lo que si una red solo está adivinando el fondo, su precisión será del 75% (lo que no significa que sea buena).

mb_qsize es el tamaño de la cola de salida del cargador de datos. Esto debería estar cerca de 64 (completo) la mayor parte del tiempo. Si cae a 0, las GPU se detendrán esperando datos.

mem es la cantidad máxima de memoria de GPU en una sola GPU utilizada por caffe2 (tenga en cuenta que esto no refleja el uso de memoria de GPU fuera de lo que caffe2 puede rastrear, por ejemplo, cachés cudnn, etc.).

La suma de las pérdidas no es igual a la pérdida total porque cada valor registrado se filtra por la mediana por separado para suavizar los valores de salida mostrados.

¡Eso es genial!

¿Alguna explicación, o es normal que crezca tan rápido?

json_stats: {"accuracy_cls": 0.351562, "eta": "121 días, 0:34:07", "iter": 0, "loss": 6.128010, "loss_bbox": 0.007976, "loss_cls": 3.535384, "loss_rpn_bbox_fpn2 ": 0.000000, "loss_rpn_bbox_fpn3": 0.000000, "loss_rpn_bbox_fpn4": 0.000000, "loss_rpn_bbox_fpn5": 0.063088, "loss_rpn_bbox_fpn6": 0.000000, "loss_rpn_cls_fpn2": 2.373329, "loss_rpn_cls_fpn3": 0.110721, "loss_rpn_cls_fpn4": 0.032310, "loss_rpn_cls_fpn5": 0.005202, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000333, "mb_qsize": 64, "mem": 2965, "tiempo": 174.274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0: 3037 MB

I0409 23:48:21.586969 14708 context_gpu.cu:309] Total: 3037 MB

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0: 3169 MB

I0409 23:48:23.049262 14711 context_gpu.cu:309] Total: 3169 MB

json_stats: {"accuracy_cls": 0.972342, "eta": "7 días, 4:53:41", "iter": 20, "loss": 16.139348, "loss_bbox": 0.666931, "loss_cls": 11.527749, "loss_rpn_bbox_fpn2 ": 0.000000, "loss_rpn_bbox_fpn3": 0.000000, "loss_rpn_bbox_fpn4": 0.000000, "loss_rpn_bbox_fpn5": 0.074818, "loss_rpn_bbox_fpn6": 0.000000, "loss_rpn_cls_fpn2": 0.000000, "loss_rpn_cls_fpn3": 0.000000, "loss_rpn_cls_fpn4": 0.000000, "loss_rpn_cls_fpn5": 0.052323, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000360, "mb_qsize": 64, "mem": 3254, "time": 10.377150}`

@RafaRuiz yo también estoy obteniendo los mismos resultados...

¿Averiguaste por qué crece tan rápido?

¿Fue útil esta página
0 / 5 - 0 calificaciones