{"accuracy_cls": 0,923639,
"eta": "1 Tag, 13:30:44",
"iter": 120000,
"Verlust": 0,562384,
"verlust_bbox": 0,107754,
"verlust_cls": 0,243266,
"loss_rpn_bbox": 0,085141,
"loss_rpn_cls": 0.100456,
"lr": 0,010000,
"mb_qsize": 64,
"mem": 6407,
"Zeit": 0.562685}
Q1: Was bedeutet „accuracy_cls“, „mb_qsize“, „mem““?
F2: "loss_bbox": 0,107754 + "loss_cls": 0,243266 + "loss_cls": 0,243266 + "loss_rpn_bbox": 0,085141 + "loss_rpn_cls": 0,100456 = 0,536617, ist es nicht gleich "loss": 0,562384?
accuracy_cls
ist die Klassifikationsgenauigkeit der im Training beobachteten RoI-Mini-Batches. Beachten Sie, dass diese standardmäßig im Verhältnis 1:3 Vordergrund:Hintergrund ausgeglichen sind. Wenn ein Netzwerk also nur den Hintergrund schätzt, beträgt seine Genauigkeit 75% (was nicht bedeutet, dass es gut ist).
mb_qsize
ist die Größe der Ausgabewarteschlange des Dataloaders. Dies sollte die meiste Zeit in der Nähe von 64 (voll) sein. Wenn es auf 0 fällt, werden die GPUs angehalten und warten auf Daten.
mem
ist die maximale Menge an GPU-Speicher auf einer einzelnen GPU, die von caffe2 verwendet wird (beachten Sie, dass dies nicht die GPU-Speichernutzung widerspiegelt, die außerhalb dessen liegt, was caffe2 verfolgen kann, z. B. cudnn-Caches usw.).
Die Summe der Verluste ist nicht gleich dem Gesamtverlust, da jeder protokollierte Wert separat mediangefiltert wird, um die angezeigten Ausgabewerte zu glätten.
Das ist großartig!
Irgendeine Erklärung, oder ist es normal, dass es so schnell wächst?
json_stats: {"accuracy_cls": 0.351562, "eta": "121 Tage, 0:34:07", "iter": 0, "loss": 6.128010, "loss_bbox": 0.007976, "loss_cls": 3.535384, "loss_rpn_bbox_fpn2 „0,000000 "loss_rpn_bbox_fpn3": 0.000000 "loss_rpn_bbox_fpn4": 0.000000 "loss_rpn_bbox_fpn5": 0,063088 "loss_rpn_bbox_fpn6": 0.000000 "loss_rpn_cls_fpn2": 2,373329 "loss_rpn_cls_fpn3": 0,110721 "loss_rpn_cls_fpn4": 0,032310 "loss_rpn_cls_fpn5": 0.005202, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000333, "mb_qsize": 64, "mem": 2965, "time": 174.274131}
I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0: 3037 MB
I0409 23:48:21.586969 14708 context_gpu.cu:309] Gesamt: 3037 MB
I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0: 3169 MB
I0409 23:48:23.049262 14711 context_gpu.cu:309] Gesamt: 3169 MB
json_stats: {"accuracy_cls": 0.972342, "eta": "7 Tage, 4:53:41", "iter": 20, "loss": 16.139348, "loss_bbox": 0.666931, "loss_cls": 11.527749, "loss_rpn_bbox_fpn2 „0,000000 "loss_rpn_bbox_fpn3": 0.000000 "loss_rpn_bbox_fpn4": 0.000000 "loss_rpn_bbox_fpn5": 0,074818 "loss_rpn_bbox_fpn6": 0.000000 "loss_rpn_cls_fpn2": 0.000000 "loss_rpn_cls_fpn3": 0.000000 "loss_rpn_cls_fpn4": 0.000000 "loss_rpn_cls_fpn5": 0.052323, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000360, "mb_qsize": 64, "mem": 3254, "time": 10.377150}`
@RafaRuiz Ich bekomme auch die gleichen Ergebnisse ...
Hast du herausgefunden, warum es so schnell wächst?
Hilfreichster Kommentar
accuracy_cls
ist die Klassifikationsgenauigkeit der im Training beobachteten RoI-Mini-Batches. Beachten Sie, dass diese standardmäßig im Verhältnis 1:3 Vordergrund:Hintergrund ausgeglichen sind. Wenn ein Netzwerk also nur den Hintergrund schätzt, beträgt seine Genauigkeit 75% (was nicht bedeutet, dass es gut ist).mb_qsize
ist die Größe der Ausgabewarteschlange des Dataloaders. Dies sollte die meiste Zeit in der Nähe von 64 (voll) sein. Wenn es auf 0 fällt, werden die GPUs angehalten und warten auf Daten.mem
ist die maximale Menge an GPU-Speicher auf einer einzelnen GPU, die von caffe2 verwendet wird (beachten Sie, dass dies nicht die GPU-Speichernutzung widerspiegelt, die außerhalb dessen liegt, was caffe2 verfolgen kann, z. B. cudnn-Caches usw.).Die Summe der Verluste ist nicht gleich dem Gesamtverlust, da jeder protokollierte Wert separat mediangefiltert wird, um die angezeigten Ausgabewerte zu glätten.