Detectron: Output aus dem Training

Erstellt am 8. März 2018  ·  4Kommentare  ·  Quelle: facebookresearch/Detectron

{"accuracy_cls": 0,923639,
"eta": "1 Tag, 13:30:44",
"iter": 120000,
"Verlust": 0,562384,
"verlust_bbox": 0,107754,
"verlust_cls": 0,243266,
"loss_rpn_bbox": 0,085141,
"loss_rpn_cls": 0.100456,
"lr": 0,010000,
"mb_qsize": 64,
"mem": 6407,
"Zeit": 0.562685}

Q1: Was bedeutet „accuracy_cls“, „mb_qsize“, „mem““?
F2: "loss_bbox": 0,107754 + "loss_cls": 0,243266 + "loss_cls": 0,243266 + "loss_rpn_bbox": 0,085141 + "loss_rpn_cls": 0,100456 = 0,536617, ist es nicht gleich "loss": 0,562384?

Hilfreichster Kommentar

accuracy_cls ist die Klassifikationsgenauigkeit der im Training beobachteten RoI-Mini-Batches. Beachten Sie, dass diese standardmäßig im Verhältnis 1:3 Vordergrund:Hintergrund ausgeglichen sind. Wenn ein Netzwerk also nur den Hintergrund schätzt, beträgt seine Genauigkeit 75% (was nicht bedeutet, dass es gut ist).

mb_qsize ist die Größe der Ausgabewarteschlange des Dataloaders. Dies sollte die meiste Zeit in der Nähe von 64 (voll) sein. Wenn es auf 0 fällt, werden die GPUs angehalten und warten auf Daten.

mem ist die maximale Menge an GPU-Speicher auf einer einzelnen GPU, die von caffe2 verwendet wird (beachten Sie, dass dies nicht die GPU-Speichernutzung widerspiegelt, die außerhalb dessen liegt, was caffe2 verfolgen kann, z. B. cudnn-Caches usw.).

Die Summe der Verluste ist nicht gleich dem Gesamtverlust, da jeder protokollierte Wert separat mediangefiltert wird, um die angezeigten Ausgabewerte zu glätten.

Alle 4 Kommentare

accuracy_cls ist die Klassifikationsgenauigkeit der im Training beobachteten RoI-Mini-Batches. Beachten Sie, dass diese standardmäßig im Verhältnis 1:3 Vordergrund:Hintergrund ausgeglichen sind. Wenn ein Netzwerk also nur den Hintergrund schätzt, beträgt seine Genauigkeit 75% (was nicht bedeutet, dass es gut ist).

mb_qsize ist die Größe der Ausgabewarteschlange des Dataloaders. Dies sollte die meiste Zeit in der Nähe von 64 (voll) sein. Wenn es auf 0 fällt, werden die GPUs angehalten und warten auf Daten.

mem ist die maximale Menge an GPU-Speicher auf einer einzelnen GPU, die von caffe2 verwendet wird (beachten Sie, dass dies nicht die GPU-Speichernutzung widerspiegelt, die außerhalb dessen liegt, was caffe2 verfolgen kann, z. B. cudnn-Caches usw.).

Die Summe der Verluste ist nicht gleich dem Gesamtverlust, da jeder protokollierte Wert separat mediangefiltert wird, um die angezeigten Ausgabewerte zu glätten.

Das ist großartig!

Irgendeine Erklärung, oder ist es normal, dass es so schnell wächst?

json_stats: {"accuracy_cls": 0.351562, "eta": "121 Tage, 0:34:07", "iter": 0, "loss": 6.128010, "loss_bbox": 0.007976, "loss_cls": 3.535384, "loss_rpn_bbox_fpn2 „0,000000 "loss_rpn_bbox_fpn3": 0.000000 "loss_rpn_bbox_fpn4": 0.000000 "loss_rpn_bbox_fpn5": 0,063088 "loss_rpn_bbox_fpn6": 0.000000 "loss_rpn_cls_fpn2": 2,373329 "loss_rpn_cls_fpn3": 0,110721 "loss_rpn_cls_fpn4": 0,032310 "loss_rpn_cls_fpn5": 0.005202, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000333, "mb_qsize": 64, "mem": 2965, "time": 174.274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0: 3037 MB

I0409 23:48:21.586969 14708 context_gpu.cu:309] Gesamt: 3037 MB

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0: 3169 MB

I0409 23:48:23.049262 14711 context_gpu.cu:309] Gesamt: 3169 MB

json_stats: {"accuracy_cls": 0.972342, "eta": "7 Tage, 4:53:41", "iter": 20, "loss": 16.139348, "loss_bbox": 0.666931, "loss_cls": 11.527749, "loss_rpn_bbox_fpn2 „0,000000 "loss_rpn_bbox_fpn3": 0.000000 "loss_rpn_bbox_fpn4": 0.000000 "loss_rpn_bbox_fpn5": 0,074818 "loss_rpn_bbox_fpn6": 0.000000 "loss_rpn_cls_fpn2": 0.000000 "loss_rpn_cls_fpn3": 0.000000 "loss_rpn_cls_fpn4": 0.000000 "loss_rpn_cls_fpn5": 0.052323, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000360, "mb_qsize": 64, "mem": 3254, "time": 10.377150}`

@RafaRuiz Ich bekomme auch die gleichen Ergebnisse ...

Hast du herausgefunden, warum es so schnell wächst?

War diese Seite hilfreich?
0 / 5 - 0 Bewertungen