Detectron: Résultat de la formation

Créé le 8 mars 2018  ·  4Commentaires  ·  Source: facebookresearch/Detectron

{"accuracy_cls": 0,923639,
"eta": "1 jour, 13:30:44",
"iter": 120000,
"perte": 0,562384,
"loss_bbox": 0.107754,
"loss_cls": 0.243266,
"loss_rpn_bbox": 0.085141,
"loss_rpn_cls": 0.100456,
"lr": 0,010000,
"mb_qsize": 64,
"mem": 6407,
"temps": 0,562685}

Q1:ce que signifie "accuracy_cls","mb_qsize",mem""?
Q2:"loss_bbox": 0.107754 + "loss_cls": 0.243266 + "loss_cls": 0.243266 + "loss_rpn_bbox": 0.085141 + "loss_rpn_cls": 0.100456 = 0.536617, ce n'est pas égal à "loss": 0.562384 ?

Commentaire le plus utile

accuracy_cls est la précision de la classification sur les mini-lots RoI observés lors de la formation. Notez que ceux-ci sont équilibrés 1: 3 foreground:background par défaut, donc si un réseau ne fait que deviner l'arrière-plan, sa précision sera de 75% (ce qui ne signifie pas qu'il est bon).

mb_qsize est la taille de la file d'attente de sortie du chargeur de données. Cela devrait être proche de 64 (plein) la plupart du temps. S'il tombe à 0, les GPU seront bloqués en attendant les données.

mem est la quantité maximale de mémoire GPU sur un seul GPU utilisé par caffe2 (notez que cela ne reflète pas une utilisation de la mémoire GPU en dehors de ce que caffe2 peut suivre, par exemple, les caches cudnn, etc.).

La somme des pertes n'est pas égale à la perte totale car chaque valeur enregistrée est médiane filtrée séparément pour lisser les valeurs de sortie affichées.

Tous les 4 commentaires

accuracy_cls est la précision de la classification sur les mini-lots RoI observés lors de la formation. Notez que ceux-ci sont équilibrés 1: 3 foreground:background par défaut, donc si un réseau ne fait que deviner l'arrière-plan, sa précision sera de 75% (ce qui ne signifie pas qu'il est bon).

mb_qsize est la taille de la file d'attente de sortie du chargeur de données. Cela devrait être proche de 64 (plein) la plupart du temps. S'il tombe à 0, les GPU seront bloqués en attendant les données.

mem est la quantité maximale de mémoire GPU sur un seul GPU utilisé par caffe2 (notez que cela ne reflète pas une utilisation de la mémoire GPU en dehors de ce que caffe2 peut suivre, par exemple, les caches cudnn, etc.).

La somme des pertes n'est pas égale à la perte totale car chaque valeur enregistrée est médiane filtrée séparément pour lisser les valeurs de sortie affichées.

C'est super !

Une explication ou est-ce normal que ça pousse aussi vite ?

json_stats : {"accuracy_cls": 0.351562, "eta": "121 jours, 0:34:07", "iter": 0, "loss": 6.128010, "loss_bbox": 0.007976, "loss_cls": 3.535384, "loss_rpn_bbox_fpn2 « : 0,000000, "loss_rpn_bbox_fpn3": 0,000000, "loss_rpn_bbox_fpn4": 0,000000, "loss_rpn_bbox_fpn5": 0,063088, "loss_rpn_bbox_fpn6": 0,000000, "loss_rpn_cls_fpn2": 2,373329, "loss_rpn_cls_fpn3": 0,110721, "loss_rpn_cls_fpn4": 0,032310, "loss_rpn_cls_fpn5": 0.005202, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000333, "mb_qsize": 64, "mem": 2965, "time": 174.274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0 : 3037 Mo

I0409 23:48:21.586969 14708 context_gpu.cu:309] Total : 3037 Mo

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0 : 3169 Mo

I0409 23:48:23.049262 14711 context_gpu.cu:309] Total : 3169 Mo

json_stats : {"accuracy_cls": 0.972342, "eta": "7 jours, 4:53:41", "iter": 20, "loss": 16.139348, "loss_bbox": 0.666931, "loss_cls": 11.527749, "loss_rpn_bbox_fpn2 « : 0,000000, "loss_rpn_bbox_fpn3": 0,000000, "loss_rpn_bbox_fpn4": 0,000000, "loss_rpn_bbox_fpn5": 0,074818, "loss_rpn_bbox_fpn6": 0,000000, "loss_rpn_cls_fpn2": 0,000000, "loss_rpn_cls_fpn3": 0,000000, "loss_rpn_cls_fpn4": 0,000000, "loss_rpn_cls_fpn5": 0.052323, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000360, "mb_qsize": 64, "mem": 3254, "time": 10.377150}`

@RafaRuiz J'obtiens également les mêmes résultats...

Avez-vous compris pourquoi il pousse si vite ?

Cette page vous a été utile?
0 / 5 - 0 notes