Detectron: Результат обучения

Созданный на 8 мар. 2018  ·  4Комментарии  ·  Источник: facebookresearch/Detectron

{"accuracy_cls": 0,923639,
"eta": "1 день, 13:30:44",
"итэр": 120000,
"потеря": 0,562384,
"loss_bbox": 0,107754,
"loss_cls": 0,243266,
"loss_rpn_bbox": 0,085141,
"loss_rpn_cls": 0,100456,
"лр": 0,010000,
"mb_qsize": 64,
"память": 6407,
"время": 0,562685}

Q1: что означает «accuracy_cls», «mb_qsize», mem «»?
Q2: "loss_bbox": 0,107754 + "loss_cls": 0,243266 + "loss_cls": 0,243266 + "loss_rpn_bbox": 0,085141 + "loss_rpn_cls": 0,100456 = 0,536617, это не равно "потере": 0,562384?

Самый полезный комментарий

accuracy_cls — это точность классификации мини-пакетов RoI, наблюдаемых при обучении. Обратите внимание, что они сбалансированы 1:3 передний план:фон по умолчанию, поэтому, если сеть просто угадывает фон, ее точность будет 75% (что не означает, что это хорошо).

mb_qsize — размер выходной очереди загрузчика данных. Это должно быть близко к 64 (полным) большую часть времени. Если он упадет до 0, то графические процессоры остановятся в ожидании данных.

mem — это максимальный объем памяти графического процессора на одном графическом процессоре, используемом caffe2 (обратите внимание, что это не отражает использование некоторой памяти графического процессора за пределами того, что может отслеживать caffe2, например, кэши cudnn и т. д.).

Сумма потерь не равна общей сумме потерь, поскольку каждое зарегистрированное значение подвергается медианной фильтрации отдельно для сглаживания отображаемых выходных значений.

Все 4 Комментарий

accuracy_cls — это точность классификации мини-пакетов RoI, наблюдаемых при обучении. Обратите внимание, что они сбалансированы 1:3 передний план:фон по умолчанию, поэтому, если сеть просто угадывает фон, ее точность будет 75% (что не означает, что это хорошо).

mb_qsize — размер выходной очереди загрузчика данных. Это должно быть близко к 64 (полным) большую часть времени. Если он упадет до 0, то графические процессоры остановятся в ожидании данных.

mem — это максимальный объем памяти графического процессора на одном графическом процессоре, используемом caffe2 (обратите внимание, что это не отражает использование некоторой памяти графического процессора за пределами того, что может отслеживать caffe2, например, кэши cudnn и т. д.).

Сумма потерь не равна общей сумме потерь, поскольку каждое зарегистрированное значение подвергается медианной фильтрации отдельно для сглаживания отображаемых выходных значений.

Это здорово!

Любое объяснение, или это нормально, что он растет так быстро?

json_stats: {"accuracy_cls": 0,351562, "eta": "121 день, 0:34:07", "iter": 0, "loss": 6,128010, "loss_bbox": 0,007976, "loss_cls": 3,535384, "loss_rpn_bbox_fpn2" «: 0.000000, "loss_rpn_bbox_fpn3": 0.000000, "loss_rpn_bbox_fpn4": 0.000000, "loss_rpn_bbox_fpn5": 0,063088, "loss_rpn_bbox_fpn6": 0.000000, "loss_rpn_cls_fpn2": 2,373329, "loss_rpn_cls_fpn3": 0,110721, "loss_rpn_cls_fpn4": 0,032310, "loss_rpn_cls_fpn5": 0.005202, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000333, "mb_qsize": 64, "mem": 2965, "time": 174.274131}

I0409 23:48:21.545917 14708 context_gpu.cu:305] GPU 0: 3037 МБ

I0409 23:48:21.586969 14708 context_gpu.cu:309] Всего: 3037 МБ

I0409 23:48:23.049207 14711 context_gpu.cu:305] GPU 0: 3169 МБ

I0409 23:48:23.049262 14711 context_gpu.cu:309] Всего: 3169 МБ

json_stats: {"accuracy_cls": 0,972342, "eta": "7 дней, 4:53:41", "iter": 20, "loss": 16,139348, "loss_bbox": 0,666931, "loss_cls": 11,527749, "loss_rpn_bbox_fpn2" «: 0.000000, "loss_rpn_bbox_fpn3": 0.000000, "loss_rpn_bbox_fpn4": 0.000000, "loss_rpn_bbox_fpn5": 0,074818, "loss_rpn_bbox_fpn6": 0.000000, "loss_rpn_cls_fpn2": 0.000000, "loss_rpn_cls_fpn3": 0.000000, "loss_rpn_cls_fpn4": 0.000000, "loss_rpn_cls_fpn5": 0.052323, "loss_rpn_cls_fpn6": 0.000000, "lr": 0.000360, "mb_qsize": 64, "mem": 3254, "time": 10.377150}`

@RafaRuiz Я тоже получаю те же результаты...

Вы поняли, почему он так быстро растет?

Была ли эта страница полезной?
0 / 5 - 0 рейтинги