Lightweight-human-pose-estimation.pytorch: Sobre AP

Creado en 17 dic. 2020  ·  9Comentarios  ·  Fuente: Daniil-Osokin/lightweight-human-pose-estimation.pytorch

Hola, gracias por tu trabajo! Tengo una pregunta. ¿Por qué la precisión es de 61,8 en el documento OpenPose original y 48,6 en su análisis del OpenPose original?

Comentario más útil

Gracias.

获取 Outlook para iOS https://aka.ms/o0ukef


发件人: Daniil-Osokin [email protected]
发送 时间: domingo 20 de diciembre de 2020 11:23:10 p.m.
收件人: Daniil-Osokin / ligera-pose-humana-estimación.pytorch [email protected]
抄送: augenstern-lwx [email protected] ; Autor [email protected]
主题: Re: [Daniil-Osokin / light-human-pose-assessment.pytorch] Acerca de AP (# 124)

Es solo una suma de todas las pérdidas de mapas de calor y pafs. Puede consultar el script de entrenamiento https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/master/train.py para obtener más detalles.

-
Estás recibiendo esto porque eres el autor del hilo.
Responda a este correo electrónico directamente, véalo en GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748621504 , o cancele la suscripción https://github.com/ notificaciones / unsubscribe-auth / AP5B6GEFLZNRTCBE4U5PCRLSVYJF5ANCNFSM4U65RKFQ .

Todos 9 comentarios

¡Hola! Hemos comparado con el modelo original del documento "Estimación de pose 2D de varias personas en tiempo real utilizando campos de afinidad de piezas" . Como se puede ver en la tabla 4 del párrafo 3.2, el AP es del 58,4%. Aumentará al 61%, si se hace un refinamiento adicional para cada persona encontrada con un modelo separado para la estimación de la pose de una sola persona (CPM). Y ese 58,4% se obtuvo en el modo de prueba multiescala (6 escalas). El 48,6% de AP se obtiene utilizando una sola escala para los datos de entrada durante la prueba.

Gracias por su respuesta! lo que son 6 escalas? Significa que una etapa inicial y cinco etapas de refinamiento?

获取 Outlook para iOS https://aka.ms/o0ukef


发件人: Daniil-Osokin [email protected]
发送 时间: viernes 18 de diciembre de 2020 11:14:00 p.m.
收件人: Daniil-Osokin / ligera-pose-humana-estimación.pytorch [email protected]
抄送: augenstern-lwx [email protected] ; Autor [email protected]
主题: Re: [Daniil-Osokin / light-human-pose-assessment.pytorch] Acerca de AP (# 124)

¡Hola! Hemos comparado con el modelo original del documento "Estimación de pose 2D de varias personas en tiempo real utilizando campos de afinidad de piezas" https://arxiv.org/pdf/1611.08050.pdf . Como se puede ver en la tabla 4 del párrafo 3.2, el AP es del 58,4%. Aumentará al 61%, si se hace un refinamiento adicional para cada persona encontrada con un modelo separado para la estimación de la pose de una sola persona (CPM). Y ese 58,4% se obtuvo en el modo de prueba multiescala (6 escalas). El 48,6% de AP se obtiene utilizando una sola escala para los datos de entrada durante la prueba.

-
Estás recibiendo esto porque eres el autor del hilo.
Responda a este correo electrónico directamente, véalo en GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748143927 , o cancele la suscripción https://github.com/ notificaciones / unsubscribe-auth / AP5B6GF7L7XYMR3P3ZLMBGDSVNWTRANCNFSM4U65RKFQ .

La inferencia de red se realizó 4 veces (no 6, es mi error), cada vez con una resolución de imagen de entrada diferente (escala diferente). Luego, se promediaron todas las salidas de la red. Puede consultar el script de validación para conocer los detalles, admite la opción de múltiples escalas.

Gracias! ¿Por qué no se utilizaron escalas múltiples en ese momento? Después de todo, este método puede lograr un AP más alto?

获取 Outlook para iOS https://aka.ms/o0ukef


发件人: Daniil-Osokin [email protected]
发送 时间: sábado 19 de diciembre de 2020 5:18:55 a.m.
收件人: Daniil-Osokin / ligera-pose-humana-estimación.pytorch [email protected]
抄送: augenstern-lwx [email protected] ; Autor [email protected]
主题: Re: [Daniil-Osokin / light-human-pose-assessment.pytorch] Acerca de AP (# 124)

La inferencia de red se realizó 4 veces (no 6, es mi error), cada vez con una resolución de imagen de entrada diferente (escala diferente). Luego, se promediaron todas las salidas de la red. Puede consultar el script de validación https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/2df5db059db1a043169b65b633d7bb3b8efd13a6/val.py#L117 para obtener más detalles, admite la opción de escala múltiple.

-
Estás recibiendo esto porque eres el autor del hilo.
Responda a este correo electrónico directamente, véalo en GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748324241 , o cancele la suscripción https://github.com/ notificaciones / unsubscribe-auth / AP5B6GHRN44MSCXSFQTIEN3SVPBL7ANCNFSM4U65RKFQ .

Y me pregunto si la función de pérdida es diferente del OpenPose original.

Obtenga Outlook para iOS https://aka.ms/o0ukef


De: Lee Wen Hsing [email protected]
Hora de envío: sábado 19 de diciembre de 2020 10:39:10 a. M.
Destinatario: Daniil-Osokin / light -human-pose- light -human-pose- stimation.pytorch light-human-pose-estimation.pytorch@noreply. Github. com
CC: Autor [email protected]
Asunto: Re: [Daniil-Osokin / light-human-pose-assessment.pytorch] Acerca de AP (# 124)

¡Gracias! ¿Por qué no se usaban escalas múltiples en ese momento, después de todo, este método puede lograr un AP más alto?

Obtenga Outlook para iOS https://aka.ms/o0ukef


De: Daniil-Osokin [email protected]
Hora de envío: sábado 19 de diciembre de 2020 5:18:55 a.m.
Destinatario: Daniil-Osokin / light-human-pose-assessment.pytorch [email protected]
Cc: augenstern-lwx [email protected] ; Autor [email protected]
Asunto: Re: [Daniil-Osokin / light-human-pose-assessment.pytorch] Acerca de AP (# 124)

La inferencia de red se realizó 4 veces (no 6, es mi error), cada vez con una resolución de imagen de entrada diferente (escala diferente). Luego, se promediaron todas las salidas de la red. Puede consultar el script de validación https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/2df5db059db1a043169b65b633d7bb3b8efd13a6/val.py#L117 para obtener más detalles, admite la opción de escala múltiple.

-
Estás recibiendo esto porque eres el autor del hilo.
Responda a este correo electrónico directamente, véalo en GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748324241 , o cancele la suscripción https://github.com/ notificaciones / unsubscribe-auth / AP5B6GHRN44MSCXSFQTIEN3SVPBL7ANCNFSM4U65RKFQ .

El uso de escalas únicas o múltiples para la inferencia es una compensación de velocidad / precisión. La función de pérdida es la misma.

Gracias, me gustaría saber cómo calcular la pérdida después de la combinación de las etapas Heatmaps y PAFs? Porque el OpenPose original se calcula en dos etapas.

Es solo una suma de todas las pérdidas de mapas de calor y pafs. Puede consultar el guión de formación para obtener más detalles.

Gracias.

获取 Outlook para iOS https://aka.ms/o0ukef


发件人: Daniil-Osokin [email protected]
发送 时间: domingo 20 de diciembre de 2020 11:23:10 p.m.
收件人: Daniil-Osokin / ligera-pose-humana-estimación.pytorch [email protected]
抄送: augenstern-lwx [email protected] ; Autor [email protected]
主题: Re: [Daniil-Osokin / light-human-pose-assessment.pytorch] Acerca de AP (# 124)

Es solo una suma de todas las pérdidas de mapas de calor y pafs. Puede consultar el script de entrenamiento https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/master/train.py para obtener más detalles.

-
Estás recibiendo esto porque eres el autor del hilo.
Responda a este correo electrónico directamente, véalo en GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748621504 , o cancele la suscripción https://github.com/ notificaciones / unsubscribe-auth / AP5B6GEFLZNRTCBE4U5PCRLSVYJF5ANCNFSM4U65RKFQ .

¿Fue útil esta página
0 / 5 - 0 calificaciones

Temas relacionados

mathblue picture mathblue  ·  12Comentarios

zhenzhongle picture zhenzhongle  ·  5Comentarios

anerisheth19 picture anerisheth19  ·  10Comentarios

mohamdev picture mohamdev  ·  4Comentarios

hxm1150310617 picture hxm1150310617  ·  4Comentarios