Lightweight-human-pose-estimation.pytorch: ¿Cómo mejorar la precisión en este trabajo?

Creado en 29 abr. 2021  ·  5Comentarios  ·  Fuente: Daniil-Osokin/lightweight-human-pose-estimation.pytorch

Usé muchos otros modelos de red para reemplazar la red móvil original, como ghostnet, Octmobile net, etc. Pero sus pérdidas caen lentamente y permanecen constantes durante mucho tiempo. ¿Hay alguna forma de mejorar la precisión?

Comentario más útil

Entiéndelo. Siempre puede agregar la atención (por ejemplo, "Redes de compresión y excitación" ), probablemente aumentará la precisión :smiley:. Una forma más de mejorar la precisión es aumentar la resolución de salida de la red (y volver a entrenar): ahora reduce la muestra de entrada 8 veces, la mayoría de los otros modelos reducen la muestra de entrada solo 4 veces. Creo que lo crucial que se debe agregar es la supervisión multiescala (por ejemplo, "Red consciente de la estructura multiescala para la estimación de la postura humana" , "HigherHRNet: Aprendizaje de representación consciente de la escala para la estimación de la postura humana de abajo hacia arriba" ). Un truco más es votar mapas para ubicaciones mejoradas de puntos clave: cada píxel de salida en un mapa (s) predice el cambio a los puntos ke más cercanos, o algo así (p. ej., " PifPaf: campos compuestos para la estimación de la postura humana" , Representación de coordenadas para la estimación de la pose humana" . También hay algunos trucos menores, como circunvoluciones deformables, minería de ejemplos difíciles, etc. Creo que la red troncal de EfficientNet (con pesos previamente entrenados) mejorará la precisión si solo la usa en lugar de MobileNet. Se trata de mejorar la precisión. Mejorar la velocidad de inferencia debería ser relativamente fácil (pero los trucos difieren de un dispositivo de inferencia en particular), al menos la destilación o la poda funcionarán.

Todos 5 comentarios

¡Hola! El problema aquí es la precisión sobre qué objetos desea mejorar. ¿Tienen diferente escala/tamaño/forma? Lo más simple que puede intentar es aumentar la resolución de entrada de la red.

Gracias por su respuesta.
Mi idea se basa en su trabajo (punto de control _ iter _ 370000 alcanza el mapa = 40 %). Se mejoró Mobile net a más del 40 % o se hizo el modelo más liviano, pero cambié varios modelos de entrenamiento previo durante casi dos años y descubrí que el efecto no era tan bueno como mobilenet _ sgd _ 68.848.pth。 Sinceramente, deseo que me brinde algunos ocurrencia.
¡Finalmente le deseo buena salud, trabaje sin problemas!

Entiéndelo. Siempre puede agregar la atención (por ejemplo, "Redes de compresión y excitación" ), probablemente aumentará la precisión :smiley:. Una forma más de mejorar la precisión es aumentar la resolución de salida de la red (y volver a entrenar): ahora reduce la muestra de entrada 8 veces, la mayoría de los otros modelos reducen la muestra de entrada solo 4 veces. Creo que lo crucial que se debe agregar es la supervisión multiescala (por ejemplo, "Red consciente de la estructura multiescala para la estimación de la postura humana" , "HigherHRNet: Aprendizaje de representación consciente de la escala para la estimación de la postura humana de abajo hacia arriba" ). Un truco más es votar mapas para ubicaciones mejoradas de puntos clave: cada píxel de salida en un mapa (s) predice el cambio a los puntos ke más cercanos, o algo así (p. ej., " PifPaf: campos compuestos para la estimación de la postura humana" , Representación de coordenadas para la estimación de la pose humana" . También hay algunos trucos menores, como circunvoluciones deformables, minería de ejemplos difíciles, etc. Creo que la red troncal de EfficientNet (con pesos previamente entrenados) mejorará la precisión si solo la usa en lugar de MobileNet. Se trata de mejorar la precisión. Mejorar la velocidad de inferencia debería ser relativamente fácil (pero los trucos difieren de un dispositivo de inferencia en particular), al menos la destilación o la poda funcionarán.

Gracias por tu propuesta, voy a reflexionar seriamente y probar, ¡muchas gracias!
Eres un 'blogger' responsable y amable

Bien, cerrando.

¿Fue útil esta página
0 / 5 - 0 calificaciones

Temas relacionados

hxm1150310617 picture hxm1150310617  ·  4Comentarios

tangfayuan picture tangfayuan  ·  7Comentarios

jinfagang picture jinfagang  ·  18Comentarios

anerisheth19 picture anerisheth19  ·  10Comentarios

augenstern-lwx picture augenstern-lwx  ·  9Comentarios