Lightweight-human-pose-estimation.pytorch: Treine em um conjunto de dados personalizado

Criado em 30 ago. 2019  ·  12Comentários  ·  Fonte: Daniil-Osokin/lightweight-human-pose-estimation.pytorch

Olá, tentei treinar a rede com um conjunto de dados personalizado criado com coco-annotator (https://github.com/jsbroks/coco-annotator), mas a função CocoTrainDataset dentro de coco.py não retorna nada (len (conjunto de dados) é 0 após dataset = CocoTrainDataset (...)).
Qualquer ajuda?
De qualquer forma, é realmente possível treinar esse modelo em conjuntos de dados personalizados (com menos pontos-chave, talvez)?
Obrigado

Comentários muito úteis

Tudo bem, eu deveria ter colocado tudo que é necessário para executar o código neste repositório, espero que a descrição esteja clara o suficiente!
https://github.com/mathblue/Custom-Pose-Estimation-Yaw-Roll-Pitch-detection-tensorrt-compilation

Todos 12 comentários

Se você tiver dados no formato MS COCO, poderá seguir o parágrafo de treinamento para treinar o modelo. É possível treinar em um conjunto de dados com um número diferente de pontos-chave; no entanto, você precisará entender e modificar o código.

Obrigado por responder, consegui treiná-lo no meu conjunto de dados personalizado com menos pontos-chave, mas não consigo entender o propósito do array "sigmas" em pose.py.
obrigado novamente

Nós os usamos para rastrear a identificação de pessoas em vídeo (entre frames), veja aqui e aqui .

obrigado!

Olá @mathblue ,
Você concluiu com êxito o treinamento e a inferência em seu conjunto de dados personalizado? Você poderia compartilhar as etapas de como fazer isso? Muito obrigado.

Olá, sim, consegui treinar esse código em qualquer modificação de conjunto de dados personalizado
na verdade, algumas coisas, posso alterar o número de pontos-chave e usar Coco
anotador para anotar novas imagens. Eu não sei porque, mas eu nem sempre entendi
resultados excelentes, mas, de qualquer forma, não resultados de cama.
Fico feliz em compartilhar como fiz, lembro que até escrevi um pequeno
tutorial onde eu explico isso. Já faz muito tempo desde que trabalhei em
essas coisas mas assim que eu tiver um tempinho vou colocar as coisas
juntos e te enviarei a documentação.

Il giorno sab 6 giu 2020 alle ore 17:28 Thanh (Edward) Nguyen <
notificaçõ[email protected]> ha scritto:

Olá @mathblue https://github.com/mathblue ,
Você concluiu com êxito o treinamento e a inferência sobre o seu
conjunto de dados? Você poderia compartilhar as etapas de como fazer isso? Muito obrigado.

-
Você está recebendo isso porque foi mencionado.
Responda a este e-mail diretamente, visualize-o no GitHub
https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/42#issuecomment-640077979 ,
ou cancelar
https://github.com/notifications/unsubscribe-auth/AJT4BLX7DA4YO57S42YGFD3RVJOA5ANCNFSM4ISPICMA
.

Olá @mathblue ,
Obrigado pelo seu tempo. Estou muito curioso e interessado no seu trabalho, especialmente no treinamento do modelo em um subconjunto de pontos-chave. Estou ansioso pelo seu tutorial.

Tudo bem, eu deveria ter colocado tudo que é necessário para executar o código neste repositório, espero que a descrição esteja clara o suficiente!
https://github.com/mathblue/Custom-Pose-Estimation-Yaw-Roll-Pitch-detection-tensorrt-compilation

Olá @mathblue ,
Muito obrigado!

Olá, ele converte keypoints que contém pontos-chave na ordem COCO em converted_keypoints na ordem interna (apenas remapeamento e adição do ponto-chave do pescoço). Os ombros correspondem aos 5º e 6º índices da anotação COCO original .

Olá @ Daniil-Osokin,
Obrigada. Você está certo: o pedido COCO
"keypoints": ["nose","left_eye","right_eye","left_ear","right_ear","left_shoulder","right_shoulder","left_elbow","right_elbow","left_wrist","right_wrist","left_hip","right_hip","left_knee","right_knee","left_ankle","right_ankle"]

Esta página foi útil?
0 / 5 - 0 avaliações

Questões relacionadas

jinfagang picture jinfagang  ·  18Comentários

augenstern-lwx picture augenstern-lwx  ·  9Comentários

anerisheth19 picture anerisheth19  ·  10Comentários

tangfayuan picture tangfayuan  ·  7Comentários

hxm1150310617 picture hxm1150310617  ·  4Comentários