Oi! Primeiramente, obrigado por seus maravilhosos trabalhos.
Termino de treinar o RetinaNet com o conjunto de dados COCO conforme você instruiu.
Quero treinar meu próprio conjunto de dados com RetinaNet ou outros modelos de linha de base.
Eu olho para a estrutura de código interna e descubro que todas as configurações do modelo são definidas no arquivo * .yaml e train_net.py lê o arquivo * .yaml e construo o banco de dados do arquivo .jason no diretório de anotações COCO.
Portanto, se eu quiser treinar meu próprio conjunto de dados, a única maneira é gerar o arquivo .json semelhante às anotações COCO?
@ nonstop1962 : sim, a maneira recomendada é converter seu conjunto de dados para o formato de anotação COCO json. Para caixas delimitadoras, isso geralmente pode ser feito em <100 linhas de Pythons. Claro que você pode fazer modificações arbitrárias no código Detectron para suportar formatos personalizados, mas isso é provavelmente mais difícil e mais sujeito a problemas com casos esquivos perdidos.
Obrigado pela sua resposta!
Obrigado por @rbgirshick !
Ok, então posso obter o conjunto de dados de treinamento se quiser segmentar a camiseta?
por exemplo, JSON get para uso da API COCO.
Eu acho que essa plataforma pode segmentação.
OK??
Obrigado ~!
Oi,
para quem precisa, aqui está um script para converter anotações xml pascal voc para o formato coco json: https://github.com/gamcoh/Object-Detection-Tools/blob/master/pascal_voc_xml2coco_json.py
Obrigado gamcoh
Comentários muito úteis
@ nonstop1962 : sim, a maneira recomendada é converter seu conjunto de dados para o formato de anotação COCO json. Para caixas delimitadoras, isso geralmente pode ser feito em <100 linhas de Pythons. Claro que você pode fazer modificações arbitrárias no código Detectron para suportar formatos personalizados, mas isso é provavelmente mais difícil e mais sujeito a problemas com casos esquivos perdidos.