J'essaie de remplacer Mobilenet-V1 par Mobilenet-V2. Des idées ?
Veuillez vérifier le papier. En bref, il n'a donné aucune amélioration de vitesse/précision.
Je l'ai vérifié. Cependant, j'essayais d'implémenter MobileNetV2 sur votre algorithme. Je reçois des erreurs. Pouvez-vous partager le code s'il vous plaît?
Merci,
Ou si vous pouviez partager le modèle pré-entraîné pour MobileNet V2, ce serait génial aussi !
Je n'ai pas ce code. Vous pouvez poster l'erreur, il est peut-être possible de la déboguer.
D'accord. Merci!
J'ai lu votre article sur cette mise en œuvre et j'ai une question. Que signifie "couper en conv4_1", "couper en conv5_5", etc. dans la sélection du backbone MobileNet ?
Cela signifie combien de couches de backbone prennent. MobileNet v1 a 6 blocs, qui se composent de convolutions en profondeur et de convolutions ponctuelles 1x1. Après chaque bloc, la foulée augmente (il y a une convolution avec foulée == 2). Le premier nombre conv 5 _5 est l'indice de bloc, le second conv5_ 5 est l'indice de convolution (en profondeur + en point) à l'intérieur du bloc. Nous supprimons la foulée dans conv4_2 et ajoutons la dilatation dans conv5_1, vous pouvez le vérifier dans le code .
Frais. Cela explique beaucoup de choses.
Encore merci!
Je vous en prie!
Y a-t-il une manière spécifique de calculer les GLOPS et le nombre de paramètres ? Je prévois d'utiliser https://github.com/sovrasov/flops-counter.pytorch
Celui-ci est ok, on dirait que nous l'avons utilisé. Vous pouvez également l'installer via pip .