Detectron: Wie kann ich das Modell von Grund auf trainieren?

Erstellt am 27. Jan. 2018  ·  3Kommentare  ·  Quelle: facebookresearch/Detectron

Hallo.

Ich möchte die Maske von Grund auf neu trainieren (ohne das vorab trainierte Gewicht zu verwenden).

Ich hoffe, dass der Gewichtsparameter von der zufälligen Initialisierung ausgeht.

Wie kann ich das machen?

bug

Hilfreichster Kommentar

Das Training von Grund auf ist in Bezug auf die Codierung möglich und kann ohne große Änderungen an diesem Code durchgeführt werden. Es können jedoch Konvergenzprobleme auftreten, die beispielsweise dadurch verursacht werden, dass BN nicht verwendet wird oder BN verwendet wird, jedoch mit einer kleinen Mini-Batch-Größe. Wir ermutigen dazu, diesbezüglich weitere Forschungsarbeiten durchzuführen.

Alle 3 Kommentare

Das Training von Grund auf ist in Bezug auf die Codierung möglich und kann ohne große Änderungen an diesem Code durchgeführt werden. Es können jedoch Konvergenzprobleme auftreten, die beispielsweise dadurch verursacht werden, dass BN nicht verwendet wird oder BN verwendet wird, jedoch mit einer kleinen Mini-Batch-Größe. Wir ermutigen dazu, diesbezüglich weitere Forschungsarbeiten durchzuführen.

Eine Einschränkung: Wir haben kurz vor der Veröffentlichung festgestellt, dass derzeit ein Fehler vorliegt, der beim Versuch, von Grund auf neu zu trainieren, zu einem Absturz führt (die Skalierungs- und Bias-Parameter der AffineChannel-Operationen werden nicht initialisiert). Wir haben einen Patch dafür, der hoffentlich diese Woche veröffentlicht wird. Sobald dies behoben ist, wird das Training von Grund auf ausgelöst, wenn TRAIN.WEIGHTS als leere Zeichenfolge belassen wird. Wie @KaimingHe sagt, muss mehr Forschung betrieben werden, bevor man gute Ergebnisse erwarten kann.

Da e59c30bb1a6ced1a310b72d563bd9a60aba84999 festgeschrieben wurde, ist es jetzt möglich, von Grund auf zu trainieren, indem TRAIN.WEIGHTS auf die leere Zeichenfolge gesetzt wird (äquiv. Löschen aus Ihrer Yaml-Datei). Ich möchte jedoch Kaimings Argument bekräftigen, dass erhebliche Experimente erforderlich sind, um vernünftige Ergebnisse zu erzielen.

War diese Seite hilfreich?
0 / 5 - 0 Bewertungen