こんにちは、あなたの仕事に感謝します! 質問があります。 元のOpenPose用紙の精度が61.8で、元のOpenPoseの分析の精度が48.6であるのはなぜですか?
やあ! 論文「PartAffinityFieldsを使用したリアルタイムマルチパーソン2Dポーズ推定」の元のモデルと比較しました。 3.2項の表4からわかるように、APは58.4%です。 一人のポーズ推定(CPM)の個別のモデルを使用して、見つかった人物ごとに追加の改良を行うと、61%に増加します。 そして、それらの58.4%は、マルチスケールテストモード(6スケール)で得られました。 APの48.6%は、テスト中の入力データに単一のスケールを使用して取得されます。
お返事ありがとうございます!6つのスケールとは何ですか?それは1つの初期段階と5つの洗練段階を意味しますか?
获取Outlookfor iOS https://aka.ms/o0ukef
发件人:ダニール・-Osokin [email protected]
ρ送時間:2020年12月18日金曜日午後11時14分
収件人:Daniil-Osokin / lightweight-human-pose-estimation.pytorch [email protected]
抄送:augenstern-lwx [email protected] ; 著者[email protected]
主题:Re:[Daniil-Osokin / lightweight-human-pose-estimation.pytorch] APについて(#124)
やあ! 論文「PartAffinityFieldsを使用したリアルタイムマルチパーソン2Dポーズ推定」 https://arxiv.org/pdf/1611.08050.pdfの元のモデルと比較しました。 3.2項の表4からわかるように、APは58.4%です。 一人のポーズ推定(CPM)の個別のモデルを使用して、見つかった人物ごとに追加の改良を行うと、61%に増加します。 そして、それらの58.4%は、マルチスケールテストモード(6スケール)で得られました。 APの48.6%は、テスト中の入力データに単一のスケールを使用して取得されます。
―
スレッドを作成したため、これを受け取っています。
このメールに直接返信するか、GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748143927で表示するか、 https://github.com/の登録を解除して
ネットワーク推論は4回実行され(6回ではなく、私の間違いです)、毎回異なる入力画像解像度(異なるスケール)で実行されました。 次に、すべてのネットワーク出力が平均化されました。 詳細については、検証スクリプトを確認できます。マルチスケールオプションがサポートされています。
ありがとう!当時、マルチスケールが使われていなかったのはなぜですか、結局、この方法でより高いAPを達成できるのでしょうか?
获取Outlookfor iOS https://aka.ms/o0ukef
发件人:ダニール・-Osokin [email protected]
ρ送時間:2020年12月19日土曜日5:18:55 AM
収件人:Daniil-Osokin / lightweight-human-pose-estimation.pytorch [email protected]
抄送:augenstern-lwx [email protected] ; 著者[email protected]
主题:Re:[Daniil-Osokin / lightweight-human-pose-estimation.pytorch] APについて(#124)
ネットワーク推論は4回実行され(6回ではなく、私の間違いです)、毎回異なる入力画像解像度(異なるスケール)で実行されました。 次に、すべてのネットワーク出力が平均化されました。 詳細については、検証スクリプトhttps://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/2df5db059db1a043169b65b633d7bb3b8efd13a6/val.py#L117を確認できます。マルチスケールオプションがサポートされています。
―
スレッドを作成したため、これを受け取っています。
このメールに直接返信するか、GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748324241で表示するか、 https://github.com/の登録を解除して
そして、損失関数は元のOpenPoseとは異なるのだろうか?
iOS用のOutlookを入手するhttps://aka.ms/o0ukef
差出人:Lee Wen Hsing [email protected]
送信時間:2020年12月19日土曜日10:39:10 AM
受信者:Daniil-Osokin / lightweight-human-pose-estimation.pytorch [email protected] ; Daniil-Osokin / lightweight-human-pose-estimation.pytorchlightweight-human-pose-estimation.pytorch@noreply.github 。 com
Cc:作成者[email protected]
件名:Re:[Daniil-Osokin / lightweight-human-pose-estimation.pytorch] APについて(#124)
ありがとうございました! 当時、マルチスケールが使用されていなかったのはなぜですか。結局、この方法でより高いAPを達成できるのでしょうか。
iOS用のOutlookを入手するhttps://aka.ms/o0ukef
投稿者:ダニール・-Osokin [email protected]
送信時間:2020年12月19日土曜日5:18:55 AM
受信者:Daniil-Osokin / lightweight-human-pose-estimation.pytorchlightweight-human-pose-estimation.pytorch@noreply.github.com
Cc:augenstern-lwx [email protected] ;作成者[email protected]
件名:Re:[Daniil-Osokin / lightweight-human-pose-estimation.pytorch] APについて(#124)
ネットワーク推論は4回実行され(6回ではなく、私の間違いです)、毎回異なる入力画像解像度(異なるスケール)で実行されました。 次に、すべてのネットワーク出力が平均化されました。 詳細については、検証スクリプトhttps://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/2df5db059db1a043169b65b633d7bb3b8efd13a6/val.py#L117を確認できます。マルチスケールオプションがサポートされています。
―
スレッドを作成したため、これを受け取っています。
このメールに直接返信するか、GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748324241で表示するか、 https://github.com/の登録を解除して
推論に単一または複数のスケールを使用することは、速度と精度のトレードオフです。 損失関数は同じです。
おかげで、ヒートマップとPAFのステージを組み合わせた後の損失を計算する方法を知りたいですか?元のOpenPoseは2つのステージで計算されるためです。
これは、ヒートマップとpafのすべての損失の合計にすぎません。 詳細については、トレーニングスクリプトを確認してください。
ありがとうございました。
获取Outlookfor iOS https://aka.ms/o0ukef
发件人:ダニール・-Osokin [email protected]
完了時間:2020年12月20日日曜日午後11時23分10秒
収件人:Daniil-Osokin / lightweight-human-pose-estimation.pytorch [email protected]
抄送:augenstern-lwx [email protected] ; 著者[email protected]
主题:Re:[Daniil-Osokin / lightweight-human-pose-estimation.pytorch] APについて(#124)
これは、ヒートマップとpafのすべての損失の合計にすぎません。 詳細については、トレーニングスクリプトhttps://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/master/train.pyを確認してください。
―
スレッドを作成したため、これを受け取っています。
このメールに直接返信するか、GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748621504で表示するか、 https://github.com/の登録を解除して
最も参考になるコメント
ありがとうございました。
获取Outlookfor iOS https://aka.ms/o0ukef
发件人:ダニール・-Osokin [email protected]
完了時間:2020年12月20日日曜日午後11時23分10秒
収件人:Daniil-Osokin / lightweight-human-pose-estimation.pytorch [email protected]
抄送:augenstern-lwx [email protected] ; 著者[email protected]
主题:Re:[Daniil-Osokin / lightweight-human-pose-estimation.pytorch] APについて(#124)
これは、ヒートマップとpafのすべての損失の合計にすぎません。 詳細については、トレーニングスクリプトhttps://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/blob/master/train.pyを確認してください。
―
スレッドを作成したため、これを受け取っています。
このメールに直接返信するか、GitHub https://github.com/Daniil-Osokin/lightweight-human-pose-estimation.pytorch/issues/124#issuecomment-748621504で表示するか、 https://github.com/の登録を解除して