Lightweight-human-pose-estimation.pytorch: 이 μž‘μ—…μ˜ 정확도λ₯Ό λ†’μ΄λŠ” 방법은 λ¬΄μ—‡μž…λ‹ˆκΉŒ?

에 λ§Œλ“  2021λ…„ 04μ›” 29일  Β·  5μ½”λ©˜νŠΈ  Β·  좜처: Daniil-Osokin/lightweight-human-pose-estimation.pytorch

λ‚˜λŠ” κ³ μŠ€νŠΈλ„·, μ˜₯트λͺ¨λΉŒλ„· λ“±κ³Ό 같은 κΈ°μ‘΄ λͺ¨λ°”일 넷을 λŒ€μ²΄ν•˜κΈ° μœ„ν•΄ λ‹€λ₯Έ λ§Žμ€ λ„€νŠΈμ›Œν¬ λͺ¨λΈμ„ μ‚¬μš©ν–ˆμŠ΅λ‹ˆλ‹€. κ·ΈλŸ¬λ‚˜ κ·Έλ“€μ˜ 손싀은 천천히 떨어지고 μ˜€λž«λ™μ•ˆ μΌμ •ν•˜κ²Œ μœ μ§€λ©λ‹ˆλ‹€. 정확도λ₯Ό 높일 수 μžˆλŠ” 방법이 μžˆμŠ΅λ‹ˆκΉŒ?

κ°€μž₯ μœ μš©ν•œ λŒ“κΈ€

였, μ•Œκ² μ–΄. 항상 주의λ₯Ό 기울일 수 μžˆμŠ΅λ‹ˆλ‹€(예: "Squeeze-and-Excitation Networks" ). 그러면 정확도가 ν–₯상될 κ²ƒμž…λ‹ˆλ‹€. 정확도λ₯Ό ν–₯μƒμ‹œν‚€λŠ” 또 ν•˜λ‚˜μ˜ 방법은 λ„€νŠΈμ›Œν¬ 좜λ ₯ 해상도λ₯Ό λ†’μ΄λŠ” κ²ƒμž…λ‹ˆλ‹€. 이제 μž…λ ₯을 8번 λ‹€μš΄μƒ˜ν”Œλ§ν•˜κ³  λŒ€λΆ€λΆ„μ˜ λ‹€λ₯Έ λͺ¨λΈμ€ μž…λ ₯을 4번만 λ‹€μš΄μƒ˜ν”Œλ§ν•©λ‹ˆλ‹€. μΆ”κ°€ν•΄μ•Ό ν•  μ€‘μš”ν•œ 것은 닀쀑 μŠ€μΌ€μΌ 감독(예: "인간 포즈 좔정을 μœ„ν•œ 닀쀑 μŠ€μΌ€μΌ ꡬ쑰 인식 λ„€νŠΈμ›Œν¬" , "HigherHRNet: 상ν–₯식 인간 포즈 좔정을 μœ„ν•œ μŠ€μΌ€μΌ 인식 ν‘œν˜„ ν•™μŠ΅" )μž…λ‹ˆλ‹€. 또 ν•˜λ‚˜μ˜ νŠΈλ¦­μ€ κ°œμ„ λœ ν‚€ν¬μΈνŠΈ μœ„μΉ˜μ— λŒ€ν•œ νˆ¬ν‘œ λ§΅μž…λ‹ˆλ‹€. 맡의 각 좜λ ₯ 픽셀은 κ°€μž₯ κ°€κΉŒμš΄ ν‚€ν¬μΈνŠΈ λ˜λŠ” μ’…λ₯˜(예: "PifPaf: 인간 포즈 좔정을 μœ„ν•œ 볡합 ν•„λ“œ" , "뢄포 인식 인간 포즈 좔정을 μœ„ν•œ μ’Œν‘œ ν‘œν˜„" ). λ³€ν˜• κ°€λŠ₯ν•œ μ»¨λ³Όλ£¨μ…˜, ν•˜λ“œ 예제 λ§ˆμ΄λ‹ λ“±κ³Ό 같은 λͺ‡ 가지 μ‚¬μ†Œν•œ νŠΈλ¦­λ„ μžˆμŠ΅λ‹ˆλ‹€. MobileNet λŒ€μ‹ μ— EfficientNet λ°±λ³Έ(사전 ν›ˆλ ¨λœ κ°€μ€‘μΉ˜ 포함)이 정확도λ₯Ό ν–₯μƒμ‹œν‚¬ 것이라고 λ―ΏμŠ΅λ‹ˆλ‹€. 정확도 ν–₯상에 κ΄€ν•œ κ²ƒμž…λ‹ˆλ‹€. μΆ”λ‘  속도λ₯Ό ν–₯μƒμ‹œν‚€λŠ” 것은 μƒλŒ€μ μœΌλ‘œ μ‰¬μ›Œμ•Ό ν•©λ‹ˆλ‹€(κ·ΈλŸ¬λ‚˜ νŠΈλ¦­μ€ νŠΉμ • μΆ”λ‘  μž₯μΉ˜μ™€ λ‹€λ¦…λ‹ˆλ‹€). μ΅œμ†Œν•œ 증λ₯˜λ‚˜ κ°€μ§€μΉ˜κΈ°λŠ” μž‘λ™ν•©λ‹ˆλ‹€.

λͺ¨λ“  5 λŒ“κΈ€

μ•ˆλ…•! μ—¬κΈ°μ„œ λ¬Έμ œλŠ” κ°œμ„ ν•˜λ €λŠ” 개체의 μ •ν™•μ„±μž…λ‹ˆλ‹€. 크기/크기/λͺ¨μ–‘이 λ‹€λ₯Έκ°€μš”? κ°€μž₯ κ°„λ‹¨ν•œ 방법은 λ„€νŠΈμ›Œν¬ μž…λ ₯ 해상도λ₯Ό λ†’μ΄λŠ” κ²ƒμž…λ‹ˆλ‹€.

λ‹Ήμ‹ μ˜ 닡변에 κ°μ‚¬λ“œλ¦½λ‹ˆλ‹€.
λ‚΄ μ•„μ΄λ””μ–΄λŠ” κ·€ν•˜μ˜ μž‘μ—…μ„ 기반으둜 ν•©λ‹ˆλ‹€( checkpoint _ iter _ 370000 도달 map = 40 % ). λͺ¨λ°”일 넷을 40% μ΄μƒμœΌλ‘œ κ°œμ„ ν•˜κ±°λ‚˜ λͺ¨λΈμ„ 더 κ°€λ³κ²Œ λ§Œλ“€μ—ˆμ§€λ§Œ 거의 2λ…„ λ™μ•ˆ μ—¬λŸ¬ 사전 ν•™μŠ΅ λͺ¨λΈμ„ λ³€κ²½ν–ˆμœΌλ©° νš¨κ³Όκ°€ λͺ¨λ°”일넷 _ sgd _ 68.848.pth만큼 쒋지 μ•Šλ‹€λŠ” 것을 λ°œκ²¬ν–ˆμŠ΅λ‹ˆλ‹€. 아이디어.
λ§ˆμ§€λ§‰μœΌλ‘œ 건강을 κΈ°μ›ν•˜λ©° μ›ν™œν•˜κ²Œ μΌν•˜μ‹­μ‹œμ˜€!

였, μ•Œκ² μ–΄. 항상 주의λ₯Ό 기울일 수 μžˆμŠ΅λ‹ˆλ‹€(예: "Squeeze-and-Excitation Networks" ). 그러면 정확도가 ν–₯상될 κ²ƒμž…λ‹ˆλ‹€. 정확도λ₯Ό ν–₯μƒμ‹œν‚€λŠ” 또 ν•˜λ‚˜μ˜ 방법은 λ„€νŠΈμ›Œν¬ 좜λ ₯ 해상도λ₯Ό λ†’μ΄λŠ” κ²ƒμž…λ‹ˆλ‹€. 이제 μž…λ ₯을 8번 λ‹€μš΄μƒ˜ν”Œλ§ν•˜κ³  λŒ€λΆ€λΆ„μ˜ λ‹€λ₯Έ λͺ¨λΈμ€ μž…λ ₯을 4번만 λ‹€μš΄μƒ˜ν”Œλ§ν•©λ‹ˆλ‹€. μΆ”κ°€ν•΄μ•Ό ν•  μ€‘μš”ν•œ 것은 닀쀑 μŠ€μΌ€μΌ 감독(예: "인간 포즈 좔정을 μœ„ν•œ 닀쀑 μŠ€μΌ€μΌ ꡬ쑰 인식 λ„€νŠΈμ›Œν¬" , "HigherHRNet: 상ν–₯식 인간 포즈 좔정을 μœ„ν•œ μŠ€μΌ€μΌ 인식 ν‘œν˜„ ν•™μŠ΅" )μž…λ‹ˆλ‹€. 또 ν•˜λ‚˜μ˜ νŠΈλ¦­μ€ κ°œμ„ λœ ν‚€ν¬μΈνŠΈ μœ„μΉ˜μ— λŒ€ν•œ νˆ¬ν‘œ λ§΅μž…λ‹ˆλ‹€. 맡의 각 좜λ ₯ 픽셀은 κ°€μž₯ κ°€κΉŒμš΄ ν‚€ν¬μΈνŠΈ λ˜λŠ” μ’…λ₯˜(예: "PifPaf: 인간 포즈 좔정을 μœ„ν•œ 볡합 ν•„λ“œ" , "뢄포 인식 인간 포즈 좔정을 μœ„ν•œ μ’Œν‘œ ν‘œν˜„" ). λ³€ν˜• κ°€λŠ₯ν•œ μ»¨λ³Όλ£¨μ…˜, ν•˜λ“œ 예제 λ§ˆμ΄λ‹ λ“±κ³Ό 같은 λͺ‡ 가지 μ‚¬μ†Œν•œ νŠΈλ¦­λ„ μžˆμŠ΅λ‹ˆλ‹€. MobileNet λŒ€μ‹ μ— EfficientNet λ°±λ³Έ(사전 ν›ˆλ ¨λœ κ°€μ€‘μΉ˜ 포함)이 정확도λ₯Ό ν–₯μƒμ‹œν‚¬ 것이라고 λ―ΏμŠ΅λ‹ˆλ‹€. 정확도 ν–₯상에 κ΄€ν•œ κ²ƒμž…λ‹ˆλ‹€. μΆ”λ‘  속도λ₯Ό ν–₯μƒμ‹œν‚€λŠ” 것은 μƒλŒ€μ μœΌλ‘œ μ‰¬μ›Œμ•Ό ν•©λ‹ˆλ‹€(κ·ΈλŸ¬λ‚˜ νŠΈλ¦­μ€ νŠΉμ • μΆ”λ‘  μž₯μΉ˜μ™€ λ‹€λ¦…λ‹ˆλ‹€). μ΅œμ†Œν•œ 증λ₯˜λ‚˜ κ°€μ§€μΉ˜κΈ°λŠ” μž‘λ™ν•©λ‹ˆλ‹€.

λ‹Ήμ‹ μ˜ μ œμ•ˆμ— κ°μ‚¬λ“œλ¦½λ‹ˆλ‹€. μ§„μ§€ν•˜κ²Œ λ°˜μ„±ν•˜κ³  λ…Έλ ₯ν•˜κ² μŠ΅λ‹ˆλ‹€. λŒ€λ‹¨νžˆ κ°μ‚¬ν•©λ‹ˆλ‹€!
당신은 μ±…μž„κ° 있고 μΉœμ ˆν•œ 'λΈ”λ‘œκ±°'μž…λ‹ˆλ‹€.

μ•Œκ² μŠ΅λ‹ˆλ‹€. λ‹«μŠ΅λ‹ˆλ‹€.

이 νŽ˜μ΄μ§€κ°€ 도움이 λ˜μ—ˆλ‚˜μš”?
0 / 5 - 0 λ“±κΈ‰