๋ฒ๊ทธ์ธ๊ฐ์? torch.__version__ ์ '0.1.11+b13b701' ์ ๋๋ค.
(๊ฑฐ์) ์ต์ ๋ฒ์ ( '0.1.11+8aa1cef'
)์์ ์ ์๋ํฉ๋๋ค.
import torch
import torch.nn as nn
from torch.autograd import Variable
y = Variable(torch.rand(5, 3), requires_grad=True)
t = Variable(torch.LongTensor(5).random_(0, 2))
m = nn.MultiMarginLoss()
loss = m(y, t)
loss.backward()
print(y.grad)
์ถ๋ ฅ
Variable containing:
-0.1333 0.0667 0.0667
0.0667 -0.1333 0.0667
0.0667 -0.1333 0.0667
0.0667 -0.1333 0.0667
0.0667 -0.1333 0.0667
[torch.FloatTensor of size 5x3]
์๋
,
nn.Module
์๋ ๋ฐฑ์๋๊ฐ ์์ผ๋ฉฐ(์ด๋ ๊ฒ๋ ์์), ํฌ์๋๋ autograd ํธํ ๋ฐฉ๋ฒ์ผ๋ก ๊ตฌํ๋๋ฏ๋ก ์๋์ผ๋ก ๊ตฌ๋ถ๋ฉ๋๋ค.
MultiMarginLoss
์ ๋ํ ๊ตฌํ์ ์ฐพ์ผ๋ ค๋ฉด ์ฌ๊ธฐ c์์ ๊ตฌํ๋ฉ๋๋ค.
๊ฐ์ฌ ํด์. ์ด์ ๋ง PyTorch๋ฅผ ์์ํ๊ณ ์์ต๋๋ค. ์ด์ ์ดํดํฉ๋๋ค.
๊ฐ์ฅ ์ ์ฉํ ๋๊ธ
์๋ ,
nn.Module
์๋ ๋ฐฑ์๋๊ฐ ์์ผ๋ฉฐ(์ด๋ ๊ฒ๋ ์์), ํฌ์๋๋ autograd ํธํ ๋ฐฉ๋ฒ์ผ๋ก ๊ตฌํ๋๋ฏ๋ก ์๋์ผ๋ก ๊ตฌ๋ถ๋ฉ๋๋ค.MultiMarginLoss
์ ๋ํ ๊ตฌํ์ ์ฐพ์ผ๋ ค๋ฉด ์ฌ๊ธฐ c์์ ๊ตฌํ๋ฉ๋๋ค.