هذا الخلل؟ torch .__ الإصدار__ هو "0.1.11 + b13b701".
يعمل جيدًا بالنسبة لي مع (تقريبًا) أحدث إصدار ( '0.1.11+8aa1cef'
)
import torch
import torch.nn as nn
from torch.autograd import Variable
y = Variable(torch.rand(5, 3), requires_grad=True)
t = Variable(torch.LongTensor(5).random_(0, 2))
m = nn.MultiMarginLoss()
loss = m(y, t)
loss.backward()
print(y.grad)
النواتج
Variable containing:
-0.1333 0.0667 0.0667
0.0667 -0.1333 0.0667
0.0667 -0.1333 0.0667
0.0667 -0.1333 0.0667
0.0667 -0.1333 0.0667
[torch.FloatTensor of size 5x3]
مرحبا،
لا يحتوي nn.Module
على شكل عكسي (ليس لدى أي منهم) ، يتم تطبيق الأمام باستخدام طرق متوافقة مع autograd وبالتالي يتم تمييزه تلقائيًا.
إذا كنت ترغب في العثور على تطبيق MultiMarginLoss
، فسيتم تنفيذه هنا في c.
شكرا. لقد بدأت للتو مع PyTorch. أنا أفهمها الآن.
التعليق الأكثر فائدة
مرحبا،
لا يحتوي
nn.Module
على شكل عكسي (ليس لدى أي منهم) ، يتم تطبيق الأمام باستخدام طرق متوافقة مع autograd وبالتالي يتم تمييزه تلقائيًا.إذا كنت ترغب في العثور على تطبيق
MultiMarginLoss
، فسيتم تنفيذه هنا في c.