在使用深度学习库PyTorch时,我遇到了这样的定义。 ctx
和self
有相同的行为吗?
class LinearFunction(Function):
@staticmethod
def forward(ctx, input, weight, bias=None):
ctx.save_for_backward(input, weight, bias)
output = input.mm(weight.t())
if bias is not None:
output += bias.unsqueeze(0).expand_as(output)
return output
@staticmethod
def backward(ctx, grad_output):
input, weight, bias = ctx.saved_variables
grad_input = grad_weight = grad_bias = None
if ctx.needs_input_grad[0]:
grad_input = grad_output.mm(weight)
if ctx.needs_input_grad[1]:
grad_weight = grad_output.t().mm(input)
if bias is not None and ctx.needs_input_grad[2]:
grad_bias = grad_output.sum(0).squeeze(0)
return grad_input, grad_weight, grad_bias
self
。它们是静态的。换句话说,它们被使用时就像在类外定义的函数一样。对这些方法来说,ctx
是显式传递的,它和self
没有任何关系。 - sytechctx
在某种程度上是context
的缩写。 - sam