线性回归从零实现

def sgd(params,lr,batch_size):
    with torch.no_grad():
         for param in params:
            param -= lr * param.grad / batch_size
            param.grad.zero_()

为什么跟老师写的一样的代码,却报错了呢TypeError: unsupported operand type(s) for *: ‘float’ and ‘NoneType’

1 Like

兄弟,我也和你一样的报错,然后我自己手敲的代码和教程里的做campare with clipboard,原来是loss那边教程里用的是squared_loss,并不是sgd,错把梯度下降函数当做loss了,所以我也报了同样的错!