线性回归的从零实现

https://zh-v2.d2l.ai/chapter_linear-networks/linear-regression-scratch.html

有个疑问,SGD方法的batchsize参数,是不是不需要作为参数传入,而是在方法内部计算为佳?
从后面简洁实现来看,sgd的时候似乎也并不需要传入batchsize参数

看代码实现
这一段

    dw, db = g.gradient(l, [w, b])
        # 使用参数的梯度更新参数
        sgd([w, b], [dw, db], lr, batch_size)

dw,db并没有计算batch_size,就是计算的顺序变了