Softmax回归的从零实现

https://zh-v2.d2l.ai/chapter_linear-networks/softmax-regression-scratch.html

在本章节的 3.6.6. 训练 中的 第一段 PyTorch 代码 中,第 21 行的注释(# 使用PyTorch内置的优化器和损失函数)是不是翻译有误?在 英文版中对应的代码注释 为 # Using custom built optimizer & loss criterion,即 使用定制的优化器和损失函数。

Thanks, @Linhan_Wu! 我们已经 fix here。欢迎下次contribute 到PR!

Thanks, @goldpiggy! 非常荣幸可以做出贡献,我 contribute 了关于其他章节的 PR !

国内电脑使用torchvison下载fashion mnist数据一直跑不动,有什么办法处理嘛?
已经尝试使用下面链接的方法将数据下载到本地并修改mnist.py中FashionMNIST类里的参数,但报错了

https://blog.csdn.net/wangxiaobei2017/article/details/104770519

为什么使用pytorch内置优化器和损失函数时,
1.计算训练损失要乘上len(y),是因为pytorch会自动对loss取均值?
2.计算样本数的公式为y.size().numel(), 若y为向量,该式结果不恒为1吗?

Yes. https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html

3.6.6训练中,else后面的注释,应该是custom built 优化器和损失函数,不是pytorch内置的优化器和损失函数,建议修改

Hey @loras_Zhang! Thanks! We have fixed in https://github.com/d2l-ai/d2l-zh/commit/dd8924ea46df23842d16e780d7cebb9ce0c6e2b6