Softmax回归的简洁实现

http://zh-v2.d2l.ai/chapter_linear-networks/softmax-regression-concise.html

1.Pass.
2.It’s the phenomenon called overfitting. We can add more samples to the training set and introduce L2 normalization into our model.

# PyTorch不会隐式地调整输入的形状。
# 因此,我们定义了展平层(flatten)在线性层前调整网络输入的形状
net = nn.Sequential(nn.Flatten(), nn.Linear(784, 10))

这里注释的第2行翻译成“因此,我们在线性层前定义了展平层(flatten),来调整网络输入的形状”更符合中文逻辑。

Hi @bereze, 感谢分享,我们已经 fix here。欢迎下次 contribute 到PR!

在用pycharm实现时,出现错误:TypeError: torch.nn.modules.flatten.Flatten is not a Module subclass该在吗解决