实战 Kaggle 比赛:预测房价

https://zh.d2l.ai/chapter_multilayer-perceptrons/kaggle-house-price.html

简单调了下参数,效果:


尽力了,以目前的实力实在是提不上去了,只能说这个案例让我更深刻地认识到了什么是过拟合,一个较大的网络训练上千个epoch后可以在训练集上达到接近0的loss,但是提交上去的效果却可能还不如一个较小的模型训练100个epoch

为什么这里不需要加model.losses的正则化的loss了呢

在看d2l电子版的时候发现一个问题,


这里为什么在计算loss时使用MSE而记录时却用log-rmse呢?为什么不直接使用log-rmse作为损失函数来计算呢?