实战 Kaggle 比赛:预测房价

请问为什么我的all_features是330列的,少了一列,我查看了代码是一模一样的。有遇到相同情况的吗?

由于加州的数据集有summary,里面都是文字.使用all_features = pd.get_dummies(all_features, dummy_na=True, dtype=int)会导致内存爆炸,我用32g内存依然会爆炸.所以我没有用哑变量处理,转而只训练纯数字维度的数据:all_features = all_features[numeric_features[1:]].这样结果是0.55211.对比autogluon的0.1x的精度差了特别多. :sweat_smile:


很难到0.1以下,不知道各位大佬如何做的