Underfitting
欠拟合和过拟合是机器学习里最常见的一对失衡状态:一个学太浅,一个学太死。
拖动“模型复杂度”,看训练误差和验证误差怎么变。左侧那段“两个都很高”的区域,就是欠拟合最典型的样子。
点卡片翻面,把“学得不够”这件事拆成几个常见来源。
欠拟合不是“数据太坏”的同义词,更常见的是模型从一开始就没被给足学习能力。
参数太少、结构太简单,或者特征表达不够,导致模型一开始就缺少描述规律的工具。
如果学习率、训练轮数或优化过程不合适,模型还没来得及把基础模式吃透,就提前停下来了。
因为能力不够,模型在旧题上都拿不到好成绩。训练误差降不下去,是最明显的信号。
既然连训练集里的基本规律都没学会,遇到新数据时表现自然更谈不上稳定。
这时模型不像在背答案,而像是课本只翻了封面:每个词都见过,真题一道都不会。
欠拟合最大的坑,不是“模型没训练”,而是“你以为再多等等它就会自己变聪明”。
如果模型太简单、特征太弱或者训练太短,它会在训练集和验证集上同时表现不佳。你看到的不是“谨慎稳健”,而是“根本没抓住问题本质”。
当你适当增加模型容量、延长训练、改进特征或放松过强约束后,模型才有机会先把基础规律学明白,再去谈泛化能力和稳定性。
很多人看到模型分数低,第一反应是“数据不行”;其实也可能是模型自己太弱了。
“书只翻了封面”这个类比好懂,但也不是一一对应。
顺着这些概念看,欠拟合会更立体。
答完这 3 题,基本就能分清“学太少”和“学太死”。