Overfitting
过拟合不是孤立问题,它处在“训练表现”和“泛化能力”的张力中间。
拖动“模型复杂度”,看训练误差和验证误差如何变化。绿色越低越好,红色如果先降后升,就是经典过拟合。
点卡片翻面,把“背答案”这件事拆成几个具体部件。
过拟合不是一瞬间发生的,而是模型一点点从“学规律”滑向“背细节”。
训练初期,模型先抓住那些对训练集和新数据都有效的大模式,所以训练误差和验证误差都会下降。
参数更多、训练更久、自由度更高后,模型开始有能力拟合越来越细的小波动。
因为模型把训练集记得更细,所以训练表现会越来越好,看上去像“还在进步”。
模型学到的很多东西只对训练集有效,对新题无效,所以验证表现掉头变差。
这时模型像一个把题库背烂的学生:原题很强,稍微换个说法就露馅。
过拟合可怕的地方,不是“分数低”,而是“你误以为模型很好”。
如果你只盯训练集成绩,模型越训越好看,曲线一路向下,看起来像一切都在进步。可你其实不知道它是在学规律,还是在背细节。
一旦引入验证集、早停、正则化和更多数据,你就能在模型开始“背答案”的那一刻踩刹车,把复杂度拉回到真正能泛化的位置。
很多人对过拟合的误判,恰恰来自“把训练成绩当成了真实能力”。
“背题库”这个类比很好懂,但还是有边界。
顺着这些概念看,过拟合会更立体。
答完这 3 题,基本就能分清“学会了”和“背会了”。