知行编程网知行编程网  2022-04-16 13:00 知行编程网 隐藏边栏 |   抢沙发  39 
文章评分 0 次,平均分 0.0

为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?

编辑:忆臻

https://www.zhihu.com/question/351352422

本文仅作为学术分享,如果侵权,会删文处理

机器学习算法与自然语言处理报道

为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?


作者:徐啸
https://www.zhihu.com/question/351352422/answer/862023291


题主的问题可以理解为:模型复杂度和偏差、方差之间的关系

首先从逻辑上解释这三者之间的关系。从直觉上看,如果暂且忽略优化问题,模型的复杂度越大(这里的复杂度我觉得理解为模型的“容量、能力”更便于理解),模型的拟合能力就会越强,也就更容易发生过拟合

那么这和方差、偏差又有什么关系呢?这里需要对偏差和方差有一定的理解:


  • 偏差(Bias):在不同训练集上训练得到的所有模型的平均性能最优模型差异,可以用来衡量模型的拟合能力

  • 方差(Variance):在不同的训练集上训练得到的模型之间的性能差异,表示数据扰动对模型性能的影响,可以用来衡量模型是否容易过拟合,即模型的泛化能力

所以,当模型的复杂度增加时,模型的拟合能力得到增强,偏差便会减小,但很有可能会由于拟合“过度”,从而对数据扰动更加敏感,导致方差增大。从模型评价上来看,模型复杂度增加后,出现验证集效果提升,但是测试集效果下降的现象。


接着从偏差-方差分解(Bias-Variance Decomposition),进行简要阐述,详细内容请见《神经网络与深度学习》的 2.4 节 偏差-方差分解。


为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?为模型的期望错误, 即为偏差,为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?即为在训练集为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?上训练得到的模型,为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?
指在不同训练集 上训练得到的所有模型性能的期望值,而为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?


指的是最优模型,也就是上面所说的“在不同训练集上训练得到的所有模型的平均性能和最优模型的差异”。


,所以为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?即为方差,表示在不同的训练集上训练得到的模型之间的性能差异。

通过上述公式,可以深入理解偏差与方差的含义。基于此,我们就可以理解下图中偏差与方差的四种组合情况:


为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?


以上个人浅见,如有谬误,还望指明。




作者:汪宇
https://www.zhihu.com/question/351352422/answer/862120414


如果没理解错,这里的assumption是:

模型复杂度增加,模型的能力越强,使得在训练的时候,可以更好地fit training data。

基于这个assumption,那么看这个图:


为什么模型复杂度增加时,模型预测的方差会增大,偏差会减小?


from: deeplearningbook (Goodfellow, Ian, Yoshua Bengio, and Aaron Courville. Deep learning. MIT press, 2016.)


(模型复杂度,bias, variance)的关系 和 (模型复杂度,underfitting,overfitting)的关系联系的很紧密。


Bias偏差衡量的是你的预测值和真实值的差距,也就是你的模型学的怎么样。在模型capacity不够的情况下,在underfitting的zone里,你预测的值通常跟真实值差距很大,那么bias就会比较大。随着模型capacity增加,模型越来越强,越拟合你真实的数据值,bias会降低。


Variance方差衡量的是‘how we would expect the estimate we compute from data to vary as we independently resample the dataset from the underlying data generating process’(from deeplearningbook)

也就是说,衡量的是你training data如果改变,对你的模型改变大不大。通常来说,如果你的模型capacity增大,那么就更容易overfit,那么training data的改变,就会影响你的模型,也就是方差会增大;相反,如果你的模型underfit,那么training data稍微改变一些,并不会对模型产生较大影响,方差小,模型的波动小。

完—
为您推荐

从6万用户评论中,选出23门全世界最好的CS免费课

GRE作文用AI打分,已经20周年了:AI给中国考生的分数,远高于人类打分

这位90后学霸,即将任教麻省理工
南京大学「自然指数」超越清华北大,位列全国高校第一、世界第七,突显学术实力
【微软】AI-神经网络基本原理简明教程

本篇文章来源于: 深度学习这件小事

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享