开发者社区 问答 正文

为什么l1和l2正则化可以降低过拟合,本质原因是什么?

已解决

为什么l1和l2正则化可以降低过拟合,本质原因是什么?

展开
收起
游客gaiketk6mpmke 2022-04-01 16:23:15 650 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • 推荐回答

    过拟合现象有多种解释,经典的是从 bias-variance 角度来解释,这也是最常用的解释,正则化能够增大偏差但是降低方差

    PAC-learning泛化界解释:

    • 正则化降低了模型的拟合能力,使得模型结构变得更加简单,导致了模型的VC维下降,根据PAC的期望误差与风险误差的关系公式(西瓜书上有),一般情况下,VC维越小则二者越接近。(太过理论,可以pass了)
    2022-04-01 18:53:44 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论
问答地址:
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等