博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
机器学习中正则化的理解
阅读量:6892 次
发布时间:2019-06-27

本文共 906 字,大约阅读时间需要 3 分钟。

首先述说什么是正则化,

正则化是结构风险最小化策略的实现,是在经验风险上加上一个正则项(regularizer)或罚项(penalty  term)。是模型选择的典型方法。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值越大。比较常用的正则化项有模型参数向量的范数,l1-norm、l2-norm......

 

 

 

第1项经验风险较小的模型可能比较复杂(非零参数多),这是第2项的模型复杂度会较大。正则化的作用是选择经验风险与模型复杂度同时较小的模型。

用奥卡姆剃刀原理解释:在模型选择时,能够很好地解释已知数据并且十分简单的模型才是应该选择的模型。

从贝叶斯估计角度来看:正则项对应于模型的先验概率,可以假设复杂的模型具有较小的先验概率,而简单的模型具有加大的先验概率。(类似奥卡姆剃刀解释)

                            ---《统计学习方法》

正则化的理解:

正则化就是对最小化经验误差函数上加约束,这样的约束可以解释为先验知识(正则化参数等价于对参数引入先验分布)。

约束有引导作用,在优化误差函数的时候倾向于选择满足约束的梯度减少的方向,使最终的解倾向于符合先验知识(如一般的l-norm先验,表示原问题更可能是比较简单的,这样的优化倾向于产生参数值量级小的解,一般对应于稀疏参数的平滑解)。

同时正则化,解决了逆问题的不适定性,产生的解是存在,唯一同时也依赖于数据的,噪声对不适定的影响就弱,解就不会过拟合,而且如果先验(正则化)合适,则解就倾向于是符合真解(更不会过拟合了),即使训练集中彼此间不相关的样本数很少。

正则化大概有两个功能:

1,从模型修正上看,起了一个trade-off作用,用于平衡学习过程中两个基本量,名字诸如bias-variance、拟合能力-泛化能力、损失函数-推广能力、经验风险-结构风险等等;

2,从模型求解上看,正则化提供了一种唯一解的可能,众所周知,光用最小二乘拟合可能出现无数组解,加个L1或L2正则化项能有唯一解,即不适定性

转载于:https://www.cnblogs.com/deepcoding/p/3621090.html

你可能感兴趣的文章
Programming C#.Classes and Objects.成员方法
查看>>
《大道至简》读后感03
查看>>
分布式系统---幂等性设计
查看>>
把“数字的字符串”转换成“整数”时遇到的小麻烦
查看>>
消耗系统内存
查看>>
mysql-connector-c++ 编译安装
查看>>
A - Space Elevator(动态规划专项)
查看>>
C语言之数组与指针的易混淆知识点
查看>>
MakeFile 文件的使用
查看>>
css绝对居中img
查看>>
mysql使用存储过程和event定期删除
查看>>
基于python3+opencv3图像基础IO操作
查看>>
(旧)子数涵数·PS ——翻页效果
查看>>
Day2 Excel与数据处理之定位条件、选择性粘贴及查找功能
查看>>
npm install 时间很长解决方案
查看>>
搭建maven环境
查看>>
中国大学MOOC-C程序设计(浙大翁恺)—— 时间换算
查看>>
爬豆瓣电影名
查看>>
深度学习之各种网络结构
查看>>
leetcode20: Insert Interval
查看>>