机器学习之线性回归的改进-岭回归

慈云数据 1年前 (2024-03-19) 技术支持 66 0

带有L2正则化的线性回归-岭回归

机器学习之线性回归的改进-岭回归
(图片来源网络,侵删)

岭回归,其实也是一种线性回归。只不过在算法建立回归方程时候,加上正则化的限制,从而达到解决过拟合的效果

API

机器学习之线性回归的改进-岭回归
(图片来源网络,侵删)

sklearn.linear_model.Ridge(alpha=1.0, fit_intercept=True,solver=“auto”, normalize=False)

  • 具有l2正则化的线性回归
  • alpha:正则化力度,也叫 λ
  • λ取值:0~1 1~10
  • solver:会根据数据自动选择优化方法
  • sag:如果数据集、特征都比较大,选择该随机梯度下降优化
  • normalize:数据是否进行标准化
  • normalize=False:可以在fit之前调用preprocessing.StandardScaler标准化数据
  • Ridge.coef_:回归权重
  • Ridge.intercept_:回归偏置

    Ridge方法相当于SGDRegressor(penalty=‘l2’, loss=“squared_loss”),只不过SGDRegressor实现了一个普通的随机梯度下降学习,推荐使用Ridge(实现了SAG)

    sklearn.linear_model.RidgeCV(_BaseRidgeCV, RegressorMixin)

    • 具有l2正则化的线性回归,可以进行交叉验证
    • coef_:回归系数

      观察正则化程度的变化,对结果的影响?

      • 正则化力度越大,权重系数会越小
      • 正则化力度越小,权重系数会越大
微信扫一扫加客服

微信扫一扫加客服