栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

1.1.7. Least Angle Regression(最小角回归)和 1.1.8. LARS Lasso

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

1.1.7. Least Angle Regression(最小角回归)和 1.1.8. LARS Lasso

1.1.7. Least Angle Regression 简介

求极值的算法有很多,有基于梯度的,例如:
常规梯度下降、坐标梯度下降、最速梯度下降、共轭梯度下降

也有基于样本和角度的,例如:
前向选择,前向梯度,最小角回归

其中,最小角回归是前向选择和前向梯度的优化。

为了寻找最小值,每种算法采取了不同的方式,下面是初始点到极值(最值)点间的路径:

  • 纯粹梯度下降的路径是不规则的折线,每个折线的方向是梯度负方向
  • 最速下降走折线,且前后两条折线必正交,因为方向可重复
  • 坐标梯度下降也走正交折线(方向必延坐标轴方向),方向可重复
  • 共轭梯度下降走折线,其全局正交(走的是多维空间的“边”)
  • 前向选择基于样本固定了路径的方向(基于样本,每个样本都是一种特征的线性组合),用残差选择方向,有投影逼近目标
  • 前向梯度基于样本方向和长度,逐步逼近
  • 最小角回归在前向梯度的基础上,对样本(初始线性组合)再做组合,每次组合合并一个样本,最后在样本数次步骤内解决问题
优点
  1. 因为它的迭代是基于样本的,所以在样本数远少于特征数时,它的效率会很高
  2. 它与前向选择是同样的时间复杂度(样本数)
  3. 它会生成一个完整的分段线性解路径,这在交叉验证或类似的模型优化尝试中非常有用。
  4. 如果两个特征与目标几乎相等相关,则它们的系数应以大致相同的速率增加。因此,该算法的行为与直觉所期望的一样,并且也更稳定。(可以很好的解决多重共线性)
  5. 可用于其它模型:比如lasso
缺点

基于残差(样本):对噪声很敏感

1.1.8. LARS Lasso


LassoLars是使用LARS算法实现的套索模型,与基于坐标下降的实现不同,这产生了精确的解,该解作为其系数范数的函数是分段线性的

Lars 算法几乎免费提供沿正则化参数的系数的完整路径,因此常见的操作是使用lars_path或lars_path_gram的函数之一检索路径。

该算法类似于前向逐步回归,但不是在每个步骤中包括特征,而是在一个方向上增加,该方向与每个系数与残差的相关性相等。

LARS 解不是给出向量结果,而是由一条曲线组成,该曲线表示
参数向量的 l 1 l_1 l1​范数。完整系数路径存储在形状coef_path_数组中(n_features,max_features + 1)。第一列始终为零。

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/649594.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号