栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

梯度下降算介绍以及代码详解

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

梯度下降算介绍以及代码详解

关于梯度下降
    • 什么是梯度下降:
    • 理论部分:
    • 梯度下降伪代码(个人感觉第(5)步应该转第(2)步):
    • 代码:

什么是梯度下降:

首先来看看梯度下降的一个直观的解释。比如我们在一座大山上的某处位置,由于我们不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这样一步步的走下去,一直走到觉得我们已经到了山脚。当然这样走下去,有可能我们不能走到山脚,而是到了某一个局部的山峰低处

理论部分:


梯度下降伪代码(个人感觉第(5)步应该转第(2)步):

代码:
import numpy as np

# 首先初始化函数
def f(x):
    return x ** 2 + 10 * np.sin(x)
    

# 然后初始化梯度函数
def df(x):
    return 2 * x + 10 * np.cos(x)
    

# 定义一个阈值
value = 10e-8


# 初始化起始点
k = 2

while True:
    grad = df(k)
#     print(grad)
    if np.abs(df(k)) < value:
        x_mark = k
        break
    else:
        # 找出最合适的学习率
        Lambda = np.linspace(0, 12, 10000000)
        tem = k-Lambda * grad       # 直接减去的梯度的方向,
        base_Lambda = Lambda[np.argmin(f(tem))]
#         print("最佳的学习率为", Lambda[np.argmin(f(tem))])
    if np.abs(k - (k-base_Lambda * grad)) < value or np.abs(f(k) - f(k-base_Lambda * grad)) < value:
        x_mark = k-base_Lambda * grad
        break
    k = k-base_Lambda * grad
print("局部最优的坐标X值为:",x_mark)
print("局部最优的学习率为:", base_Lambda)



Out:
局部最优的坐标X值为: 3.837467103051607
局部最优的学习率为: 11.37973433797343
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/339376.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号