栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

22.详解过拟合代码

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

22.详解过拟合代码

'''
Description: overfitting-review
Autor: 365JHWZGo
Date: 2021-11-15 18:41:20
LastEditors: 365JHWZGo
LastEditTime: 2021-11-15 19:59:11
'''
# 导包
import torch
import matplotlib.pyplot as plt

# hyper parameters
LR = 0.01           #Adam学习效率
N_HIDDENS = 300     #隐藏神经元的个数
N_POINTS = 20       #数据点的个数

# create some data for training
#创造一个从[-10,10]的十个均等的间隔,并给他们新加一个列维度
x = torch.unsqueeze(torch.linspace(-10, 10, N_POINTS), dim=1)
# torch.zeros(row,column)
# torch.normal(means【均值】,std【标准值】)
#使其于y=x^2较为拟合
#10*torch.normal(torch.zeros(N_POINTS, 1), torch.ones(N_POINTS, 1))每一个值都需要添加一个随机噪点
y = x**2+10*torch.normal(torch.zeros(N_POINTS, 1), torch.ones(N_POINTS, 1))

# create some data for testing
test_x = torch.unsqueeze(torch.linspace(-10, 10, N_POINTS), dim=1)
# torch.zeros(row,column)
# torch.normal(means【均值】,std【标准值】)
test_y = test_x**2+10 * 
    torch.normal(torch.zeros(N_POINTS, 1), torch.ones(N_POINTS, 1))

#画点
plt.scatter(x, y, c='r', lw=3, alpha=0.2, label='train data')
plt.scatter(test_x, test_y, c='b', lw=3, alpha=0.2, label='test data')
#展示画布
plt.show()

# create network
# overfitting
net_ofit = torch.nn.Sequential(
    #输入一个点的纵坐标,经过N_HIDDENS个神经元
    torch.nn.Linear(1, N_HIDDENS),
    #激活函数
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, N_HIDDENS),
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, 1)
)

# dropout
net_dout = torch.nn.Sequential(
    torch.nn.Linear(1, N_HIDDENS),
    #将神经元的个数随机丢掉50%
    torch.nn.Dropout(0.5),
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, N_HIDDENS),
    torch.nn.Dropout(0.5),
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, 1)
)

#创造优化器
opt_ofit = torch.optim.Adam(net_ofit.parameters(), lr=LR)
opt_dout = torch.optim.Adam(net_dout.parameters(), lr=LR)
#创建损失函数
loss_func = torch.nn.MSELoss()
#进入互动模式
plt.ion()

# training
if __name__ == '__main__':
    for i in range(1000):
        pred_ofit = net_ofit(x)
        pred_dout = net_dout(x)

        loss_ofit = loss_func(pred_ofit, y)
        loss_dout = loss_func(pred_dout, y)

        #优化
        opt_ofit.zero_grad()    #梯度清零
        opt_dout.zero_grad()
        loss_ofit.backward()    #回滚
        loss_dout.backward()
        opt_ofit.step()         #更新梯度参数
        opt_dout.step()

        if i % 50 == 0:
            #使其进入预测模式,此时不需要将神经元随机丢掉50%,因为神经网络已经训练过了,只需要使用就可以
            net_ofit.eval()
            net_dout.eval()

            test_pred_ofit = net_ofit(test_x)
            test_pred_dout = net_dout(test_x)

            plt.cla()
            plt.scatter(x.data.numpy(), y.data.numpy(), c='r', lw=3, alpha=0.2, label='train data')
            plt.scatter(test_x.data.numpy(), test_y.data.numpy(), c='b', lw=3, alpha=0.2, label='test data')
            plt.plot(test_x.data.numpy(),test_pred_ofit.data.numpy(),'r-',lw=3,label='overfitting line')
            plt.plot(test_x.data.numpy(),test_pred_dout.data.numpy(),'b--',lw=3,label='dropout line')
            plt.legend(loc='best')
            plt.ylim((-20,120))
            plt.text(-5,50,'overfitting_loss=%.2f'%loss_func(test_pred_ofit,test_y).data.numpy(),fontdict={'color':'orange','size':13})
            plt.text(-5,55,'dropout_loss=%.2f'%loss_func(test_pred_dout,test_y).data.numpy(),fontdict={'color':'pink','size':13})
            plt.pause(0.1)

            #进入训练模式
            net_ofit.train()
            net_dout.train()
    #停止互动模式
    plt.ioff()
    #展示图画
    plt.show()

过拟合 简介

当数据量一定时,机器为了将误差减到最小,从而使得模型不再符合实际中的真实样子,这种现象叫做过拟合

蓝线:我们希望计算机学习到的模型

红线:计算机为了减小误差学习到的模型

出现原因
  1. 数据量过于少
  2. 神经网络过于复杂
解决方法
  1. 增加数据量

  2. 运用正规化

    Y=Wx (W:机器学习的各种参数)

    1. l1正规化

    2. l2正规化

    3. Dropout[专门用于神经网络]

      在训练过程中随机忽略一些神经元,让神经网络变得不完整,使得每一次预测结果都不会太依赖其中的某些值

总结

在这个例子中,首先是先创造出一些数据,使其较拟合一个曲线函数,然后通过神经网络学习,没有使用dropout的神经网络虽然它能很好的拟合train data 但是对于test data的曲线拟合确显得误差很大,不能拟合更多的点,而随机dropout50%的神经元之后,使得神经网络的对于某些点的依赖减少,从而获得了很好的贴合度,总之,凡事都有个度,可不要贪杯呀!

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/503800.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号