栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

PyTorch深度学习实践(五)

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

PyTorch深度学习实践(五)

文章目录

1 分类问题

1.1 MNIST数据集1.2 The CIFAR-10 数据集 2 Sigmoid函数3 在线性模型中加入logis函数4 BCE损失函数5 logist回归和线性模型比较6 BCE的loss函数计算7 代码

7.1 np.linspace()函数7.2 网格线设置

写在前面:线性模型已经学的差不多啦,现在开始学习逻辑回归问题!

1 分类问题

比如说对于一个十分类的问题,我们并不是要让最后的预测值等于1-10,而是对应每个分类得到概率,概率最大的就是我们最终的预测结果。

1.1 MNIST数据集
import torchvision
train_set = torchvision.datasets.MNIST(root='../dataset/mnist', train=True, download=True)
test_set = torchvision.datasets.MNIST(root='../dataset/mnist', train=False, download=True
1.2 The CIFAR-10 数据集

train set 50000tesr set 10000classes 10

import torchvision
train_set = torchvision.datasets.CIFAR10(root='../dataset/mnist', train=True, download=True)
test_set = torchvision.datasets.CIFAR10(root='../dataset/mnist', train=True, download=True)

2 Sigmoid函数


特点:

都是[-1, 1]都是单调增

在这么多种Sigmoid函数中,logist函数是最出名的,很多模型中使用的都是logist函数。因此呢,就把logist称作sigmoid函数(约定俗成的叫法)

3 在线性模型中加入logis函数


为什么要加入logist?

使得输出值在[-1, 1]之间 σ ( x ) sigma(x) σ(x)已经约定俗成为 sigmiod函数啦 4 BCE损失函数

上面一个loss函数是用MSE计算的,用于解决线性模型下一个loss函数用以解决二分类问题(二分类的交叉熵BCE)都是值越小越好,表示预测值与真实值越接近
5 logist回归和线性模型比较

计算图中可以看出,多了一个sigma层并且在forward()中,响应的多了一步操作 6 BCE的loss函数计算

这个地方没有算均值,应为对所有的样本都没算,所以并不影响最后的结果 7 代码

可以直接运行

import torch
import torch.nn.functional as F  # 现在已经不需要这个了
import numpy as np
import matplotlib.pyplot as plt

# 这是一个二分类的问题,y的取值是0 或者 1
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])


class LogisticRegressionModel(torch.nn.Module):
    def __init__(self):
        super(LogisticRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)

    def forward(self, x):
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred


model = LogisticRegressionModel()


criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss.item())

    optimizer.zero_grad()
    loss.backward()
    optimizer.step()


# 画图
x = np.linspace(0, 10, 200)
x_t = torch.Tensor(x).view((200, 1))
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x, y)  # 画蓝色的线
plt.plot([0, 10], [0.5, 0.5], c='r')  # 画红色的线
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()
plt.show()

输出情况:

7.1 np.linspace()函数
np.linspace(start, stop, num)

start:返回样本数据的开始点
stop:返回样本数据的结束点
num:生成的样本数据量,默认为50
7.2 网格线设置
plt.grid()
转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/768607.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号