1 分类问题
1.1 MNIST数据集1.2 The CIFAR-10 数据集 2 Sigmoid函数3 在线性模型中加入logis函数4 BCE损失函数5 logist回归和线性模型比较6 BCE的loss函数计算7 代码
7.1 np.linspace()函数7.2 网格线设置
写在前面:线性模型已经学的差不多啦,现在开始学习逻辑回归问题!
1 分类问题比如说对于一个十分类的问题,我们并不是要让最后的预测值等于1-10,而是对应每个分类得到概率,概率最大的就是我们最终的预测结果。
1.1 MNIST数据集import torchvision train_set = torchvision.datasets.MNIST(root='../dataset/mnist', train=True, download=True) test_set = torchvision.datasets.MNIST(root='../dataset/mnist', train=False, download=True1.2 The CIFAR-10 数据集
train set 50000tesr set 10000classes 10
import torchvision train_set = torchvision.datasets.CIFAR10(root='../dataset/mnist', train=True, download=True) test_set = torchvision.datasets.CIFAR10(root='../dataset/mnist', train=True, download=True)2 Sigmoid函数
特点:
都是[-1, 1]都是单调增
在这么多种Sigmoid函数中,logist函数是最出名的,很多模型中使用的都是logist函数。因此呢,就把logist称作sigmoid函数(约定俗成的叫法)
3 在线性模型中加入logis函数
为什么要加入logist?
使得输出值在[-1, 1]之间 σ ( x ) sigma(x) σ(x)已经约定俗成为 sigmiod函数啦 4 BCE损失函数
上面一个loss函数是用MSE计算的,用于解决线性模型下一个loss函数用以解决二分类问题(二分类的交叉熵BCE)都是值越小越好,表示预测值与真实值越接近
5 logist回归和线性模型比较
计算图中可以看出,多了一个sigma层并且在forward()中,响应的多了一步操作 6 BCE的loss函数计算
这个地方没有算均值,应为对所有的样本都没算,所以并不影响最后的结果 7 代码
可以直接运行
import torch
import torch.nn.functional as F # 现在已经不需要这个了
import numpy as np
import matplotlib.pyplot as plt
# 这是一个二分类的问题,y的取值是0 或者 1
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])
class LogisticRegressionModel(torch.nn.Module):
def __init__(self):
super(LogisticRegressionModel, self).__init__()
self.linear = torch.nn.Linear(1, 1)
def forward(self, x):
y_pred = torch.sigmoid(self.linear(x))
return y_pred
model = LogisticRegressionModel()
criterion = torch.nn.BCELoss(size_average=False)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
for epoch in range(1000):
y_pred = model(x_data)
loss = criterion(y_pred, y_data)
print(epoch, loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 画图
x = np.linspace(0, 10, 200)
x_t = torch.Tensor(x).view((200, 1))
y_t = model(x_t)
y = y_t.data.numpy()
plt.plot(x, y) # 画蓝色的线
plt.plot([0, 10], [0.5, 0.5], c='r') # 画红色的线
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()
plt.show()
输出情况:
7.1 np.linspace()函数np.linspace(start, stop, num) start:返回样本数据的开始点 stop:返回样本数据的结束点 num:生成的样本数据量,默认为507.2 网格线设置
plt.grid()



