感知机是二分类的线性分类模型,属于判别模型旨在求出将训练数据进行线性划分的分离超平面,目标求得一个超平面将正负例完全正确分开基于误分类的损失函数:L(w,b) = -∑yi(w·xi+b) 这里xi是误分类的点,损失函数是非负的,对应误分类点到分离超平面的总距离,如果没有误分类的点,损失函数的值为0利用随机梯度下降法对损失函数进行极小化。首先任意选取一个超平面w0,b0,然后采用梯度下降法不断极小化损失函数,极小化过程不是一次使所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降当训练数据集线性可分时,感知机学习算法原始形式迭代是收敛的感知机算法存在无穷多个解,这些解依赖初值的选择、迭代过程中误分类点的选择顺序
原始形式算法:- 选取初值:w0,b0在训练集中选取一个数据(xi,yi)判断是否误分类,如果误分类即yi(w·xi+b)<=0,则调整参数w和b:w=w+ηyixi b=b+ηyi转至第2步,直到不存在误分类点
from sklearn.datasets import load_iris import pandas as pd import numpy as np import matplotlib.pyplot as plt
'''数据准备''' # 鸢尾花数据集 iris = load_iris() data = pd.Dataframe(iris.data, columns=iris.feature_names) X = np.array(data.iloc[:100, [0, 1]]) y = iris.target[:100] y = [-1 if i==0 else 1 for i in y] # 数据集可视化 plt.scatter(X[0:50, 0], X[0:50, 1], c="red", marker="x") plt.scatter(X[50:100, 0], X[50:100, 1], c="green")
'''参数初始化'''
w = np.array([0,0])
b = 0
learning_rate = 1
'''定义损失函数'''
def loss_func(x,y,w,b):
loss = y*(np.dot(w,x)+b)
return loss
'''梯度下降函数'''
def gradient_func(x,y,w,b):
w = w + learning_rate*y*x
b = b + learning_rate*y
return w,b
'''模型训练'''
def train(X,y,w,b):
mistake = []
for i,x in enumerate(X):
loss = loss_func(x,y[i],w,b)
if loss<=0:
w,b=gradient_func(x,y[i],w,b)
mistake.append(1)
return w,b,mistake
sum_mistake = 1
while (sum_mistake>0):
w,b,mistake = train(X,y,w,b)
sum_mistake = np.sum(mistake)
print("finish")
'''可视化结果'''
print("w:",w)
print("b:",b)
x = np.linspace(4, 7, 10)
y = -(w[0] * x + b) / w[1]
plt.plot(x, y)
plt.scatter(X[:50, 0], X[:50, 1])
plt.scatter(X[50:100, 0], X[50:100, 1])
plt.xlabel('feature1')
plt.ylabel('feature2')
w: [ 79.8 -101.4] b: -126



