栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

sklearn快速入门教程: SVM学习笔记

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

sklearn快速入门教程: SVM学习笔记

实现一个支持向量机(SVM) 

import numpy as np
from sklearn.svm import SVR
一、格式化数据
X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])

y = np.dot(X, np.array([1, 2])) + 3 # y = 1 * x0 + 2 * x1 + 3
 二、初始化模型
model = SVR()
 三、拟合fit(X,y)
model.fit(X,y)
 四、预测predict(X_test) 
model.predict(X)
 全过程代码
import numpy as np
from sklearn.svm import SVR

X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
y = np.dot(X, np.array([1, 2])) + 3
    
model = SVR()
model.fit(X,y)
model.predict(X)
array([7.44500403, 8.09999999, 8.90000001, 9.55499597])

运行结果与理论值有误差,可见其精度不如上篇博客的代码,因为未对模型进行调参(直接预先设定,反复调整使模型达到一个最优的状态)

为什么要调参

在绝大多数的非线性模型中(包括一些特殊的线性模型,比如ridge regression),还有一部分参数是无法通过训练直接获取的

基于此,我们的

非线性模型的通用模式:

w是可以通过训练算出的参数;h表示超参数(一个或多个)

以SVR为例,它的超参数实际上包括:
  • 核函数及其参数
  • 惩罚系数

这里我们常用高斯核作为它的核函数,同时将核参数设为1,惩罚系数设为100。

import numpy as np
from sklearn.svm import SVR
X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]])
# y = 1 * x_0 + 2 * x_1 + 3
y = np.dot(X, np.array([1, 2])) + 3

model = SVR(kernel='rbf',gamma= 1, C = 100)
model.fit(X,y)
model.predict(X)

array([ 6.1       ,  7.93810802,  9.06189198, 10.9       ])

 可以看到这样模型的精度就有了明显的提升。如果我们事先知道模型的超参数,那么可以很容易得出较好的预测结果。但如果不知道的话,就需要进行调参。当然调参的方式有很多种,后面的教程我们再详细讨论。

符合上述通用模式的常用模型

sklearn快速入门教程:(三)机器学习的通用模式及实现方法_半个冯博士的博客-CSDN博客

的最下面的表格 

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/1037304.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号