栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

机器学习起步-k-最近邻算法

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

机器学习起步-k-最近邻算法

这段时间去了解了下机器学习中常见的一些算法,一下东西挺多的,要花时间补下相关的数学了,这里总结一下学习的一些相关的知识点,非常感谢慕课网bobo老师即通俗易懂和不缺乏深度的讲解,其它的就不多说了,进入正题。

简单介绍

这里先简单说一下机器学习的环境,我是在ubuntu17.04下面安装的Anaconda,它集成了很多数据处理、科学计算和机器学习相关的库和一些强大的工具。直接在官网下载,然后在命令行模式下用

sh xxx你下载的包xxx

安装后,配置下环境变量,

vim ~/.bashrc
#打开后在最后一行加上
export PATH="/xxx/anaconda3/bin:$PATH"

这里注意一下当前是什么用户,并且用命令行去配置下次重启就又没有了,这样配置没有用的话
直接打开/etc/environment文件,把anaconda安装目录的bin文件夹路径加到后面。
安装好后可以

#查看当前conda环境下所有的库以及工具
conda list
#使用jupyter notebook
jupyter notebook --allow-root 

这样就完成了安装以及环境变量的配置。

k-最近邻算法,即kNN,是数据的分类也是机器学习里面运用的数学基础较少的一种算法,可以解释机器学习算法使用过程中的很多细节问题,更易于熟悉机器学习的一个流程。kNN,也就是在一个特征平面,去寻找离一个点x距离最近的k个点,然后根据这几个点的特征,来判断点x是属于哪个特征的点,这个k就是使用该机器学习模型进行预测时的一个超参数,至于怎样取,就要结合距离的模型去进行选取。

而整个机器学习的过程也就是使用机器学习的算法对数据进行训练,得到一个模型,最后把需要预测的数据放入到模型里面,得到需要预测的结果。这里就kNN而言,计算距离的方式可以用欧拉距离,

具体实现

其实这些东西sklearn库都已经进行了封装,不过初学时为了更加清楚这个过程和算法的原理,有必要自己去实现一遍
看看如下的代码

class KNNClassifier:

    def __init__(self, k):
 """ 初始化KNN分类器"""
 assert k >= 1, "k must be valid"
 self.k = k
 self._X_train = None
 self._y_train = None

    def fit(self, X_train, y_train):
 """根据训练集X_train和y_tarin训练KNN分类器"""
 assert X_train.shape[0] == y_train.shape[0], 
     "the size of X_train must be equal to the size of y_train"
 assert self.k <= X_train.shape[0], 
     "the size of X_train must be at least k."
 self._X_train = X_train
 self._y_train = y_train
 return self

    def predict(self, X_predict):
 """定带预测数据集X_predict, 返回表示X_predict的结果向量"""
 assert self._X_train is not None and self._y_train is not None, 
      "must fit before predict!"
 assert X_predict.shape[1] == self._X_train.shape[1], 
      "the feature number of X_predict must be equal to X_train"

 y_predict = [self._predict(x) for x in X_predict]
 return np.array(y_predict)

    def _predict(self, x):
 """给定单个预测数据x, 返回x的预测结果值"""

 assert x.shape[0] == self._X_train.shape[1], 
     "the feature number of x must be equal to X_train"

 distances = [sqrt(np.sum((x_train - x) ** 2)) for x_train in self._X_train]

 nearest = np.argsort(distances)

 topK_y = [self._y_train[i] for i in nearest[:self.k]]
 votes = Counter(topK_y)

 return votes.most_common(1)[0][0]

    def score(self, X_test, y_test):
 """根据测试数据集X_test和y_test确定当前模型的精准度"""
 y_predict = self.predict(X_test)
 return accuracy_score(y_test, y_predict)

    def __repr__(self):
 return "KNN(k=%d)" % self.k

这里新建了一个KNNClassifier类文件,下面实现了一些方法,fit()用来进行模型的训练,当然kNN算法中,不需要进行模型的训练,因为使用计算距离的方式去预测待预测数据的特征,其实就相当于是放入到一个已经被训练好的模型,然后predict()方法里面传入被待预测的数据,再到_predict()这个私有方法里面去进行预测,预测过程也比较简单,就是计算距离后,使用argsort()对距离的索引进行排序,然后在这些数据里面寻找最近几个点的索引。最后再用Counter()计算这些特征点中数量最多的是哪个点,就可以得到待预测的点最有肯属于哪个特征。
然后看看score方法,用来求解当前模型的准确度,如下

def accuracy_score(y_true, y_predict):
    '''计算y_true和y_predict之间的准确率'''
    assert y_true.shape[0] == y_predict.shape[0], 
 "the size of y_true must be equal to the size of y_predict"

    return sum(y_true ==  y_predict) / len(y_true)

因为这里是使用的已有的数据,所以把数据进行拆分,分为训练数据集和测试数据集,通过计算算法的准确度,来更好的优化算法,根据相应的模型选取最合适的超参数。
将数据的拆分过程如下

def train_test_split(X, y, test_ratio=0.2, seed=None):
    """将数据 X 和 y 按照test_ratio分割成X_train, X_test, y_train, y_test"""
    assert X.shape[0] == y.shape[0], 
 "the size of X must be equal to the size of y"
    assert 0.0 <= test_ratio <= 1.0, 
 "test_ration must be valid"

    if seed:
 np.random.seed(seed)

    shuffled_indexes = np.random.permutation(len(X))

    test_size = int(len(X) * test_ratio)
    test_indexes = shuffled_indexes[:test_size]
    train_indexes = shuffled_indexes[test_size:]

    X_train = X[train_indexes]
    y_train = y[train_indexes]

    X_test = X[test_indexes]
    y_test = y[test_indexes]

    return X_train, X_test, y_train, y_test

这里传入一个test_ratio,表示测试数据集所占的比例,默认为0.2,然后传入一个随机种子,过程就比较简单了,不多说了。最后可以拿sklearn中自带数据集在Jupter notebook中来进行一下测试,如图

超参数的选取

超参数是算法运行前需要决定的参数,选择合适的超参数能优化模型的准确度。前面知道了,k是一个超参数,但是这是只考虑距离的情况下,如果是下图的情况
考虑距离的权重,这里就很明显红色的权重要大于蓝色结点的权重,显然这个结点为红色的可能性更大,而不是像之前考虑离待预测结点最近结点的数量来进行预测。这里谈到距离的话,看看下图
第一个是曼哈顿距离,一般用于二维平面下的计算,可以据此推导出图中第三个公式,也就是明可夫斯基距离,其中就产生了一个新的超参数p。
这里可以使用网格搜索的方式来寻找最合适的超参数

param_grid = [
    {
 'weights' : ['uniform'],
 'n_neighbors' : [i for i in range(1, 11)]
    },
    {
 'weights' : ['distance'],
 'n_neighbors' : [i for i in range(1, 11)],
 'p' : [i for i in range(1, 6)]
    }
]

这里就列出需要搜索的2个超参数,第一个是之前提到的k,第二个就是2个超参数都考虑的情况下,注意第二个需要将weights指定为distance,也就是需要考虑距离。

knn_clf = KNeighborsClassifier()
from sklearn.model_selection import GridSearchCV

grid_search = GridSearchCV(knn_clf, param_grid)

然后

%time
grid_search.fit(X_train, y_train)

可以计算一下网格搜索的时间,这样超参数的选取就完成了。
并且搜索完后可以调用

grid_search.best_params_

来获取查找到的最佳的超参数。

数据归一化

当数据的某几个特征值相差比较大时,模型整体的准确度就会比较低,并且在进行网格搜索时也是非常耗时的,所以最后将特征值较大的特征进行归一化处理,也就是使用某种方式使它的值映射到0-1之间,可以使用

1.最值归一化


它比较适用于数据分布有明显边界的情况下。

2.均值方差归一化


其中x表示特征值,Xmean表示特征值的平均数,S表示特征值的方差。
即把所有数据归一到均值为0,方差为1的分布中。
适用于分布没有明显的边界,可能存在极端数据值。

总结

kNN算法是机器学习中比较基础的方式,但确照样要做多次的优化才能得到最佳的模型。这里也只是整理的大体上的一些,体验一把机器学习中的流程。

转载请注明:文章转载自 www.mshxw.com
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号