栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

sklearn数据降维_sklearn降维方法?

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

sklearn数据降维_sklearn降维方法?

文章目录

1 概述

1.1 从什么叫“维度”说开来1.2 sklearn中的降维算法 2 PCA与SVD (特征创造)

2.1 降维究竟是怎样实现?2.2 重要参数n_components(即降维后需要保留的特征数量)

2.2.1 迷你案例:高维数据的可视化2.2.2 最大似然估计自选超参数 :(输入“mle”作为n_components的参数输入)2.2.3 按信息量占比选超参数:PCA(n_components=0.97,svd_solver="full") 2.3 PCA中的SVD

2.3.1 PCA中的SVD哪里来?2.3.2 重要参数svd_solver 与 random_state2.3.3 重要属性components

1 概述 1.1 从什么叫“维度”说开来


1.2 sklearn中的降维算法

2 PCA与SVD (特征创造)


为什么方差计算公式中为什么除数是n-1?
这是为了得到样本方差的无偏估计,更多大家可以自己去探索~

2.1 降维究竟是怎样实现?



2.2 重要参数n_components(即降维后需要保留的特征数量)
    pca = PCA(n_components=2)PCA(n_components=“mle”)按信息量占比选超参数:PCA(n_components=0.97,svd_solver=“full”)
2.2.1 迷你案例:高维数据的可视化






2.2.2 最大似然估计自选超参数 :(输入“mle”作为n_components的参数输入)

帮你算出保留几个在特征比较合适

2.2.3 按信息量占比选超参数:PCA(n_components=0.97,svd_solver=“full”)

输入[0,1]之间的浮点数,并且让参数svd_solver ==‘full’,表示希望降维后的总解释性方差占比大于n_components
指定的百分比,即是说,希望保留百分之多少的信息量。

比如说,如果我们希望保留97%的信息量,就可以输入n_components = 0.97,PCA会自动选出能够让保留的信息量超过97%的特征数量。

2.3 PCA中的SVD 2.3.1 PCA中的SVD哪里来?

2.3.2 重要参数svd_solver 与 random_state

2.3.3 重要属性components

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/782885.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号