n_components是我们降维后需要的维度,即降维后需要保留的特征数量,降维流程中第二步里需要确认的k值,一般输入[0, min(X.shape)]范围中的整数。
调用库和模块
import matplotlib.pyplot as plt from sklearn.datasets import load_iris from sklearn.decomposition import PCA
python
运行
123提取数据集
iris = load_iris() x = iris.data y = iris.target x.shape #作为数据表或特征矩阵,x是几维 import pandas as pd pd.DataFrame(x)
python
运行
123456789
建模 调用PCA
pca = PCA(n_components=2)#实例化 pca = pca.fit(x)#拟合模型 x_dr = pca.transform(x)#获取新矩阵 #也可以一步到位 #x_dr = PCA(2).fit_transform(x) x_dr
python
运行
123456
可视化
x_dr[y ==0,0]#采用布尔索引 #画出分类图 plt.figure()#创建一个画布 plt.scatter(x_dr[y==0,0],x_dr[y==0,1],c="red",label = iris.target_names[0]) plt.scatter(x_dr[y==1,0],x_dr[y==1,1],c = "black",label = iris.target_names[1]) plt.scatter(x_dr[y==2,0],x_dr[y==2,1],c="orange",label = iris.target_names[2]) plt.legend()#显示图例 plt.title("PCA of IRIS dataset")#显示标题 plt.show()
python
运行
1234567891011
也可以调用循环.
color = ["red","black","orange"] for i in [0,1,2]: plt.scatter(x_dr[y==i,0] ,x_dr[y==i,1] ,c=color[i] ,alpha = 0.7#透明度 ,label = iris.target_names[i]) plt.legend()#显示图例 plt.title("PCA of IRIS dataset")#显示标题 plt.show()
python
运行
1234567891011
探索降维后的数据
pca.explained_variance_# 查看降维后每个新特征向量上所带的信息量大小(方差大小) pca.explained_variance_ratio_#查看降维后每个新特征向量所占的信息量占原始数据总信息量的百分比 pca.explained_variance_ratio_.sum()#总占比
python
运行
123
选择最好的n_components:累积可解释方差贡献率曲线
当参数components中不填写任何值,则默认返回min(X.shape)个特征,一般来说,样本量都会大于特征数目,所以什么都不填就相当于转换了新特征空间,但没有减少特征的个数。一般来说,不会使用这种输入方式。但我们却可以使用这种输入方式来画出累计可解释方差贡献率曲线,以此选择最好的n_components的整数取值。
累积可解释方差贡献率曲线是一条以降维后保留的特征个数为横坐标,降维后新特征矩阵捕捉到的可解释方差贡献率为纵坐标的曲线,能够帮助我们决定n_components最好的取值。
import numpy as np np.cumsum(pca_line.explained_variance_ratio_)#求累加和 #选择最好的n_components:累加可解释方差贡献率曲线 plt.plot([1,2,3,4],np.cumsum(pca_line.explained_variance_ratio_)) plt.xticks([1,2,3,4])#更改x轴坐标 plt.xlabel("number of components after ")#横坐标 plt.ylabel("cumulative explained variance ")#纵坐标 plt.show()
python
运行
123456789
最大似然估计自选超参数
#最大似然估计自选超参数 pca_mle = PCA(n_components="mle") pca_mle = pca_mle.fit(x) x_mle = pca_mle.transform(x) x_mle#系统帮我们自动选择了3个特征 pca_mle.explained_variance_ratio_.sum()#查看降维后每个新特征向量所占的信息量占原始数据总信息量的百
python
运行
12345678
按信息量占比选超参数
pca_f = PCA(n_components=0.97,svd_solver="full") pca_f = pca_f.fit(x)#拟合模型 x_f = pca_f.transform(x)#导出结果 x_f #二维 pca_f.explained_variance_ratio_
python
运行
123456
相关知识
PCA实现鸢尾花数据集降维可视化
基于PCA与LDA的数据降维实践
鸢尾花数据集降维可视化
基于PCA的数据降维(鸢尾花(iris)数据集)
机器学习(三)降维之PCA及鸢尾花降维
鸢尾花数据可视化,PCA降到两维后,对数据标准化、归一化
利用PCA降维对鸢尾花数据进行分类
LDA算法实现鸢尾花数据集降维
机器学习利用PCA完成鸢尾花数据集的降维与分类
鸢尾花数据集降维后高维数据可视化
网址: python机器学习之降维算法PCA(高维数据的可视化,鸢尾花案例) https://m.huajiangbk.com/newsview2500236.html
| 上一篇: 利用SVM(支持向量机)分类算法 |
下一篇: 可视化应用——DataViz数据 |