首页 > 分享 > python机器学习之降维算法PCA(高维数据的可视化,鸢尾花案例)

python机器学习之降维算法PCA(高维数据的可视化,鸢尾花案例)

高维数据的可视化

n_components是我们降维后需要的维度,即降维后需要保留的特征数量,降维流程中第二步里需要确认的k值,一般输入[0, min(X.shape)]范围中的整数。

调用库和模块

import matplotlib.pyplot as plt from sklearn.datasets import load_iris from sklearn.decomposition import PCA

python

运行

123

提取数据集

iris = load_iris() x = iris.data y = iris.target x.shape #作为数据表或特征矩阵,x是几维 import pandas as pd pd.DataFrame(x)

python

运行

123456789

在这里插入图片描述
建模 调用PCA

pca = PCA(n_components=2)#实例化 pca = pca.fit(x)#拟合模型 x_dr = pca.transform(x)#获取新矩阵 #也可以一步到位 #x_dr = PCA(2).fit_transform(x) x_dr

python

运行

123456

在这里插入图片描述
可视化

x_dr[y ==0,0]#采用布尔索引 #画出分类图 plt.figure()#创建一个画布 plt.scatter(x_dr[y==0,0],x_dr[y==0,1],c="red",label = iris.target_names[0]) plt.scatter(x_dr[y==1,0],x_dr[y==1,1],c = "black",label = iris.target_names[1]) plt.scatter(x_dr[y==2,0],x_dr[y==2,1],c="orange",label = iris.target_names[2]) plt.legend()#显示图例 plt.title("PCA of IRIS dataset")#显示标题 plt.show()

python

运行

1234567891011

在这里插入图片描述
也可以调用循环.

color = ["red","black","orange"] for i in [0,1,2]: plt.scatter(x_dr[y==i,0] ,x_dr[y==i,1] ,c=color[i] ,alpha = 0.7#透明度 ,label = iris.target_names[i]) plt.legend()#显示图例 plt.title("PCA of IRIS dataset")#显示标题 plt.show()

python

运行

1234567891011

在这里插入图片描述
探索降维后的数据

pca.explained_variance_# 查看降维后每个新特征向量上所带的信息量大小(方差大小) pca.explained_variance_ratio_#查看降维后每个新特征向量所占的信息量占原始数据总信息量的百分比 pca.explained_variance_ratio_.sum()#总占比

python

运行

123

在这里插入图片描述
选择最好的n_components:累积可解释方差贡献率曲线

当参数components中不填写任何值,则默认返回min(X.shape)个特征,一般来说,样本量都会大于特征数目,所以什么都不填就相当于转换了新特征空间,但没有减少特征的个数。一般来说,不会使用这种输入方式。但我们却可以使用这种输入方式来画出累计可解释方差贡献率曲线,以此选择最好的n_components的整数取值。

累积可解释方差贡献率曲线是一条以降维后保留的特征个数为横坐标,降维后新特征矩阵捕捉到的可解释方差贡献率为纵坐标的曲线,能够帮助我们决定n_components最好的取值。

import numpy as np np.cumsum(pca_line.explained_variance_ratio_)#求累加和 #选择最好的n_components:累加可解释方差贡献率曲线 plt.plot([1,2,3,4],np.cumsum(pca_line.explained_variance_ratio_)) plt.xticks([1,2,3,4])#更改x轴坐标 plt.xlabel("number of components after ")#横坐标 plt.ylabel("cumulative explained variance ")#纵坐标 plt.show()

python

运行

123456789

在这里插入图片描述
最大似然估计自选超参数

#最大似然估计自选超参数 pca_mle = PCA(n_components="mle") pca_mle = pca_mle.fit(x) x_mle = pca_mle.transform(x) x_mle#系统帮我们自动选择了3个特征 pca_mle.explained_variance_ratio_.sum()#查看降维后每个新特征向量所占的信息量占原始数据总信息量的百

python

运行

12345678

在这里插入图片描述
按信息量占比选超参数

pca_f = PCA(n_components=0.97,svd_solver="full") pca_f = pca_f.fit(x)#拟合模型 x_f = pca_f.transform(x)#导出结果 x_f #二维 pca_f.explained_variance_ratio_

python

运行

123456

在这里插入图片描述

相关知识

PCA实现鸢尾花数据集降维可视化
基于PCA与LDA的数据降维实践
鸢尾花数据集降维可视化
基于PCA的数据降维(鸢尾花(iris)数据集)
机器学习(三)降维之PCA及鸢尾花降维
鸢尾花数据可视化,PCA降到两维后,对数据标准化、归一化
利用PCA降维对鸢尾花数据进行分类
LDA算法实现鸢尾花数据集降维
机器学习利用PCA完成鸢尾花数据集的降维与分类
鸢尾花数据集降维后高维数据可视化

网址: python机器学习之降维算法PCA(高维数据的可视化,鸢尾花案例) https://m.huajiangbk.com/newsview2500236.html

所属分类:花卉
上一篇: 利用SVM(支持向量机)分类算法
下一篇: 可视化应用——DataViz数据