第一步:
"""
Created on Fri Sep 21 14:26:25 2018
@author: bd04
"""
__author__ = 'Xiaolin Shen'
from sklearn import svm
import numpy as np
from sklearn import model_selection
import matplotlib.pyplot as plt
import matplotlib as mpl
from matplotlib import colors
def iris_type(s):
class_label={b'Iris-setosa':0,b'Iris-versicolor':1,b'Iris-virginica':2}
return class_label[s]
filepath='C:/Users/bd04/Desktop/iris分类/iris.txt'
data=np.loadtxt(filepath,dtype=float,delimiter=',',converters={4:iris_type})
print(data)
输出数据集的结果:
------------------------------------------------------------
第二步:接着 上面代码
X ,y=np.split(data,(4,),axis=1)
x=X[:,0:2]
x_train,x_test,y_train,y_test=model_selection.train_test_split(x,y,random_state=1,test_size=0.3)
classifier=svm.SVC(kernel='rbf',gamma=0.1,decision_function_shape='ovo',C=0.8)
classifier.fit(x_train,y_train.ravel())
def show_accuracy(y_hat,y_train,str):
pass
print("SVM-输出训练集的准确率为:",classifier.score(x_train,y_train))
y_hat=classifier.predict(x_train)
show_accuracy(y_hat,y_train,'训练集')
print("SVM-输出测试集的准确率为:",classifier.score(x_test,y_test))
y_hat=classifier.predict(x_test)
show_accuracy(y_hat,y_test,'测试集')
print('npredict:n', classifier.predict(x_train))
x1_min, x1_max = x[:, 0].min(), x[:, 0].max()
x2_min, x2_max = x[:, 1].min(), x[:, 1].max()
x1, x2 = np.mgrid[x1_min:x1_max:200j, x2_min:x2_max:200j]
grid_test = np.stack((x1.flat, x2.flat), axis=1)
print("grid_test = n", grid_test)
grid_hat = classifier.predict(grid_test)
print("grid_hat = n", grid_hat)
grid_hat = grid_hat.reshape(x1.shape)
mpl.rcParams['font.sans-serif'] = [u'SimHei']
mpl.rcParams['axes.unicode_minus'] = False
cm_light = mpl.colors.ListedColormap(['#A0FFA0', '#FFA0A0', '#A0A0FF'])
cm_dark = mpl.colors.ListedColormap(['g', 'r', 'b'])
alpha=0.5
plt.pcolormesh(x1, x2, grid_hat, cmap=cm_light)
plt.plot(x[:, 0], x[:, 1], 'o', alpha=alpha, color='blue', markeredgecolor='k')
plt.scatter(x_test[:, 0], x_test[:, 1], s=120, facecolors='none', zorder=10)
plt.xlabel(u'花萼长度', fontsize=13)
plt.ylabel(u'花萼宽度', fontsize=13)
plt.xlim(x1_min, x1_max)
plt.ylim(x2_min, x2_max)
plt.title(u'鸢尾花SVM二特征分类', fontsize=15)
plt.show()
输出结果:
训练集的准确率为: 0.8380952380952381,由于准确率表现不直观,可以通过其他方式观察结果,(通过图像进行可视化)
#输出训练集的准确率
print(classifier.score(x_train,y_train))
#由于准确率表现不直观,可以通过其他方式观察结果。
#首先将原始结果与训练集预测结果进行对比:
y_train_hat=classifier.predict(x_train)
y_train_1d=y_train.reshape((-1))
comp=zip(y_train_1d,y_train_hat) #用zip把原始结果和预测结果放在一起。显示如下:
print(list(comp))
#同样的,可以用训练好的模型对测试集的数据进行预测:
print(classifier.score(x_test,y_test))
y_test_hat=classifier.predict(x_test)
y_test_1d=y_test.reshape((-1))
comp=zip(y_test_1d,y_test_hat)
print(list(comp))
#还可以通过图像进行可视化:
plt.figure()
plt.subplot(121)
plt.scatter(x_train[:,0],x_train[:,1],c=y_train.reshape((-1)),edgecolors='k',s=50)
plt.subplot(122)
plt.scatter(x_train[:,0],x_train[:,1],c=y_train_hat.reshape((-1)),edgecolors='k',s=50)
结果:
相关知识
基于svm的鸢尾花数据集分类
卷积神经网络实现鸢尾花数据分类python代码实现
基于机器学习的鸢尾花数据集的三分类算法的实现 C++
SVM实现鸢尾花分类
作业5:SVM实现鸢尾花分类
KNN算法实现鸢尾花数据集分类
【机器学习】基于KNN算法实现鸢尾花数据集的分类
python实战(一)——iris鸢尾花数据集分类
基于花授粉算法优化实现SVM数据分类
BP神经网络鸢尾花红酒数据分类分析与源码实现
网址: 分类问题(一):SVM(Python——基于skearn实现鸢尾花数据集分类) https://m.huajiangbk.com/newsview661928.html
上一篇: 花观察日记 |
下一篇: 荷花的主要品种 |