我已经使用KNN分类器在一个数据集上尝试了我的模型,我想知道模型中最有贡献的特征是什么,以及预测中最有贡献的特征是什么。
我已经使用KNN分类器在一个数据集上尝试了我的模型,我想知道模型中最有贡献的特征是什么,以及预测中最有贡献的特征是什么。
n_feats
次分类,每次只使用一个特征进行分类(n_feats
代表特征向量维度),例如:import numpy as np
from sklearn import datasets
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import cross_val_score
iris = datasets.load_iris()
clf = KNeighborsClassifier()
y = iris.target
n_feats = iris.data.shape[1]
print('Feature Accuracy')
for i in range(n_feats):
X = iris.data[:, i].reshape(-1, 1)
scores = cross_val_score(clf, X, y, cv=3)
print(f'{i} {scores.mean():g}')
输出:
Feature Accuracy
0 0.692402
1 0.518382
2 0.95384
3 0.95384
X = iris.data [:,i] .reshape(-1,1)
替换为: X_head = np.atleast_2d(iris.data[:, 0:i])
X_tail = np.atleast_2d(iris.data[:, i+1:])
X = np.hstack((X_head, X_tail))
n_samples
次分类。不同之处在于,在第i次分类中使用的特征向量由所有特征组成,但是不包括第i个特征。
示例运行:
Feature Accuracy
0 0.973856
1 0.96732
2 0.946895
3 0.959967
从这些结果中可以清楚地看出,当你去除第三个特征(索引为2的特征)时,分类器的准确性最差,这与通过第一种方法得到的结果一致。