Scikit-learn查询数据维度必须与训练数据维度匹配。

6

我正在尝试使用scikit learn网站上的这段代码:

http://scikit-learn.org/stable/auto_examples/classification/plot_classifier_comparison.html

我正在使用自己的数据。 我的问题是,我有比两个特征更多的特征。如果我想将特征从2扩展到3或4个... 我得到了: “查询数据维度必须与训练数据维度匹配”
def machine():
with open("test.txt",'r') as csvr:

    reader= csv.reader(csvr,delimiter='\t')

    for i,row in enumerate(reader):

        if i==0:
            pass
        elif '' in row[2:]:
            pass
        else:
            liste.append(map(float,row[2:]))

a = np.array(liste)
h = .02 
names = ["Nearest Neighbors", "Linear SVM", "RBF SVM", "Decision Tree",
         "Random Forest", "AdaBoost", "Naive Bayes", "LDA", "QDA"]
classifiers = [
    KNeighborsClassifier(1),
    SVC(kernel="linear", C=0.025),
    SVC(gamma=2, C=1),
    DecisionTreeClassifier(max_depth=5),
    RandomForestClassifier(max_depth=5, n_estimators=10, max_features=1),
    AdaBoostClassifier(),
    GaussianNB(),
    LDA(),
    QDA()]



X = a[:,:3]
y = np.ravel(a[:,13])

linearly_separable = (X, y)
datasets =[linearly_separable]
figure = plt.figure(figsize=(27, 9))
i = 1

for ds in datasets:
    X, y = ds

    X = StandardScaler().fit_transform(X)
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.4)

    x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
    y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
    xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
                         np.arange(y_min, y_max, h))

    cm = plt.cm.RdBu
    cm_bright = ListedColormap(['#FF0000', '#0000FF'])
    ax = plt.subplot(len(datasets), len(classifiers) + 1, i)

    ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

    ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright, alpha=0.6)
    ax.set_xlim(xx.min(), xx.max())
    ax.set_ylim(yy.min(), yy.max())
    ax.set_xticks(())
    ax.set_yticks(())
    i += 1

    for name, clf in zip(names, classifiers):
        ax = plt.subplot(len(datasets), len(classifiers) + 1, i)
        print clf.fit(X_train, y_train)
        score = clf.score(X_test, y_test)
        print y.shape, X.shape
        if hasattr(clf, "decision_function"):
            Z = clf.decision_function(np.c_[xx.ravel(), yy.ravel()])
            print Z
        else:
            Z = clf.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1]


        Z = Z.reshape(xx.shape)

        ax.contourf(xx, yy, Z, cmap=cm, alpha=.8)
        ax.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap=cm_bright)

        ax.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap=cm_bright,
                   alpha=0.6)

        ax.set_xlim(xx.min(), xx.max())
        ax.set_ylim(yy.min(), yy.max())
        ax.set_xticks(())
        ax.set_yticks(())
        ax.set_title(name)
        ax.text(xx.max() - .3, yy.min() + .3, ('%.2f' % score).lstrip('0'),
                size=15, horizontalalignment='right')
        i += 1

figure.subplots_adjust(left=.02, right=.98)
plt.show()

在这种情况下,我使用了三个特征。在代码中我做错了什么?是与X_train和X_test数据有关吗?当只用两个特征时,一切都正常。
我的X值:
(array([[ 1.,  1.,  0.],
   [ 1.,  0.,  0.],
   [ 1.,  0.,  0.],
   [ 1.,  0.,  0.],
   [ 1.,  1.,  0.],
   [ 1.,  0.,  0.],
   [ 1.,  0.,  0.],
   [ 3.,  3.,  0.],
   [ 1.,  1.,  0.],
   [ 1.,  1.,  0.],
   [ 0.,  0.,  0.],
   [ 0.,  0.,  0.],
   [ 0.,  0.,  0.],
   [ 0.,  0.,  0.],
   [ 0.,  0.,  0.],
   [ 0.,  0.,  0.],
   [ 4.,  4.,  2.],
   [ 0.,  0.,  0.],
   [ 6.,  3.,  0.],
   [ 5.,  3.,  2.],
   [ 2.,  2.,  0.],
   [ 4.,  4.,  2.],
   [ 2.,  1.,  0.],
   [ 2.,  2.,  0.]]), array([ 1.,  1.,  1.,  1.,  0.,  1.,  1.,  0.,  1.,  1.,  0.,  1.,  1.,
    1.,  1.,  1.,  0.,  1.,  1.,  0.,  1.,  0.,  1.,  1.]))

第一个数组是X数组,第二个数组是y(目标)数组。
对于格式错误我很抱歉。
        Traceback (most recent call last):

File "allM.py", line 144, in <module>
mainplot(namePlot,1,2)
File "allM.py", line 117, in mainplot

Z = clf.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1]

File "/usr/local/lib/python2.7/dist-packages/sklearn/neighbors/classification.py", line 191, in predict_proba
neigh_dist, neigh_ind = self.kneighbors(X)

File "/usr/local/lib/python2.7/dist-packages/sklearn/neighbors/base.py", line 332, in kneighbors
return_distance=return_distance)

File "binary_tree.pxi", line 1298, in sklearn.neighbors.kd_tree.BinaryTree.query (sklearn/neighbors/kd_tree.c:10433)

ValueError: query data dimension must match training data dimension

这是未将它放入数据集“ds”中的X数组。
[[ 1.  1.  0.][ 1.  0.  0.][ 1.  0.  0.][ 1.  0.  0.][ 1.  1.  0.][ 1.  0.  0.][ 1.  0.  0.][ 3.  3.  0.][ 1.  1.  0.][ 1.  1.  0.][ 0.  0.  0.][ 0.  0.  0.][ 0.  0.  0.][ 0.  0.  0.][ 0.  0.  0.][ 0.  0.  0.][ 4.  4.  2.][ 0.  0.  0.][ 6.  3.  0.][ 5.  3.  2.][ 2.  2.  0.][ 4.  4.  2.][ 2.  1.  0.][ 2.  2.  0.]]

你的X示例看起来像是一个包含示例和目标的元组,但这不是代码所期望的。你能给出一个a的例子吗?从那里开始测试你的代码会更容易。 - mattsilver
您能提供更多关于错误的信息吗?错误出现在哪里?包括整个错误回溯将会很有帮助。 - mattsilver
对不起,那是X和y,第一个数组是X,第二个数组是y(目标)。 - auronsen
我在我的帖子中编辑了错误代码和“正常”的X数组,而没有将它们放入数据集向量中。 - auronsen
你能解决这个问题吗?如果可以的话,请告诉我怎么做? - Siwoku Adeola
1个回答

4
这是因为clf.predict_proba()需要一个数组,其中每一行的元素数量与训练数据中的行数相同--换句话说,输入的形状应该是(num_rows, 3)
当你使用二维示例时,这个方法可以工作,因为np.c_[xx.ravel(), yy.ravel()]的结果是一个具有两个元素的行的数组:
print np.c_[xx.ravel(), yy.ravel()].shape
(45738, 2)

这些示例包含两个元素,因为它们是使用np.meshgrid创建的,样本代码使用它创建一组输入以覆盖二维空间,这将很好地绘制。尝试将具有三个项目行的数组传递给clf.predict_proba,应该可以正常工作。
如果您想重现此特定的示例代码,则必须创建一个3D网格,如SO上问题所述。您还需要在3D中绘制结果,在那里mplot3d将是一个很好的起点,尽管基于我对样本代码绘图的(虽然简短的)观察,我怀疑这可能会带来更多麻烦。我真的不知道这些图形的3D类比看起来会是什么样子。

1
我认为如果不进行切片,你无法真正完成3D绘图。也许可以画出边界,但会看起来很混乱。总之,在三个以上的维度中是无法推广的... - Andreas Mueller
@AndreasMueller 我认为你是对的。只是想提供一些方向,以防 OP 决定继续使用这个例子。 - mattsilver

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接