将我的数据拟合为X = 我的数据pca = PCA(n_components=1) pca.fit(X) X_pca = pca.fit_transform(X) 现在X_pca只有一个维度。 按照定义进行逆变换时,它不应该返回原始数据X,即2-D数组吗? 当我执行 X_ori = pca...
我使用python中的matplotlib在数据集上应用了主成分分析(pca)。然而,与Matlab不同,matplotlib没有提供t-squared得分。有没有办法计算像Matlab中Hotelling的T^2得分呢? 谢谢。
我有大约1000个50000维度的向量x_i,但它们非常稀疏,每个向量只有大约50-100个非零元素。我想在这个数据集上进行PCA(在MATLAB中),以减少数据的不必要的极端维度。 不幸的是,由于需要从所有实例中减去均值,我不知道如何在没有中间完整矩阵的情况下完成此操作。当然,一个1000...
假设有一个名为B的矩阵,大小为500*1000 double(这里的500表示观测数,1000表示特征数)。 sigma是矩阵B的协方差矩阵,D是一个对角矩阵,其对角线元素为sigma的特征值。假设A是协方差矩阵sigma的特征向量。 我有以下问题: 我需要选择前k=800个对应于最大...
我正在使用Python,并使用这个教程实现PCA。 一切都很顺利,我得到了协方差,成功地进行了变换,并将其返回到原始维度,没有问题。 但是如何执行白化操作?我尝试除以特征值的特征向量:S, V = numpy.linalg.eig(cov) V = V / S[:, numpy.newax...
我正在尝试获取用于分类所需的组件数量。我已经阅读了一个类似的问题Finding the dimension with highest variance using scikit-learn PCA和关于此的scikit文档: http://scikit-learn.org/dev/tutor...
我有一个包含100,000行x27,000列的csv文件,我正在尝试对其进行PCA处理,以生成一个100,000行X300列的矩阵。该csv文件大小为9GB。这是我目前的做法: from sklearn.decomposition import PCA as RandomizedPCA im...
我遇到了一个问题,需要对一组图片进行分类。然而,我对这些图片并没有太多的了解。因此,我计划使用尽可能多的描述符,然后对它们进行主成分分析(PCA),以识别对我有用的描述符。 如果有帮助的话,我可以对大量数据点进行监督学习。但是,这些图片之间可能存在联系。也就是说,可能会从图像X发展到图像X+...