我已经使用OpenCV相当长一段时间了。最近我决定测试它在机器学习方面的能力。因此,我最终实现了一个用于人脸识别的神经网络。总结我的人脸识别策略如下:
将标签向量转换为标签矩阵
- 从某些面部数据库的CSV文件中读取图像。
- 将图像按行滚动到Mat数组中。
- 应用PCA进行降维。
- 使用PCA的投影来训练网络。
使用训练好的网络预测测试数据。
所以,一切都很顺利,直到预测阶段。我使用最大响应输出单元对面部进行分类。通常情况下,OpenCV的sigmoid实现应该给出-1到1范围内的值,这在文档中有说明。1是最接近类的最大值。但是当我得到几乎为0的精度时,我检查了每个测试数据每个类别的输出响应。我对这些值感到惊讶:14.53, -1.7, #IND。如果应用sigmoid,我怎么会得到这些值?我做错了什么?
为了帮助您理解问题,并为那些想知道如何应用PCA及其与NN配合使用的人分享我的代码:
读取csv:
void read_csv(const string& filename, vector& images, vector& labels, char separator = ';') { std::ifstream file(filename.c_str(), ifstream::in); if (!file) { string error_message = "未提供有效的输入文件,请检查给定的文件名。"; CV_Error(1, error_message); } string line, path, classlabel; while (getline(file, line)) { stringstream liness(line);
getline(liness, path, separator); getline(liness, classlabel);
if(!path.empty() && !classlabel.empty()) { Mat im = imread(path, 0);
images.push_back(im); labels.push_back(atoi(classlabel.c_str())); } } }
按行滚动图像:
Mat rollVectortoMat(const vector<Mat> &data)
{
Mat dst(static_cast<int>(data.size()), data[0].rows*data[0].cols, CV_32FC1);
for(unsigned int i = 0; i < data.size(); i++)
{
Mat image_row = data[i].clone().reshape(1,1);
Mat row_i = dst.row(i);
image_row.convertTo(row_i,CV_32FC1, 1/255.);
}
return dst;
}
将标签向量转换为标签矩阵
Mat getLabels(const vector<int> &data,int classes = 20)
{
Mat labels(data.size(),classes,CV_32FC1);
for(int i = 0; i <data.size() ; i++)
{
int cls = data[i] - 1;
labels.at<float>(i,cls) = 1.0;
}
return labels;
}
主要内容
int main()
{
PCA pca;
vector<Mat> images_train;
vector<Mat> images_test;
vector<int> labels_train;
vector<int> labels_test;
read_csv("train1k.txt",images_train,labels_train);
read_csv("test1k.txt",images_test,labels_test);
Mat rawTrainData = rollVectortoMat(images_train);
Mat rawTestData = rollVectortoMat(images_test);
Mat trainLabels = getLabels(labels_train);
Mat testLabels = getLabels(labels_test);
int pca_size = 500;
Mat trainData(rawTrainData.rows, pca_size,rawTrainData.type());
Mat testData(rawTestData.rows,pca_size,rawTestData.type());
pca(rawTrainData,Mat(),CV_PCA_DATA_AS_ROW,pca_size);
for(int i = 0; i < rawTrainData.rows ; i++)
pca.project(rawTrainData.row(i),trainData.row(i));
for(int i = 0; i < rawTestData.rows ; i++)
pca.project(rawTestData.row(i),testData.row(i));
Mat layers = Mat(3,1,CV_32SC1);
int sz = trainData.cols ;
layers.row(0) = Scalar(sz);
layers.row(1) = Scalar(1000);
layers.row(2) = Scalar(20);
CvANN_MLP mlp;
CvANN_MLP_TrainParams params;
CvTermCriteria criteria;
criteria.max_iter = 1000;
criteria.epsilon = 0.00001f;
criteria.type = CV_TERMCRIT_ITER | CV_TERMCRIT_EPS;
params.train_method = CvANN_MLP_TrainParams::BACKPROP;
params.bp_dw_scale = 0.1f;
params.bp_moment_scale = 0.1f;
params.term_crit = criteria;
mlp.create(layers,CvANN_MLP::SIGMOID_SYM);
int i = mlp.train(trainData,trainLabels,Mat(),Mat(),params);
int t = 0, f = 0;
for(int i = 0; i < testData.rows ; i++)
{
Mat response(1,20,CV_32FC1);
Mat sample = testData.row(i);
mlp.predict(sample,response);
float max = -1000000000000.0f;
int cls = -1;
for(int j = 0 ; j < 20 ; j++)
{
float value = response.at<float>(0,j);
if(value > max)
{
max = value;
cls = j + 1;
}
}
if(cls == labels_test[i])
t++;
else
f++;
}
return 0;
}
注意:我使用了AT&T的前20个类作为我的数据集。