我正在使用libsvm工作,并需要用 one versus all 实现多类别分类。
我应该怎样做?
这个libsvm
的2011版本是否支持此功能?
我认为我的问题并不是很清楚。如果libsvm不会自动使用one versus all策略,我将为每个类别使用一个svm,否则我该如何在svmtrain
函数中定义这些参数。
我已经阅读了libsvm的README文件。
我正在使用libsvm工作,并需要用 one versus all 实现多类别分类。
我应该怎样做?
这个libsvm
的2011版本是否支持此功能?
我认为我的问题并不是很清楚。如果libsvm不会自动使用one versus all策略,我将为每个类别使用一个svm,否则我该如何在svmtrain
函数中定义这些参数。
我已经阅读了libsvm的README文件。
k
个 SVM 模型,每个模型将一个类与其他类分开。一旦我们有了这些二元分类器,我们使用概率输出(-b 1
选项)通过选择具有最高概率的类来预测新的实例。%# Fisher Iris dataset
load fisheriris
[~,~,labels] = unique(species); %# labels: 1/2/3
data = zscore(meas); %# scale features
numInst = size(data,1);
numLabels = max(labels);
%# split training/testing
idx = randperm(numInst);
numTrain = 100; numTest = numInst - numTrain;
trainData = data(idx(1:numTrain),:); testData = data(idx(numTrain+1:end),:);
trainLabel = labels(idx(1:numTrain)); testLabel = labels(idx(numTrain+1:end));
这是我为多类支持向量机实现的一对多方法:
%# train one-against-all models
model = cell(numLabels,1);
for k=1:numLabels
model{k} = svmtrain(double(trainLabel==k), trainData, '-c 1 -g 0.2 -b 1');
end
%# get probability estimates of test instances using each model
prob = zeros(numTest,numLabels);
for k=1:numLabels
[~,~,p] = svmpredict(double(testLabel==k), testData, model{k}, '-b 1');
prob(:,k) = p(:,model{k}.Label==1); %# probability of class==k
end
%# predict the class with the highest probability
[~,pred] = max(prob,[],2);
acc = sum(pred == testLabel) ./ numel(testLabel) %# accuracy
C = confusionmat(testLabel, pred) %# confusion matrix
[dummy,dummy,labels] = unique(species);
替换了它,它正常工作了。 - Zahra E