MLP神经网络训练不正确,可能收敛到一个局部最小值。

4
我正在使用matlab制作一个带有反向传播的MLP神经网络。问题是,它似乎无法很好地处理函数中的曲线,并且在值方面不太可扩展。例如,它可以达到cos(x)的80%,但如果我输入100*cos(x),它根本就无法训练。
更奇怪的是,它可以很好地训练一些函数,而对于其他函数则根本不起作用。 例如: 训练良好:http://img515.imageshack.us/img515/2148/coscox3.jpg 训练效果不佳:http://img252.imageshack.us/img252/5370/cos2d.jpg(因为时间过长而导致平滑度降低)
错误结果,卡在这里:http://img717.imageshack.us/img717/2145/ex2ug.jpg 这是我要实现的算法: http://img594.imageshack.us/img594/9590/13012012001.jpg http://img27.imageshack.us/img27/954/13012012002.jpg 这是我的实现:
close all;clc;

j=[4,3,1]; %number neurons in hidden layers and output layer
i=[1,j(1),j(2)];

X=0:0.1:pi;
d=cos(X);

%-----------Weights------------%
%-----First layer weights------%
W1p=rand([i(1)+1,j(1)]);
W1p=W1p/sum(W1p(:));
W1=rand([i(1)+1,j(1)]);
W1=W1/sum(W1(:));

%-----Second layer weights------%
W2p=rand([i(2)+1,j(2)]);
W2p=W2p/sum(W2p(:));
W2=rand([i(2)+1,j(2)]);
W2=W2/sum(W2(:));

%-----Third layer weights------%
W3p=rand([i(3)+1,j(3)]);
W3p=W3p/sum(W3p(:));
W3=rand([i(3)+1,j(3)]);
W3=W3/sum(W3(:));
%-----------/Weights-----------%

V1=zeros(1,j(1));
V2=zeros(1,j(2));
V3=zeros(1,j(3));

Y1a=zeros(1,j(1));
Y1=[0 Y1a];
Y2a=zeros(1,j(2));
Y2=[0 Y2a];

O=zeros(1,j(3));
e=zeros(1,j(3));

%----Learning and forgetting factor-----%
alpha=0.1;
etha=0.1;
sortie=zeros(1,length(X));
while(1)

n=randi(length(X),1);
%---------------Feed forward---------------%

%-----First layer-----%
X0=[-1 X(:,n)];
V1=X0*W1;
Y1a=tanh(V1/2);

%----Second layer-----%
Y1=[-1 Y1a];
V2=Y1*W2;
Y2a=tanh(V2/2);

%----Output layer-----%
Y2=[-1 Y2a];
V3=Y2*W3;
O=tanh(V3/2);
e=d(n)-O;
sortie(n)=O;

%------------/Feed Forward-----------------%

%------------Backward propagation---------%

%----Output layer-----%
delta3=e*0.5*(1+O)*(1-O);
W3n=W3+ alpha*(W3-W3p) + etha * delta3 * W3;

%----Second Layer-----%
delta2=zeros(1,length(Y2a));
for b=1:length(Y2a)
delta2(b)=0.5*(1-Y2a(b))*(1+Y2a(b)) * sum(delta3*W3(b+1,1));
end

W2n=W2 + alpha*(W2-W2p)+ (etha * delta2'*Y1)';

%----First Layer-----%
delta1=zeros(1,length(Y1a));
for b=1:length(Y1a)
    for m=1:length(Y2a)
          delta1(b)=0.5*(1-Y1a(b))*(1+Y1a(b)) * sum(delta2(m)*W2(b+1,m));


    end
end


W1n=W1+ alpha*(W1-W1p)+ (etha * delta1'*X0)';                                    
W3p=W3;
W3=W3n;

W2p=W2;
W2=W2n;

W1p=W1;
W1=W1n;

figure(1);
plot(1:length(d),d,1:length(d),sortie);

drawnow;
end

我的问题是,我应该做些什么来纠正它? 迄今为止,我的猜测是,在反向传播中可能存在错误,尤其是在计算 delta 和权重时。或者我初始化的权重有误(太小或不依赖于初始输入)。


当然,在Matalb中有神经网络工具箱以及许多实现可以在网上找到。为什么不将结果与已知的东西进行比较呢? - Jorge
我似乎没有这个工具箱。 - patokun
请查看以下网址以获取与编程有关的内容:http://homepages.cae.wisc.edu/~ece539/matlab/ - Jorge
1个回答

3

虽然我不是这个领域的专家,但我有一些使用Matlab和基于Java的神经网络系统的经验。

我可以建议您使用工具箱来帮助您,它已经帮助了我认识的其他人。

我可以提供一些信息:

  • 不要期望神经网络在所有训练数据上都能正常工作,有时候数据对于这种分类方法来说太复杂了。

  • 您的神经网络的格式会对收敛性能产生重大影响。

最后:

  • 像这样的训练算法通常在各种参数被归一化为+/-1时训练效果更好。cos(x)是归一化的,而100*cos*(x)则不是。这是因为所需的加权更新要大得多,训练系统可能正在采取非常小的步骤。如果您的数据具有多个不同的范围,则归一化至关重要。我建议您至少开始研究一下这个问题。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接