% Matlab实现简单BP神经网络
% http://blog.csdn.net/zjccoder/article/details/40713147
for i=: %样本个数
xx(i)=*pi*(i-)/;
d(i)=0.5*(+cos(xx(i)));
end
n=length(xx);%样本个数
p=; %隐层个数
w=rand(p,);
wk=rand(,p+);
max_epoch=;%最大训练次数
error_goal=0.002;%均方误差
q=0.09;%学习速率
a(p+)=-; %training
%此训练网络采取1--1的形式,即一个输入,6个隐层,1个输出
for epoch=:max_epoch
e=;
for i=:n %样本个数
x=[xx(i);-]; %按照行来连接,初始的输出都是-,向着d(i)=0.5*(+cos(xx(i))) 进行拟合
neto=;
for j=:p
neti(j)=w(j,)*x()+w(j,)*x(); %w(j,)输入层权值
a(j)=/(+exp(-neti(j)));
%隐层的激活函数采取s函数,f(x)=/(+exp(-x))
neto=neto+wk(j)*a(j); % 输出层wk(j)权值
end
neto=neto+wk(p+)*(-); %加上偏置
y(i)=neto; %输出层的激活函数采取线性函数,f(x)=x
de=(/)*(d(i)-y(i))*(d(i)-y(i));
e=de+e;
%反向传播倒数第二层到输出层权值调整的量因为是线性激活函数,不需要求导
%参考http://www.cnblogs.com/daniel-D/archive/2013/06/03/3116278.html
%LMS算法
dwk=q*(d(i)-y(i))*a;
for k=:p
%(d(i)-y(i))*wk(k) 输出层的残差权值分配
%a(k)*(-a(k)为激活函数输出的倒数,
%f(x) = /(+exp(-x)) f'(x) = f(x)(1-f(x)) = a(1-a)
%x是当前层的输出,由于是第一层,输出和输入是相同的
%参考blog.csdn.net/langb2014/article/details/
dw(k,:)=q*(d(i)-y(i))*wk(k)*a(k)*(-a(k))*x;
end
wk=wk+dwk; %从隐层到输出层权值的更新
w=w+dw; %从输入层到隐层的权值的更新
end
error(epoch)=e;
m(epoch)=epoch;
if(e<error_goal)
break;
elseif(epoch==max_epoch)
disp('在目前的迭代次数内不能逼近所给函数,请加大迭代次数')
end
end
%simulation
for i=:n %样本个数
x=[xx(i);-];
neto=;
for j=:p
neti(j)=w(j,)*x()+w(j,)*x();
a(j)=/(+exp(-neti(j)));
neto=neto+wk(j)*a(j);
end
neto=neto+wk(p+)*(-);
y(i)=neto; %线性函数
end %plot
figure()
plot(m,error)
xlabel('迭代次数')
ylabel('均方误差')
title('BP算法的学习曲线')
figure()
plot(xx,d)
hold on
plot(xx,y,'r')
legend('蓝线是目标曲线','红线是逼近曲线')