bp算法的本质,BP算法的原理

  bp算法的本质,BP算法的原理

  BP神经算法(1)简单了解BP神经网络BP神经网络可以分为两部分:BP和神经网络。

  Bp是Back Propagation的缩写,意思是反向传播。神经网络,听起来像,实际上是一个复杂的计算网络。让我举一个简单的例子来说明。什么是网络?

  请看这个问题。如果我手里有钱,那就是n亿美元了。(既然是假设,我也不怕炫耀。)分别投资M1、M2、M3、M4、M5) 5家公司。)M1到M5是百分比。每个公司的收益率都不一样。分别是A1,A2,A3,A4,A5。(A1到A5也是百分比。那么我的回报率是多少?这个问题看起来应该够简单了。也许你拿起笔就能解出收益=nm 1a 1n m2 a 2n m3 an M4 n 5ma 5。这完全是真的,但是没有表现出水平。我们可以把它转化成一个网络模型来解释它。如下图:

  以上问题组织成一个三层网络。从N1到N5,每家公司都能拿到钱,R代表最终利润。R=NM1A1 NM2A2 NM3A3 NM4A4 NM5A5 .n可以作为输入层,R作为输出层,N1到N5作为一个整体是三层。另一方面,M1到M5可以理解为从输入层到非显示层的权重,A1到A5可以理解为从非显示层到输出层的权重。

  这里提到了四个重要的概念:输入层、隐藏层、输出层和权重。所有的网络都可以理解为由这三层以及这三层之间的权重组成的网络,只是隐层和节点的数量要大得多。

  Bp网络有输入层、隐含层和输出层。

  本质bp算法采用梯度下降法计算网络误差平方目标函数中目标函数的最小值。

  Bp算法包括两个过程:信号正向传播和误差反向传播。

  (2)理论

  数学原理

  Xi:输入信号。

  Xd:隐藏层阈值(-1,用-)与加法函数分开。

  输入信号Xi的权重对应于Vih:隐神经元。

  h:第一隐层神经元的输入。

  -h=-1*h:隐层神经元的阈值。

  Bh:第一隐层神经元的输入。

  对应于第hj个输出神经元的隐藏神经元的输出bh的权重。

  -j=-1*j:输出层神经元阈值(bq)))

  !【第j个输出层神经元的输出(预测输出值,yj为真值)】https://img-blog . csdn img.cn/20210423170458126.png

  (3)推导公式变换得到的输出层的权值和阈值的变化。

  类似地,可以获得隐藏层的权重和阈值的变化。

  (4) python代码导入numpy为np

  将matplotlib作为plt导入

  进口熊猫作为pd

  defsigmoid(x):

  对应于抑制层和输出层的函数定律

  return1/(1NP.exp(-x)))))))))).

  defBP(data_tr,data_te,maxiter=600):

  # - pandas基于numpy设计,效率稍低。

  #为了提高处理效率,转换为数组

  data_tr,data_tr=NP.array(data_tr),NP.array (data _ te))。

  #-隐层输入#-1:隐层阈值net _ in=NP.array ([ 0.0,-1])w _ mid=NP . rand . rand)表示其中一个隐层权重阈值(-1x)-1))w _ out=NP . rand . rand(5)输出层权重阈值(-1x其中一个值:threshold)delta _ w _ out=NP . zeros([5])输出层权重阈值:学习速度err=NP.zeros([maxiter])每次迭代总错误率# 1。总训练次数foritinrange) maxiter): #用来衡量每个样本的误差)2。训练集training一般为Jin range(len(data _ tr))3360 net _ in):2)2]#存储当前对象的前两个属性值real=data_tr[j,2] # 3。当前对象正在为iinrange (4)训练:out _ in (i)=sigmoid (sum (net _ in * w

  ) # 获得训练结果err[j]=abs(实数)# -先调节输出层的权值与阈值delta_w_out=刘钇彤*分辨率* (1 -分辨率)*(实数)* out_in #权值调整delta _ w _ out[4]=-刘钇彤*分辨率* (1 -分辨率)*(实数分辨率)#阈值调整w_out=w_out delta_w_out # -隐层权值和阈值的调节对于范围(4)中的我:#权值调整delta_w_mid[:i]=刘钇彤* out _ in[I]*(1-out _ in[I])* w _ out[I]* RES *(1-RES)*(实数)* net_in #阈值调整delta_w_mid[2,I]=-刘钇彤* out _ in[I]*(1-out _ in[I])* w _ out[I]* RES *(1-RES)*(实数)w _ mid=w _ mid delta _ w _ mid Err[it]=Err。平均值()PLT。PLT(错误)PLT。显示()#存储预测误差err_te=np.zeros([100])#预测样本100个对于范围(100)内的j:net _ in[:2]=data _ te[j,2] #存储数据实数=data_te[j,2] #真实结果# net_in和中部时间的相乘过程对于范围(4)中的我:#输入层到隐层的传输过程out _ in[I]=sigmoid(sum(net _ in * w _ mid[:I]))RES=sigmoid(sum(out _ in * w _ out))#网络预测结果输出err_te[j]=abs(实数)#预测误差print(res:,res, real:,real)PLTplot(err _ te)如果“main”,则显示()==name:

  # 1.读取样本

  data _ tr=PD。read _ CSV(" 5.2 data _ tr。txt”)

  data _ te=PD。read _ CSV(" 5.2 data _ te。txt”)

  英国石油公司(数据tr,数据te,最大值=600)

  总结上面的代码是按着下面这个博客写的,发现写道最后需要的数据包无法获取,也就无法验证上面的代码的实用性;

  https://blog.csdn.net/admin_maxin/article/details/81274512?ops _ request _ misc=% 7B % 22请求% 5 FID % 22% 3A % 221619165474167803665937% 25% 22% 2C % 22 SCM % 22% 3A % 2220144 . 196536035PC % 5秋季版.% 22% 7d request _ id=161916547416780366593725 biz _ id=0 UTM _ medium=distribute。PC _搜索_结果。无-任务-博客-2 all first _ rank _ v2 ~ rank _ v 29-16-81274512。first _ rank _ v2 _ PC _ rank _ v 29 UTM _ term=BP神经网络#1.碱基对神经网络简介

  此文保留,等待以后有实际的数据再重新捡起平装书算法

  不仅仅是上面的博客,还参考了各种各样的文章,发现最后还是懵懵懂懂

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: