展会信息港展会大全

BP神经网络模型
来源:互联网   发布日期:2011-12-16 18:50:43   浏览:29756次  

导读:在感知器和线性神经网络的学习算法中,理想输出与实际输出之差被用来估计神经元连接权值的误差。当为解决线性不可分问题而引入多级网络后,如何估计网络隐含层神经元的误差就成了一大难题。因为在实际中,无法知道隐含层的任何神经元的理想输出值。Rumelhart...

      在感知器和线性神经网络的学习算法中,理想输出与实际输出之差被用来估计神经元连接权值的误差。当为解决线性不可分问题而引入多级网络后,如何估计网络隐含层神经元的误差就成了一大难题。因为在实际中,无法知道隐含层的任何神经元的理想输出值。Rumelhart,McClelland和他们的同事们洞察到了神经网络信息处理的重要性,并于1982年成立了一个PDP小组,研究并行分布式信息处理方法,探索人类认知的微结构。1985年他们提出了BP网络的误差反向后传BP(Back Propagation)学习算法,实现了Minsky设想的多层神经网络模型。
      BP(Back Propagation)算法在于利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其它各层的误差估计。这样就形成了将输出层表现出的误差沿着与输入传送相反的方向逐级向网络的输入层传递的过程。因此,人们特将此算法称为误差反向后传算法,简称BP算法。使用BP算法进行学习的多级非循环网络称为BP网络,属于前向神经网络类型。虽然这种误差估计本身的精度会随着误差本身的“向后传播”而不断降低,但它还是给多层网络的训练提供了比较有效的办法,加之多层前向神经网络能逼近任意非线性函数,在科学技术领域中有广泛的应用,所以,多年来该算法一直受到人们广泛的关注。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港