生物神经网络(biological neural networks,BNN),一般指生物的大脑神经元、细胞、突触等组成的网络,用于产生生物的意识,帮助生物进行思考和行动。生物神经网络一般的组织方式为:每个神经元(细胞)都向外伸出许多分支,其中用来接收输入的分支称作树突(dendrities),用来输出信号的分支称作轴突(axon),轴突连接到树突上形成一个突触(synapse)。每个神经元可以通过这种方式连接多个其他神经元,每个神经元也可以接受多个其他神经元的连接。很多连接起来的神经元形成了网状结构,海量具有传感和伸缩功能的体细胞通过神经纤维连接在这个网状结构的输入和输出端,中枢神经系统正是通过这种具有网状结构的生物神经网络获得了“智能”,从而驱动机体做出了趋利避害的选择。
在人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为3类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。
自1943年被首次提出到深度神经网络(一种人工神经网络)之后,人工神经网络经历了多次理论创新。1943年,美国心理学家麦克洛奇(Mcculloch)和数学家皮兹(Pitts)提出了M-P模型,通过把神经元看作基本功能逻辑器件来实现算法,从此开创了人工神经网络模型的理论研究。1949年,心理学家赫布(Hebb)提出了突触连接强度可变的假设。这一假设发展成为后来人工神经网络中非常著名的Hebb学习规则,指明神经元之间突触的联系强度是可变的,这种可变性是学习和记忆的基础。1957年,罗森勃拉特(Rosenblatt)以M-P模型为基础,提出了感知器(Perceptron)模型,是一种结构上非常符合神经生理学的人工神经网络模型。但随后Minsky和Papert于1969年指出简单的线性感知器的功能是有限的,它无法实现“异或”的逻辑关系,这一论断给当时人工神经元网络的研究带来沉重的打击。1986年,D.E.儒默哈特(D.E.Ru melhart)等人在多层神经网络模型的基础上,提出了多层神经网络权值修正的反向传播学习算法——BP算法(Error Back-Propagation),解决了多层前向神经网络的学习问题,证明了多层神经网络具有很强的学习能力。2006年 G.E.辛顿(Hinton)等人提出的深度学习(deep learning,DL)迎来了爆发式发展,深度学习被认为是构建含有多隐层的机器学习架构模型,通过大规模数据进行训练,得到大量更具代表性的特征信息。
按照不同的维度,人工神经网络具有多种分类方式。按照性能分类为连续型和离散型网络,或确定型和随机型网络;按照拓扑结构分为前向网络[自适应线性神经网络(AdaptiveLinear,Adaline)、单层感知器、多层感知器、BP等]和反馈网络(Hopfield网络、玻耳兹曼机等);按照学习方法分类,有教师(监督)的学习网络和无教师(监督)的学习网络等;按照用途分类,有面向图像处理的卷积神经网络、面向时变信息处理的递归神经网络,以及面向不规则数据的图神经网络等。
作为机器学习和智能计算的典型方法,人工神经网络具有显著特点:神经网络模型用于模拟人脑神经元的活动过程,具有高度的并行性、高度的非线性函数的拟合能力、知识的分布存储模式、联想记忆功能和良好的容错性、良好的自适应和自学习功能等。但是,即便是当下,在特定任务上某些深度神经网络性能开始比肩或超越人类智能,人工神经网络在性能、功耗、鲁棒性、容错性方面仍然远远落后于生物神经网络。神经网络将继续在模拟生物神经网络的方向发展,以类脑智能、脉冲神经网络等技术为代表的新型智能计算技术将有望成为下一代人工神经网络的发展方向。