Page 196 - 信息的脉络
P. 196

·信息的脉络·
                 Chains)、卷 积 神经 网 络(Convolutional Neural Networks,CNN)、 循环 神 经
                 网 络(Recurrent Neural Networks,RNN)、长短期记忆网络(Long Short Term
                 Memory,LSTM)、生成式对抗网络(Generative Adversarial Networks GAN)等。
                 目前,业界最常用的是卷积神经网络(CNN)、循环神经网络(RNN)。

                     ◆  卷积神经网络(CNN)
                     1980 年,日本广播协会基础科学研究所的福岛邦彦(Kunihiko Fukushima)受
                 到休伯尔和威泽尔的“小猫视觉实验”的启发,提出了“新认知机”(Neocognitron)
                 的设想,“新认知机”中就已经包含了很多现代卷积神经网络的要素,如卷积、

                 池化等。
                     在 1989 年,杨立昆发表一篇名为《通过误差反向传播算法在手写邮政编码识
                 别上的应用》(Backpropagation Applied to Handwritten Zip Code)的论文,把新认
                 知机中的概念与辛顿的误差反向传播算法结合到了一起,正式提出了卷积神经网

                 络。这篇论文基本上是现在业界所认可的卷积神经网络的开端,所以大家认为燕
                 乐存是卷积神经网络的缔造者。
                     1998 年,杨立昆又发表了另一篇论文《基于梯度的学习方法在文档识别上的
                 应用》(Gradient-Based Learning Applied to Document Recognition),在这篇论文中,

                 杨立昆设计了一个名为 LeNet-5 的神经网络,LeNet-5 网络是卷积神经网络的第一
                 个具有影响力的完整实现。当年美国大多数银行就是用 LeNet-5 来识别支票上面
                 的手写数字的,它是早期卷积神经网络中最有代表性的实验系统之一。
















                                           LeNet-5 神经网络的结构

                     LeNe-t5 这个网络虽然很小,但是它包含了深度学习的基本模块:卷积层、池
                 化层、全连接层。
                     全连接(Fully Connected)是每一个结点都与上一层的所有结点相连,用来把
                 前边提取到的特征综合起来,全连接层的每一个输出元素都是由所有的输入元素

                 经过线性运算得到的。由于其全相连的特性,一般全连接层的参数也最多。
                     卷积(Convolution)最初被引入神经网络,就是为了处理模式识别中图像特


                                                  • 180 •
   191   192   193   194   195   196   197   198   199   200   201