Page 195 - 信息的脉络
P. 195

·第三部分·
               务已被人工智能解决”,至少对分类任务是如此。这一研究群体正在转向新的基
               准数据集和新的研究目标,特别是能够整合视觉和语言的相关研究。


                   深度学习算法
                   深度学习算法基于两个基本思想。

                   第一个基本思想,叫作分层模式识别(hierarchical pattern recognition),部
               分源于 20 世纪 50 年代的一系列实验。以这些实验为基础,大卫·休伯尔(David
               Hubel)和托尔斯滕·维泽尔(Torsten Wiesel)获得了 1981 年的诺贝尔生理学或

               医学奖。休伯尔和维泽尔发现,视觉系统中的不同神经元对视觉刺激有着截然不
               同的反应方式。有些神经元对非常简单的刺激,如特定走向的线条,会产生积极
               反应,还有些神经元对更为复杂的刺激会产生较活跃的反应。他们提出的理论认为,
               针对复杂刺激的识别可能会通过一系列不断提高的抽象层级而实现,如从线条到

               字母再到词汇。20 世纪 80 年代发生了一件 AI 史上的重要里程碑事件,日本神经
               网络先锋人物福岛邦彦(kunihiko Fukushima)将休伯尔和维泽尔的思想在计算机
               实践中“落地”,打造出了实实在在的“神经认知机”(Neocognitron),并证明
               神经认知机可以用于计算机视觉的某些方面。

                   第二个基本思想是学习。举例来说,通过加强特定输入配置对应特定输出的
               权重,就能“训练”一个网络去学习将特定输入与相应输出联系在一起。假设你
               想让网络学习像素网格上不同字母的名称。一开始,系统根本不知道怎样的像素
               图形与哪个字母有关联。随着时间的推移,通过一系列试错和调整,系统会逐渐

               开始将网格上端的像素与诸如 T 和 E 这样的字母联系起来,将左边缘的像素与字
               母 E、F 和 H 联系起来,慢慢掌握不同位置上的像素与对应标签之间的相关性。
               在 20 世纪 50 年代,罗森布拉特已经从直觉上充分认识到这一思路的可行性,但

               他当时所用的网络太过简单和局限,只有一个输入层和一个输出层。如果你要执
               行的任务足够简单,如给圆圈或方块分类,那么就可以利用一些相当直接的数学
               方法,确保你能一直调整权值,来“收敛出”(计算出)正确答案。但对于更为
               复杂的任务来说,仅有两个分层无法令分析过程那么直截了当,需要有能代表各

               类元素组合的中间层。在当时,没人能给出可行的解决方案,无法可靠地训练拥
               有多于两层的深度网络。那个年代的原生态神经网络,只有输入层(图像)和输
               出层(标签),两层中间空无一物。
                   自人工智能第三次浪潮开始以来,涌现了众多基于深度学习的网络模型,

               如前馈神经网络(Feed Forward Neural Networks)、玻尔兹曼机(Boltzmann
               Machines)、受限玻尔兹曼机(Restricted Boltzman Machines)、马尔科夫链(Markov


                                                    • 179 •
   190   191   192   193   194   195   196   197   198   199   200