大数据时代下深度学习理论综述

2017-12-23 18:55:43河南工业贸易职业学院信息工程系邱俊玲
智能制造 2017年8期
关键词:卷积神经网络深度

河南工业贸易职业学院信息工程系 邱俊玲

大数据时代下深度学习理论综述

河南工业贸易职业学院信息工程系 邱俊玲

一、引言

据Domo公司在2016年统计数据显示,全球每分钟在亚马逊上产生222283美元的交易,YouTuBe上有400小时的视频共享资源,谷歌翻译出69500000个字符,气象频道收到13888889次预报请求,Dropbox上传833333个新文件等。面对如此海量的数据,如何处理这些日益膨胀的数据,如何挑选出适合自己的数据,如何利用这些数据更好地服务客观世界,找出规律进行分类,实现对大数据的合理利用是研究者应考虑和解决的当务之急,在此条件下,深度学习应运而生。

深度学习的基本思路是通过算法的设置,训练机器能从大量的历史数据中找出规律,从而对新的样本进行智能识别或预测未来。这是传统的机器学习方法,利用样本中的特征向量来训练数据进而建立模型。但随着大数据时代的到来,为深度学习创造了条件,无监督学习方法成为研究人员更为热衷的方向。

二、深度学习的发展历程

深度学习的研究起源于人工神经网络,是由输入层、隐藏层、输出层组成的三层模型。一个神经网络由节点和有向边表示,每个神经元节点的输出作为连入的下一个节点的输入。每次输出前,每个神经元的自运算是运用了一个非线性激活函数,正因此神经网络的模型具有非线性的特征。深度学习的发展经历了漫长的历史时期。早在1943年,McCulloch和Pitts建立了第一个神经网络计算模型,称为MP模型。1949年,Donald利用心理学知识,提出了自组织学习的规则Hebbian Learning,此后Wesley等人用计算机仿真了Hebbian网络。随后的1958年,Frank将MP模型进行推广,提出了第一个人工神经网络模型——感知机模型,这是一种单层神经网络模型,并从理论上证明了这一模型处理线性可分类问题的收敛性。1962年Rosenblatt总结了这一研究成果,并出版了《神经动力学原理:感知机和大脑机制的理论》,自此机器学习的研究进入了第一个高潮时期。然而在1969年,Minsky和Paper从感知器的局限性入手,以一个逻辑异或运算的例子推翻了感知机模型,证明了不包含隐层单元的感知器无法处理异或这种非线性分类问题,自此神经网络的研究坠入低谷。

1982年美国生物物理学家Hopfield采用了新型的全互连神经网络,利用所定义的计算能量函数成功给出了TSP问题的近似解,这一理论给了神经网络新的春天。1986年David E.Rumelhart发明了反向传播BP算法,但由于其梯度弥散的问题导致该算法的应用有其局限性,在神经神经网络初始参数完全随机的情况下,BP算法被论证出在浅层神经网络中的是有效的,然而在深层网络中它的处理效果并不理想。

2006年,Hinton等人提出通过非监督学习方法对原始数据进行逐级训练,再采用监督方法精调整个网络。非监督学习进行的训练为神经网络提供了较好的初始参数,降低了网络的优化难度。2008年,Vincent等人提出了降噪自编码器,2011年Rafir等人提出了收缩自编码器,2012年微软公司建立了深度神经网络——隐马尔科夫混合模型,并将其应用于语音识别;同年,Ng在“GoogleBrain”项目中使用无监督深度学习方法。2015年Xu提出了集合注意力的场景识别方法,同年He等人提出了拥有152层的深度残差网络模型。深度学习理论的探索在曲折中前进。

三、深度学习的理论及框架结构

1.深度学习的理论

传统的机器学习需要对数据进行预处理,然后对处理的数据进行特征提取和选择,以达到学习的目的,实现推理、预测的功能。但该方法的准确性依赖于特征提取和特征选择的好坏,而人类的学习往往是自动的,为了使机器也能实现自动学习,模拟人脑进行分层分析学习的神经网络延伸出了深度学习的概念。

深度学习沿用了神经网络分层结构,但与神经网络又有不同。神经网络采用BP迭代算法来训练整个网络,随机设定初值计算当前网络的输出,利用该输出与真实样本的差值来改变前面各层的参数,直到收敛。该训练方法适合层数不多的情况,且随机的初值对系统也有一定的影响。深度学习含多层隐层,单纯采用传统的BP算法会导致模型时间复杂度很高,层层训练也会出现过拟合的情况,因此深度学习采用的是由上而下的监督训练方法,由下而上的非监督学习,常用的模型包括:自动编码器(Auto Encoder)、稀疏编码(Sparse Coding)、限制波尔兹曼机(Restricted Boltzmann Machine)、深度信任网络(Deep Belief Networks)和卷积神经网络(Convolutional Neural Networks),本文重点阐述卷积神经网络的原理及优势。

卷积神经网络是由Hubel和Wiesel根据视觉神经科学对动物大脑视觉皮层简单细胞核复杂细胞的反应设计而来的,是第一个真正成功训练多层网络结构的算法,主要应用于二维图像的识别或人脸识别。

一般而言,卷积神经网络包括两层结构,第一层是卷积层,通过多卷积滤波器组对输入图像的各种特征进行卷积操作,从而生成特征图。假设一个卷积核只提取一种特征,要得到图像的多个特征,就需要多个卷积核来提取不同的特征,每一层对应多张特征图。第二层是池化层,通过对图像某一个区域的特征取平均值实现聚合操作。首先为实现主体的可靠性先粗粒化各个特征的位置,然后计算某个特征图内局部块的最大值,通过平移行或列的块来获取相邻单元的输入数据,最后根据实际需要串联多个卷积、非线性变换和池化有监督地训练所有过滤器中的权值参数。

卷积神经网络的权值分享使得其结构与生物神经网络更类似,分层结构降低了模型的复杂度,并减少了权值的数量。其优点在于多维图像的输入可以直接作为网络的输入,与网络的拓扑结构能够很好地吻合,且特征提取和模式分类同时进行,避免了传统算法中复杂的特征提取和数据重建过程,从训练数据中进行学习,它可以直接处理灰度图片,能够直接用于处理基于图像的分类。

2.深度学习的框架对比

目前,深度学习的主流框架主要包括Caffe、TensorFlow、MXNet、Torch和Theano。

(1)Caffe。Caffe于2013年由Yangqing Jia基于卷积神经网络编写和维护,是第一个主流的工业级深度学习工具,其开发语言是C++,速度快,在计算机视觉领域很流行,但其缺点在于灵活性一般,而且对递归网络和语言建模的支持度较差。

(2)TensorFlow。TensorFlow是由谷歌公司开发的第二代深度学习工具,它使用了向量运算的符号图方法,支持快速开发,且因其开源性和灵活性,深受开发人员喜爱。它的局限性在于速度较慢,内存占用相对较大,而且只能在Linux和MAC OS系统上开发。

(3)MXNet。MXNet是另一款开源的深度学习工具,重在灵活性和高效性,同时强调提高内存使用率,其主要的开发语言也是C++,是一款非常好用的国产开源工具。

(4)Torch。Torch是Facebook力推的深度学习框架,具有较好的灵活性和高效性,主要的开发语言是C和Lua,其核心的单元都已经过优化,使用者不需要花多余的时间在计算机优化方面,可以专注于实现算法。

(5)Theano。Theano是2008年由蒙特利尔理工学院研发,其最大的特点就是灵活性很高,适合学术研究,对递归网络和语言建模都有很好的支持,同时基于开发语言Python派生了大量的深度学习软件包,而且是可以在Windows系统上运行的深度学习框架,唯一的缺点就是其速度不高。

四、深度学习现阶段的研究及应用

语音处理方面,2012年,微软公司研究人员建立深度神经网络与隐马尔科夫结合的混合模型,并将其应用于语音识别系统,大大降低了语音识别的错误率。2013年,Graves将长短时递归算法应用于语音处理,相较于传统算法更高效。在图像识别方面,Krizhevsky等人提出了应用于ImageNet 的AlexNet方法,基于大数据集将深度卷积神经网络应用于图像识别,将错误率降至37.5%。2016年,谷歌公司的AlphaGo通过人机对弈击败了人类所配置的视觉组成部分。其他方面,谷歌的Ground Truth团队使用深度神经网络从多国收集到的街景图中读取街道名,在FSNS数据集中达到了84.2%的准确率。

五、结语

深度学习的概念自被提出以来,其理论及学习架构都有很大的发展,并取得了很显著的成果,以谷歌公司为代表的一系列国内外研究人员做了大量的工作,比如在图像、语音和视频等方面的发展,甚至在自动驾驶、智能机器人等领域取得的成绩。基于深度学习的非监督理论学习方法也被广大研究人员不断改进。然而目前深度学习领域还有很多待解决的问题,比如理论支撑薄弱、无监督学习能力还有待提高等问题,要想机器学习真正做到像人类一样学习还有很长的路要走。

深度学习是机器学习的一个分支,是人工智能的一部分。深度学习通过模拟人的学习活动,达到获取新知识或技能的目的。本文首先论述了深度学习的理论及实现框架,重点介绍了卷积神经网络,然后分析了深度学习现阶段的应用,最后提出深度学习尚待解决的问题,以期该理论有更长远的发展。

猜你喜欢
卷积神经网络深度
基于3D-Winograd的快速卷积算法设计及FPGA实现
深度理解一元一次方程
神经网络抑制无线通信干扰探究
电子制作(2019年19期)2019-11-23 08:42:00
从滤波器理解卷积
电子制作(2019年11期)2019-07-04 00:34:38
深度观察
深度观察
深度观察
基于傅里叶域卷积表示的目标跟踪算法
基于神经网络的拉矫机控制模型建立
重型机械(2016年1期)2016-03-01 03:42:04
复数神经网络在基于WiFi的室内LBS应用