李国栋
(深圳市华途数字技术有限公司,广东深圳 518000)
人工智能被视为“第四次技术革命”的核心驱动力,推动着全球经济产业与生活模式的智能化变革升级,是大国新一轮科技竞赛的“掌上明珠”。2016年,我国就将人工智能作为发展新一代信息技术的主要方向,探索人工智能的关键技术与发展应用,对于推动新科技、新产业、新应用加速重塑具有重要意义。
人工智能(Artificial Intelligence)是通过人工模拟、延伸和扩展人的智能思维过程及行为的一门技术,主要的物质载体和实现平台是现代计算机,并包含了仿生学、神经科学、信息学、心理学、自然语言学、数学和哲学等诸多学科。关于人工智能内涵,最早可追溯至艾伦•图灵提出“图灵测试”,随着信息技术的不断发展,其内涵也在不断深化完善,目前各领域给出的定义与阐释不尽相同,但基本可以包含3个层级:①弱人工智能,就是利用算力和算法模拟人的思考过程,通常专注或限制于特定领域、专用应用场景,作为脑力与初级智能的延伸,本质上是不完备的人工智能,当前人工智能发展水平还主要停留在这一层;②强人工智能,是人工智能向认知型、通用型发展的结果,不再受限于某个领域,能够综合各类知识进行类人推理、分析、整合,并通过自然表现形式进行呈现,这一层人工智能基本可以顺利通过“图灵测试”;③超人工智能,是人工智能发展的高级形态,目前通过想象还不能完全描绘其样貌,至少应包含的特征有:除人类智能外,还同时具有人类情感和自主意识,具备独立且先进的创造能力而并非人类劳动的简单替代。
从当前发展看,人工智能围绕模拟人类感知、学习、处理、表达、行动等各个环节,按应用领域发展出计算机视觉、机器学习、自然语言处理、智能芯片、智能控制等关键技术。其中,计算机视觉用于智能图像处理,能够感知、提取、分析、判断图像中实体对象,广泛运用于面部识别、自动驾驶等领域;机器学习是通过模拟人类学习认知过程,通过知识训练不断修正算法模型的过程,是智能算法的核心;自然语言处理重点解决人机自然通信问题,既能分析、理解人的语音、语法、语义,还要能够运用自然语言表达逻辑、思想等;智能芯片是人工智能的底层基础,通过大规模并行计算为智能算法和大数据处理等提供算力支撑;智能控制是人工智能的外部行为体现,在无人操控情况下实现机器自主决策、智能驱动、自动控制。
人工智能概念的提出最早可追溯至20世纪50年代,经多次延宕发展至今,总的看可分为4个阶段。
1950年,图灵首次探讨了机器拥有人的智能这一思想模型,并提出了“图灵测试”的概念,1956年,在达特茅斯会议上首次提出了“人工智能”的概念。并确定了人工智能的发展目标,即“可以像人类一样运用思维模型自主获取处理知识并解决问题的机器”,自此开启了人工智能的研究探索之旅,计算机科学家围绕模拟思维逻辑构建过程进行了诸多有益的尝试。算法模型上,比较典型的有罗森•布拉特提出的感知器模型,主要模拟了生物神经突触的信息感知处理机制,并首次引入了机器学习、M-P 模型、梯度下降算法等概念,虽然感知器模型作为一种二元线性分类器,仅仅实现了单层人工神经网络,且被证实无法解决异或等线性不可分问题,但基本思想为后来神经网络深度学习模型奠定了重要基础。试验运用上,1952年,剑桥大学基于EDSAC 电脑开发了“购物者”模拟器,能够初步模拟人类购物行为;1956年,Oliver Selfridge 开发了首个基于字符的模式识别软件;1959年,Arthur Samuel 开发了“跳棋程序”,加入泛化机制能够在对弈过程中自主获取“经验”,并在与州跳棋冠军对抗中取得胜利;1970年,日本早稻田大学研制了第一个拟人机器人WABOT-1。这一阶段,由于算法模型还存在参数引入单一基础性制约,对于稍高维度、复杂问题显得束手无策,人工智能发展一度陷入低迷期。
20 世纪80 年代初,以Edward Feigenbaum 为代表的“知识学派”提出人工智能不应囿于通用求解方法,应着眼引入“知识”模拟人类专家求解具体领域的问题,开启了知识工程系统的发展阶段,出现了以XCON 为代表的系列专家系统,专注于医疗、地质等领域的智能应用,但受知识获取限制,知识系统依然难以解决较为复杂的问题,传统人工智能发展进入瓶颈期。为解决海量知识获取与模型建立难题,人们又提出了自下而上的“涌现”式解决思路,即让计算机“自己学习”。围绕这一思路,传统人工智能研究者、神经网络研究者、生物行为研究者分别从不同方向进行了探索,并形成了符号学派、连接学派和行为学派三个主要发展方向,其中,符号学派聚焦于模拟人外在行为和表现,尝试将人的高级行为模式如推理、规划等进行“符号化”,本质上是希望通过算力和存储优势扩展人的逻辑思考过程;连接学派则聚焦于模拟人脑和神经系统的活动过程,是由感知器模型的基础上发展而来,并将单一神经网络扩展为多层神经网络,其中,BP 算法的引入有效解决了多层神经网络复杂参数训练问题,成为第三次人工智能浪潮的最重要推动力之一;行为学派则将目标转向低等生物仿生学,尝试通过模拟低等生物行为和组织活动来理解智能的产生,这一阶段,涌现出多种人工智能算法模型,但当时处理器算力、机器性能明显还无法满足复杂模型的计算需求,对人工智能的探索多停留在试验阶段。
20世纪90年代后,随着计算机技术的快速发展,特别是“摩尔定律”带动计算机算力飞速提升、功耗不断下降,加之人工智能算法的深化演进,数字通信、大数据存储等一系列前沿技术的兴起,也推动着人工智能技术得以长足发展,带动了“第三次人工智能浪潮”。这一阶段开启的标志事件是IBM 公司研发的“深蓝”超级计算机首次击败了世界第一的人类棋手,引发世界广泛关注。同时,人工智能也开始在模式识别、自然语言理解、计算机视觉等领域迅速发展。这一阶段,统计学习的数学模型被引入人工智能,数学家先后提出线性SVM、AdaBoost、随机森林、图模型等理论模型,使人工智能在分类、回归等问题上取得较大突破,并开始尝试为机器学习构建新的统一框架。2006年,Hinton 及其学生正式提出了深度学习的概念,围绕“梯度消失”问题给出了解决方案,成为当前基于神经网络的人工智能算法基础性模型,人工智能正式进入深度学习时代。同年,英伟达公司推出CUDA芯片,用于神经网络训练;2011年,苹果公司推出了首个智能手机语音助理Siri,人工智能开始逐渐向消费端转移。这一阶段,随着基础理论模型的发展完善,人工智能开始不再只是实验室里的产物,更多的科技产业开始将目光转向人工智能领域,推动人工智能应用进入涌现期。
随着谷歌等科技巨头的纷纷加入,人工智能正式进入大应用时代,同时,新一代移动通信技术、大数据、云计算等也迎来爆发式发展,“算力+数据+移动网络”使人工智能技术在算法和运用上都得到了突破性进展。这一阶段的标志性事件是谷歌DeepMind研发的AlphaGo 机器人,成为首个战胜人类围棋冠军的智能机器,与传统的“穷举式”人工智能不同,AlphaGo 真正实现了通过“深度学习”进行知识迭代,成为人工智能走向未来的一丝曙光。基于深度学习和神经网络算法,各大科技公司相继推出了人工智能开发基础框架,如谷歌公司的TensorFlow、脸书公司的PyTorch、华为公司MindSpore 等,助推人工智能领域快速向外扩展,智能应用进一步普及化,进入通信、零售、物流、生产、社交媒体等大众生活的方方面面,也为智能学习获取到大量学习样本。深度学习算法进一步技术迭代,衍生出卷积神经网络、递归神经网络、长短期记忆网络、生成对抗网络等多种模型,使人工智能在各领域发生从“象征性应用”到“实质性应用”巨大转变。目前,人们还在围绕知识数据双重驱动、人机物深度融合、开放自适应等方向持续完善突破,驱动人工智能技术进一步向通用化、自主化、生态化发展,“人工智能+”或将成为未来生活的新常态。
人工智能硬件包括AI 芯片、智能传感器与中间件、智能外设等,作为算法实现的承载基础,AI 芯片是人工智能硬件的关键核心。目前AI 芯片技术发展主要遵循2种路径:①基于传统的冯•诺依曼架构,通过提升算力和并行处理能力,实现先进算法支撑,包括英伟达Tesla 系列GPU、英特尔Arria FPGA 等;②另起炉灶,摆脱原有体系结构,根据人脑神经结构研制类脑芯片。
CPU 与GPU 的组合是目前最广泛的智能芯片架构,其中,GPU 因其在高并行处理、浮点数据计算上的独特优势,能够充分发挥人工智能的潜力,成为近年来智能芯片方案的首选,而CPU 主要担负任务处理和控制等任务。从GPU 架构看,以英伟达为例,在AI 计算上采用CUDA 架构,可包含数千个Stream Processors(SP),每个SP 就是一个并行处理核心,能够提供强大的并行处理算力,相比于传统CPU,GPU 在AI 运算上速度可提升10倍以上,同时CUDA 提供了统一的开发模型,能够有效缩短开发周期,提升开发效率。目前,GPU 主要应用于模型训练与算法推理2个方面,模型训练上主要用于深度学习算法卷积层计算,目前主要GPU 生产商均有针对卷积层计算的矩阵乘法库,如英特尔MKL 等,以及针对性优化算法,如Tensor Core 等;算法推理上主要是针对AI 算法进行模型和编译优化,如网络剪枝、张量分解等,目前GPU 在模型训练上的计算优势较为明显,在算法推理上还有较大短板。
FPGA 能够同时完成并行AI 运算和并行任务处理,与GPU 相比,其峰值运算能力较弱,但具有功耗低、部署灵活、成本可控等优点,在特定应用领域时具有一定效率优势。FPGA 可最大包含数百万个布尔运算单元、数千个存储器以及多个处理器内核,每个时钟周期可触发百万次并行计算操作,由于不需要进行取指令和指令译码,在相同算力情况下,其功耗较GPU 低80%左右,FPGA 的高稳定性也使其广泛运用于智能汽车、无人飞行等复杂场景,也可与GPU、ASIC 芯片搭配使用。但由于没有统一框架和专用的集成开发环境,目前使用FPGA 开发AI 芯片还比较复杂,开发难度大、周期长。
专用人工智能ASIC 在性能和能耗上均优于CPU和FPGA,并具有封装紧密、体积小、可靠性强、保密性高、成本低廉等诸多优点。对于同等规格的GPU 和ASIC,算力上ASIC 可达GPU 的2.5倍以上,功耗仅有GPU 的1/15。但ASIC 一旦定制后便无法更改,难以适应当前快速迭代的算法更新,部署灵活性受限,因此应用还不够广泛,目前部分用于矿机芯片,如ASICMiner、Avalon 等。
类脑芯片是人工智能芯片的发展方向,此类芯片的基本思路是彻底改变传统芯片架构,借鉴脑科学领域的基本原理,开发类人脑工作模式的新架构。相比于传统的总线传输形式,类脑芯片数据处理单元与存储单元一体,可减少数据交换能耗,同时采取神经网络结构,具有自适应调整、分布式处理、高并发连接等优势,能够在极低功耗下处理海量数据、解决复杂问题。以IBM 推出的“真北”类脑芯片为例,其包含54亿个晶体管、2.56亿个可编程突触,突触运算速度可达460亿次/s,但功耗不足70 mW。我国清华大学、浙江大学等也在同步开发相应的类脑芯片。但由于晶体管在模拟神经单元上的差异,以及当前对于脑科学认识不足,类脑芯片在商业化应用上还有较长的路要走。
人工智能自提出至今已逾60余载,先后历经多次曲折发展,不断吸收融合各领域前沿科技,其理论框架日益成熟,软硬件基础日益完善,应用领域日益广泛。总的来看,人类在弱人工智能领域已取得长足进步,正在努力突破强人工智能的瓶颈。随着计算机技术与基础理论的不断突破,人工智能技术在未来将取得更大发展,深刻改变人们的生活方式。