类脑计算芯片技术发展及军事应用浅析

2021-07-15 10:39姚保寅黄旭辉王智斌
军事文摘 2021年13期
关键词:类脑人脑超级计算机

毛 磊 姚保寅 黄旭辉 王智斌

随着智能时代对大规模数据处理的要求越来越高,摩尔定律下的处理器集成器件数量越发接近极限,当下急需通过架构的变化以应对大数据的需求。类脑计算芯片结合微电子技术和新型神经形态器件,模仿人脑神经系统计算原理进行设计,旨在突破“冯˙诺依曼瓶颈”,实现类似人脑的超低功耗和并行信息处理能力。

基本概念与内涵

类脑计算芯片(简称“类脑芯片”),广义上指参考人脑神经元结构和人脑感知认知方式来设计的芯片,分为两大类:一是侧重于参照人脑神经元模型及其组织结构来设计芯片结构,称为神经形态芯片,如IBM公司的“真北”;二是侧重于参照人脑感知认知的计算模型而非神经元组织结构,即设计芯片结构来高效支持人工神经网络或深度神经网络等成熟的认知算法。狭义上,类脑芯片一般指神经形态芯片。

类脑芯片尤其是神经形态芯片具有如下特点:善于做复杂时空序列分析;虽然每个神经元发放速率很低,但基于全并行运算,响应速度远远快于现有解决方案;适合做各种传感器信息的实时处理;独有的事件触发运算机制,即当没有动态信息生成的时候不会有运算发生。

发展现状及水平

类脑芯片起源于20世纪80年代,加州理工学院教授卡弗•米德最先提出的“神经拟态计算”的设计理念。2008年美国惠普公司发明出可模仿人脑触功能的忆阻器,使得以硬件形式模仿人脑形态和功能首次成为可能,为类脑芯片的快速发展奠定重要基础。美欧日等均设立各种类脑计划,为未来发展开辟道路,如美国2013年宣布的“通过发展创新性神经技术的大脑研究”计划(简称“大脑”计划)、欧盟第七框架计划的旗舰项目“人脑工程”、日本文部科学省2014年9月启动的“大脑研究计划”等。

IBM公司的“真北”类脑芯片

美国DARPA在2008年忆阻器研制成功后,迅速启动总投资1.01亿美元,为期6年的“神经形态自适应可塑可扩展电子系统”项目,旨在研制出具有百万神经元级别的类脑芯片,项目主要由IBM和休斯研究实验室负责。

IBM于2014年发布了第二代“真北”类脑芯片,采用28纳米工艺,含100万个神经元数量、2.56亿个可编程突触、54亿个晶体管,每秒可执行460亿次突触运算,总功耗为70毫瓦,尺寸仅为一张邮票大小,能以80%的正确率对校园监控视频中的行人和车辆进行实时分类,相比执行同样任务的笔记本电脑,“真北”速度是后者的100倍,功率仅为其千分之一。

为加速实现“真北”类脑芯片实际应用,IBM公司还开发出“核心集”硬件描述语言,为类脑芯片的功能定制提供便利。目前,IBM公司以“神经突触核心”为基本模块,已开发出150余种能实现特定功能的算法包。算法包间还可进一步结合,实现更复杂的功能。

IBM公司侧重架构研究,对“真北”芯片中的“神经突触核心”电路做了充分简化,其中的突触只具有导通和断开两种状态。这种设计便于用传统计算机仿真模拟,但缺乏通过即时学习改善芯片性能的能力。休斯研究实验室的“神经突触核心”采用模拟设计,并利用“突触时分复用技术”使每个实体突触都能发挥上万个虚拟突触的作用。2014年6月,该实验室研制出包含576个神经元和7.3万突触的芯片,演示了通过即时学习改善芯片性能的能力。在项目下一阶段,该成果将应用于“真北”架构,构建可实时学习的类脑微处理器。

除“真北”芯片外,英特尔于2017年发布了Loihi类脑芯片,采用异构设计,拥有13万个神经元和1.3亿个突触,可加速机器学习,同时将功耗要求降低到现有芯片的千分之一。英特尔于2019年展示了其最新的可模拟800多万个神经元的Pohoiki Beach芯片系统,含64颗Loihi芯片,集成1320亿个晶体管,总面积3840平方毫米,拥有800多万个“神经元”(相当于某些小型啮齿动物的大脑)和80亿个“突触”,执行任务速度比传统CPU快1千倍,能效可提高1万倍。此外,高通、谷歌和英伟达等也在加大类脑芯片的研究。前几年大火的谷歌AlphaGo和英伟达GPU等,均采用了最新类脑芯片技术。

欧盟在“人脑工程”计划的支持下,类脑芯片研制也取得显著进展。英国曼彻斯特大学领导的“脉冲神经网络体系结构”项目是“人脑工程”计划的基础仿真项目。该项目基于多核ARM芯片构建认知超级计算机。2018年,全球最大的神经形态超级计算机“脉冲神经网络体系结构”首次启用,拥有100万个处理器内核,每秒可执行200万亿次操作,能够达到人脑百分之一的比例,是世界上第一个低功耗、大规模人脑数字模型。

德国海德堡大学领导的“多层次大脑”项目是“人脑工程”计划的神经形态计算项目。该项目将从神经元到大脑整体等不同层次加深对大脑信息处理过程的理解,在8英寸晶片上构建了384块紧密互联的神经形态管芯,包括20万个神经元和5000万个突触,采用这种神经形态处理器的计算机已经成功运行,功能比IBM公司的“真北”神经形态芯片更接近生物神经元。

关键技术及应用

类脑芯片关键技术主要包括算法模型和硬件平台技术两大类。

“脉冲神经网络体系结构”类脑芯片

算法模型技术类脑芯片算法模型技术主要涉及人工神经网络、脉冲神经网络等。其中,人工神经网络受到脑网络启发,通过连接大量具有相同计算功能的神经元节点形成神经网络,实现对输入输出模式的拟合近似。人工神经网络从输入到输出呈现层级结构,当层数较多时则被称为深度神经网络。人工神经网络本质上是存储和计算并行,脉冲神经网络则更严格地模拟大脑的信息处理机制,与前者主要有两大不同,其一是采用脉冲编码(0/1),其二是具有丰富的时间动力学。

脉冲神经网络方法需要有与生物神经元的动力学相似的人工突触和神经元。对模拟突触功能至关重要的人工突触已经被简单的两终端忆阻器实现。最近,带有积分泄漏和发放功能的人工神经元也被单一的忆阻器器件实现。支持脉冲神经网络的器件通常称为神经形态器件,目前大多只能体现低功耗的特性,性能尚不能与深度神经网络匹敌。

硬件平台技术类脑芯片硬件平台技术主要涉及深度神经网络专用处理器和神经芯片及系统。面向深度神经网络的专用处理器设计需要充分考虑大量参数存储访问带来的面积、速度和能耗瓶颈,通过压缩和简化网络模型,结合计算模块的设计进一步优化整个架构。还有另一类深度学习专用处理器的解决方案,主要基于深度压缩算法来指导硬件设计。具体来说,主要在不损失过多性能的前提下,通过在理论算法层面对深度神经网络进行各种近似或压缩,从而设计轻量化网络以减小所需要的计算和存储资源,实现更快的运行速度和更低的能量消耗。

目前神经形态芯片主要基于传统CMOS技术的神经形态计算电路和基于新型纳米器件的神经形态计算电路。传统CMOS技术发展相对比较成熟,如“真北”芯片是异步-同步混合(无全局时钟)数字电路的代表作;海德堡大学的“多层次大脑”芯片则是模拟集成电路的代表作。而基于新型纳米器件的神经形态计算电路目前最受关注的方向是利用忆阻器等搭建的神经形态芯片。

深度神经网络专用处理器和神经形态芯片分别支持人工神经网络和脉冲神经网络模型。通过设计通用类脑芯片,可实现上述两种模型异构融合,在保持专用芯片高效能的同时,需尽可能提高对上述模型支持的通用性。

应用前景

类脑芯片拥有超低功耗、大规模并行计算、高速或实时信息处理等技术潜力,在军事应用场景下,特别是对性能、速度、功耗有强约束的条件下,具有独特的优势,可用于天/空基针对军事目标的超低延时动态视觉识别,组建认知超级计算机实现海量数据快速处理,此外还可用于未来战场的智能博弈对抗与决策。

超低延时动态视觉识别类脑芯片的超低功耗、超低延时、实时高速动态视觉识别、追踪技术及传感器信息处理技术,是国防科技战略层面的关键技术,尤其超低延时实时高速动态视觉识别技术,在卫星、飞机等装备高速动态识别领域具有极为重要的作用。美国空军于2014年授予IBM一份价值55万美元的合同,利用“真北”芯片帮助卫星、高空飞机和小型无人机等更加高效、智能地完成机器视觉分析,自动识别坦克或防空系统等车辆,而功耗不到原来1/5,这对于太空有限的供能资源非常重要。三星高级技术研究院于2016年也利用IBM“真北”芯片,研发了动态视觉传感器,以每秒2000帧的速度识别图像,用于3D地图生成和自动驾驶等。

类脑芯片拥有广阔的应用前景

海量数据快速处理类脑芯片促进神经形态超级计算机发展,使其具有极高的计算速度和海量数据处理能力,未来还能进行“认知”与“思考”,将改变计算机常规工作模式。美国空军研究实验室于2017年6月利用IBM公司的“真北”类脑芯片开始研制类脑超级计算机,并于2018年8月发布了世界上最大的神经形态超级计算机“蓝鸦”。该计算机可以同时模拟6400万个生物神经元和160亿个生物神经突触,功耗仅为40瓦,是传统超级计算机的百分之一。美国空军实验室计划在2019年演示一种利用“蓝鸦”开发的机载目标识别应用程序,2024年将实现百亿亿次的类脑认知超级计算机,对10倍于目前全球互联网流量的大数据进行实时分析,届时将使制约下一代战机等先进装备发展的大数据从难题变为资源,加速创新与发现,并极大缩短国防科技与工程的发展周期。

智能博弈对抗与决策面对未来战争,特别是智能化、无人化、强博弈对抗条件下,类脑芯片通过借鉴大脑的信息处理和信息存储方式,在智能计算的算力、能耗与效率等方面具有优势,有望实现飞机/导弹等的博弈对抗和决策的跨越式发展,提升未来战场军事对抗能力。

类脑芯片可用于未来战场的智能博弈对抗与决策

结语

类脑芯片的本质是模拟人脑工作原理实现快速学习,解决极其复杂的计算问题,有望满足卫星、无人机、单兵装备等的低能耗需求,并通过不断学习实现复杂环境中高效信息处理。当前类脑芯片研究已取得阶段性进展,建议国内相关研究机构:一是大力加强类脑芯片理论建模和功耗降低等关键技术研究,如研究建立神经网络处理器相关的功耗模型,通过结构设计参数的选择,降低相对功耗。二是充分调动认知科学、神经以及遗传科学、计算机科学和社会学等各领域专家,加强学科交叉,逆向工程推进类脑芯片研究取得新突破。三是加强类脑芯片研制用单晶硅、忆阻器等关键材料影响机制研究。如在人造突触设计时,针对非晶材料对电压模拟神经元信息传输的影响机制研究,以及忆阻器材料对人工神经网络逻辑完备性、计算复杂度、级联、可重构性的影响机制研究等。四是促进用户-企业-高校产学研用合作,加速类脑计算技术向实际应用转化。如从应用端发力,突出导向性,倒逼类脑芯片研发;形成用户-企业-高校产学研用合作机制,畅通类脑芯片研发应用链条等。

猜你喜欢
类脑人脑超级计算机
超级计算机
人脑拥有独特的纹路
神经元规模最大类脑计算机问世
我科学家首次提出“类脑计算完备性”
英国
每秒100亿亿次 中国超级计算机
中国成立“类脑国家实验室”“借鉴人脑”攻关人工智能
让人脑洞大开的建筑
创意无限的另类汉堡