电子信息

2018-05-25 05:40
军民两用技术与产品 2018年7期
关键词:存储技术内存量子

美国开发出“大脑芯片”人造突触

美国麻省理工学院的研究人员设计了一种人造突触,能够精确地控制流过其中的电流强度,类似于离子在神经元之间流动的方式,并已利用硅锗制成了人造突触芯片。该芯片及其突触在模拟研究中可用于识别手写样本,准确率达95%。这标志着人类向便携式,低功耗神经形态芯片迈出了重要一步。

研究人员利用硅锗制成人造突触组成的神经形态芯片,每个芯片由输入、隐藏、输出“神经元”组成,每个神经元通过基于细丝的人造突触连接到其它“神经元”。每个突触约25nm,且突触之间离子流的差异仅为4%,是目前实验室能达到的一致性最好的装置,也是演示人工神经网络的关键。随后,研究人员进行了人造神经网络的计算机模拟,在手写样本识别测试中,其准确率达到了95%,而现有软件算法的精度为97%。

目前,研究人员正在模拟研究的基础上研制真正可执行手写样本识别任务的神经形态芯片,并期望利用其人工突触设计制造出更小型、便携式的神经网络设备用于执行复杂计算,最终实现利用指甲盖大小的芯片代替超级计算机。

(科技部)

全球首款量子计算云平台APP上线

中国科学技术大学的研究人员开发的全球首款量子计算云平台APP“本源量子计算云服务平台”上线,旨在为手机用户打造量子计算在线演示、教育科普及模拟服务的掌上平台。科研院所、高校、专业用户,以及有需求的公众均可通过该手机APP操作量子计算,让量子“门外汉”也能快速上手,进入神奇的量子编程世界。

据介绍,量子计算是一种遵循量子力学规律、通过调控量子信息单元运行的新型计算模式,可使数字化计算能力实现显著提升。量子位数越多,计算速度随之成倍增长,其发挥的功能也越强大。“本源量子计算云服务平台”于2018年1月成功上线32位量子虚拟机,与国际通用的量子语言相比,其算

法效率更高、更具可操作性;其于2月实现了64位量子电路模拟,打破了IBM Q的仿真纪录。在该APP上,用户可免费编写和运行量子程序,查看已编辑程序的图形化显示效果,在远程量子服务器上完成编译、执行与测量,其结果可迅速传回本地。该APP基于此前的手机网页版平台进行了进一步优化、完善,解决了量子编程操作中的适应性问题。目前,该APP已面向安卓手机开放,并正在加速开发、完善其它版本。

(RM.0403)

美国提出新处理器设计使计算和存储器结合更紧密

为了满足日益增加的数据密集任务,美国伊利诺伊大学香槟分校的研究人员提出了一种不同于传统冯·诺依曼架构的全新架构设计,能够使计算和存储器更紧密地结合在一起,提高设备的智能化水平,并最终使人工智能(AI)从云端扩展到手机等消费电子产品。

传统冯·诺依曼处理器的基本架构特征是“共享数据和串行执行”的计算机模型。按照这种架构,程序和数据放在共享存储器内,CPU取出指令和数据进行相应的计算。但是,CPU与共享存储器间的信息通路——总线数据的吞吐量制约了计算速度,造成了所谓的“冯·诺伊曼瓶颈”。研究人员基于现有材料,以新方式使用围绕存储单元阵列的模拟控制电路:其不是将数据发送到处理器,而是编程这些模拟电路以运行简单的AI算法。研究人员表示,要使AI从云端延伸到消费电子设备,必须对传统处理器的架构进行全新的设计,因为采用传统架构将数据从存储器转移到处理器需要消耗大量的电力,其能耗可达运行计算所需能量的10倍~100倍。新架构设计并不是完全取代处理器,而是给存储器增加额外的功能,使得设备在无需消耗更多电力的情况下变得更为智能。

(KJ.0328)

浪潮推出基于OCP Project Olympus规范的四路服务器

浪潮集团有限公司推出基于OCP Project Olympus规范的首款四路服务器——NF8380M5。该服务器专为芯片级封装(CSP)用户和超大规模数据中心设计,有效地丰富了Olympus项目。

据介绍,Project Olympus是微软和OCP(开放计算项目)社区于2016年合作实施的下一代超大规模云硬件项目,旨在研究提供新一代超大规模云硬件设计和开源硬件开发的新模式,解决软硬件发展速度不匹配的问题。该服务器具有出色的大规模交易处理能力及数据分析

处理能力,还能通过外接GPU BOX,覆盖从小规模到超大规模的AI模型线下训练需求。此外,该服务器具备良好的通用性,通过调整配置可以为多种业务应用提供丰富的平台,而且在实际应用测试中表现出了卓越的性能。该服务器的推出将为开放计算项目的发展提供新的选择,推动CSP产品走向标准化。未来,浪潮还将持续推进融合架构数据中心和智慧计算战略,推动开放计算技术的融合,推动开放计算产业生态良性进化。

(浪 潮)

我国研究人员创新研发第三类存储技术

复旦大学的研究人员实现了具有颠覆性的二维半导体准非易失存储原型器件,开创了第三类存储技术,解决了国际半导体电荷存储技术中“写入速度”与“非易失性”难以兼得的难题。

据介绍,目前半导体电荷存储技术主要有两类:第一类是易失性存储,仅需几纳秒即可写入数据,掉电后数据会立即消失;第二类是非易失性存储,需要几微秒到几十微秒才能把数据保存下来,在写入数据后无须额外能量可保存10年。

该新型电荷存储技术既满足了10ns写入数据速度,又实现了按需定制(10s~10年)的可调控数据准非易失特性,不仅在高速内存中可大幅降低存储功耗,还可实现数据有效期截止后自然消除,在特殊应用领域解决了保密性和传输的矛盾。该新型电荷存储技术创新性地选择多重二维材料堆叠构成了半浮栅结构晶体管:二硫化钼、二硒化钨、二硫化铪分别用于开关电荷输运和储存,氮化硼作为隧穿层,制成阶梯能谷结构的范德瓦尔斯异质结。一部分如同一道可随手开关的门,电子易进难出;另一部分则像一面密不透风的墙,电子难以进出。而对于“写入速度”与“非易失性”的调控,就在于这两部分的比例。

基于二维半导体的准非易失性存储器可在大尺度合成技术基础上实现高密度集成,将在极低功耗高速存储、数据有效期自由度利用等领域发挥重要的作用。

(KX.0410)

日本研发新算法可模拟人脑整体神经电路

日本理化学研究所领导的一个国际联合研究团队成功开发出一种模拟人脑整体神经电路的算法,可应用于下一代超级计算机,不仅节省内存,还能够大幅提高现有超级计算机的脑模拟速度。

大脑的超级运算能力使其成为研究人员竞相模拟的对象。在大脑模拟中,所有神经细胞的电信号被发送到每个计算节点,并判断哪个电信号应该被递送到哪个神经细胞。但是,当模拟的大脑范围非常巨大时,每个计算节点接收到的无用电信号比例加大,造成运算效率降低,并增大了内存消耗。因此,对整个大脑神经电路的模拟变得非常困难。

该新算法在模拟开始时即交换信息,以判断在计算节点之间是否需要预先发送电信号,因而能够仅发送和接收每个计算节点所需的电信号,避免了发送和接收无用信号,也避免了让内存判断是否发送电信号给神经细胞。这样,即使神经电路的规模增加,每个计算节点的内存量也不会增加,因而可大幅节省内存。

未来,研究人员将通过下一代超级计算机“后京”模拟整个人脑神经电路,以阐明运动控制及思维的信息处理机制。

(科 技)

猜你喜欢
存储技术内存量子
《量子电子学报》征稿简则
《量子电子学报》征稿简则
笔记本内存已经在涨价了,但幅度不大,升级扩容无须等待
关于云计算平台中存储技术的探讨
“春夏秋冬”的内存
新量子通信线路保障网络安全
中国开创第三类存储技术
威力强大的量子“矛”和“盾”
内存搭配DDR4、DDR3L还是DDR3?
上网本为什么只有1GB?