张泽玲
虽然计算机又被称为“电脑”,并在计算能力上超过了人脑,而现有的人工智能和大数据等技术更是让“电脑”如虎添翼,越来越智能化。但事实上,无论是我们家里的台式机还是笔记本电脑,甚至我们手里的手机,其结构跟人类的大脑并不类似。这种“不类似”不仅仅是因为人类大脑为“碳基”,而计算机是“硅基”,计算机和人类大脑最根本的区别在于组成架构以及处理信息的方式都有所不同。那么如果让计算机的组成架构与信息处理方式模拟人脑,会出现什么情况呢?这便是现在计算机领域的一个前沿研究方向——类脑计算机了。
传统计算机瓶颈
当下绝大多数计算机遵循的都是“冯·诺依曼架构”。计算机由输入设备(键盘、触控屏、话筒、摄像头等),输出设备(显示器、音响等),计算单元(CPU、GPU),控制单元(主板、电源控件等)和记忆存储单元(RAM、硬盘等)组成。这种简单明了的架构自1945年由冯·诺依曼提出后,经过了时间的考验,如今我们还在广泛使用这一架构。
随着计算机性能的不断提高,人们发现了这一架构也会存在很多问题。诸如“冯·诺伊曼瓶颈”。它主要存在于“冯·诺依曼架构”中计算、控制单元与记忆存储单元之间的工作协作模式上。计算与控制单元从记忆存储单元中读取数据的速度,远低于它们处理数据的速度,从而导致延迟。在处理海量数据时,这种延迟更加明显。这好比我们在没有课程记忆的情况下参加某课程的开卷考试,如果考试范围很大,需要查看大量资料。在没有预习的情况下,我们脑子再灵活,书写速度再决,也会因为查资料浪费大量时间,导致做不完题目。
除此之外,计算机处理信息的方式是离散的。我们都知道计算机使用二进制,这是因为1和0刚好对应电路里“开”“关”两个状态。表达“开”“关”状态的元件称为“逻辑门”。计算机通过对多个逻辑门的组合,能处理更复杂的逻辑计算。因此计算机特别擅长数字计算与逻辑表达,但是面对一些混沌信息处理领域,计算机的瓶颈也显露无遗。
基于上述两个原因,目前人类技术的进步,无法完全解决读取速度过低的问题。同时,预测处理器运算速度迅速翻倍的“摩尔定律”也已经失效,意味着计算机计算处理单元速度的提升也已经触及了天花板。
LINK
人类大脑是由碳为主要成分的有机物组成,而计算机的芯片存储器等半导体元件都是硅制成的。这就是“碳基”与“硅基”。
人脑带来的启发
相比而言,人类的大脑在思考过程中,基本不会受到“数据读取”带来的延迟。这一方面是因为人类大脑的架构是由海量神经元与突触连接构成的神经网络系统,这一系统并不遵循“冯·诺依曼架构”,也因此没有所谓的“冯·诺依曼瓶颈”。此外,神经元作为人类大脑的基础功能单元,大致相当于传统计算机的逻辑门。但它们的判断逻辑并不是简单的0和1,而是存在一个连续非离散信息处理区间。在区间内根据受到的不同程度刺激,对应产生强度不同的电信号。而且神经元并不像逻辑门那样一成不变,会生长变化,以及对经常出现的刺激信号做出更快的反应。
正是因为人脑这些独特的机制,使得我们在绝大多数的思考时间里,并不是在做“非黑即白”的是非判断题,而可以通过具有模糊性与连续性的运作机制,对某个范围内的信息进行整体处理。例如计算机在处理图片时,会将其拆分成单个的像素点,处理文字时也会根据预设的处理程序,将其拆成单独字词。而我们在看图片时,几乎在看到画面或文字的同时,就能感受到整张图片的含义,阅读大段文字也不需要逐字理解。
让电脑“类人脑”
正是考虑到目前计算机发展的局限性,加上人脑所带来的启示,让一些计算机科学家想到了另辟蹊径:既然人类的大脑这么聪明高效,我们是不是可以设计制造模拟人类大脑的计算机呢?这一新兴的研究方向被称为“类脑计算”。这个新的研究方向旨在打破当下计算机的模型结构,从软件和硬件方面模拟人类大脑。
软件模拟
类脑计算的研究模仿对象之一就是神经元。其实当下最流行的一些机器学习算法,如深度神经网络、卷积神经网络,就是在软件层面上对神经元进行模拟。虽然看起来这些机器学习算法表现还不错,但其实它们在运行时更加暴露了传统计算机的问题:处理大量数据时计算速度不够快,并且耗电量巨大。
硬件模拟
科研人员想到从硬件层面上也来模仿人类大脑。例如前不久发布的新闻中,浙江大学联合之江实验室,共同成功研制出了包含1.2亿脉冲神经元、近千亿神经突触的类脑计算机DARWIN MOUSE,是目前国际上神经元规模最大的类脑计算机。该计算机使用的浙江大学自主研制的神经拟态类脑计算芯片“DARWIN2”,能够模拟神经元接受刺激做出反应的过程,而多个芯片就组成了神经系统,可以处理复杂的任务。另外,2019年清华大学还成功研制出国际上首款异构融合的类脑芯片“天机芯”,支持人工神经网络和脉冲神经网络的混合架构。这意味着这个芯片同時模仿了神经元的两类行为。(详情见《科学Fans》2019年10期文章《向人脑,觅“天机”——清华天机芯是如何炼成的?》)
当然,类脑计算不仅仅局限于从软件和硬件的角度模仿神经元。作为一个新兴科研方向,它其实是多个前沿学科的交叉。它需要通过神经科学以及医学来了解大脑运作机制;需要建立模拟大脑处理信息的数学模型;它还能利用“脑机接口”,通过外界硬件跟大脑直接沟通,构建“混合智能”。我们已经见识过人工智能的本领,期待类脑计算给人类带来更多惊喜。