2020年,新冠疫情席卷全球,世界处于百年未有之大变局,风云激荡。2020年,科技之光闪耀中国。中国将科技自立自强作为国家发展的战略支撑,围绕保障人民生命健康加强疫情防控科研攻关,“充分发挥科技对疫情防控的支撑作用”,以科技实现复工复产,助力经济,打赢脱贫攻坚战、污染防治攻坚战,成为2020年全球唯一正增长的主要经济体。
2021年,科学技术在社会经济领域的应用将大大加快。为更好地预知未来科技趋势,掌握科技前沿动态,《科技智囊》编辑部结合腾讯研究院《变量——2021数字科技前沿应用趋势》、阿里达摩院《2021年十大科技趋势》、贝恩公司《2021年十大科技趋势》、TrendForce集邦咨询《2021年十大科技趋势》、《IEEE全球CIO、CTO访问调研:2021年的机遇和挑战以及关键的科技趋势》、智利《第三版时报》网站《2021年企业的十大科技趋势》、智源研究院《2021年十大人工智能技术趋势》、李铁夫《前沿科技·芯片技术10讲》等研究报告,整理出2021年十大科技前沿趋势。
一、人工智能(AI)向纵深发展
人工智能使用计算机系统模拟人脑的运转,并将科学和逻辑流程结合在一起。多家研究机构在2021年的科技趋势中均提及了人工智能(AI),经济学人智库预测,至2025年,银行和保险公司的AI投资将增加86%。在新冠肺炎疫情的冲击下,AI技术加速发展,2021年将继续成为企业、政府、科研机构及资本和市场等各方关注的热点。
智源研究院专门针对人工智能技术,发布了《2021年十大人工智能技术趋势》。
趋势1:科学计算中的数据与机理融合建模;趋势2:深度学习理论迎来整合与突破;趋势3:机器学习向分布式隐私保护方向演进;趋势4:大规模自监督预训练方法进一步发展;趋势5:基于因果学习的信息检索模型与系统成为重要发展方向;趋势6:类脑计算系统从“专用”向“通用”逐步演进;趋势7:类脑计算从散点独立研究向多点迭代发展迈进;趋势8:神经形态硬件特性得到进一步的发掘并用于实现更为先进的智能系统;趋势9:人工智能从脑结构启发走向结构与功能启发并重;趋势10:人工智能计算中心成为智能化时代的关键基础设施。
二、“云”技术多样化发展
受新冠疫情、封锁措施和随时随地办公模式驱动,云需求出现快速增长。2021年“云”将呈现多样化发展趋势。
使用多个公共云。研究指出,自2019年以来,多云策略已成为70%公司的通用策略。云数据安全成为必选项。公共云可以实现工作负载的即时部署,而无须准备裸金属。使用公共云,可以在几分钟之内获得一个平滑的公共云虚拟机,或者在某些情况下,获得平台即服务实例,公共云立刻为服务请求做好准备。
云数据安全将迎来市场和技术的双轮爆发。云数据安全已经从传统安全技术的“伴生”和“保值”,转变为数字经济形态下的“原生”和“增值”,将成为产业发展的重要推动力。伴随可信计算等数据安全技术概念的逐渐清晰,数据安全和隐私保护法规的建设完善,国密体系和多方安全、同态加密等新型密码软硬件技术的逐步成熟,云数据安全产品和解决方案将呈现百花齐放的发展态势,迎来市场和技术的双轮爆发。
云原生技术将推动云计算产业再次升级。云原生技术充分沿用云计算的设计理念,将网络、服务器、操作系统、业务流程等基础架构层高度抽象化,更高效地应用和管理异构硬件和异构环境下的各类云计算资源,向上支撑多种负载,包括大数据计算、区块链、人工智能等创新性的服务,高效解决部署一致性问题,并极大地降低云服务的使用门槛;为企业上云用云提供崭新的技术方式,帮助企业快速享受到云计算带来的成本和效率优势,全面加速企业数字化创新升级进程,并终将推动云计算产业的再次升级。
三、5G基站建设加速
5G的运行速度最高可比4G快100倍,大大降低了延迟,从而实现极速共享数据,消除处理延迟,同时其连接的可靠性,为随时随地实现稳定持续的网络连接提供了有力保障,确保关键任务得以持续、无障碍执行。
2021年全球运营商加速5G基站建设,日韩已抢先关注6G。2021年,电信运营商将大力推动5G独立(SA)组网架构,除提供高速和大容量通信外,亦可根据应用程序定制网络和适用超低延迟网络需求。在5G技术展开之余,日本NTT DoCoMo、韩国SK Telecom(SKT)等已开始关注6G,强调未来有更多XR设备整合(包括VR、AR、MR、8K和更多图像),使用全像投影(Holography)交流将变得更为真实,远端工作、控制、医学、教育等有望得以推广。
四、虚拟连接现实向体验和场景纵深演进
虚拟现实(VR)将个人沉浸在环境中,增强现实(AR)扩大用户的环境,混合现实(MR)通过在现实场景呈现虚拟场景信息,在现实世界、虚拟世界和用户之间搭起一个交互反馈的信息回路,以增强用户体验的真实感。
现实虚拟化主要借助数字化的感知、AI渲染、NLP等多种技术,既可以实现真实世界在数字空间的完美重现,还可以形成听、说、读、写、想能力的虚拟人;虚拟真实化不仅可借助3D打印等技术,将虚拟设计中的复杂结构物体在现实中呈现,还可以将虚拟信息带入真实世界中,让人们和虚拟角色、物体进行交互;全息互联网进一步把分布于世界各地的人、事、物同步“投影”到一起,跨越时间、地点和语言,甚至跨越虚拟和真实世界的界限,让所有人进行更真实和更親密的互动;未来,在虚实集成的世界里,还将出现穿梭于虚拟和真实之间,改变时间和游戏规则的智能执行体。
2021年,在企业和教育机构购买带动下,面向企业和教育机构的VR、AR和MR(统称为XR或数字现实)可穿戴头盔的销量将在2021年比2019年增长100%。
新冠病毒感染风险促使员工和学生加大应用这类头盔,开展虚拟教育而非面对面教学,从而拉动头盔在某些市场加速增长。
五、物联网将进化为智联网
2021年物联网将进化为智联网,以深度结合AI作为提升价值的主要核心。居家环境中,物联网将家里的设备连接,例如通过向智能手机或电子设备助手下达命令,即可打开或关闭家用电器、门锁或照明设备。在以制造端来看,非接触技术加速工业4.0的导入,在智慧工厂追求韧性、弹性及效率下,AI将致力于使Cobot、无人机等边缘端设备具更高精度及检测能量,由自动化步入自主化。在医疗业方面,AI将数据加值于流程优化与场域延伸,更快的影像辨识以支援临床决策乃至远端问诊与手术辅助,皆是AI医联网未来整合技术至智慧院所、远距医疗的重要方向。
新冠肺炎疫情中数字经济所展现出来的韧性让企业更加重视工业智能的价值,加之数字技术的进步普及、新基建的投资拉动。这些因素将共同推动工业智能从单点智能快速跃迁到全局智能,特别是汽车、消费电子、品牌服饰、钢铁、水泥、化工等具备良好信息化基础的制造业,贯穿供应链、生产、资产、物流、销售等各环节在内的企业生产决策闭环的全局智能化应用将大规模涌现。
工业智能将在多重利好推动下取得长足发展。首先是信息技术的进步和普及,2019年中国云基础架构投资首次超过传统IT基础架构投资,新旧技术间已经实现交替;人工智能在质量检测等制造业场景中得到了能力证明;而5G时代的到来也将为物联网拓展新的应用场景。其次,新冠肺炎疫情对工业智能的发展起到了加速作用。疫情下工业互联网所展现出来的韧性,推动其成为制造企业应对未来不确定性时的立足之本。最后,工业互联网作为“新基建”的重要组成部分,将会迎来更好的政策环境和更大的投资力度,促进整个生态体系不断壮大完善。
六、产业区块链推动数据要素市场化
美国政府将使用区块链技术或分布式账本技术开发新项目作为国家安全策略,中国已经在推进正式采用中央银行数字货币的项目,将成为世界上第一个拥有数字货币的国家。普华永道在发布的相关报告中指出,区块链技术有望在2030年使世界国内生产总值(GDP)增长1.76万亿美元,为卫生、金融、物流、分销或公共部门等不同领域创造价值。
区块链在产业中的应用可有效加强多方间的协作信任,提升系统的安全性和可信性,并简化流程、降低成本。但区块链在商业化场景的真正发力,需要服务于数据要素的市场化。具体体现在两个方面:第一,资产数字化,即以传统金融资产为主流开始进行数字化迁移,这一过程对IOT设备的普及提出了更高要求,同时也催生了资产网关的全新角色。这一角色将成为传统资产上链的枢纽,确保真实性与可校验。第二,数字资产化,即以互联网原生的产品为资产,如原创的文字、音乐、图片作品等。这需要推动跨链、辅助上链及周边设施的发展,基于区块链的确权与交易将成为基础设施。
七、自动驾驶走向规模化商业应用
在各地鼓励政策支持下,自动驾驶测试和智能网联先导示范在全国数十个城市全面铺开。支持在限定场景脱手的自动驾驶辅助巡航和自主泊车系统,已经开始商业化落地,预计2021年渗透率会有大幅攀升。开放区域完全的自动驾驶落地,需要百亿公里级别的测试数据,只依靠实际路测,在效率和成本方面都是无法完成的挑战。而仿真测试平台真实还原测试场景,高效利用路采数据生成仿真场景,结合云端大规模并行加速等能力,能满足自动驾驶感知、决策规划和控制全栈算法的闭环,符合汽车V字开发流程。随着仿真技术水平的提高和应用普及,仿真平台有望完成99.9%的行业测试量,有力推动自动驾驶技术的成熟。
5G网络具有大连接、低时延和高可靠等特点,是推动车联网和自动驾驶产业发展的重要推动力之一。当前,5G-V2X技术标准的应用前景逐渐明朗,相关研究、标准和落地工作不断提速,汽车、信息通信和道路交通运输等行业的连接与融合持续深化,推动着“人-车-路-网-云”互联互通的应用体系加速形成。随着中国、美国等更多的国家和地区采用5G-V2X技术标准,更加完善的汽车、通信与交通行业能力配套,以及跨界测试与示范活动进入公众视野,我国5G-V2X进入了从应用示范走向规模商用的关键阶段。
八、脑机接口帮助人类超越生物学极限
脑机接口是新一代人机交互和人机混合智能的关键核心技术。脑机接口是科学技术改变生活的一大里程碑。脑机接口是人脑与计算机或其他设备之间建立的连接通路和控制渠道。通过计算机接收信号,人脑可以直接表达想法或者控制其他设备,而不需要通过语言或肢体工作,不依赖于外周神经和肌肉——用“意念”控制设备,解放四肢。
脑机接口对神经工程的发展起到了重要支撑与推动作用,帮助人类从更高维度空间进一步解析人类大脑的工作原理。脑机接口现在已经在医学领域广泛应用,目前主要方向是提升脑电信号采集信噪比、高带宽双向读写、无创/微创植入等。在恢复感觉方面,脑机接口的研究比较成熟,商品化的“神经义肢”已经问世。植入式脑机接口可以恢复感官系统丧失的功能,如仿生耳(植入人工耳蜗恢复听力)、仿生眼(植入人工视网膜芯片恢复视觉)。
借助脑机接口,结合AI可以对神经工程的发展起到重要支撑与推动作用,帮助解决神经工程研究中遇到的类似精准控制等诸多难题,从更高维度空间解析人类大脑的工作原理。今后,脑机接口的应用突破有赖于多学科合力推进、软硬件技术协同发展,包括硬件方面更精密的电极、更生物友好的材料、更丰富的数据库、更明确统一的数据标准更强大的机器学习算法以及脑科学研究的关键性进展等。
九、量子計算成为和平时代的核武器
潘建伟团队制造的量子计算机“九章”实现了全球领先的算力,超过谷歌2019年发布的两字计算机一百亿倍。在计算力方面,量子计算机的计算力将呈现出巨大的优势。比如现在普通计算机需要100年计算出来的方程组,利用量子计算机只需要0.01秒。在潘建伟看来,量子计算可以称为和平时代的核武器,各个大国都无法承受在量子技术革命竞争中失败的代价。
量子计算是利用量子物理特性高效进行信息处理任务的新型计算方式,是人类探究微观世界的重大成果。量子比特的制备和操作,计算信息的存储和测量,都需要特殊环境和工艺,而目前的技术还有不容忽视的差错率。因此近期的量子计算机有规模小,含噪声的特点。为了在当前不完美的量子计算机上,也能完成一些有意义的计算任务,中短期内有可能通过改变过去相对独立的软硬件研究,把软硬件结合到一起进行专有化设计。同时,未来几年将有更多的量子算法被发现,更多的量子系统特点被揭示,以及更多的硬件设计加工工艺在精进。
2021量子计算开源项目将以广泛和深入的贡献,大大降低学习和研究的成本,加速创新,并消减非科学因素撕裂量子社区的风险。量子计算还属于科学和工程并重的研究阶段,各个地区的科学家需要继续开放性研究。
十、芯片技术从微型化向智能化转变
2020年,美国针对华为等中国企业的“芯片断供”,使国人深刻体会到“卡脖子”的痛楚,关键核心技术必须掌握在自己手中,所以对芯片技术的未来发展尤为关注。芯片技术正在从微型化向智能化的转變。未来芯片技术有以下四个趋势:
第一,新原理器件。硅半导体的晶体管技术已接近极限,环绕栅结构用栅极把整个沟道完全包裹起来,达到了最强的控制力。可以超越硅半导体晶体管的器件结的就是新原理器件,比较有希望的是碳纳米管或者石墨烯这类低维材料,它们最大的优势是电子在其中的传输速度比在硅材料当中要快得多。除了这些新型的低维材料,自旋器件也值得关注。自旋是电子天然具有的一个物理维度,是量子计算的核心。自旋器件是很有希望实现高速低功耗的器件。不过这些新材料和新结构的工艺难度非常大,尤其是如果想要做出几亿,甚至几十亿个器件规模的集成电路,还要保证均匀性、可靠性,非常困难。这些技术今天还只是在实验室小规模研究阶段,但未来会有很大的发展空间。
第二,可重构芯片。专用芯片是人工智能技术在这几年爆发的一个主要原因。在未来,为了满足万物互联的需求,还需要更多种类,像是小批量的专用芯片,专用芯片的困境就是成本高。一颗芯片若能针对各种不同类型的问题、各种应用软件都能自适应地形成一个最优的架构,则其对于任何问题都是定制芯片,都能够高效地解决问题。可重构芯片技术就要实现这个目标。对于新的问题,软件改变了,硬件能够在几十纳秒的时间里面针对软件需求进行改变。因为一颗芯片就可以应对大量不同的场景,就有足够的销量来摊平开发成本,可重构芯片技术是当今最前沿的领域之一,未来十年,这个领域一定会有很大的突破。
第三,经典芯片和量子计算混合。经典加量子的混合计算方案,可以用来解决实际的人工智能问题。将人工智能用于芯片设计,就是用芯片研发出更好的芯片,换句话说就是芯片的自我进化。谷歌团队在2020年ISSCC大会上透露,正在把自家的TPU芯片用在集成电路设计中,比如电路布局这个环节。最新的结果是AI仅用6小时就完成了以往需要几周才能完成的工作量,而且还做得更好,减少了布线数量,提高了面积使用率。在未来,基于经典芯片的人工智能EDA软件,或者是经典加量子混合计算的人工智能EDA都会逐步成熟,给芯片技术带来前所未有的推动。
第四,类脑芯片。2020年7月15日,英国公司Graphcore发布了一款AI芯片,采用台积电7纳米加工工艺,上面集成了594亿个晶体管。这可是非常大的一个数目,人的大脑也就是900亿个神经元。现在芯片通用的运算模式叫做冯诺依曼体系,它的特点是数据的存储和运算是分开进行的。可以说99%的计算时间和能耗都花在了数据的传输上,真正用于计算的只有1%,效率非常低。大脑的运算模式大脑的运算模式叫做“存算一体”,都是在神经元里面进行的。所以大脑进行如此复杂的抽象和推理运算,只有20瓦的功耗,远远低于现在的CPU芯片。类脑芯片,就是要仿照大脑的模式进行运算。类脑芯片的关键点就是存算一体。利用这种新的器件结构和运算模式,类脑芯片很有希望实现高性能低功耗的智能运算,甚至达到一定规模后,会不会有新的智能现象涌现出来。