杜欣泽
量子计算是基于量子态受控演化的一类计算技术,其巨大的信息携带能力和超强的并行处理能力使得量子计算成为颠覆未来的计算模式。
量子计算机与经典计算机最大的区别在于存储、运算的对象不同。经典计算机通过控制晶体管电压的高低来处理比特信息,即完成0或1的信息处理。量子计算机则采用量子比特作为基本单元存储信息。相较于经典计算机通过控制电路的开关来处理信息,量子计算机可以利用粒子量子态的叠加与纠缠的特性,实现指数量级的性能提升。量子纠缠的特性意味着当任一量子比特状态发生改变,其他所有的量子比特也发生对应的状态改变。
量子计算的发展总体分为三大阶段。
理论探索期。二十世纪七八十年代以前是量子计算的理论探索时期。1982年,美国物理学家Paul A.Beni off提出量子计算机概念。1985年,英国牛津大学教授David Elieser Deutsch首次提出量子图灵机构架以及证明量子加速的算法,验证了量子计算并行的可能性。
算法研究期。二十世纪九十年代,量子计算进入到了编码算法研究期。1992年,Deutsch和Jozsa提出的D-J量子算法,推进量子计算领域的飞速发展。1994和1996年,Shor整数分解问题的量子算法和6rover数据库搜索算法的提出,进一步凸显出量子计算对于特定问题解决的巨大优势,坚定了科学家深入研究量子计算机的决心。
技术突破期。如今,量子计算进入技术突破期。1998年,Bernhard Omer提出量子计算编程语言后,量子计算机可编程的序幕拉开。IBM、谷歌、微软等科技巨头积极布局,开展量子计算的技术验证和原理机研制。2013年,加拿大D-Wave系统公司发布了量子计算设备,率先开启量子计算机商业化进程。2018年,Intel和Google分别测试了49位和72位量子芯片。2019年,IBM发布最新IBM Q System One量子计算机。
摩尔定律时代,芯片上可容纳的晶体管数目,约每隔18个月会增加一倍,性能也将提升一倍。但是随着芯片元件集成度的不断提高,元器件尺寸的不断缩小,经典物理世界的规律将不再适用。且随着单位体积芯片计算能力的提升,热量损失不断增加,摩尔定律逐渐失效。后摩尔时代,量子计算将成为突破传统芯片性能极限的标志性技术,以传统芯片为核心的现代电子信息制造体系将因量子芯片的诞生而发生革命性重塑。
量子计算的到来将给现代网络安全带来巨大冲击,自二十世纪九十年代以来,非对称加密方式RSA是用于网络数据传输、身份认证、在线支付等互联网应用的主要加密方式。传统计算机需要花费上万年才能破解RSA加密密钥,在理论上保障了信息传递的安全性。而量子计算强大的并行计算能力仅需几分钟便可完成密码的破译,网络安全、隐私安全乃至国家安全正面临前所未有的量子挑戰。
如果增至300个量子位,量子计算机的存储量将比地球上所有原子数量还要多,现实中的每一个细节可以在虚拟世界中完全克隆。不论是在人工智能、信息安全、加密通信领域,还是在基础科研、化工能源、太空探索等领域,量子计算将给世界带来颠覆性改变。
未来,量子计算的发展将在理论上突破摩尔定律的极限,重塑信息时代建立起来的规则,人类的社会生产、生活方式将发生颠覆性改变。我们要做好准备,迎接充满不确定的量子时代!
责任编辑:金烨