2017 年 1 月,微软全球执行副总裁、人工智能科研项目的总负责人沈向洋透露,他们正在着手研发量子计算机,已经拿下了世界级顶尖量子计算专家 Michael Freedman 以及诸多专家。“很快会有进展分享给你,”他说。
时隔一年后,微软的量子计算开发工具包和开发语言 Q,已经适配了 Windows 10、macOS 和 Linux。
2018 年 1 月,拉斯维加斯 CES,英特尔 CEO 急于证明不管摩尔定律是否失效,我们还有新招,带来了一枚高达 49-qubit 的超导量子计算机。这家老字号已经给最时髦的新架构起好了芯片界熟悉的名字:Tangle Lake。
2018 年 2 月,IBM 宣布成功测试了一台 16-qubit(量子比特)和一台 17-qubit 的量子计算机,并透露还将提供 30 至 50 量子比特不等的设计。IBM 是量子计算机在量子比特这一指标上狂飙式增长的拥趸,告诉媒体 100-qubit 量子计算机在几年内便可制成。
科技公司大多公开表达或半公开支持一种说法:量子优势——Quantum Supremacy,也译作量子霸权,即量子计算机性能超越史上最强的经典计算机,将在 2017 年底到来。
量子计算在最近一两年间热度显著提升,直到本周 Google 发布 72-qubit 量子计算机。
这一全新范式的计算技术,是时候被介绍给每一个对新科技向往的人了。
你可能对经典计算技术稍有了解,它将数据编码为二进制,最小的数据单元名叫比特 (bit),它只有两个确定状态,0 和 1,关闭和开启。
量子计算则利用了量子力学领域内的概念,其最小数字单元名叫量子比特 (qubit)。
一个量子比特可能同时具备两个状态,专业术语称为叠加态 (Superposition):
开个玩笑,是下面这张……
这是一个计算机人士可以理解的解释,非专业人士可以先跟着看:假如一个 16-bit 的存储器只能存储一个数据,这个数据可能是 2 的 16 次方——65536 个数据中的任意一个。这个限制在理论中的量子计算机上却不存在,一个 16-qubit 的存储器可以同时存储 2 的 16 次方——65536 个数据。
接下来是普通人也能消化的解释:通常人们认为,一个经典处理器的运算速度越快越强大,但它在同一时间仍然只能进行一次计算,只是计算所用的时间被锁到很短而已;量子计算机强大的定义标准则是量子比特的数量,比方说一个 16-qubit 的量子计算机,可以同时对 2 的 16 次方个数据进行计算,节省了大量的时间。你应该能明白,当计算量变得巨大时,量子计算机的优势将会凸显出来。
这也是为什么科学家们提出了“量子优势” 的概念,并且开始期待它的实现。当量子计算机在某个特定的领域或解决某个计算机问题上的计算性能,超过了现存最强大的经典超级计算机时,我们就可以说这个领域内或问题上实现了量子优势 。这一名词也被译作量子霸权。
本周,Google 用地球上最古老的树木 Bristlecone(狐尾松)命名他们最新研制的 72-qubit 量子计算机。
学界普遍认为当量子计算机的量子比特超过 50,量子优势就实现了。公众对于量子计算的理解也基于此:虽然不清楚到底怎么一回事,但只要有人造出 50 量子比特的量子计算机,那一定厉害了。
然而,Google 在研究中积累的经验指出这一认识并不充分和科学。
和经典计算机相比,量子计算机的性能优异是指数级的,但它也有一个有趣的特性:量子本身收到周遭其他粒子的影响,导致结果错误(这个情况被称为退相干);就算将量子计算机和周遭完美隔离(比如超低温),由于计算机的量子回路内本身存在随机波动,产生的结果仍然不是每个都正确。
因而量子纠错技术诞生了。主流的量子纠错技术引入更多的纠错量子,来耦合一个计算量子在某个时间的状态,避免了测量纠错量子后与之纠缠的计算量子即坍缩至一个确定状态的规律。
然而这种纠错反而占用了更多——甚至是几乎所有的计算量。想要将错误率降低到可接受的水平,一个实际性能只有 3-qubit 的量子计算机可能需要上百个量子比特。在这样的前提下实现 50-qubit 的所谓量子优势,将变得非常不经济。早在 2002 年,《电子工程专辑》的一篇文章就指出,错误率 (error rate) 是量子计算实现的绊脚石。
毫无疑问,错误率必须成为评价一台量子计算机是否实现了量子优势的关键指标。
而 Google 狐尾松的振奋人心之处正在于此:它在 72-qubit 上实现了超低的错误率,达到了 Google 可以接受的标准。该公司科学家认为,在这一级别的量子计算机上,未来有望实现量子优势。
2015 年刊登在《自然》的一篇论文显示,Google 已经利用超导量子计算技术已经制造出了 9-qubit 量子计算机。在当时,它的读出错误率达到 1%,单量子门错误率 0.1%,双量子门错误率 0.6%。研究团队采用的是一种名叫 surface code 的量子纠错技术,由目前在 Google 工作的世界级量子计算专家 John Martinis 发明。
Google 透露,狐尾松量子计算机采用的是和之前 9-qubit 量子计算机相同的底层物理结构(下图)。
在 9-qubit 阵列中,计量量子比特和数据量子比特交替排列,两者相互耦合结果然后通过算法在彼此之间交替传播,从而实现纠错。
至于狐尾松,Google 提供的信息极为有限。内部结构图看起来是两个 36-qubit 叠加得到的 72-qubit 阵列,其中的每个量子比特都和邻近的量子比特相关:
如果按照前面 9-qubit 量子计算机的阵列,假设图中两种颜色分别是计量量子比特和数据量子比特,其中多达 25 个数据量子比特可以对自身邻近的 4 个计量量子比特进行耦合。Google 认为这样做能够实现更稳定的纠错效果,不会让错误率变得更不可控制。
狐尾松量子计算机的错误率的具体数值没有得到公开,但从博客中的描述来看,这台能跑多少分,研究团队早已心里有数:他们指出,如果能够在一个 49-qubit,量子回路深度超过 40(量子回路越深,取得的结果正确的可能性越低)的量子计算机上,达到双量子门错误率低于 0.5% 的结果,就已经实现量子优势。
紧接着,Google 研究员 Julian Kelly 在博客里写到,他们预计可以在狐尾松的所有 72 个量子比特上,实现之前 9-qubit 量子计算机所实现的低错误率水准。他接着指出:
“对于通过狐尾松实现量子优势,我们保持谨慎乐观。”
We are cautiously optimistic that quantum supremacy can be achieved with Bristlecone…
注意这里使用的是“谨慎乐观” (cautiously optimistic),一个被美国前总统里根发扬光大的,充满了政治色彩的字眼。如果硅星人对自己发明的一项技术“谨慎乐观”,应该是这样想的:如果它成功了,人们应该认可我的智慧和功劳,但我也不是非要明目张胆地索要这份名誉;如果它失败了,人们应该清楚,我也曾对它保持警惕……
读完这篇博客,你应该能感受到 Google 在狐尾松上,或多或少有一点低调炫技的心态。当然你也不能怪罪它。不少公司都曾表达出 2017 年底就能实现量子优势,但只有 Google 打出了一个稍稍来迟但比较靠谱的进度,其他公司都还没看见影子,更别提不少研究者还在纠错的阶段,就别提量子优势了。
上一次 Google 挑战和刷新人们对于科技的认知上限,应该还是两年前的 AlphaGo。那次,最强的人类在曾被认为计算机无法参透的围棋项目上,输给了深度神经网络。
然而这一次和上次完全不同:AlphaGo 运行在大规模服务器集群上,处理器的核心仍然是晶体管回路;量子计算是一个全新的范式,它和经典计算机 0 和 1 的计算完全不同(只是现阶段为了证明能力需要处理经典计算机问题,还是用量子的不同状态套到 0 和 1 上)。
全新的计算模式也意味着它想要取得和经典计算机相同的普及程度,仍需时日。经典计算机的理论基础来自于物理学,人类已经开始大规模使用电之后很久才发明了计算机;量子计算同样来自于物理学的分支量子力学,但人类想要掌握最为微观的粒子控制力,将量子计算机用于解决真实世界的难题——而不仅是简单、低级的计算机科学问题,可能要到十年甚至数十年之后才能取得成效。
基于狐尾松进行更大规模的量子计算研究,只是 Google 一个目标。另一个目标是在短期内将量子计算研究的阶段成果用于加速公司目前相当重要,也最消耗计算资源的技术——机器学习。2012 年,吴恩达、Jeff Dean 等人创造性地搭建了 Google 大脑,世界上第一个大型分布式计算集群。先进的人工智能背后是强大的神经网络,但它需要惊人量级的计算力才能在相对较短的时间内取得可接受的成果。为了高效训练和推理神经网络,Google 又开发了 TPU,但在量子计算实力即将被证明的前夕,它清楚地看到量子计算才是未来。
这也是为什么这家公司的量子学习实验室,全名叫做“量子人工智能实验室” (Google Quantum AI Lab)。
最后的最后,如果未来量子计算机真的想要在解决实际问题上,对传统的计算机甚至超级计算机实现补充甚至替代,它必须首先证明自己的原理行得通,用合理的成本能够取得可靠的结果。
量子计算不需要当一个重大新闻发生时媒体和民众的疯狂追捧,这个领域内的研究者应该不会希望上世纪末发生在人工智能身上的事情再次发生在自己的身上。量子计算最需要的是一个足够有说服力的阶段性产物。
而狐尾松是这样一个产物。这才是它在我们所处的当下,或者未来的十几年甚至更久的时间里伟大的原因,远比这场“谁先实现量子优势”的军备竞赛重要的多。
让你看到最不一样的硅谷!