量子计算又一里程碑!谷歌实现量子纠错突破,成果登上Nature

智东西(公众号:zhidxcom)
编译 | ZeR0
编辑 | 漠影

智东西2月23日报道,今日,Alphabet及谷歌CEO桑达尔·皮查伊发布博客文章,宣布谷歌量子AI研究人员首次通过实验证明,通过增加量子比特的数量来减少错误是可能的。相关研究论文已发表于国际顶级学术期刊Nature。

量子计算又一里程碑!谷歌实现量子纠错突破,成果登上Nature

博客链接:https://blog.google/inside-google/message-ceo/our-progress-toward-quantum-error-correction/

论文链接:https://www.nature.com/articles/s41586-022-05434-1

三年前,谷歌的量子计算机首次演示了一项计算任务,其性能超过了最快的超级计算机。这是其构建大规模量子计算机路线图上的一个重要里程碑,也是许多人一直期待的“Hello,world”时刻。但在科学进步的漫长过程中,这只是使量子应用对人类进步有意义的一步。

如今,谷歌迎来第二个里程碑时刻:首次实现了扩展逻辑量子比特的实验

在量子计算中,一个量子位是量子信息的基本单位,它可以呈现比0和1更丰富的状态。谷歌的突破代表了其如何操作量子计算机的重大转变。谷歌不是在量子处理器上逐个处理物理量子位,而是将一组量子位视为一个逻辑量子位。因此由49个物理量子位制成的逻辑量子位的性能优于由17个量子位制成的逻辑量子位。

谷歌量子计算机通过以一种被称之为量子算法的有序方式操纵量子比特来工作。

挑战在于,量子比特非常敏感,即使是杂散光也会导致计算错误,而随着量子计算机的发展,这个问题会更加严重。实用的量子计算所需的量子比特错误率远远低于今天的错误率,弥补这一差距需要量子纠错。

量子纠错通过对多个物理量子比特进行编码以形成“逻辑量子比特”来保护信息,并且被认为是生产错误率低到足以进行有用计算的大规模量子计算机的唯一方法。

谷歌不再计算单个量子比特本身,而是计算逻辑量子比特,通过将量子处理器上大量的物理量子比特编码为一个逻辑量子比特,希望降低错误率,从而实现有用的量子算法。

皮查伊在博客文章中写道,谷歌一直在朝着扩展逻辑量子比特实验的这一里程碑和未来的里程碑努力,因为量子计算机有潜力为数百万人的生活带来实实在在的好处,包括被用于识别新药物的分子、用更少的能量制造肥料、设计从电池到核聚变反应堆等更有效的可持续技术、进行物理研究等等。

因此,谷歌正在努力最终为客户和合作伙伴提供量子硬件、工具和应用程序,包括通过谷歌云提供量子计算相关技术。

为了进一步挖掘量子的潜力,谷歌还需实现更多的技术里程碑,以便以低错误率扩展到数千个逻辑量子比特。

前方还有很长的路要走。谷歌技术的几个组件需要改进,从低温到控制电子到量子比特的设计和材料。随着这些发展,大规模量子计算机将更加清晰。开发量子处理器也是人工智能辅助工程的一个很好的测试平台,因为谷歌探索使用机器学习来改进其流程。

考虑到量子计算的强大潜力,谷歌也在采取措施负责任地开发量子计算。该公司与政府和安全社区的合作伙伴关系正在帮助创建可以保护互联网流量免受未来量子计算机攻击的系统,将确保谷歌云、安卓和Chrome等服务在量子未来依然安全可靠。

皮查伊说,谷歌将继续努力,直到有一天量子计算机可以与经典计算机协同工作,扩展人类知识的边界,帮助找到世界上一些最复杂问题的解决方案。 

来源:谷歌官方博客,Nature