清华大学物理学博士、量旋科技创始人兼CEO项金根
(相关资料图)
出品|搜狐科技
作者|郑松毅
人类对于计算能力的渴望是永无止境的,自结绳记事以来,文明的进步就与计算能力的提升息息相关。量子计算被认为是突破传统芯片物理局限,打开计算新纪元大门的黄金钥匙,但量子噪声问题一直是量子计算发展的障碍。
近日,发表于《自然》的一项原理验证实验中,研究人员在IBM的“Eagle”量子处理器上模拟了磁性材料的行为。值得关注的是,他们利用“误差缓解(Error Mitigation)”的方法,绕过了量子噪声问题以获得可靠的结果。IBM首席执行官表示,“这是里程碑的证明,标志着量子计算可实际应用。”
清华大学物理学博士、量旋科技创始人兼CEO项金根对搜狐科技表示,“误差缓解技术并不是新技术,但是能够将它应用在127个量子比特这样的规模上,并且能运行成功,是一项比较重要的突破。”
量子运算虽然快,但受噪声影响,错误率也很高。在最新研究中,研究人员有意放大噪声,对每个量子比特中的噪声进行了精准测量,发现这些量子比特可以遵循相对可预测的模式。利用该方式,研究人员进而推断出在没有噪声情况下的测量结果。
项金根介绍,比特数越多的情况下,实验复杂度越高,需要测量的次数也越多,如果没有好的测控技术或芯片的话,还是比较难实现的。
他认为,IBM在较大规模量子比特的实验环境下获得了可靠的结果,加强解释了2019年谷歌提出的“量子霸权”概念,即量子计算机在特定测试案例上的表现,超出了任何可行经典计算机的计算能力,也为下一步量子计算迈向实用阶段奠定了基础。
项金根补充解释道,“量子霸权”实际上是一个动态的概念,当时在谷歌模拟电路采样这个计算问题节点时,的确计算运行时间短得多,但后来又被一些改进后的经典算法推翻。他认为,“推翻概念其实不是很重要,因为量子计算会不断发展,随着比特数量更多、保真度更高,改进的经典算法还是跟不上量子计算的速度和精度。”
谈及量子计算的现发展阶段,项金根认为,量子计算已经超越了第一个阶段,即量子优越性(又称量子霸权),第二阶段人们最关心的是量子计算机什么时候能在实际应用场景下解决有用问题时击败经典计算机。
“量子计算机要想得以在实际应用中解决有用问题,需满足以下几个条件,第一是比特数量要更多,第二是保真度要得到提升,第三是相干时间也需要提升,这些是硬件方面的要求。另外还需提升处理量子噪声的技术标准,以及算法方面的提升。”
作为乐观主义者的项金根表示,“IBM预估在两年内实现量子计算实际应用,我估计也差不了太多。”他解释道,有人计算过,当比特数达到200个以上,保真度达到99.9%,相干时间大于100微秒时,量子计算在实际应用场景下表现会优于经典计算机,具备应用价值。
“IBM实验相干时间T1达288 微秒,T2达 127 微秒,已达到标准,比特数为127个,虽然保真度暂未达标,但其后面还有更优的芯片解决方案,很有可能达到实用场景标准。”
以下为对话实录(经整理编辑)
搜狐科技:在您看来,IBM最新量子计算实验研究主要解决了什么问题,取得了什么成果?
项金根:IBM用量子芯片Eagle模拟了一个Ising模型,演示了在100多个量子位的规模上,量子计算机可以产生精确的结果。证明了在量子态具有较大纠缠情况下,量子计算机的表现,优于一些广泛采用的经典近似模拟算法,这些结果的获得,得益于误差缓解的实施。
另外,研究人员用误差缓解模型降低了量子噪声带来的误差,这些技术向大家展示带噪声的量子计算机未来是可以实现实际应用的。
搜狐科技:IBM研究团队使用的“误差缓解”方法广受关注,您认为该方法是一项重大突破性技术吗?
项金根:误差缓解技术很早就有,之前在量子比特规模较小的实验中也应用过,不能算是IBM这次的研究成果。这次引得关注的原因是,他们把这个技术用在了一个很大规模(127量子比特)的体系上,并且能运行成功,这算是一个比较重要的突破。
比特数越多的情况下,实验复杂度越高,需要测量的次数也越多,如果没有好的测控技术或芯片的话,还是比较难实现的。
搜孤科技:2019年,谷歌声明“量子霸权”的概念,后被高校实验结果推翻,这次IBM的实验好似又重新证明了“量子霸权”概念的存在,您怎么看?
项金根:“量子霸权”实际上是一个动态的概念,当时在谷歌模拟电路采样这个计算问题节点时,的确计算运行时间短得多,但后来又被一些改进后的经典算法推翻。
随着量子比特数量的增加,保真度提高,意味着量子计算输出结果的正确率也会有所提高,这时经典计算机再去模拟的话计算时间就会变长,量子计算的优越性就又回来了。
推翻概念其实不是很重要,因为量子计算会不断发展,随着比特数量更多、保真度更高,改进的经典算法还是跟不上量子计算的速度和精度。
IBM在较大规模量子比特的实验环境下获得了可靠的结果,加强解释了谷歌提出的“量子霸权”概念。
搜孤科技:您认为量子计算当前处在哪一个发展阶段?
项金根:量子计算已经超越了第一个阶段,也就是量子优越性的阶段。到了第二阶段,人们最关心的是量子计算机什么时候能在实际应用场景下解决有用问题时击败经典计算机。
“有用问题”是指实际应用场景中有价值的问题,例如在药物研发过程中完成计算仿真模拟任务,先模拟药物分子的性质,再计算药物分子能与蛋白质靶点结合的概率。
搜狐科技:如果想让量子计算机真正实际应用,需要具备哪些条件?
项金根:第一是量子比特数量要更多,第二是保真度要得到提升,第三是相干时间也需要提升,这些是硬件方面的要求。另外还需提升处理量子噪声的技术标准,以及算法方面的提升。
搜狐科技:您认为距离实现量子计算机实际应用的目标还需多长时间?
项金根:我是一个乐观主义者,IBM预估在两年内实现量子计算实际应用,我估计也差不了太多。
量子计算机可以实际应用的标准是,在实际应用场景下它的算力要高于经典计算机,只有解决问题计算效率高于经典计算机才说明有应用价值,反之则没有。
有人计算过,从理论上来说,当比特数达到200个以上,保真度达到99.9%,相干时间大于100微妙时,量子计算在实际应用场景下表现会优于经典计算机,具备应用价值。
IBM实验相干时间T1达288 微秒,T2达 127 微秒,比特数为127个,虽然保真度暂未达标,但其后面还有更优的芯片解决方案,很有可能达到实用场景标准。
搜狐科技:“量子纠错”被公认为是实现可容错通用量子计算的核心问题,也被认为是使量子计算机完全成为现实的一个必要步骤。“错误缓解”技术与“量子纠错”技术听起来很相似,为什么错误缓解技术很早就诞生了,但量子纠错技术迟迟得不到实现呢?
项金根:量子纠错与错误缓解是两个不同的技术路径,量子纠错的定义是把所有的错误都纠正回来,实现零错误的容错量计算,技术难度和复杂度要比错误缓解技术高,误差缓解更像是一个用来过渡的技术,是一种缓兵之计。
量子纠错的现阶段难点在于,在现有的保真度条件下,纠错代价很高。假设保真度是99%,要实现量子纠错大概需要10万个量子比特才能纠正一个比特,这明显不现实,因为我们现在远远没有这么多比特。
对于量子纠错来说,量子比特数和量子保真度是两个重要的参数指标,现在的情况是其中一个参数指标好了,另一个参数指标就下降了,难点在于如何实现“两条腿走路”。
搜狐科技:如果量子计算得以实际应用了,能做哪些经典计算机难以做到的事呢?
项金根:从大的范围来讲,所有的计算都是等价的,输入一个数字,通过计算输出一个结果数字,不同的是计算过程。
经典计算是串行计算,一步一步计算,而量子计算天生带有并行计算能力,可以实现多个任务同时计算。
首先,与量子力学相关的计算问题是经典计算机本来就解决不好的,但量子计算机很擅长。另外,例如制药、化工材料、催化剂研究等涉及分子原子、化学反应等相关的计算问题都可以用量子力学来描述,此时量子计算机的效率会发挥到极致。
除了以上领域,量子计算得益于并行计算能力,在人工智能领域的应用也非常广泛,例如加速人工智能领域中的模型计算。
这也就解释了,当前AI领域研究为什么都优选GPU芯片而非CPU芯片,因为GPU具备并行计算单元,处理深度学习以及神经网络模型更快,以后量子芯片也会在这方面扮演重要的角色。
责任编辑:
标签: