近日集成量子计算公司Quantinuum和微软宣布,双方在提高量子纠错可靠性方面的合作取得了突破性进展,这将推动混合量子超级计算系统的构建。
研究人员在Quantinuum的离子阱硬件上应用了微软的量子比特虚拟化系统,该系统使用了错误诊断和纠正功能,成功证明了错误率比单独的物理系统低800倍。利用新系统,该团队得以进行超过14000次单独实验,没有出现一次错误。
量子计算使用量子比特来存储和处理信息。与经典比特的“1”或“0”不同,量子比特还可以处于叠加状态中,其状态是不确定的,即有可能是“1”或 “0”,也可以与另一个量子比特纠缠在一起。由于量子比特的基础硬件通常是用敏感的超导电路来解决测量问题,因此量子比特极易出错。
Quantinuum将32比特H2量子处理器(由Honeywell International Inc.支持)同微软新的纠错系统结合。这就生成了两家公司所说的“最可靠的逻辑量子比特”,即使用H2上提供的32个物理量子比特中的30个创建了4个逻辑量子比特。
研究小组还在不破坏逻辑量子位的情况下诊断并纠正了它们的错误——这种做法被称为“主动综合征提取”。这一突破尤为重要,因为它是迈向可靠量子计算的重要里程碑。
微软将其量子比特纠错系统比喻为在嘈杂环境中使用高品质降噪耳机来提高声音的清晰度。据双方的联合团队称,这相当于将信号提高了约29分贝,就耳机而言,即使是相当大的恼人噪音,如吸尘器或繁忙街道的噪声,也能被消除。
该团队在公告中表示:“利用我们的量子比特虚拟化系统,我们能够从Quantinuum机器上可用的32个物理量子比特中,仅用30个物理量子比特创建出4个高度可靠的逻辑量子比特。”在纠缠状态下,这些逻辑量子位的电路错误率为10的-5次方,也就是0.00001,这意味着它们每运行10万次才会出现一次错误。这比纠缠的物理量子比特测得的8×10−3(0.008)的电路错误率提高了800倍。
这一成就将有助于开创一个名为“二级弹性”的新计算时代,在这个时代,量子超级计算机有能力处理由错误引起的问题,并能应对有意义的挑战,如模拟分子和材料的状态、模拟凝聚态物理中的复杂系统,以及探索新的科学分支。包括目前超出传统计算规模的科学学科,如大规模气候模拟、天文模拟、药物发现和先进材料科学。
Global Quantum Intelligence的首席分析师David Shaw博士表示:“量子纠错通常看起来非常理论化。”“这里令人震惊的是,微软用于量子比特优化的midstack软件为改善误差率做出了巨大贡献。微软确实在将理论付诸于实践。”
微软表示,基于这一新技术的先进功能将在未来几个月内推出Azure Quantum Elements的私有预览版,Azure Quantum Elements是该公司专门为研发生产力打造的基础设施。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。