IBM今天宣布,将扩展其开源量子软件工程工具包Qiskit,覆盖整个软件开发栈,更好地帮助开发人员为研究和企业应用的量子处理器构建实用的解决方案。
Qiskit软件开发工具包于2017年推出,最初是为了帮助开发人员快速完成从代码到量子线路的设计。此次更新汇集了IBM为量子线路打造的所有工具,包括1.0软件开发工具包、人工智能电路优化服务、简化运行时服务、人工智能Qiskit助手以及在量子硬件上运行超级计算工作负载的开源工具。
线路设计可能是一项极其复杂的任务,因为量子线路的构建方式与经典计算机不同,经典计算机的运行状态是稳定的“1”和 “0”。量子计算机中的量子比特可以存在于“1”和“0”之间的可能状态,或者与另一个量子比特“纠缠”在一起。利用这些特性,可以设计出比经典计算机执行速度更快的量子线路来处理某些复杂的方程式。
然而,将一个潜在问题映射成一个可以写入量子线路的解决方案并非易事,而这正是 Qiskit的用武之地。IBM指出,自推出以来,Qiskit已成为业界最受欢迎的量子软件包,迄今已有60多万用户设计了30多亿个量子线路。
IBM研究员兼IBM量子公司副总裁Jay Gambetta表示:“量子计算在全球的应用以及量子优势的体现--需要将领先的量子硬件与运行工作负载的强大且性能卓越的软件相结合。”这两大支柱是算法发现的基础,算法发现已经在实用级别的量子硬件上开始了。
IBM表示,通过此次更新,Qiskit现已成为“面向企业、政府组织、研究机构和大学的、成熟而全面的软件”。Qiskit SDK现在可以让开发人员为量子硬件优化线路,速度比以前的版本快16倍以上,内存耗用减少3倍。
除了SDK,用户还可以使用Qiskit Transpiler Service,这是一个代码编译器,可以提取计算机代码并创建量子线路。现在,该编译器中嵌入了一个人工智能优化系统,可以绘制出线路的最佳设计方案,包括量子比特的最佳位置、路由和物理位置。
IBM 将其与Watson X支持的全新Qiskit Assistant相结合,可以帮助开发人员快速生成设计量子线路所需的代码。它是一个Visual Studio扩展,目前处于alpha模式。要使用它,开发人员可以在代码注释中用英文描述出他们想要解决的问题,该助理就会生成代码,该编译服务可以将其转换成量子线路。
该公司还推出了Qiskit Serverless,这是一款开源运行时工具,允许开发人员在混合环境中轻松运行以量子为中心的超级计算工作负载。这意味着,在创建优化的量子线路之后,他们可以在量子硬件和经典集群中执行工作负载。结合Qiskit Runtime Service的简化执行模式,用户可以在超过八种最流行的量子硬件平台上定制其工作负载的性能。
该公司表示,这是实现“实用级量子计算”的下一步。2023年,IBM首次在其硬件中展示了实用级的能力,并推出了该公司首台模块化量子超级计算机Quantum System Two,该系统配备了该公司的133量子比特Heron处理器。
实用级能力的出现,是量子处理器超越经典计算模拟量子计算机处理速度和处理能力的时代。这意味着量子计算机首次可以用于探索实际问题,而不仅仅是对更多量子过程进行实验。
布鲁克海文国家实验室负责能源和光子科学的实验室副主任 James Misewich 表示:“在布鲁克海文,我们利用 Qiskit在IBM的量子硬件上执行线路,迄今已发表了近 20 篇论文,包括物理学前沿、动态系统、凝聚态物质系统等探索。”Qiskit还使我们的团队能够开发扩展功能,推动我们对玻色和混合量子比特-玻色线路的探索,以及对它们如何推动基本量子算法开发和纠错的探索。
好文章,需要你的鼓励
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
上海人工智能实验室研究团队开发了MMSI-Bench,这是首个专注于多图像空间智能评估的全面基准。研究人员花费300多小时,从12万张图像中精心构建了1000道问题,涵盖了位置关系、属性和运动等多种空间推理任务。评测结果显示,即使最先进的AI模型也仅达到41%的准确率,远低于人类的97%,揭示了AI空间认知能力的重大缺陷。研究还识别了四类主要错误:物体识别错误、场景重建错误、情境转换错误和空间逻辑错误,为未来改进提供了明确方向。
思科报告指出,自主型人工智能未来三年内有望承担高达68%的客户服务任务,通过个性化与前瞻性支持提升效率与节省成本,但用户仍重视人与人之间的互动和健全的治理机制。
卡内基梅隆大学研究团队开发了ViGoRL系统,通过视觉定位强化学习显著提升AI的视觉推理能力。该方法让模型将每个推理步骤明确锚定到图像的特定坐标,模拟人类注视点转移的认知过程。与传统方法相比,ViGoRL在SAT-2、BLINK等多项视觉理解基准上取得显著提升,并能动态放大关注区域进行细节分析。这种定位推理不仅提高了准确性,还增强了模型解释性,为更透明的AI视觉系统铺平道路。