整个科技行业都在积极推动能够全面超越现有硬件能力的大型量子计算机,而这方面工作也确实取得了突飞猛进的发展。
最新的发展成果来自谷歌公司,其于本周一推出了首款72量子位(见上图)量子处理器,这也是迄今为止出现的计算能力最强的量子处理器。而亚军头衔则由IBM公司于去年制造的50量子位芯片所持有。
量子位就相当于量子版本的bit位,其突出特性在于能够代表三个可能的数据值,而非传统思维中的1与0两个。这种看似微小的差异在大型量子计算机带来颠覆性的容量提升。事实上,技术行业相信,即使是目前最强大的超级计算机都解决不了的难题,也同样难不倒这类量子计算机。
科学家们将这一理论性能优势称为“量子优势”,谷歌公司则希望在新芯片中真正将其变为现实。这款处理器被称为Bristlecone,旨在为该公司的研究人员提供一套测试平台,从而探索如何实现量子计算的全部潜力。
将更多量子位集成至芯片之上还仅仅只是需要解决的实际需求之一。另一方面,则在于确保该系统能够以充分的可靠性处理数据以保持高水准的准确性——考虑到量子位的易变性,这绝对不是件轻松的任务。大多数量子处理器对于外界干扰因素非常敏感,因此必须被保持在接近绝对零度的工作环境之下。
为了实现可靠性,谷歌公司在设计Bristlecone时充分借鉴了其早期开发的9量子位系统,其错误率可低至0.6%。此外,谷歌方面还开发出专门设计的基准测试工具,用以衡量这款样报处理器的准确度。利用这款工具,研究人员们将能够在传统硬件上模拟量子计算机,从而检查计算结果。
在一篇博文当中,谷歌公司科学家Julian Kelly写道,其目标在于让Bristlecone与此前的9量子位处理器拥有类似的准确度。他同时透露称,谷歌公司对此抱有“谨慎的乐观态度”,并认为进一步实现量子优势确实具备可行性。
这代表着一次历史性的突破,同时也标志着技术行业已经朝着打造原本仅存在于科幻小说中的那种超大功率量子计算机的目标迈出了一大步。此类设备将使得科学家们能够在当前硬件所无法实现的计算能力高度之上进行研究。然而,其也可能带来平板的风险。根据估计,一台4000量子位的计算机将有可能破解RSA-2048——即目前最为尖端的数据保护加密技术。
好文章,需要你的鼓励
华硕Ascent GX10 GPU采用了最新的Blackwell架构,这一架构针对Diffusion模型和Transformer等主流AI模型配备了专门的加速单元。
这项由Snowflake AI Research发表的研究挑战了传统语言学对大型语言模型的批评,通过引入波兰语言学家Mańczak的理论框架,论证了LLM的成功实际上验证了"频率驱动语言"的观点。研究认为语言本质上是文本总和而非抽象系统,频率是其核心驱动力,为重新理解AI语言能力提供了新视角。
探索Mac终端中鲜为人知但实用的命令技巧,包括快速设置闹钟、检查电池健康状态、查找WiFi密码、清理下载记录以及自定义截图设置等。这些命令能显著提升安全从业者的工作效率,从Touch ID认证到网络管理,涵盖多个实用场景。
freephdlabor是耶鲁大学团队开发的开源多智能体科研自动化框架,通过创建专业化AI研究团队替代传统单一AI助手的固化工作模式。该框架实现了动态工作流程调整、无损信息传递的工作空间机制,以及人机协作的质量控制系统,能够自主完成从研究构思到论文发表的全流程科研工作,为科研民主化和效率提升提供了革命性解决方案。