AWS今天宣布Amazon Braket量子计算服务现已全面上市。
AWS去年在Re:Invent大会上以预览形式公布了Amazon Braket,这是一项完全托管的服务,让开发者、研究人员和科学家可以使用来自三家硬件提供商的量子计算设备。
量子计算机技术发展迅猛,由于是基于完全不同的架构,所以具有解决极其复杂问题的潜力,甚至是那些现有最强大计算机也无法解决的问题。
量子计算机与经典计算机之间的区别在于,量子处理是同时以多种状态进行的,传统计算机使用二进制数字,也就是表示为1或0的“位”,而量子计算机使用可以“叠加”的“量子位”,表示为1、0或者同时两种状态。
量子位还采用了一种所谓超密集编码的方法,可以同时保留两个“位”,所以一个量子位中保留两个叠加位,就意味着可以处理的数据量是普通计算机的4倍。此外,量子位还可以相互关联,让每个位都了解其他所有位的状态,也就是说,当量子位越来越多的时候,所能提供的性能是呈指数级增长的。
Amazon Braket实际上是一种基于云的测试环境,让研究人员可以用来创建量子算法,并在由合作伙伴(包括D-Wave Systems、IonQ和Rigetti Computing)构建的、基于不同硬件架构的量子计算机上进行尝试。
这一点很重要,因为量子计算领域的竞争才刚刚开始,现在还不清楚哪个架构最好,哪家公司排名第一。很有可能是不同的量子架构适合于解决不同类型的问题,在这种情况下,这三家公司都具有一定的影响力。
D-Wave Systems是第一家以量子退火超导体架构为基础打造量子计算机的公司,并因为被人所熟知。D-Wave Systems的客户包括谷歌等公司,且拥有自己的云服务,研究人员可以在它的云中测试它的平台。
Rigetti的量子计算机则是建立在基于门的超导架构上的,稍有不同,但在这两种情况下,量子电路都是由超导材料制成的,必须保持在接近绝对零度的环境下才能运转。
IonQ可能是这三家公司中最有意思的,因为IonQ使用捕获的离子或悬浮在真空中的带电粒子来创建量子位,因此不需要让硬件保持在极低温度的环境下。
Amazon表示,使用该服务的客户可以利用Braket开发人员工具包设计他们的量子算法,或者从预先构建的算法库中进行选择,而且他们还使用将量子系统与经典计算系统结合在一起的混合算法,克服当前新兴量子技术的局限性。
客户还可以使用Amazon的量子解决方案实验室,该实验室旨在让用户和来自多家量子计算公司的专家共同确定使用量子计算技术的方法。
Amazon表示,现在Braket已经在美国东部(弗吉尼亚北部)、美国西部(加利福尼亚北部)和美国西部(俄勒冈州)的AWS区域上线,并计划未来在更多地区上线。
Braket服务的竞争对手包括微软的Azure Quantum,后者采用了来自IonQ、霍尼韦尔和Quantum Circuits的量子计算机,但是目前仍处于预览阶段。
谷歌和IBM还基于专有硬件构建了自己的量子计算机,并通过他们各自的云服务提供给研究人员。
Constellation Research分析师Holger Mueller认为,Amazon在让Amazon Braket量子服务全面上市的过程中表现出色,因为Amazon在量子计算领域其实是晚于竞争对手的。
Mueller说:“但现在,AWS Braket产品已经跃居领先地位。谁将赢得胜利,这要取决于开发者将现有云资产与量子技术相结合的难易程度,因为这将帮助开发者提高服务,为企业加速做出贡献。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。