微软正在为客户提供一种在本地运行虚拟化工作负载就能连接到Azure的新方法,这个方法就是他在3月底推出的超融合系统Azure Stack HCI。
3月26日,微软推出了Azure Stack混合产品系列的又一新成员——Azure Stack HCI解决方案,用于在超融合基础设施上运行虚拟化应用程序。
微软官方表示,Azure Stack HCI是过去微软的硬件合作伙伴所提供的Windows Server软件定义(WSSD)解决方案的演变版本,如今,它成为Azure Stack产品系列的一部分,可以连接到Azure。
2017年,微软推出了Azure Stack混合计算平台,该平台使得客户和合作伙伴能够在OEM提供的某些经过预先批准的服务器上运行Azure服务。而Azure Stack HCI解决方案的推出则允许客户在更换和整合旧服务器的同时,在本地运行虚拟化应用程序。通过Azure Stack和Azure Stack HCI的结合,客户就可以选择连接到微软的Azure公有云。
据了解,Azure Stack HCI解决方案提供与Azure Stack相同的计算、存储和组网技术。它还允许用户通过Windows Admin Center查看其Azure Stack HCI和Azure服务。
在发布会上,微软公布了一份来自15个合作伙伴的70多个Azure Stack HCI解决方案目录,包括——华硕、Axellio、bluechip、DataON、Dell EMC、富士通、HPE、日立、华为、联想、NEC、primeLine Solutions、QCT、SecureGUARD和Supermicro——这些解决方案都使用了经过微软预先验证的硬件。
在一篇博客文章中,微软发言人这样解释Azure Stack与Azure Stack HCI之间的区别:
“使用Azure Stack,你可以在本地运行Azure IaaS和PaaS服务,可以在任何地方构建并运行云应用程序,同时还能保持一致性。”
“Azure Stack HCI是以熟悉的方式运行虚拟化工作负载的、更好的解决方案——但具有超融合效率——并且可以连接到Azure以实现混合方案,例如云备份、基于云的监控等等。”
此外,微软相关发言人还补充表示,客户需要通过Windows Server 2019 Datacenter Edition和Windows Admin Center才能运行Azure Stack HCI解决方案。同时,客户虽然无法从Azure Stack HCI升级到Azure Stack,但他们可以将自己的工作负载从Azure Stack HCI迁移到Azure Stack或Azure上。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。