至顶网软件频道消息:
有合作伙伴表示,VMware Cloud on AWS产品注定是要重构云市场格局,它的定价对于那些正在评估公有云和私有云替代选择的客户来说具有吸引力。
据已经评估了定价模式的合作伙伴称,在总拥有成本方面该服务击败了本地部署的私有云,甚至与AWS等公有云选择看齐。
Datapipe是AWS首席合作伙伴、VMware云提供商,该公司表示,对价格表的初步分析显示,这个新产品“在云原生方面具有竞争力,要比本地部署的选择更加便宜”。Datapipe产品管理总监David Lucky表示,“他们告诉我们定价一定会非常有吸引力。”
为了成功经销该产品,Datapipe——已经测试该产品有6个月时间——需要向用户展示他们是否能够利用VMware Cloud on AWS从他们本地部署环境中迁移工作负载,而且能节约成本。Lucky指出,定价是“是在应该的范围内”。
考虑到有那么多选择、服务和激励措施,所以为客户降低VMware Cloud on AWS的定价并不是一件容易的事情。但是Amazon和VMware已经跨越了新定价模式的第一道障碍。
AWS首席执行官Andy Jassy在本周一与VMware首席执行官Pat Gelsinger共同做了主题演讲之后(同一天定价信息公布)称,VMware Cloud on AWS要比市场上竞争对手的混合云选择“更具有成本效益”。
CloudPhysics是一家成本优化软件开发商,与VMware有紧密合作关系,该公司项目管理副总裁John Blumenthal表示,VMware通过以相对较低的价位推出该产品,引发的市场震动可能会吸引客户对其本地部署软件的更广泛采用。
VMware与Amazon共同推出的这项服务将会推动“其他基于虚拟机管理程序的厂商”——特别是那些售卖超融合基础设施的厂商——向VMware做出承诺,这样他们就可以利用这种混合能力来保持竞争力,Blumenthal表示。
CloudPhysics已经分析了其IT行业数据湖中成千上万个匿名组织,对公有云提供商和本地部署解决方案的成本进行了对比。
结论是:一旦运用于VMware现有的装机群,VMware Cloud on AWS对于那些运行VMware环境来说将是“最佳的云成本结构”。
根据VMware的价格单,这项服务的成本是每个主机每小时8.37美元,大约一年6100美元,任何集群至少要有4个主机。每个主机提供2个CPU和36个核心,512GB RAM和3.6 TB缓存,外加10.7TB的原始闪存存储。
据VMware称,一旦保留的实例发挥作用,未来的某个时间点,一年的合同将会节省30%的成本,3个合同将会介绍50%。
这与目前任何主流厂商通用的“原生云”总拥有成本持平,VMware每个虚拟机每小时大约是6美分到9美分,而虚拟机运行在本地部署环境中的费用大约是在10-17美分。
Moor Insights & Strategy高级分析师Rhett Dillingham在这一价格公布之后进行了分析,并与该产品的市场营销团队以及AWS合作伙伴团队进行了沟通,以获得更可靠的关于定价方式的细节。
显然VMware正在通过VMware Cloud on AWS瞄准了本地部署的vSphere环境,特别是针对那些承诺签3年合同的客户,Dillingham这样总结说,他以前在AWS做过产品经理。
他说,当评估私有云与公有云基础设施之间成本差距的时候是存在“重大变数”的,这与对VMware TCO有预测的特定客户一致。
但是总体来看,当VMware用户承诺保留实例3年时间,那么随着时间推移会节约本地部署服务器、存储和网络的成本。
也就是说,与在2年保留实例上订购的AWS EC2虚拟机相比——很容易计算——VMware for AWS要贵出差不多50%,在利用了VMware“混合忠诚度计划”对预留主机的25%折扣。
相比原生AWS EC2的溢价克服了开放成本信息的困难。
这个价格是“足够有吸引力来推动装机客户,同时起步足够高可以测试公有云付费即用模式和订阅模式的利润有多高。”
VMware软件堆栈的价值超过了提供在云环境中运行一致的体验。VMware客户可以通过利用性能和可用性等功能的优势(例如vSAN),每个主机打包更多的虚拟机(高出EC2同等实例允许的最多32个虚拟机)来进一步实现成本效益。
AHEAD是另一家将该解决方案带入市场的合作伙伴,该公司首席技术官Eric Kaplan表示,VMware Cloud on AWS在一个很好的时机进入市场。“我们看到需要工作负载放置方面指导的企业客户正在迅猛增加。”
这就不仅是成本了。Kaplan表示:“这必须结合特定的使用实例、地理可用性、数据治理以及服务的可访问性,而不仅仅是计算、存储和网络。”
好文章,需要你的鼓励
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
MiroMind AI等机构联合研究团队提出了UniME-V2多模态嵌入学习新方法,通过让大型多模态语言模型充当"智能法官"来评估训练样本质量,解决了传统方法在负样本多样性和语义理解精度方面的问题。该方法引入软标签训练框架和困难负样本挖掘技术,在MMEB基准测试中取得显著性能提升,特别在组合式检索任务上表现出色,为多模态AI应用的准确性和用户体验改进提供了重要技术支撑。
亚马逊云服务宣布投资500亿美元,专门为美国政府构建AI高性能计算基础设施。该项目将新增1.3千兆瓦算力,扩大政府机构对AWS AI服务的访问,包括Amazon SageMaker、Amazon Bedrock和Claude聊天机器人等。预计2026年开工建设。AWS CEO表示此举将彻底改变联邦机构利用超级计算的方式,消除技术障碍,助力美国在AI时代保持领先地位。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。