至顶网软件频道消息:
有合作伙伴表示,VMware Cloud on AWS产品注定是要重构云市场格局,它的定价对于那些正在评估公有云和私有云替代选择的客户来说具有吸引力。
据已经评估了定价模式的合作伙伴称,在总拥有成本方面该服务击败了本地部署的私有云,甚至与AWS等公有云选择看齐。
Datapipe是AWS首席合作伙伴、VMware云提供商,该公司表示,对价格表的初步分析显示,这个新产品“在云原生方面具有竞争力,要比本地部署的选择更加便宜”。Datapipe产品管理总监David Lucky表示,“他们告诉我们定价一定会非常有吸引力。”
为了成功经销该产品,Datapipe——已经测试该产品有6个月时间——需要向用户展示他们是否能够利用VMware Cloud on AWS从他们本地部署环境中迁移工作负载,而且能节约成本。Lucky指出,定价是“是在应该的范围内”。
考虑到有那么多选择、服务和激励措施,所以为客户降低VMware Cloud on AWS的定价并不是一件容易的事情。但是Amazon和VMware已经跨越了新定价模式的第一道障碍。
AWS首席执行官Andy Jassy在本周一与VMware首席执行官Pat Gelsinger共同做了主题演讲之后(同一天定价信息公布)称,VMware Cloud on AWS要比市场上竞争对手的混合云选择“更具有成本效益”。
CloudPhysics是一家成本优化软件开发商,与VMware有紧密合作关系,该公司项目管理副总裁John Blumenthal表示,VMware通过以相对较低的价位推出该产品,引发的市场震动可能会吸引客户对其本地部署软件的更广泛采用。
VMware与Amazon共同推出的这项服务将会推动“其他基于虚拟机管理程序的厂商”——特别是那些售卖超融合基础设施的厂商——向VMware做出承诺,这样他们就可以利用这种混合能力来保持竞争力,Blumenthal表示。
CloudPhysics已经分析了其IT行业数据湖中成千上万个匿名组织,对公有云提供商和本地部署解决方案的成本进行了对比。
结论是:一旦运用于VMware现有的装机群,VMware Cloud on AWS对于那些运行VMware环境来说将是“最佳的云成本结构”。
根据VMware的价格单,这项服务的成本是每个主机每小时8.37美元,大约一年6100美元,任何集群至少要有4个主机。每个主机提供2个CPU和36个核心,512GB RAM和3.6 TB缓存,外加10.7TB的原始闪存存储。
据VMware称,一旦保留的实例发挥作用,未来的某个时间点,一年的合同将会节省30%的成本,3个合同将会介绍50%。
这与目前任何主流厂商通用的“原生云”总拥有成本持平,VMware每个虚拟机每小时大约是6美分到9美分,而虚拟机运行在本地部署环境中的费用大约是在10-17美分。
Moor Insights & Strategy高级分析师Rhett Dillingham在这一价格公布之后进行了分析,并与该产品的市场营销团队以及AWS合作伙伴团队进行了沟通,以获得更可靠的关于定价方式的细节。
显然VMware正在通过VMware Cloud on AWS瞄准了本地部署的vSphere环境,特别是针对那些承诺签3年合同的客户,Dillingham这样总结说,他以前在AWS做过产品经理。
他说,当评估私有云与公有云基础设施之间成本差距的时候是存在“重大变数”的,这与对VMware TCO有预测的特定客户一致。
但是总体来看,当VMware用户承诺保留实例3年时间,那么随着时间推移会节约本地部署服务器、存储和网络的成本。
也就是说,与在2年保留实例上订购的AWS EC2虚拟机相比——很容易计算——VMware for AWS要贵出差不多50%,在利用了VMware“混合忠诚度计划”对预留主机的25%折扣。
相比原生AWS EC2的溢价克服了开放成本信息的困难。
这个价格是“足够有吸引力来推动装机客户,同时起步足够高可以测试公有云付费即用模式和订阅模式的利润有多高。”
VMware软件堆栈的价值超过了提供在云环境中运行一致的体验。VMware客户可以通过利用性能和可用性等功能的优势(例如vSAN),每个主机打包更多的虚拟机(高出EC2同等实例允许的最多32个虚拟机)来进一步实现成本效益。
AHEAD是另一家将该解决方案带入市场的合作伙伴,该公司首席技术官Eric Kaplan表示,VMware Cloud on AWS在一个很好的时机进入市场。“我们看到需要工作负载放置方面指导的企业客户正在迅猛增加。”
这就不仅是成本了。Kaplan表示:“这必须结合特定的使用实例、地理可用性、数据治理以及服务的可访问性,而不仅仅是计算、存储和网络。”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
时尚零售巨头维多利亚的秘密因安全事件导致网站和线上订单服务中断,已立即启动应急响应、邀请第三方专家协助恢复运营,实体店仍正常营业。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。