Google Cloud和VMware今天宣布将扩大合作伙伴关系,帮助企业更轻松地将本地应用迁移到云端。
此次合作的核心是Google Cloud’s VMware Engine。Google方面表示,将把这项服务添加到VMware的VMware Cloud Universal订阅产品中。
Google Cloud’s VMware Engine服务于2020年5月推出,简化了将本地VMware工作负载迁移到Google Cloud的过程。VMware Engine可以在一小时内迁移完一些工作负载,而且客户无需对迁移的应用代码进行任何修改。
现在Google Cloud将把该服务添加到VMware Cloud Universal订阅产品中,该产品是去年3月推出的,让企业能够更方便地购买VMware的核心软件产品。
去年3月,VMware宣布对软件产品组合进行重大更新,此次更新涉及两个产品套件:Tanzu,用于管理Kubernetes集群的工具系列,以及VMware Cloud Foundation,旨在简化云基础设施管理的解决方案集合。VMware将这两个产品纳入到一个整合的捆绑包产品VMware Cloud中。
今天两家厂商在宣布此次扩大合作关系时特别强调了VMware Cloud Universal产品,它让客户可以通过订阅的模式购买来自VMware Cloud产品捆绑包的解决方案。除了VMware Cloud Universal之外,产品包中还有其他功能,客户可以获得广泛的支持服务,以及一些激励举措,以帮助可简化从本地VMware软件部署切换到云端的任务。
此次合作,主要就是将用于迁移本地工作负载的Google’s VMware Engine与用于简化客户体验的VMware Cloud Universal订阅产品进行结合,这有助于那些购买了这个订阅产品的企业可以更容易部署Google’s VMware Engine。
Google Cloud全球生态系统企业副总裁Kevin Ichhpurani表示:“我们与VMware的合作让企业能够非常轻松地将基于VMware的应用迁移到Google Cloud值得信赖的高性能基础设施上。这将让VMware和Google Cloud更紧密地联系在一起,也代表着我们在通过Google Cloud VMware Engine支持企业数字化转型的共同承诺方面,向前迈出了重要的一步。”
对Google来说,此次合作是一个重要里程碑的另一个原因是VMware产品的市场影响力。Tanzu和VMware Cloud Foundation是VMware Cloud Universal订阅产品提供访问权限的两个产品包,被全球相当一部规模最大的企业所采用。
去年4月VMware曾表示,仅Tanzu就有超过30万个组织和500万名开发人员在使用。至于VMware Cloud Foundation,正在为超过8500万个客户工作负载提供支持。Google此次通过让VMware用户更轻松地访问Google Cloud’s VMware Engine服务,有助于加快赢得新客户的步伐。
与此同时,VMware目前正将重点从销售传统软件许可转向强调经常性收入的商业模式。去年,VMware将几个基于许可的产品线转换为订阅和软件即服务定价模式。此次与Google展开新的合作,将进一步帮助VMware通过增强VMware Cloud Universal(其订阅解决方案组合的一个重要组成部分)来推动VMware经常性收入的增长。
两家厂商表示,双方的共同客户可以在结合双方云产品时节省大量资金,预计那些同时部署了Google Cloud VMware Engine和VMware Cloud Universal的组织平均每年可以节省200多万美元。
好文章,需要你的鼓励
前谷歌资深工程师David Petrou创立的AI初创公司Continua宣布完成800万美元种子轮融资,由GV领投。该公司开发AI智能体技术,可加入SMS、iMessage和Discord等群聊平台,为用户协作提供智能支持。Continua能够在群聊中自动设置提醒、发起投票、添加日历邀请或生成待办清单,解决群聊混乱问题。公司通过微调技术让AI理解群聊动态,具备社交智能,只在需要时提供帮助。
艾伦人工智能研究院开发的MolmoAct是首个开源的机器人空间推理模型,通过"看懂-规划-执行"三步思考法让机器人具备类人的空间理解能力。它不仅在多项基准测试中表现优异,还支持直观的视觉轨迹调教,用户可直接在屏幕上画线指导机器人行为。研究团队完全开源了模型、代码和数据集,为全球机器人研究提供强大基础平台。
Anthropic宣布为企业客户增加Claude单次提示词的信息处理量,以吸引更多开发者使用其AI编程模型。Claude Sonnet 4现支持100万token上下文窗口,可处理75万词或7.5万行代码的请求,是此前限制的5倍,超过OpenAI GPT-5的40万token。该功能也将通过Amazon Bedrock和Google Cloud等云合作伙伴提供。更大的上下文窗口有助于AI模型更好地处理软件工程问题和长期自主编程任务。
这项由北京大学和清华大学联合完成的研究首次提出时间自奖励语言模型,通过"锚定拒绝"和"未来引导选择"策略解决了AI自学习中的梯度消失问题。该方法让AI既能从过去的低水平样本中学习反面教材,又能向未来的高水平样本学习正面目标,成功维持了清晰的学习对比信号,在多个基准测试中显著优于传统自奖励方法。