IBM宣布推出的这款软件平台名为IBM Cloud Private,设计旨在帮助企业利用类似公有云的能力,构建本地部署的私有云环境。这款平台还让企业能够利用流行的云原生工具在两种环境中去做应用开发。
IBM Cloud Private可以做到这一点,是因为它构建在开源应用容器编排软件Kubernetes之上,支持Docker容器和CloudFoundry应用开发平台。
Docker容器可以用于让软件从一个计算环境迁移到另一个环境的过程中可靠地运行。应用和其他依赖关系、库和其他二进制文件捆绑在一个包内,以提取出应用运行的底层基础设施中的任何差异。
有了IBM Cloud Private,企业就可以在这个平台上构建他们应用的容器化版本,然后跨各种云环境进行迁移,用于不同的用途和用例。IBM还宣布推出了其应用开发软件的新容器友好版本,包括IBM WebSphere Liberty、DB2和MQ,以帮助实现这一点。
IBM表示,能够在私有云和公有云之间轻松迁移工作负载,这一点对于很多客户来说至关重要,特别是那些所处行业有着严格法规要求的企业。例如,IBM Cloud Private对于金融服务公司来说具有一定吸引力,它可以设置一个私有云环境来确保应用数据是保存在企业内部的。然后在需要利用新的分析和机器学习工具时,迁移到公有云环境中。
分析公司Wikibon首席分析师Dave Vellante表示,IBM Cloud Private平台意味着IBM试图进入“真正的私有云”。他将这定义为内部部署的基础设施,基本上是模拟公有云的。他解释说,这个市场的增长几乎是公有云基础设施即服务的2倍,部分原因要归结于这个市场越来越多地意识到,并非所有人需要公有云提供的所有功能。
Vellante表示:“CIO们意识到,他们并不是简单地重塑他们的业务,并将业务强加到公有云端。相反,他们必须将云运营的模式带入他们的数据中。”
Vellante说,即便如此,IBM的新平台可能并不适用于所有人,因为像AWS这样的公有云提供商仍然在成本和创新方面拥有巨大优势。“我估计AWS在自动化以及支持云原生应用方面比IBM领先3-5年。”
尽管如此,IBM Cloud Private平台仍然代表着IBM在正确方向迈出的重要一步,Constellation Research首席分析师、副总裁Holger Mueller这样表示。他指出,该平台提供的混合云新能力现在是企业需要且想要的。
“对Kubernetes和CloudFoundry这样的开源项目的支持,是这款架构的关键,让企业能够跨不同云和部署带入他们的负载。”
不过IBM Cloud Private的另一个优势是,它可以帮助到那些正在从内部部署环境转移到云环境中的企业。客户之一,汽车租赁公司Hertz正在使用该平台做到这一点。
Hertz公司首席技术官Tyler Best表示:“对于像我们这样致力于减少或者消除对内部数据中心依赖的很多企业来说,私有云是必须的。对于大型企业来说,一套涵盖公有云、私有云和混合云的战略,从传统系统过渡到云的有效方法。Hertz是IBM私有云和公有云的早期客户之一,如果我们整体云产品组合缺少了私有云,那么我们是不可能实现我们的技术目标。”
IBM表示,目前IBM Cloud Private已经面向客户提供。该平台针对IBM Z、IBM Power System和IBM Hyperconverged Systems(基于Nutanix)进行了优化。此外,它还兼容来自Dell EMC、思科和联想等厂商的硬件系统。软件方面,还可集成IBM DB2、PostgreSQL和MongoDB这样的数据库服务。
好文章,需要你的鼓励
Carma Technology 针对 Uber 提起专利侵权诉讼,称其侵犯了涉及拼车系统的五项专利。案情回溯至十年前,凸显专利保护对创新者的重要性,可能对 Uber 及其他公司带来巨大影响。
东京大学研究团队开发的WebChoreArena是一个全新的网页代理评估基准,它包含532个精心设计的任务,专注于测试AI代理处理繁琐、复杂网页任务的能力。研究结果显示,即使是最先进的语言模型(如Gemini 2.5 Pro)在这些挑战性任务上的表现也比常规任务降低了约14个百分点,证明了这一基准有效区分了不同模型的能力。WebChoreArena通过设计海量记忆、计算、长期记忆等类型的任务,为评估AI代理在实际应用场景中的表现提供了更严格的标准。
经过暂停战略调整,Automattic 宣布重返 WordPress 开发,包括核心、Gutenberg、Playground 等模块,计划今年推出 6.9 版本,并涉及与 WP Engine 的法律争端。
这项研究提出了一种名为LIFT的新型微调方法,通过在低秩近似后识别大语言模型中的主要权重进行稀疏微调。研究表明,仅更新5%的主要权重就能在推理任务上超越全参数微调,同时保持与LoRA相当的内存效率。LIFT在常识推理、算术推理等多项任务上表现优异,还能更好地平衡学习新知识与保留原有能力。这一方法揭示了大语言模型中关键参数的重要性,为资源高效的模型定制提供了新思路。