谷歌今天公布了Anthos应用平台的一些重要更新,使其能够以较低成本支持不同计算环境中的更多工作负载。
Google Anthos是一个混合云应用开发平台,可以运行在开源Kubernetes容器编排软件上,承载那些不需要修改就能运行在现有本地硬件和公有云的应用,让企业可以为每一种应用选择最合适的基础设施。
在Anthos中,应用通常是部署在软件容器中的,软件容器可承载每个应用的组件,使其更易于使用。对于开发者来说,最大的好处是无论托管这些应用的基础设施是什么,开发者都可以使用一套工具来构建和部署应用,并根据需要推送更新。Kubernetes的作用是简化对大型容器化应用集群的管理。
这项公告最重要的一点在于,Anthos终于兑现了自己的承诺。Anthos此前一直承诺将支持多云部署,特别是从AWS开始,到目前为止,对微软Azure的支持已经处于预览阶段了。
Google Cloud产品管理副总裁Jennifer Lin在博客中写道:“现在,你可以在本地环境、Google Cloud以及其他包括AWS在内的云中整合所有操作了。”
自成立以来,支持多云一直是Anthos的主要目标,因为这意味着客户无需放弃对本地云和其他云的现有投资,仍然可以对所有应用和服务使用一个通用的管理层。
此外,谷歌还扩展了Anthos的管理框架,以支持更多传统工作负载。
Lin说:“无论你的企业组织是云中的数字原生企业还是传统企业,都很难始终如一地大规模管理工作负载。最新版本让我们更深层地支持虚拟机,让管理多样化环境变得更容易。”
这次更新让客户可以管理Google Cloud上虚拟机运行策略,就像管理软件容器的策略一样。Lin说:“这减少了由于人工干预而导致配置错误的可能性,同时加快了交付速度。”
与此同时,可实现应用组件相互通信的专用基础设施层Anthos Service Mesh现在支持运行在虚拟机中的应用了,让多个团队可以跨Google Cloud、本地环境或者其他云的工作负载一致地管理策略和安全性。
最后,Lin还提供了一些即将发布的更新的详细信息,这些更新应有助于企业组织降低成本并减少低效率。通过这一更新,Anthos将可以运行在裸机服务器上(单个租户专用的物理服务器)。裸机服务器是虚拟机管理程序服务器的替代方案,在虚拟机管理程序服务器中,多个用户共享虚拟服务器的计算、存储和其他资源。
Lin说:“这非常适合于那些对于性能或者监管有苛刻要求的工作负载。”
裸机服务器还将实现另一项名为Anthos on Edge的功能,该功能将允许用户在数据中心和公有云环境之外的分支机构、零售店和远程站点等边缘位置部署应用和工作负载。他说,这两个更新将在今年晚些时候发布。
Constellation Research分析师Holger Mueller表示:“谷歌于12个月前发布号称首个多云计算平台Anthos产品震惊了业界,很高兴看到谷歌兑现了支持Google Cloud和AWS等产品的多云承诺。企业希望实现工作负载的可移植性,以避免被锁定在特定的云基础设施中。”
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。