近日,被誉为全球计算机系统领域“奥运会”的顶级学术会议SOSP 2025公布奖项评选结果,“星绽”开源操作系统在高可扩展内存管理方面的研究论文,斩获今年的最佳论文奖(Best Paper Award)。据悉,本届SOSP会议共收到368篇投稿,最终录用66篇,其中最佳论文奖仅设三席。这标志着星绽OS在破解操作系统“性能与安全兼顾”这一难题上的探索,获得了国际学术界的认可。
“星绽”(Asterinas)是由中关村实验室、蚂蚁集团、北京大学、南方科技大学等机构联合发起,并在2024年10月22日向全球开发者开源,聚焦于安全可信底层技术的开源系统软件栈。星绽系统软件栈包括星绽OS、星绽机密计算两大项目,其中星绽OS内核作为下一代工业强度的开源通用OS内核,兼顾性能和安全,采用首创的框内核架构和新兴的Rust编程语言,支持x86和RISC-V等CPU体系架构,不仅兼容Linux内核,还在安全性方面有望大幅领先于Linux和其他现有主流OS。
据悉,SOSP始于1967年,与它的姊妹会议OSDI 一起,被全球学术界和工业界公认为操作系统和系统软件领域最高水平、最权威、最具影响力的顶级会议,被称为计算机系统领域的“奥运会”。SOSP/OSDI也深受全球科技公司的重视,Google、Microsoft、Meta、Amazon、Apple等科技公司会派遣核心研发人员参会、投稿及做报告等。许多在工业界产生巨大影响的项目,其核心论文都发表在SOSP/OSDI上。目前,SOSP/OSDI已经成为衡量一个研究机构或团队在系统领域是否处于世界领先水平的关键标尺,是孕育颠覆性计算技术的摇篮。
现代内存管理系统长期存在的两大痛点:性能瓶颈与并发安全。本次获奖论文《CortenMM: Efficient Memory Management with Strong Correctness Guarantees》,阐释了星绽操作系统的独创技术CortenMM在这一领域的探索。该文由北京大学、中关村实验室、蚂蚁集团、CertiK公司、加州大学洛杉矶分校、密歇根理工大学等共同合作完成。
论文提出,传统操作系统如Linux普遍采用“软件—硬件”两级抽象设计,好处是在很大程度上保证了操作系统在不同硬件平台之间的可移植性,但显著的同步开销严重制约多核处理器的性能发挥,而潜在的并发漏洞则带来安全风险。
研究团队发现,x86、ARM和RISC-V等几种主流指令集架构在其内存管理单元(MMU)的设计上已经趋于统一,因此过去为屏蔽硬件差异而存在的软件抽象层已不再是必需品。基于这一关键判断,星绽创新成果CortenMM摒弃了独立的软件抽象层,实现了一种“单层抽象”的全新系统架构,使应用程序能直接与经过硬件强化的接口进行交互。
CortenMM的简化设计带来了显著的性能提升,其同步正确性也得到了研究验证。通过消除软件层的额外同步开销,CortenMM的性能得到释放,在真实应用场景下,性能最高可达Linux的26倍。通过创新性地引入统一的事务化接口(Transactional Interface),利用Rust语言自身的安全特性,并结合先进的形式化验证工具(Verus)进行严格推演,研究团队成功证明了CortenMM核心并发代码的正确性,从根本上杜绝了复杂的并发漏洞。
2024年10月,“星绽”对外发布并向全球开发者开源。一年来,星绽开源操作系统三篇论文被顶会收录,除了CortenMM的研究论文入选SOSP 2025外,星绽两篇论文被顶级会议USENIX ATC 2025同时录用。此外,星绽在GitHub平台斩获逾3600颗Star,并登上HackerNews和LWN.net等国外主流技术社区头条,获2025年OS2ATC大会“最具影响力开源创新贡献奖”。
好文章,需要你的鼓励
Anthropic发布了面向成本敏感用户的Claude Haiku 4.5大语言模型,定价为每百万输入令牌1美元,输出令牌5美元,比旗舰版Sonnet 4.5便宜三倍。该模型采用混合推理架构,可根据需求调整计算资源,支持多模态输入最多20万令牌。在八项基准测试中,性能仅比Sonnet 4.5低不到10%,但在编程和数学任务上超越了前代Sonnet 4。模型响应速度比Sonnet 4快两倍以上,适用于客服聊天机器人等低延迟应用场景。
AWorld团队开发的Recon-Act系统采用"侦察-行动"双团队协作模式,通过工具中心的自我进化机制实现智能浏览器操作。系统在VisualWebArena测试中达到36.48%成功率,超越现有自动化方案。其创新性在于将信息收集与任务执行分离,通过对比成功失败案例自动生成专用工具,为未来智能浏览器助手发展提供了新思路。
英国初创公司Nscale将为微软建设四个AI数据中心,总计部署约20万个GPU,合同价值高达240亿美元。首个数据中心将于明年在葡萄牙开建,配备1.26万个GPU。德州数据中心规模最大,将部署10.4万个GPU,容量从240兆瓦扩展至1.2吉瓦。所有设施将采用英伟达最新Blackwell Ultra显卡。
中科院团队提出QuantVGGT技术,首次解决大规模3D重建AI模型的部署难题。通过双重平滑精细量化和噪声过滤多样化采样两项核心技术,成功将12亿参数的VGGT模型压缩75%体积、提升2.5倍速度,同时保持98%原始性能。实验结果显示该方法在相机位置估计和点云地图生成任务上均显著优于现有量化技术,为3D AI技术的产业化普及提供了重要突破。