至顶网软件频道消息: 据IDC预测,全球数字信息总量将从现在的33ZB增长到2025年的175ZB。数据的快速增长引发了微软等云厂商的密切关注,这些厂商不仅有自己的数据,还有无数其他企业组织的数据。
为了减轻基础设施带来的压力,微软开发了一种用于压缩数据的尖端系统。今天上午,微软在一个名为Zipline的开源项目下发布了该系统的规范。
微软称,这项技术要比目前业界的常用的压缩软件强大得多。微软Azure硬件基础设施团队总经理Kushagra Vaid在博客文章中,把当下主流的Zlib工具作为对比参考。
Zlib是一个行业标准的压缩库,目前Linux内核、iOS和其他基础软件平台都采用了Zlib。Vaid表示,Zipline的数据压缩率高达是Zlib的2倍,而且,该系统的吞吐量也要高于其他主流压缩工具,并且延迟更低。
这就意味着Zipline可以将工作负载缩小到只是其大小的一部分。微软称,该系统把Azure上的应用程序存储量压缩了92%。对于其他类型的数据——例如来自联网设备的机器数据,Zipline的压缩率会更高。
微软将开源该系统的压缩算法,以及该算法设计运行定制硬件的规范,其中就包括Zipline表现数据操作的低级寄存器传输语言。
“我们预计,随着时间的推移,Project Zipline压缩技术被用于多个市场细分领域,以及网络数据处理、智能SSD、归档系统、云设备、通用微处理器、物联网和边缘设备等使用模式中,”Vaid这样写道。
Zipline并不是微软为开源社区贡献第一个Azure组件。此前,微软曾发布了用于一个人工智能引擎的代码,该引擎被用于支持Azure平台的一些服务。此外,微软开公开了自主研发的Cerberus芯片的原理图,该芯片可保护服务器固件防止被篡改。
好文章,需要你的鼓励
IDC数据显示,Arm架构服务器出货量预计2025年将增长70%,但仅占全球总出货量的21.1%,远低于Arm公司年底达到50%市场份额的目标。大规模机架配置系统如英伟达DGX GB200 NVL72等AI处理设备推动了Arm服务器需求。2025年第一季度全球服务器市场达到创纪录的952亿美元,同比增长134.1%。IDC将全年预测上调至3660亿美元,增长44.6%。配备GPU的AI服务器预计增长46.7%,占市场价值近半。
斯坦福与哈佛研究团队通过创新的"层次贝叶斯框架",首次从理性分析角度解释了AI学习策略转换机制。研究发现AI会在"记忆型"和"理解型"两种策略间理性选择,转换规律遵循损失-复杂度权衡原理。该理论框架仅用三个参数就能准确预测AI在不同条件下的行为表现,为AI系统的可控性和可预测性提供了重要理论基础。
AI正在重塑创业公司的构建方式,这是自云计算出现以来最重大的变革。January Ventures联合创始人Jennifer Neundorfer将在TechCrunch All Stage活动中分享AI时代的新规则,涵盖从创意验证、产品开发到团队架构和市场策略的各个方面。作为专注于B2B早期投资的风投合伙人,她将为各阶段创业者提供关键洞察。
这项研究汇集了来自斯坦福大学、苏黎世联邦理工学院、隆德大学、加州大学旧金山分校等多所世界顶尖学府的11位医学专家,共同构建了医学AI领域的首个多模态情境学习评估标准。