至顶网软件频道消息: 据IDC预测,全球数字信息总量将从现在的33ZB增长到2025年的175ZB。数据的快速增长引发了微软等云厂商的密切关注,这些厂商不仅有自己的数据,还有无数其他企业组织的数据。
为了减轻基础设施带来的压力,微软开发了一种用于压缩数据的尖端系统。今天上午,微软在一个名为Zipline的开源项目下发布了该系统的规范。
微软称,这项技术要比目前业界的常用的压缩软件强大得多。微软Azure硬件基础设施团队总经理Kushagra Vaid在博客文章中,把当下主流的Zlib工具作为对比参考。
Zlib是一个行业标准的压缩库,目前Linux内核、iOS和其他基础软件平台都采用了Zlib。Vaid表示,Zipline的数据压缩率高达是Zlib的2倍,而且,该系统的吞吐量也要高于其他主流压缩工具,并且延迟更低。
这就意味着Zipline可以将工作负载缩小到只是其大小的一部分。微软称,该系统把Azure上的应用程序存储量压缩了92%。对于其他类型的数据——例如来自联网设备的机器数据,Zipline的压缩率会更高。
微软将开源该系统的压缩算法,以及该算法设计运行定制硬件的规范,其中就包括Zipline表现数据操作的低级寄存器传输语言。
“我们预计,随着时间的推移,Project Zipline压缩技术被用于多个市场细分领域,以及网络数据处理、智能SSD、归档系统、云设备、通用微处理器、物联网和边缘设备等使用模式中,”Vaid这样写道。
Zipline并不是微软为开源社区贡献第一个Azure组件。此前,微软曾发布了用于一个人工智能引擎的代码,该引擎被用于支持Azure平台的一些服务。此外,微软开公开了自主研发的Cerberus芯片的原理图,该芯片可保护服务器固件防止被篡改。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。