至顶网软件频道消息:
你的下一代数据中心可能会是一个铝盒子,盒子里的服务器浸泡在油中。
这就是今天在悉尼举行的OpenStack峰会上多家欧洲公司描述的愿景。
其中一家名为Horizon Computing的公司开发的“RuggedPOD”,是一个70cm x 70cm x 70cm的盒子,能够容纳4个微型ATX主板或者8个迷你ITX板卡。所有这些都沉浸在有机电介质油中,这种物质可以传导热量,但不能传导电力,意味着固态元件即使在潮湿的情况下也能工作。与POD外表类似散热片的设计相呼应的是,传导也将让服务器保持在适当的温度。POD足够牢固可以用于室外运转,这也有助于冷却。
POD有两个外部连接:一个是连接电源,一个是连接网络。
另外一家名为Enter Cloud Suite (ECS)的意大利公有云提供商,正在测试一些pod,因为他们认为这种形式是一个运行工作负载又不需要固定基础设施的理想选择。容器等需要的只是运行Kubernetes。如果这恰好是一个被动冷却式的服务器,价格和延迟都比较合理,你还有什么理由不考虑呢?
ECS在这次峰会上的发言人展现了一个未来蓝图:未来数据中心包含被动冷却的服务器pod,被放置在没有暖气、通风和空调的建筑物中,或者确保空气流通的窗户。
这个想法听起来并不是那么地牵强。电介质油已经被用于沉浸变压器和其他电力基础设施。ECS是一家采用OpenStack的公司,他们认为OpenStack和Kubernetes可以协调工作负载在多个分散的POD中的位置。再加之固态磁盘很快将在容量方面赶超传统磁盘,所以POD甚至会开始提供便携式存储。
我们认为,这个想法会最终落到密度上,ECS称,POD可以应对一千瓦的套件,这在70厘米的立方体中并不多见。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。