至顶网软件频道消息:
你的下一代数据中心可能会是一个铝盒子,盒子里的服务器浸泡在油中。
这就是今天在悉尼举行的OpenStack峰会上多家欧洲公司描述的愿景。
其中一家名为Horizon Computing的公司开发的“RuggedPOD”,是一个70cm x 70cm x 70cm的盒子,能够容纳4个微型ATX主板或者8个迷你ITX板卡。所有这些都沉浸在有机电介质油中,这种物质可以传导热量,但不能传导电力,意味着固态元件即使在潮湿的情况下也能工作。与POD外表类似散热片的设计相呼应的是,传导也将让服务器保持在适当的温度。POD足够牢固可以用于室外运转,这也有助于冷却。
POD有两个外部连接:一个是连接电源,一个是连接网络。
另外一家名为Enter Cloud Suite (ECS)的意大利公有云提供商,正在测试一些pod,因为他们认为这种形式是一个运行工作负载又不需要固定基础设施的理想选择。容器等需要的只是运行Kubernetes。如果这恰好是一个被动冷却式的服务器,价格和延迟都比较合理,你还有什么理由不考虑呢?
ECS在这次峰会上的发言人展现了一个未来蓝图:未来数据中心包含被动冷却的服务器pod,被放置在没有暖气、通风和空调的建筑物中,或者确保空气流通的窗户。
这个想法听起来并不是那么地牵强。电介质油已经被用于沉浸变压器和其他电力基础设施。ECS是一家采用OpenStack的公司,他们认为OpenStack和Kubernetes可以协调工作负载在多个分散的POD中的位置。再加之固态磁盘很快将在容量方面赶超传统磁盘,所以POD甚至会开始提供便携式存储。
我们认为,这个想法会最终落到密度上,ECS称,POD可以应对一千瓦的套件,这在70厘米的立方体中并不多见。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。