在数据中心内保持服务器的冷却是需要大量电力的,特别是像谷歌等技术巨头运营的大型设施。现在谷歌正试图利用人工智能来削减电费。
谷歌透露,它已经打造了一个专门的AI来自动管理数据中心的复杂冷却设备。据称,该系统自动微调冷却的能力已经让电源效率有了显著提高。
该项目是以谷歌DeepMind AI部门在2016年首次发布的工作成果为基础的。该团队开发了一个系统,可以收集有关冷却设备的运行数据,为工程师提供关于如何优化电力使用的建议。谷歌新推出的AI可以完全接管任务,但出于安全考虑,它是在人工监督下运作的。
系统每五分钟会对数据中心内的冷却设备进行快照,并且会综合数千种不同指标,从设施温度到例如热泵运行速度等更多细节。谷歌的AI根据这些信息来决定采取哪些措施来优化电力消耗。
谷歌写道:“人工智能计算出的最佳行动是经过了由数据中心运营商定义的内部安全约束列表进行审查的。一旦指令从云发送到物理数据中心,本地控制系统就会根据约束条件验证指令,这种冗余检查可确保系统是保持在局部约束范围内运行的,操作员可以完全控制操作边界。”
根据谷歌的说法,总共有八种不同的机制可以确保AI按预期工作。如果出现问题,系统将简单地回退到用于管理冷却系统的预定义自动化规则。
谷歌表示,部署人工智能之后可以让数据中心平均节能30%,这个数字低于2016年开发的推荐系统节能40%,但谷歌解释说,该软件是故意有限制的,以便平衡电源效率和可靠性。此外,谷歌认为随着时间的推移,人工智能收集到的数据越来越多,实现的节能效果也会不断提高。
“很高兴我们的直接人工智能控制系统安全可靠地运行,同时始终如一地实现节能。但是,数据中心只是个开始。从长远来看,我们认为这项技术将有可能应用于其他工业环境中,有助于在更大范围内应对气候变化。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。