在数据中心内保持服务器的冷却是需要大量电力的,特别是像谷歌等技术巨头运营的大型设施。现在谷歌正试图利用人工智能来削减电费。
谷歌透露,它已经打造了一个专门的AI来自动管理数据中心的复杂冷却设备。据称,该系统自动微调冷却的能力已经让电源效率有了显著提高。
该项目是以谷歌DeepMind AI部门在2016年首次发布的工作成果为基础的。该团队开发了一个系统,可以收集有关冷却设备的运行数据,为工程师提供关于如何优化电力使用的建议。谷歌新推出的AI可以完全接管任务,但出于安全考虑,它是在人工监督下运作的。
系统每五分钟会对数据中心内的冷却设备进行快照,并且会综合数千种不同指标,从设施温度到例如热泵运行速度等更多细节。谷歌的AI根据这些信息来决定采取哪些措施来优化电力消耗。
谷歌写道:“人工智能计算出的最佳行动是经过了由数据中心运营商定义的内部安全约束列表进行审查的。一旦指令从云发送到物理数据中心,本地控制系统就会根据约束条件验证指令,这种冗余检查可确保系统是保持在局部约束范围内运行的,操作员可以完全控制操作边界。”
根据谷歌的说法,总共有八种不同的机制可以确保AI按预期工作。如果出现问题,系统将简单地回退到用于管理冷却系统的预定义自动化规则。
谷歌表示,部署人工智能之后可以让数据中心平均节能30%,这个数字低于2016年开发的推荐系统节能40%,但谷歌解释说,该软件是故意有限制的,以便平衡电源效率和可靠性。此外,谷歌认为随着时间的推移,人工智能收集到的数据越来越多,实现的节能效果也会不断提高。
“很高兴我们的直接人工智能控制系统安全可靠地运行,同时始终如一地实现节能。但是,数据中心只是个开始。从长远来看,我们认为这项技术将有可能应用于其他工业环境中,有助于在更大范围内应对气候变化。”
好文章,需要你的鼓励
微软推出 Copilot+ PC 标准,要求配备高性能 NPU,引发 AI PC 市场格局变化。英伟达虽在数据中心 AI 领域占主导,但在 PC 端面临挑战。文章分析了英伟达的 AI PC 策略、NPU 与 GPU 的竞争关系,以及未来 GPU 可能在 Copilot+ 功能中发挥作用的前景。
专家预测,随着人工智能技术的迅速发展和广泛应用,2025 年可能成为 AI 泡沫破裂的关键一年。尽管 AI 仍有望在多模态模型和自动机器学习等领域取得突破,但技术瓶颈、投资回报率下降、监管趋严以及环境和伦理问题等因素可能导致 AI 热潮降温。未来 AI 发展将更注重平衡和可持续性。
研究表明,现有的公开 AI 模型在描述大屠杀历史时过于简单化,无法呈现其复杂性和细微之处。研究人员呼吁各相关机构数字化资料和专业知识,以改善 AI 对这段历史的理解和表述。他们强调需要在 AI 系统中加入更多高质量的数据,同时在审查和信息获取之间寻求平衡。
Google 推出名为 Titans 的新型 AI 架构,是 Transformer 的直接进化版。Titans 引入了神经长期记忆、短期记忆和基于惊喜的学习系统,使 AI 更接近人类思维方式。这一突破性技术有望彻底改变 AI 范式,推动机器智能向人类认知迈进一大步。