Meta(前身为Facebook)一直致力于使用机器学习技术来应对气候变化并提高工业系统的效率。近日Meta宣布,将使用人工智能解决气候变化问题并开发相应的工程解决方案。
这次公布的举措之一包括Open Catalyst项目,是Meta AI与卡内基梅隆大学化学工程系合作进行的项目,通过把AI研究人员聚集在一起设计出新的机器学习模型,用于预测能源储备的新型化学反应。
例如,在可再生能源方面,太阳能和风能依赖于持续的光照和风来进行发电,如果长时间没有晴天或者大风的情况下,发电量就会下降,这就需要建造能量储存器(通常是电池)来吸收多余的能量,以便在非高峰时段进行输送。
Open Catalyst首席研究科学家Larry Zitnick表示:“问题在于,电池作为存储介质并不能很好地进行扩展,我们需要找到一种实际上能可扩展能源的存储方法,这就是Open Catalyst项目真正发挥作用的地方。”
Open Catalyst项目提供了用于发现化学催化剂的数据集,用于为可再生能源网络构建更便宜、更加可扩展的电池。Zitnick表示,在研究团队的不断努力下,Open Catalyst已经打造出了全球规模最大的可再生能源存储材料训练数据集。
据Zitnick称,可能有多达数百万种不同的材料组合需要他们在实验室进行测试,而现实情况是他们的测试速度仅为每年1000种。这对人类来说是一个缓慢而艰巨的过程。但是,Open Catalyst项目拥有超过800万个数据点和对4万个不同材料的模拟,可以为研究人员提供大规模的实验支持。
他还补充说,该系统可以通过计算机的算例在几秒钟内进行“强力”模拟,相比之下其他系统往往需要几天的时间才能找到可行的优化,然后研究人员再在实验室对其进行测试。
使用AI应对气候危机的另一个重要方面是其自身基础设施和能源需求的效率。Meta高级研究员Mike Schroepfer写道,Meta公司在全球范围内的运营是100%由可再生能源支撑的,但效率仍然至关重要,目前Meta正在探索Green AI模型。
Schroepfer表示:“Meta和整个行业的研究人员目前正在探索多种Green AI的方法,包括开发测量AI系统能源效率所需的标准,以及大规模运行AI所需的算法和计算硬件。”
在资源效率和使用方面,大规模AI模型优化是一大问题,尤其是在构建强大的AI模型并且需要针对不断增长的复杂数据集进行训练方面。Meta AI团队最近发表的一篇论文强调了在这样规模数据集下所带来的巨大挑战。
在一项实验中,研究人员能够找到多种优化手段,将用于语言翻译的基础设施资源减少800倍。这种级别的算法优化和性能提升的潜力,将使用AI进行自然语言处理、翻译,以及在平台上使用AI所造成的排放产生重大影响。
Schroepfer在谈到Green AI项目的进展和Meta团队目前开展的工作时表示:“我们很乐观地看待AI将给气候和可持续性带来的影响,以及我们研究人员和工程师在构建AI方面所发挥的作用。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。