IBM和NASA近日发布了一款人工智能模型,帮助研究人员更快地分析卫星数据。
该模型在Hugging Face上提供,这是一个类似GitHub的流行平台,用于共享开源神经网络。IBM和NASA的下一阶段合作将重点把AI能力扩展到更多用例中,并与马萨诸塞州伍斯特市的克拉克大学合作开展该计划。
IBM研究院AI副总裁Sriram Raghavan表示:“开源技术加速了气候变化等关键领域的发现。”
IBM表示,这种新模型旨在帮助研究人员识别美国大陆可能面临洪水和野火风险的地区,并且分析地理空间数据的速度要比最先进的神经网络快四倍,训练所需的数据也更少。
IBM把这种AI称为一个基础模型,或者说是一个可以执行各种高级计算任务的模型。它基于Transformer架构,一种流行的神经网络设计方法。Transformer模型在推理一段数据时可以考虑大量上下文信息,这使其能够比其他AI系统做出更准确的决策。
这项技术支撑着市场上许多先进的AI系统,其中就包括OpenAI最新的大型语言模型GPT-4。
IBM和NASA在名为Harmonized Landsat Sentinel-2的地理空间数据集上联合训练了他们的模型,这个数据集包括由NASA Landsat-8 卫星拍摄的地球表面图像,以及来自欧洲航天局运营的卫星星座Sentinel-2的测量数据。
IBM使用其内部开发的Vela超级计算机训练这个AI模型。今年早些时候IBM推出的这套系统采用了Nvidia的A100系列数据中心图形芯片,Vela使用的是A100高端版本,具有特别大的板载内存池,用于存储AI模型。
除了Nvidia的芯片之外,Vela超级计算机还配备了IBM开发的虚拟化软件。虚拟化使某些AI开发任务变得更加容易,但这种简单性是以降低处理能力为代价的,不过IBM表示,它将性能影响降低到了5%以下,研究人员将其描述为“我们所知业内最低的开销”。
尽管IBM和NASA优化了他们的模型来检测有洪水和野火风险的区域,但他们估计该模型也可以适用于其他用例,例如跟踪森林砍伐行为,以及帮助研究人员监测碳排放并预测作物产量。
未来,IBM计划进一步扩展AI功能,IBM已经在与NASA和克拉克大学的研究人员合作进行这项工作。
在该计划中,IBM希望优化时间序列分割和相似性研究的模型,这是两种主流的数据分析方法,不仅用于地理空间研究,还用于一系列其他任务,例如,时间序列分割可用于研究股票价格波动的原因。
IBM最终计划通过Watsonx产品套件提供该模型的商业版本。Watsonx产品套件是在今年5月推出的,其中包括了一系列软件工具,旨在帮助企业构建先进的AI模型并将其部署到生产中,此外还有针对各种用例进行优化的预打包神经网络。
Watsonx是由Red Hat OpenShift AI提供支持的,后者是IBM机器学习产品组合中最近推出的另一个组件,是OpenShift应用开发和部署平台的一个版本,专门针对AI工作负载进行了优化,简化了监控生产中运行的机器学习模型的性能等任务。
好文章,需要你的鼓励
Xbox 部门推出了名为 Muse 的生成式 AI 模型,旨在为游戏创造视觉效果和玩法。这一举措反映了微软全面拥抱 AI 技术的战略,尽管游戏开发者对 AI 持谨慎态度。Muse 不仅可能提高游戏开发效率,还有望实现老游戏的现代化改造,但其实际效果和对行业的影响仍有待观察。
Sonar收购AutoCodeRover,旨在通过自主AI代理增强其代码质量工具。这项收购将使Sonar客户能够自动化调试和问题修复等任务,让开发者将更多时间用于改进应用程序而非修复bug。AutoCodeRover的AI代理能够自主修复有问题的代码,将与Sonar的工具集成,提高开发效率并降低成本。
人工智能正在推动数据中心的变革。为满足 AI workload 的需求,数据中心面临前所未有的电力消耗增长、散热压力和设备重量挑战。应对这些挑战需要创新的解决方案,包括 AI 专用硬件、可再生能源、液冷技术等。同时,数据中心还需平衡监管压力和社区关切。未来数据中心的发展将决定 AI 技术能否实现其变革性潜力。