IBM和NASA近日发布了一款人工智能模型,帮助研究人员更快地分析卫星数据。
该模型在Hugging Face上提供,这是一个类似GitHub的流行平台,用于共享开源神经网络。IBM和NASA的下一阶段合作将重点把AI能力扩展到更多用例中,并与马萨诸塞州伍斯特市的克拉克大学合作开展该计划。
IBM研究院AI副总裁Sriram Raghavan表示:“开源技术加速了气候变化等关键领域的发现。”
IBM表示,这种新模型旨在帮助研究人员识别美国大陆可能面临洪水和野火风险的地区,并且分析地理空间数据的速度要比最先进的神经网络快四倍,训练所需的数据也更少。
IBM把这种AI称为一个基础模型,或者说是一个可以执行各种高级计算任务的模型。它基于Transformer架构,一种流行的神经网络设计方法。Transformer模型在推理一段数据时可以考虑大量上下文信息,这使其能够比其他AI系统做出更准确的决策。
这项技术支撑着市场上许多先进的AI系统,其中就包括OpenAI最新的大型语言模型GPT-4。
IBM和NASA在名为Harmonized Landsat Sentinel-2的地理空间数据集上联合训练了他们的模型,这个数据集包括由NASA Landsat-8 卫星拍摄的地球表面图像,以及来自欧洲航天局运营的卫星星座Sentinel-2的测量数据。
IBM使用其内部开发的Vela超级计算机训练这个AI模型。今年早些时候IBM推出的这套系统采用了Nvidia的A100系列数据中心图形芯片,Vela使用的是A100高端版本,具有特别大的板载内存池,用于存储AI模型。
除了Nvidia的芯片之外,Vela超级计算机还配备了IBM开发的虚拟化软件。虚拟化使某些AI开发任务变得更加容易,但这种简单性是以降低处理能力为代价的,不过IBM表示,它将性能影响降低到了5%以下,研究人员将其描述为“我们所知业内最低的开销”。
尽管IBM和NASA优化了他们的模型来检测有洪水和野火风险的区域,但他们估计该模型也可以适用于其他用例,例如跟踪森林砍伐行为,以及帮助研究人员监测碳排放并预测作物产量。
未来,IBM计划进一步扩展AI功能,IBM已经在与NASA和克拉克大学的研究人员合作进行这项工作。
在该计划中,IBM希望优化时间序列分割和相似性研究的模型,这是两种主流的数据分析方法,不仅用于地理空间研究,还用于一系列其他任务,例如,时间序列分割可用于研究股票价格波动的原因。
IBM最终计划通过Watsonx产品套件提供该模型的商业版本。Watsonx产品套件是在今年5月推出的,其中包括了一系列软件工具,旨在帮助企业构建先进的AI模型并将其部署到生产中,此外还有针对各种用例进行优化的预打包神经网络。
Watsonx是由Red Hat OpenShift AI提供支持的,后者是IBM机器学习产品组合中最近推出的另一个组件,是OpenShift应用开发和部署平台的一个版本,专门针对AI工作负载进行了优化,简化了监控生产中运行的机器学习模型的性能等任务。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。