今天IBM公布了一款新软件,称其更容易训练机器学习模型,以便做出决策和从大数据中提取洞察。
这款名为Deep Learning Impact的软件工具,帮助用户开发的AI模型可使用流行的开源、深度学习框架,例如TensorFlow和Caffee,而且从12月开始这款工具将被添加到IBM的Spectrum Conductor软件中。
除了公布新软件之外,IBM还提到了基于Power9处理器的新系统,IBM在今年SC17大会上进行了展示。
IBM表示,这些系统是针对AI工作负载量身定制的,因为这些系统可以在Power9 CPU和硬件加速器(例如GPU和FPGA)之间加速传输数据,通常这些加速器是用与训练和运行机器学习模型的。
Power9系统还将在Power9处理器以及系统中其他加速器之间的高带宽连接。IBM表示,Power9将成为首个片上支持最新高速连接器(包括Nvidia下一代NVLink、OpenCAPI 3.0和PCIe 4.0)的商用平台。
IBM公司副总裁、认知系统开发研究员Brad McCredie表示:“我们看你到片上微处理器——处理片上集成——的时代正在终结,摩尔定律也将消失。”
“Power9让我们有机会尝试新的架构设计,通过跨系统堆栈实现数据带宽最大化,从而推动计算打破当前的限制。”
“Power9的基石是一个内部的信息高速公路,将处理进行分离,强化高级加速器来消化和分析海量数据集。”
下一代Nvidia NVLink和OpenCAPI互连将让附加GPU的性能明显高于x86系统中普遍采用的PCIe 3.0连接器所能实现的性能,而PCIe 4.0互连的速度将是PCIe 3.0的2倍。
IBM称,这个新的Power9系统最大的亮点,就是为美国能源部构建的Summit和Sierra超级计算机,也采用了Nvidia最新基于Volta的Tesla GPU加速器。Summit超级计算机预计性能将提升到是DOE Titan超级计算机的5到10倍。
IBM的重点是为可以有效处理多种类型芯片之间处理的系统奠定基础,这也是与Google、Mellanox、Nvidia和其他OpenPower Foundation成员共同努力的部分结果。
今年早些时候,IBM高级副总裁Bob Picciano谈到了IBM将如何计划打造能够更好地解决与使用AI分析非结构化数据相关工作负载的系统。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。