IBM的研究人员设计了他们所谓的世界上第一块人工智能加速器芯片,该芯片基于高性能7纳米技术,同时实现了高水平的能源效率。
参加此项研究的IBM研究人员Ankur Agrawal和Kailash Gopalakrishnan在互联网固态电路虚拟大会(International Solid-State Circuits Virtual Conference)推出了这款四核芯片,并且在最近的一篇博客文章中,披露了更多关于该技术的细节。尽管仍处于研究阶段,这款加速器芯片有望能够支持各种人工智能模型,并实现“领先的”电源效率。Agrawal和Gopalakrishnan表示:“这种节能的人工智能硬件加速器可以显著提高计算能力,包括在混合云环境中也是如此,而且不需要消耗大量的能量。”
人工智能加速器是一类硬件,顾名思义,这种硬件就是为了加速人工智能模型而设计的。通过提高算法的性能,这类芯片可以提升自然语言处理或者计算机视觉之类的数据密集型应用的结果。
但是,随着人工智能模型复杂程度的增加,支撑算法系统的硬件运行所需的电量也随之增加。这两位IBM的研究人员写道:“从历史上看,该领域已经接受了这样的关联:如果计算的需求量很大,那么需要的能耗也会很大。”
IBM的研究部门一直在为芯片创造新的设计,让它们能够处理复杂的算法而又不会增加碳足迹。挑战的关键在于设计出一种不需要消耗过高能量,但又不会牺牲计算能力的技术。
一种方法是在加速器芯片中采用降低精度的技术,这些技术已被证明可以帮助深度学习训练和推理,同时又只需要更少的硅面积和能耗,这意味着训练人工智能模型所需的时间和能耗可以显著降低。
IBM研究人员展示的新芯片针对低精度培训进行了高度优化。它是第一款采用被称为混合FP8格式的超低精度技术的硅芯片。FP8格式是IBM开发的一种八位训练技术,可以在图像分类、语音和对象检测等深度学习应用中保持模型精度。
此外,由于配备了集成的电源管理功能,该加速器芯片可以将自身性能最大化,例如,通过在高功耗的计算阶段降速来实现这一点。
该芯片还具有很高的利用率,实验表明训练利用率超过80%,推理利用率达到60%——据IBM的研究人员称,这一数字远远高于典型的GPU利用率(通常低于30%)。这一特性再次转化为更好的应用性能,这也是该芯片设计中提高能效的关键部分。
Agrawal和Gopalakrishnan表示,这些特性加在一起,让这款芯片不仅在能效方面“最先进”,而且在性能方面也是“最先进”的。研究人员们将该技术同其他芯片进行了比较,得出了结论:“我们芯片的性能和能效超过了其他专用的推理和训练芯片。”现在,研究人员希望这些设计可以扩大规模并进行商业部署,以支持复杂的人工智能应用。包括从语音到文本人工智能服务和金融交易欺诈检测等大规模云深度培训模型。
边缘应用也可能会找到IBM新技术的用途,自动驾驶车辆、安全摄像头和移动电话都可能会受益于功耗更低的高性能人工智能芯片。
研究人员们表示:“为了推动人工智能淘金热,我们一直在改善人工智能硬件技术的核心:支持深度学习的数字化人工智能核心,这是人工智能的关键推动因素。” 随着人工智能系统在所有行业中的广泛应用,这种承诺很难被视而不见。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。