IBM声称将通过定制化芯片降低云端的AI模型运行成本,从而把握目前ChatGPT等生成模型掀起的市场热潮、扩大自身获利空间。
各大科技企业近期显然都希望能利用ChatGPT引起的AI关注度,但从种种现状来看,这种关注似乎正有转弱的趋势。OpenAI网站的流量在5月至6月期间估计下降了10%。
IBM表示,正在考虑使用内部原研的定制化AI芯片来降低云端Watsonx服务的运营成本。
今年5月发布的Watsonx是一款由三种产品组成的套件,专为希望借基础模型和生成式AI之力自动化/加速工作负载处理的企业客户而设计,且均能够在多种公有云及本地设施上运行。
IBM公司的Mukesh Khare在接受路透社采访时称,该公司目前正计划使用名为人工智能单元(AIU)的芯片支持IBM Cloud上运行的Watsonx服务。谈到蓝色巨人之前在Watson系统上遭遇的失败,他将原因归结于成本过高,并声称通过AIU的引入,IBM将有望发挥这些芯片的高能效优势、降低云端AI处理成本。
AIU于去年10月首次亮相,是一款具有 32个处理核心的专用集成电路(ASIC)。IBM称其衍生自支持z16大型机设备的Telum芯片中的AI加速器版本,能够接入任意计算机或服务器上的PCIe插槽。
与此同时,亚马逊也表示希望通过价格竞争吸引更多客户使用其AWS云平台,并宣布将提供更低的AI模型训练和运营成本。
云巨头AWS应用副总裁Dilip Kumar表示,ChatGPT等服务背后的AI模型需要大量算力方可实现训练和运营。而亚马逊云科技多年来积累下的核心经验,正是如何持续降低这方面成本。
据估计,ChatGPT可能用到超过570 GB的数据集进行训练,且配合使用超1000个英伟达A100 GPU。
Kumar在此前于奥斯汀举办的Momentum大会上评论称,最新一代AI模型的训练成本明显相当高昂,“而我们一直在承载大量无差别繁重工作,希望能帮助客户降低运营成本。”
Kumar认为,已经有很多组织将数据存储在AWS当中,所以选择亚马逊的AI服务也就成了顺理成章的决定。毕竟如果要将数据发送至其他应用环境,客户还得额外支付数据出口费。
但也有部分专家认为,云服务商可能还没做好满足AI服务新需求的准备。《华尔街日报》指出,新一代生成式AI模型的体量往往是上代模型的10到100倍,而且需要GPU等加速器基础设施协助加快处理速度。
亚马逊AWS EC2产品管理总监Chetan Kapoor也承认,在公有云服务商运营的基础设施当中,只有一小部分属于配备此类加速器的高性能节点。由于处理AI任务离不开这些加速器的加持,所以“供需之间存在相当严重的失衡”。
但这并没有阻挡各家云服务商扩展AI产品的脚步。Kapoor表示,AWS打算在明年扩大其AI优化型服务器集群,而微软Azure和Google Cloud据说也将新增AI基础设施。
微软去年还宣布与GPU制造商英伟达建立合作伙伴关系,双方将共同为Azure增添数万个英伟达A100和H100 GPU,为基于GPU的服务器实例和英伟达AI软件栈提供支持。
就连VMware也不甘落后,本周公布最新计划,将让生成式AI运行在其平台之上。如此一来,客户将能够轻松在VMware环境中高效操作大语言模型,甚至灵活调动跨多种云的基础设施资源。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。