IBM声称将通过定制化芯片降低云端的AI模型运行成本,从而把握目前ChatGPT等生成模型掀起的市场热潮、扩大自身获利空间。
各大科技企业近期显然都希望能利用ChatGPT引起的AI关注度,但从种种现状来看,这种关注似乎正有转弱的趋势。OpenAI网站的流量在5月至6月期间估计下降了10%。
IBM表示,正在考虑使用内部原研的定制化AI芯片来降低云端Watsonx服务的运营成本。
今年5月发布的Watsonx是一款由三种产品组成的套件,专为希望借基础模型和生成式AI之力自动化/加速工作负载处理的企业客户而设计,且均能够在多种公有云及本地设施上运行。
IBM公司的Mukesh Khare在接受路透社采访时称,该公司目前正计划使用名为人工智能单元(AIU)的芯片支持IBM Cloud上运行的Watsonx服务。谈到蓝色巨人之前在Watson系统上遭遇的失败,他将原因归结于成本过高,并声称通过AIU的引入,IBM将有望发挥这些芯片的高能效优势、降低云端AI处理成本。
AIU于去年10月首次亮相,是一款具有 32个处理核心的专用集成电路(ASIC)。IBM称其衍生自支持z16大型机设备的Telum芯片中的AI加速器版本,能够接入任意计算机或服务器上的PCIe插槽。
与此同时,亚马逊也表示希望通过价格竞争吸引更多客户使用其AWS云平台,并宣布将提供更低的AI模型训练和运营成本。
云巨头AWS应用副总裁Dilip Kumar表示,ChatGPT等服务背后的AI模型需要大量算力方可实现训练和运营。而亚马逊云科技多年来积累下的核心经验,正是如何持续降低这方面成本。
据估计,ChatGPT可能用到超过570 GB的数据集进行训练,且配合使用超1000个英伟达A100 GPU。
Kumar在此前于奥斯汀举办的Momentum大会上评论称,最新一代AI模型的训练成本明显相当高昂,“而我们一直在承载大量无差别繁重工作,希望能帮助客户降低运营成本。”
Kumar认为,已经有很多组织将数据存储在AWS当中,所以选择亚马逊的AI服务也就成了顺理成章的决定。毕竟如果要将数据发送至其他应用环境,客户还得额外支付数据出口费。
但也有部分专家认为,云服务商可能还没做好满足AI服务新需求的准备。《华尔街日报》指出,新一代生成式AI模型的体量往往是上代模型的10到100倍,而且需要GPU等加速器基础设施协助加快处理速度。
亚马逊AWS EC2产品管理总监Chetan Kapoor也承认,在公有云服务商运营的基础设施当中,只有一小部分属于配备此类加速器的高性能节点。由于处理AI任务离不开这些加速器的加持,所以“供需之间存在相当严重的失衡”。
但这并没有阻挡各家云服务商扩展AI产品的脚步。Kapoor表示,AWS打算在明年扩大其AI优化型服务器集群,而微软Azure和Google Cloud据说也将新增AI基础设施。
微软去年还宣布与GPU制造商英伟达建立合作伙伴关系,双方将共同为Azure增添数万个英伟达A100和H100 GPU,为基于GPU的服务器实例和英伟达AI软件栈提供支持。
就连VMware也不甘落后,本周公布最新计划,将让生成式AI运行在其平台之上。如此一来,客户将能够轻松在VMware环境中高效操作大语言模型,甚至灵活调动跨多种云的基础设施资源。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
苹果在iOS 26公开发布两周后推出首个修复更新iOS 26.0.1,建议所有用户安装。由于重大版本发布通常伴随漏洞,许多用户此前选择安装iOS 18.7。尽管iOS 26经过数月测试,但更大用户基数能发现更多问题。新版本与iPhone 17等新机型同期发布,测试范围此前受限。预计苹果将继续发布后续修复版本。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。