IBM Think 2024大会:让AI真正为企业所用

如果说去年的关键词是建设与扩建,那么今年,企业已经开始从自己的AI投资当中获益。在短时间内,AI(特别是生成式AI)已经从大多数企业眼中的新兴研究领域,转变为一整套对企业生产力及个人日常生活具有积极影响的现实技术。

最近正是科技企业们的会议季。上个月底,我乘夜间航班前往波士顿参加了IBM的年度盛会Think 2024,这场如风般的旅程也令我获益颇多。

Think大会总能带来丰富的消息,而今年我发现其内容与企业客户的关注重点契合得更为紧密,这进一步证实了我们已经到达AI技术的发展拐点。如果说去年的关键词是建设与扩建,那么今年,企业已经开始从自己的AI投资当中获益。在短时间内,AI(特别是生成式AI)已经从大多数企业眼中的新兴研究领域,转变为一整套对企业生产力及个人日常生活具有积极影响的现实技术。

Krishna对多项技术做出战略展望

在开幕主题演讲中,IBM公司CEO Arvind Krishna重点介绍了他们去年发布的Technology Atlas概念。这项概念通过六大技术路线图审视了混合云、AI、量子计算、自动化、数据及安全多年以来的融合趋势。这些技术正趋近临界点,有望通过自动化、创新及规模化应用提高生产力,进而对业务产生影响。而这样的方式不要说在几十年前,甚至在短短几年前都还无法想象。

Krishna emphasized the intersection of hybrid cloud and AI as an underlying macro trend that creates an inflection point and opportunity for business improvement. Technology has always been used for productivity via automation, helping enterprises become lean. But today there is a shift from being lean to gaining revenue, scale and even more market share. That is a big, albeit subtle, shift.

Krishna强调称,混合云与AI的交汇已经成为潜在的宏观趋势,并为业务改进创造了新的转折点与机会空间。技术一直在以自动化的形式提高生产力,帮助企业拥抱精益。但现如今,精益正进一步向着增加收入、扩大规模和占据市场份额转变。这是一场既宏大,又相当微妙的转变。

这里我要赞扬Krishna对于混合云和AI的关注。四年之前当他初掌IBM之时,混合云还是各方争论的焦点,甚至我本人也参与到了其中。而当时的AI则先后通过机器学习、神经网络和高级分析在市场上站稳了脚跟。Krishna准确预判了趋势,并在约一年之前凭借IBM watsonx平台率先行动。

AI——人人关注的核心议题

主题演讲很快聚焦于AI,这也是IBM本届大会上的重点。Krishna斩钉截铁地将AI与其他历史上推动世界进步并拉动GDP的基础技术进行了比较,例如蒸汽机、电力和互联网。Krishna提到,到2030年,AI每年将为美国的GDP贡献约4万亿美元增长额,这一惊人数字反映的是全体AI技术用户有望实现的潜在价值。但他同时援引历史经验,表示要想实现这样的目标,除实验之外还需要做更多探索。我们需要的是部署方向的重大转变,而这也正是IBM下阶段战略的核心。

要想让部署真正起效,首先需要提升业务规模——以系统形式从小型项目逐步扩展至企业规模。例如,真正释放企业内部生产力,就必须打通从供应链到前端、再到全渠道营销及分销的整个体系。与此同时,部署在整个企业的AI则将以助手的形式增强人类技能与洞见,进而全面拉高生产力水平。

以这些宏大主题为背景,Krishna为IBM公司的新一波公告做好了暖场。

扩大IBM的自动化产品组合

随着技术资产在多种公有云、SaaS及内部应用中逐步普及,是时候将AI引入IT运营以更好地管理这种趋势了。配合正确的数据,AI几乎可以帮助监控一切运营方面的状态,并在发生问题时加以诊断。

新的IBM Concert是一套由AI驱动的生成工具集,用以识别、预测并解决问题,从而显著降低风险并简化合规流程。为了将此工具融入上下文,Concert被设计为一套可观察性平台。在watsonx.ai的支持下,IBM Concert能够与现有系统相集成,并与云端数据、源代码repo、CI/CD管线乃至其他可观察性解决方案对接,最终构成接入应用程序的360度全景视图。Concert消除了大量非必要任务,帮助IT团队得以更快、更敏锐地了解情况,甚至在某些情况下能够在问题实际发生前就出手解决。

加速AI解决方案部署

作为对watsonx.ai用户们反馈的响应,即“我们需要一体化的智能助手”,IBM推出了新的AI Assistants套件,旨在加快学习并增强生产力。其中包括面向企业级Java应用程序的watsonx Code Assistant for Enterprise Java Applications(计划于10月发布);面向Z大型机的watsonx Assistant for Z,可帮助不具备Z技能的雇员快速学习并提高平台上的生产力;面向编码开发的watsonx Assistant for Code,能够与COBOL及Ansible相兼容。除了这些技术层面的产品,还有其他面向业务功能的watsonx Assistants,包括客户服务、人力资源与营销等等。

除了这些特定领域的产品之外,IBM本周还发布了Asistant Builder,允许企业客户构建自己的定制化助手,在IBM官方助手之外实现更加灵活的业务功能。

推动大语言模型相关开源创新

如今,人们高度关注对AI模型的评估,特别是希望能在正确的用例当中使用正确的模型。从数据的角度看,大量公共数据已经进入这些大模型,但却几乎没有企业数据能够顺利流入模型。因为直到最近,客户还找不到将企业数据安全纳入大模型的方法。

但凭借其Granite AI模型,IBM为企业提供了数据开放性与透明度保障,甚至附有赔偿条款。本周,IBM宣布将开源Granite模型,其规模完美契合企业定制化应用场景,参数范围在30亿到340亿之间。这些开源模型的性能优于HumanEvalPack中的其他开源模型,因此对开发人员来说意义重大。另外值得补充的是,IBM最值得称赏的不只是对模型开源,还包括其率先为客户提供赔偿条款——这一举措已经被其他厂商纷纷效法。

简化AI模型训练是企业客户面临的另一个紧迫问题,因为这项工作既困难重重又成本高昂。IBM正与旗下红帽部门共同打造InstructLab,允许开发人员使用内部数据针对特定业务领域或行业快速构建起专用模型。这些开源贡献将与watsonx.ai及新的Red Hat Enterprise Linux AI解决方案相集成。RHEL AI将提供面向企业的InstructLab版本以及开源Granite模型。我们目前正在研究InstructLab,乍看之下这似乎属于从零开始自建模型与无休止做模型调优之间的一种折衷方案。

扩大面向Watsonx的生态系统访问

IBM在合作伙伴关系与集成方面也投入了大量资金,希望帮助客户轻松灵活地将第三方模型引入watsonx,同时允许软件厂商能够在自家产品中嵌入watsonx功能。从中我们也能窥见IBM的思路:在生成式AI领域,市场需要的绝不仅能是单一供应商的方案。换言之,必须要为企业客户提供丰富的选择范围,帮助他们推动创新、根据特定业务需求定制模型、优化成本并降低模型风险。IBM在这方面的合作伙伴包括亚马逊云科技、Adobe、Meta、微软、Mistral AI、Oalo Alto Networks、SAP、Salesforce以及SDAIA。请注意,与自有模型一样,如果客户在其平台上使用第三方模型,则IBM也将为其提供赔付保障。

随着AI技术的发展,在治理当中保障政策与标准的践行落地已经成为一大优先事项。也正因为如此,IBM才与亚马逊云科技合作开发出集成化AI治理服务watsonx.governance。这项服务目前已经被纳入Amazon SageMaker服务,后者用于构建、训练和部署机器学习模型。二者的结合,为AI/机器学习模型提供了风险管理与法条合规方面的有力保障。

IBM与Adobe之间的长期合作,则是IBM在伙伴关系及技术集成方面精心经营的又一典型案例。目前双方合作的最新成果是Adobe Experience Platform与IBM watsonx的联动。前者允许企业客户以标准化方式集中来自不同来源的客户数据,而如今在IBM watsonx AI功能的增强之下,其能够提供更准确、更具可操作性的洞察结论。

IBM的战略是通过轻松嵌入生成式AI,让watsonx在大大小小的合作伙伴当中遍地开花。IBM通过向ISV和MSP伙伴提供watsonx的三大组件来实现这一目标,分别为watsonx.ai(基础模型工具)、watsonx.data(生成式AI的开放数据存储方案)以及watsonx.governance(以负责任方式保障合规)。

让企业轻松实现AI落地

如果用一句话来总结本届Think 2024大会,我会说IBM正致力于让AI真正为企业所用。在Krishna的领导下,IBM率先将企业级AI推向市场,并不断完善其功能组合。

从企业角度来看,IBM可以为AI的严肃实践提供一个更具吸引力的起点,这与微软、谷歌等超大规模基础设施运营商立足云端提供训练和推理服务的主流方法有所区别。在IBM的帮助下,企业客户能够以红帽、Granite和InstructLab开始,立足本地开展自己的AI探索。考虑到75%的企业数据仍存储在本地或边缘位置,让模型靠近数据、而非让数据靠近模型确实是个极具现实意义的决定。这一切从使用公共数据训练的开源模型(如Granite)开始,之后再结合内部企业数据进行微调。

IBM的方法与微软和谷歌等超大规模基础设施运营商采取的“超级大模型”思路存在本质区别。封闭式大语言模型对企业客户而言存在着根本缺陷,因为其训练数据和开发过程均不公开。这就导致模型得出输出结果的过程难以解释,大大增加了发现并解决错误或潜在偏差/偏见的难度。

相比之下,IBM提倡以开源方式开发大语言模型,其中用于训练模型的底层代码和数据都是公开的。这样做的目的在于促进协作并提高透明度,从而更广泛地应用并改进大模型及其支持技术。

InstructLab可以说在当今企业面对的两种极端选项之间,提供了良好的中间地带。其中一端是具有检索增强生成(RAG)的超级大模型,能够帮助企业完成90%的工作;而另一端则是专有小模型,成本高昂且复杂。使用InstructLab,大家可以创建自己的定制专有模型并同时执行RAG,实际效果绝对令人印象深刻。

此外,IBM以开发者为中心的行动还有望掀起新一轮创新浪潮。通过将开源模型嵌入RHEL AI当中,InstructLab能够满足全球数百万Linux用户的需求。而这只是IBM截至目前,为开发人员提供的海量潜在工具包与功能的阶段性产物。至于未来还将激发怎样的创造力和突破性思维,我们只能说一切皆有可能。

我之前提到,Krishna反复强调混合云与AI的融合代表一股潜在的宏观趋势。AI正在加速混合云的落地,而采用混合云的客户则发现,只有依托于强大的架构才能完成从试点到生产、再到后续扩展的整个应用流程。IBM对待AI开源的态度,就如同其对待Linux和OpenShift的态度一样,主张以技术普及的方式摊薄其实现成本。

时至今日,世界各地的组织和技术社区都对拥抱AI、参与AI充满了热情。IBM的这份最新公告明显把握住了这股热情,希望为开发者社区(乃至最终的商业用户)提供一种为AI做出独特贡献、并提供持续创新驱力的有效工具。

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2024

06/07

17:26

分享

点赞

邮件订阅