麦肯锡公司合伙人Bhargs Srivathsan近日在新加坡召开的会议上表示,只要运用得当,生成式AI技术有望将云迁移工作量减少30%到50%。
Srivathsan认为,“目前的进度只能说才刚刚迈出第一步。随着大语言模型(LLM)的发展成熟,将工作负载迁移至公有云的时间表将不断缩短、迁移过程效率也能随之提升。”
她建议组织先使用大语言模型对系统内的基础设施进行摸底,解析其中的短板与优势,再在工作负载转移完成后继续应用AI工具查看迁移是否切实有效。
另外,还可以利用大语言模型完成更多相关工作,例如编写架构审查委员会指南等说明材料。
这位合伙人表示,尽管不少企业才刚刚开始考虑采用AI技术,但麦肯锡所投资的企业中已经有40%在更新其IT投入。
Srivathsan认为,生成式AI与云之间属于“共生”关系。
“必须承认,如果没有公有云的普及、就不可能把生成式AI真正带入生活。而与之对应,生成式AI也能切实加快公有云迁移、并帮助用户从原有公有云中解锁脱离。”
在Srivathsan看来,生成式AI的四大核心用例分别是内容生成、客户参与、创建合成数据、以及编写代码。当然,这里的编写代码并非从零开始完成软件开发。生成式AI的编码能力主要体现在接手员工离职后无人熟悉的遗留代码,或者是将原有代码转换为新的语言形式。
她还强调,之所以说公有云比尝试内部自建模型更加靠谱,是因为企业用户往往不具备充足的GPU储备。而且市面上现成商用模型的成本也比自行训练更加低廉。
Srivathsan指出,对于身处受监管行业、掌握大量专有数据或者担心知识产权遭到侵犯的用户,还可以设置相应的护栏。
在她看来,大语言模型在未来五、六年时间内将主要运行在超大规模基础设施环境当中,直到模型发展成熟。而且跟很多人想象中不同,其实生成式AI的实现并不一定压根那么夸张的算力储备,毕竟很少有用例会对延迟提出如此严苛的要求。
也就是说,除非是特斯拉上运行的自动驾驶功能、或者负责指挥制造车间实时运行的软件,否则确实没必要把硬件堆得太满。
另外,多数情况下也没必要使用定制或大规模模型。
这位麦肯锡合伙人评论称,“很多企业都以为自己需要买辆超级跑车来送披萨。当然用不着喽,真正符合需求的模型往往没那么复杂、也没那么大。举例来说,生成客服支持脚本肯定没必要动用650亿参数的大体量模型。”
但她同时给出建议,如果开发人员正在访问自己本不该接触到的非专有模型或数据,则务必要在组织内外之间添加API网关来建立起“实时警报”机制。
好文章,需要你的鼓励
Indeed通过云原生和数据驱动的数字化转型,为AI时代做好了准备。公司CIO Anthony Moisant表示,他们不仅在采用AI,更在构建一个智能代理公司,将人类智慧与机器智能相结合。公司已完成从本地服务器向AWS的迁移,建立了统一的数据湖架构,并基于Apache Iceberg构建数据湖仓。目前已有4个Salesforce代理投入生产,6个内部智能产品上线,另有20多个代理正在开发中。
微软研究院团队开发的BitNet v2技术实现了AI大语言模型的重大突破,通过创新的H-BitLinear模块和哈达玛变换技术,成功将模型激活精度从8位降低到4位,同时保持了几乎相同的性能表现。这项技术显著提高了模型的计算效率和硬件利用率,为AI模型在边缘设备和批量推理场景中的部署开辟了新道路,有望推动AI技术的更广泛普及应用。
AI第四代生成式AI标志着技术范式转变,正在用户体验、应用自动化和平台三个层面为企业带来重大价值和颠覆。企业应关注商业价值而非技术本身,需要从业务问题出发量化价值。未来五年将在认知任务处理上取得巨大进展,但需要创新思维应对劳动力转型。六大颠覆性支柱包括下一代AI能力、数据平台、机器人技术、量子计算、企业用户体验和云架构等。
伊利诺伊大学香槟分校研究团队提出ToolRL方法,通过精细的奖励机制训练大语言模型正确使用工具。该方法突破传统监督微调局限,采用格式奖励和正确性奖励相结合的评估体系,在多个基准测试中相比基础模型提升17%,相比传统方法提升15%,显著改善了模型的工具使用能力和泛化性能。