像云、移动电话时代、元宇宙和现在的人工智能等技术趋势,都依赖于隐藏在表面下的赋能技术。它们的结构完整性取决于这些赋能技术的无缺操作,而在许多情况下,这些赋能技术就是应用程序编程接口(API)。因此,它们的成功取决于API的采用。在快速普及人工智能技术(如生成式人工智能)的领域,这一点尤为明显,这些技术需要一个简单且非常易于使用的界面,让每个人都能够访问该技术。这里的秘密是,这些人工智能工具只是连接到大型语言模型(LLM)的高度复杂和密集工作之上的界面。

重要的是要记住,人工智能模型并不会自己思考,它们只是看起来是这样,以便我们可以以熟悉的方式与它们互动。API实际上是作为人工智能平台的翻译器发挥作用,因为它们在技术层面上相对简单、高度结构化和标准化。大多数人所认为的“人工智能”应该通过API产品的视角来看待;有了这种思维方式,组织可以最好地准备可能的用例,并确保他们的员工具备将其付诸实践的技能。
人工智能和API
精明的工作者已经将ChatGPT整合到他们的日常办公例程中,用于头脑风暴、总结长文本、替代搜索引擎、翻译或撰写例行电子邮件。但是,这些功能受到一个事实的限制,即它依赖于截至2021年的公共数据,这使得在快节奏的商业环境中难以信任。
所有迹象都指向更强大的人工智能模型、多模态人工智能模型(结合文本、语音、图像)以及不断从互动中学习的模型的发展。这些人工智能模型将被公司用于构建面向普通市场的人工智能支持产品,或者作为内部专有的人工智能应用。未来的人工智能应用将在许多方面与ChatGPT等应用程序有所不同。最大的区别在于,公司的数据和功能(通过API访问)与人工智能模型(反过来通过API访问)的集成潜力。对于某些任务,一个先进的人工智能平台甚至可能能够搜索合适的API来完成任务并自动与之交互。当公司的数据和功能通过API可用时,许多用例变得可能,因为它们允许人工智能模型以安全和封闭的方式与专有信息进行交互。例如,人工智能模型与API交互的一些较简单的练习可能是为客户生成个性化电子邮件或回应客户服务请求。更高级的用例将涉及创建新的数字产品和接触点。
值得注意的是,随着人工智能的普及,数据隐私、安全性和安全性将受到更多关注。虽然现在还为时过早来详细说明这将如何发展,但适当的API治理需要提供确切控制这些方面的机制:安全性、数据流、隐私和访问。
推动商业技术专家的崛起
为了实现人工智能解决方案所承诺的效率提升,它们必须无缝地集成到各种业务功能的日常运营中。人们可能会认为将数据和功能打包成易于使用的API是IT部门的领域。传统上,IT部门负责这些集成活动。然而,集中的IT部门通常缺乏业务知识和背景,无法创建有效的API,并且业务需求往往变化太快,超出了他们繁重的工作量,使他们不堪重负。
幸运的是,有一种解决方案,即商业技术专家:具备技术知识以更高效地执行相关集成工作的知识工作者。他们不一定具备编写符合技术架构的可扩展、可靠代码的深层技术技能,而是可以利用低代码开发工具来正确编排和使用API。虽然全球只有2700万开发人员,但有超过10亿知识工作者。将知识工作者提升为商业技术专家将比寻找越来越昂贵的开发人员更容易。希望适当赋予他们权力的组织将需要提供全面的文档、构建和管理解决方案的权限,以及最佳的API,以提供直观的体验。
不要低估API的价值
乍一看,API似乎对人工智能革命无关紧要。人工智能可能看起来像魔法,但在幕后,API对于从LLM请求结果并将平台与现有功能和数据集成起到至关重要的作用。投资于API创新、采用和使用意味着投资于为所有希望确保人工智能将其公司推向新高度的工作者提供强大基础的基础。
Subhash Ramachandran是Software AG产品管理部门的高级副总裁
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。