随着AI系统从独立模型向自主、代理式系统转型,对信任、透明度和风险感知设计的需求从未如此迫切。这些由大语言模型(LLM)和多代理编排技术驱动的智能代理,正越来越多地做出影响企业、个人及整个社会的决策。然而,我们不能假定这些系统的可信度:它必须在系统层面进行设计、测量和持续强化,而不仅仅是模型层面。
AI可信度的关键驱动力之一是模型供应链透明度——一个允许企业评估和验证复杂系统中使用的AI组件的来源、安全性和一致性的框架。如果无法清晰了解AI模型是如何构建、训练和部署的,就几乎不可能对系统需求进行风险分析。本文探讨了模型供应链透明度为何至关重要,它如何支持代理式AI中的风险对齐,以及设计可信AI生态系统的最佳实践。
AI供应链日益增长的复杂性
现代AI系统不再是一个单一体,而是由多个相互关联的模型、API和组件(包括外部数据源和工具)组成。这种复杂性引入了新的风险因素,包括:
这些挑战凸显了模型供应链透明度的重要性。这就是为什么行业需要标准化AI供应链可见性,确保模型在构建时考虑了问责制和风险对齐。
为什么风险分析对代理式AI至关重要
与传统AI模型按要求提供输出不同,代理式AI系统基于高级目标自主行动。这种从反应式到主动式AI的转变要求新的风险评估方法。部署多代理编排和函数调用框架的企业必须评估:
风险对齐的AI系统不仅简单地执行功能——它理解自己的局限性,沟通不确定性,并在必要时允许人类监督。
提升AI系统可信度的最佳实践
为确保AI系统可信,企业必须在AI生命周期的每个阶段嵌入安全措施。以下最佳实践可提供帮助:
通过整合这些实践,企业可以主动设计信任机制,而非在部署后补救安全功能。从已建立的实施模式来看(例如ThoughtWorks的Martin Fowler和Bharani Subramaniam的《构建生成式AI产品的新兴模式》),在未来几年中,将信任设计元素融入其中并采用相关最佳实践,对于在企业规模成功部署AI而言,将会变得愈发重要。
结论:信任是系统级重要任务
随着AI从模型向系统过渡,企业必须采用整体方法来处理信任和透明度。这需要:
归根结底,信任不是功能,而是基础。为了确保AI系统安全、有效并与人类价值观对齐,我们必须在每个层面为信任展开设计——从数据和模型到决策和部署。
好文章,需要你的鼓励
科技亿万富翁拉里·埃里森资助的研究团队将向英国牛津大学投资1.18亿英镑,用于将AI技术应用于疫苗研究。牛津疫苗研究小组将领导这一项目,研究人体免疫系统对严重细菌感染和抗生素耐药性的反应。该项目由曾主导新冠疫苗试验的安德鲁·波拉德教授领导,计划采用人体挑战模型,让志愿者在受控条件下接触细菌,然后运用现代免疫学和AI工具来精确识别预测保护效果的免疫反应,以开发针对致命疾病的创新疫苗。
伦斯勒理工学院研究团队通过网络科学方法首次系统揭示了大语言模型的内部"认知架构"。研究发现AI模型采用类似鸟类大脑的弱定位架构,模块间通过分布式协作而非专业化分工来处理认知任务。这一发现颠覆了基于功能模块优化的传统思路,指出应充分利用网络级协作来提升AI性能。
据报道,ChatGPT开发商OpenAI计划在印度建设一座耗电量超过1吉瓦的数据中心,目前正寻找当地合作伙伴。该设施预计可容纳至少5.9万片英伟达B200芯片。这可能是OpenAI全球数据中心计划的一部分,旨在为国际用户提供更低延迟服务。OpenAI CEO奥特曼将于下月访问印度,公司还计划年底前在新德里开设办事处。
腾讯和清华研究团队首次从数学理论角度解释了为什么AI需要外部工具。研究证明纯文本AI存在"隐形枷锁",无法突破预训练的能力边界,而工具集成能打破这种限制,让AI获得全新的问题解决策略。团队还开发了ASPO算法,解决了训练AI更早使用工具的技术难题。实验显示配备工具的AI在数学问题上全面超越纯文本版本,展现出三种新奇认知模式,为构建更强大的AI系统提供理论指导。