IBM与Red Hat、Meta、英特尔、AMD以及ServiceNow等科技巨头近日表示,正在与跨企业、学术界和政府的40多个其他组织联手制定新的人工智能发展全球倡议。
这个名为AI Alliance的新组织旨在鼓励AI开发中的开放创新和开放科学,提出这一倡议的背后,是为了帮助塑造AI的发展,使其能够更好地反映世界社会的需求和复杂性。
AI Alliance的创始成员在声明中表示,AI的快速发展正在全球各地创造新的机遇,可以改善人们工作、生活、学习和互动的方式,要很好地利用这一点,则需要开放和透明的创新来为尽可能广泛的AI研究人员、构建者和采用者提供支持,以便为他们提供以优先考虑安全性、多样性和经济机会的方式利用AI所需的所有工具。
该联盟并没有批评OpenAI等行业领导者采取的高度保密的AI系统构建方法,而是简单地表示,更多的协作和信息共享可以帮助AI社区以更具包容性的方式更快地开展创新。联盟表示,开放的AI开发方法还将有助于发现AI开发带来的具体风险,有助于在危险系统发布之前降低这些风险。
该联盟在一份声明中表示:“AI Alliance致力于培育一个开放的社区,使开发人员和研究人员能够加速AI领域负责任的创新,同时确保科学严谨性、信任、安全、保障、多样性和经济竞争力。”
尽管如此,值得注意的是,该联盟中并不包括OpenAI、Google、AWS、微软甚至是Nvidia等人工智能和云领导企业,因此其效果如何还有待观察。分析师Rob Strechay表示,如果政府将AI Alliance视为一个重要的合作组织,“这对于那些至少还不想参与的组织来说可能会是一个问题”。
分析师Dave Vellante指出,考虑到这些企业在AI领域的领先地位,他们的缺席并不完全令人感到意外。但他表示,考虑到云巨头AWS专注于在其自身产品中提供广泛的AI模型,因此Amazon可能会倾向于发起一个基于向当前领导厂商之外的、更多参与者开放的AI联盟。
AI Alliance的成员将重点集中资源和知识来解决AI开发的安全问题,创建一个开放平台来共享和构建适合研究人员、开发人员和采用者需求的系统。
为此,该联盟计划领导多个合作研究项目。例如,该联盟的目标是开发和部署基准和评估标准,以及可以确保全球负责任地开发和使用AI系统的工具和其他资源,希望推动不断发展的开源基础模型生态系统,确保每个人都可以访问强大的多语言、多模式和基于科学的模型,以应对气候、教育等方面的全球挑战。
该联盟的另一个目标是通过开发必要的支持软件技术来培育充满活力的AI硬件加速器生态系统,同时鼓励学术界支持AI研究人员和学生,帮助他们进行学习并为开放模型和工具的开发做出贡献。联盟还将开展公共宣传活动,计划开发教育资源,更好地向公众讨论和立法者介绍AI的好处、风险、解决方案和监管需求。
IBM公司董事长兼首席执行官Arvind Krishna表示:“我们在AI领域不断见证的进步证明了创作者、科学家、学者和商界领袖社区之间的开放式创新与协作,这是定义AI未来的关键时刻。”
AI Alliance由致力于人工智能开发、研究、教育、部署和治理各个方面的广泛组织构成,其中包括当前最先进的开放式AI模型的创造者,包括Llama 2、Stable Diffusion、StarCoder、Bloom等。
其他成员还包括了AI框架、基准测试和应用开发工具的创建方,例如MLPerf、Hugging Face、LangChain和LlamaIndex,很多处于AI研究前沿的大学和学术组织,以及推动AI发展所需的硬件和基础设施的创建方。
Red Hat表示,其上游社区——包括Open Data Hub混合云开发平台——将作为联盟模型的集成平台,并表示,将向联盟成员提供OpenShift和OpenShift AI平台。
加州大学伯克利分校计算、数据科学与社会学院院长Jennifer Chayes表示:“追求开放式创新可以创造公平的竞争环境,让每个人都能分享生成式AI的好处。”
AI Alliance表示,其议程上的第一个项目就是组建一些由成员驱动的工作组,专注于实现上述目标,此外还将组建一个理事会和技术监督委员会,帮助引导这些工作组实现其目标,同时为每个项目建立总体标准和指南。
除了促进成员之间的合作外,该联盟还将与政府、非营利组织和民间社会组织合作,开展与其目标相一致的各种AI项目。
Meta全球事务总裁Nick Clegg表示:“我们相信,以开放形式开发AI是更好的,能让更多人受益、打造创新产品并致力于安全。AI Alliance将研究人员、开发人员和企业聚集在一起,分享工具和知识,无论模型是否公开共享,都可以帮助我们所有人取得进步。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。