至顶网软件频道消息:最近,微软Azure首席技术官Mark Russinovich表示,人工智能(AI)和机器学习(ML)的兴起源于开源人工智能和机器学习软件。Core ML、Google TensorFlow和ONNX等开源程序正在推动着人工智能和机器学习的发展。现在,Linux基金会在洛杉矶举行的开放网络峰会上宣布成立一个新组织:LF深度学习基金会(LF Deep Learning Foundation),以进一步推动开源人工智能和机器学习。
此外,Linux基金会还宣布了Acumos AI项目,这是一个平台和开源框架,可以轻松构建、共享和部署人工智能应用。
Acumos是通过对开箱即用的通用人工智能环境所需的基础架构堆栈和组件实施标准化来实现这一点。具体来说,Acumos包装了TensorFlow和SciKit Learn等工具包,并使用通 API对其进行建模,从而使开发人员能够无缝连接这些工具。这让数据科学家和模型训练人员可以将精力集中在核心能力上,而不必担心底层人工智能/机器学习基础。
该项目致力于通过轻松创建、分享、发现和应用机器学习、深度学习和分析模型,让所余人都能拥有人工智能的力量。据AT&T称:“我们开源Acumos平台的目标,是使构建和部署人工智能应用与创建一个网站一样简单。”Linux基金会将负责Acumos AI平台和Acumos Marketplace,以支持该项目的生态系统。
AT&T和Tech Mahindra正在验证Acumos的初始代码。第一批Acumos代码已经为下载做好了准备。
展望未来,百度预计将贡献人工智能/机器学习代码,以充分利用Kubernetes的弹性调度以及开源PaddlePaddle的容错功能。此外,由腾讯和北京大学针对大数据/模型联合开发的高性能分布式ML平台“Angel”项目也被纳入Acumos。
“我们很高兴能够提供深度学习的基础,为人工智能、机器学习和深度学习生态系统中的大量项目提供长期战略和支持,”Linux基金会执行主任Jim Zemlin在一份声明中表示。
该组织的创始成员包括Amdocs、AT&T、B.Yond、百度、华为、诺基亚、Tech Mahindra、腾讯、Univa和中兴。借助该组织,成员们将创造一个中立空间,其中工具和基础架构的制造商和维护人员可以共同协作,进一步加速开源、深度学习技术的采用。
如果可行的话,这将使人工智能开发人员更容易获得人工智能/机器学习,而不需要他们完成开源软件的实质工作。从某种程度上来说,这就像DevOps让开发人员能够专注于他们自己的项目,而DevOps工具使他们能够快速轻松地启动项目所需的基础架构。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。