9月27日杭州云栖大会,阿里巴巴副总裁、阿里云智能计算平台事业部总经理贾扬清正式担任阿里巴巴开源技术委员会负责人。
据悉,阿里巴巴开源技术委员会的目标是持续赋能开源,在基于阿里巴巴自身优势、发展社区协同机制的基础上为开发者深挖开源价值:提供强大计算能力、丰富应用场景帮助开源项目的成熟与完善;鼓励、发扬开源文化,输出更多阿里优秀的开源项目;提供机制、合规、安全、工具等服务,做好开源的“后勤保障”,提升开发者体验。
贾扬清表示,随着行业数据智能化的加速到来,阿里云大规模计算能力、丰富的实践场景将有助于降低开源成本、推动项目的成熟完善。以Apache Flink为例,通过双11、搜索推荐等多个核心场景的实战检验,在流计算和批处理上积累了大量新功能,实现性能快速提升。如今,Apache Flink已成为CCTV、新浪微博、千寻位置等知名公司建设流处理平台的首要选择。
在过去,阿里不仅积极拥抱开源,而且主动反哺开源,在 Linux、MySQL、JVM等国际开源项目领域拥有多位核心贡献者。近年来,阿里更率先投入到自主开源中,持续性输出自研工具产品。目前开源项目数已有一千余个,覆盖中间件、移动、数据库、容器、AI、大数据等多个领域,包括已从 Apache 基金会毕业的Apache Dubbo ™ 、Apache RocketMQ ™,广泛应用的UI组件库Ant Design,知名JSON解析库FastJson等。
从拥抱开源到贡献开源、自主开源,再到如今的赋能开源,开源已升级为阿里技术战略之一,将为开发者带来更多切实可见的深远价值。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。