周一,IBM宣布将向Linux基金会的一个名为LF AI Foundation的项目捐赠一系列开源工具包,以帮助构建可信人工智能。IBM表示,随着人工智能技术在现实世界中的部署越来越广泛,这些捐赠的工具包可以帮助确保这些部署是公平、安全并且可信的。
IBM在一篇由Todd Moore、Sriram Raghavan和Aleksandra Mojsilovic共同执笔的博客文章中表示:“向LFAI捐赠这些项目将进一步推动创建负责任人工智能技术的使命,并且让更大的社区能够加入进来,在Linux基金会的管理之下,共同创建这些工具。”
具体地说,IBM此次的捐赠包括AI Fairness 360 Toolkit、Adversarial Robustness 360 Toolbox和AI Explainability 360 Toolkit。AI Fairness 360 Toolkit允许开发人员和数据科学家检查并减轻机器学习模型和数据集中不受欢迎的偏差。和其他资源一起,它提供了大约70个度量标准来测试偏差,并提供了11种算法来减轻数据集和模型中的偏差。Adversarial Robustness 360 Toolbox是一个开源库,可以帮助研究人员和开发人员保护深度神经网络免受对抗性攻击。同时,AI Explainability 360 Toolkit提供了一组算法、代码、指南、教程和演示,以支持机器学习模型的可解读性和可解释性。
LFAI的技术咨询委员会在本月初投票决定托管并孵化该项目,IBM目前正在与他们合作,将其正式移交给该基金会。
作为一个Linux基金会的项目,LFAI提供了对于供应商中立的空间,以促进人工智能、机器学习和深度学习的开源项目。它得到了AT&T、百度、爱立信、诺基亚、腾讯和华为等大型机构的支持。
去年,IBM加入了LFAI,并帮助其建立了可信人工智能委员会(Trusted AI Committee),该委员会致力于定义并执行人工智能部署中的可信原则。
在宣布对LFAI捐赠的消息时,IBM指出,在构建值得信任和公平的人工智能方面,“技术只是等式中的一部分”。这篇博客文章表示,“在这项使命之中,社会科学、政策和立法的贡献以及多样化的观点所扮演的角色和技术本身同样重要。”
世界各地的政府都在解决这个问题。例如,欧盟委员会在2月发布了有人工智能法规的白皮书。同时,加拿大、法国、澳大利亚、德国、印度、意大利、日本、墨西哥、新西兰、韩国、新加坡、斯洛文尼亚、英国、美国和欧盟正在建立全球人工智能伙伴关系(GPAI)。
作为各种鼓励负责任技术部署努力中的一部分,IBM周一还宣布了该公司开源社区资助(Open Source Community Grant)的最新受助人。该项资助的目标是帮助代表性不足的社区获得创造新技术的机会。最新的资助将提供给哥伦比亚的PionerasDev,这是一个非营利性组织,该组织的目标是帮助哥伦比亚的女性和女孩学习编码。
该组织在三年之内已经从五名会员发展到了今天超过1,200名会员,其中有超过80%的会员都来自于较低收入地区。这项赠款包括25,000美元的现金奖励和价值25,000美元的技术奖励,将被用于直接支持教育和职业发展活动。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。