周一,IBM宣布将向Linux基金会的一个名为LF AI Foundation的项目捐赠一系列开源工具包,以帮助构建可信人工智能。IBM表示,随着人工智能技术在现实世界中的部署越来越广泛,这些捐赠的工具包可以帮助确保这些部署是公平、安全并且可信的。
IBM在一篇由Todd Moore、Sriram Raghavan和Aleksandra Mojsilovic共同执笔的博客文章中表示:“向LFAI捐赠这些项目将进一步推动创建负责任人工智能技术的使命,并且让更大的社区能够加入进来,在Linux基金会的管理之下,共同创建这些工具。”
具体地说,IBM此次的捐赠包括AI Fairness 360 Toolkit、Adversarial Robustness 360 Toolbox和AI Explainability 360 Toolkit。AI Fairness 360 Toolkit允许开发人员和数据科学家检查并减轻机器学习模型和数据集中不受欢迎的偏差。和其他资源一起,它提供了大约70个度量标准来测试偏差,并提供了11种算法来减轻数据集和模型中的偏差。Adversarial Robustness 360 Toolbox是一个开源库,可以帮助研究人员和开发人员保护深度神经网络免受对抗性攻击。同时,AI Explainability 360 Toolkit提供了一组算法、代码、指南、教程和演示,以支持机器学习模型的可解读性和可解释性。
LFAI的技术咨询委员会在本月初投票决定托管并孵化该项目,IBM目前正在与他们合作,将其正式移交给该基金会。
作为一个Linux基金会的项目,LFAI提供了对于供应商中立的空间,以促进人工智能、机器学习和深度学习的开源项目。它得到了AT&T、百度、爱立信、诺基亚、腾讯和华为等大型机构的支持。
去年,IBM加入了LFAI,并帮助其建立了可信人工智能委员会(Trusted AI Committee),该委员会致力于定义并执行人工智能部署中的可信原则。
在宣布对LFAI捐赠的消息时,IBM指出,在构建值得信任和公平的人工智能方面,“技术只是等式中的一部分”。这篇博客文章表示,“在这项使命之中,社会科学、政策和立法的贡献以及多样化的观点所扮演的角色和技术本身同样重要。”
世界各地的政府都在解决这个问题。例如,欧盟委员会在2月发布了有人工智能法规的白皮书。同时,加拿大、法国、澳大利亚、德国、印度、意大利、日本、墨西哥、新西兰、韩国、新加坡、斯洛文尼亚、英国、美国和欧盟正在建立全球人工智能伙伴关系(GPAI)。
作为各种鼓励负责任技术部署努力中的一部分,IBM周一还宣布了该公司开源社区资助(Open Source Community Grant)的最新受助人。该项资助的目标是帮助代表性不足的社区获得创造新技术的机会。最新的资助将提供给哥伦比亚的PionerasDev,这是一个非营利性组织,该组织的目标是帮助哥伦比亚的女性和女孩学习编码。
该组织在三年之内已经从五名会员发展到了今天超过1,200名会员,其中有超过80%的会员都来自于较低收入地区。这项赠款包括25,000美元的现金奖励和价值25,000美元的技术奖励,将被用于直接支持教育和职业发展活动。
好文章,需要你的鼓励
本文评测了六款控制台平铺终端复用器工具。GNU Screen作为老牌工具功能强大但操作复杂,Tmux更现代化但学习曲线陡峭,Byobu为前两者提供友好界面,Zellij用Rust编写界面简洁易用,DVTM追求极简主义,Twin提供类似TurboVision的文本界面环境。每款工具都有各自特点和适用场景。
韩国汉阳大学联合高通AI研究院开发出InfiniPot-V框架,解决了移动设备处理长视频时的内存限制问题。该技术通过时间冗余消除和语义重要性保留两种策略,将存储需求压缩至原来的12%,同时保持高准确性,让手机和AR眼镜也能实时理解超长视频内容。
网络安全公司Snyk宣布收购瑞士人工智能安全研究公司Invariant Labs,收购金额未公开。Invariant Labs从苏黎世联邦理工学院分拆成立,专注于帮助开发者构建安全可靠的AI代理工具和框架。该公司提供Explorer运行时观察仪表板、Gateway轻量级代理、Guardrails策略引擎等产品,并在工具中毒和模型上下文协议漏洞等新兴AI威胁防护方面处于领先地位。此次收购将推进Snyk保护下一代AI原生应用的使命。
纽约大学研究团队通过INT-ACT测试套件全面评估了当前先进的视觉-语言-动作机器人模型,发现了一个普遍存在的"意图-行动差距"问题:机器人能够正确理解任务和识别物体,但在实际动作执行时频频失败。研究还揭示了端到端训练会损害原有语言理解能力,以及多模态挑战下的推理脆弱性,为未来机器人技术发展提供了重要指导。