微软公司一个负责利用黑客手段发现网络安全问题的团队开源了一个内部工具PyRIT,该工具可以帮助开发人员发现人工智能模型中的风险。
研究人员于本周四发布了该框架的代码。微软表示,PyRIT可以自动生成数以千计的对抗性人工智能提示,来测试神经网络能否有效抵御黑客的攻击。该工具主要用于处理文本,但其构建的方式也允许开发人员添加图像等人工智能支持的输入类型。
PyRIT最初是微软人工智能红队测试团队内部使用的脚本集。该团队负责模拟针对新人工智能模型的网络攻击,以便能够抢在黑客之前找到弱点。研究人员们不断扩展脚本的附加功能,直到代码库发展成了本周发布的PyRIT框架。
在将新创建的人工智能模型部署到生产中之前,开发人员必须对其进行几类风险测试。他们必须查找网络安全风险,例如可能导致模型编写恶意软件的提示。软件团队还需要查找人工智能可能产生幻觉的情况,并确定其是否会被诱骗泄露训练数据集中的敏感信息。
有些模型不仅会生成文本,还会生成图像等其他类型的输出,这让这个任务变得更加复杂。必须对每一种输出的类型以及用户与人工智能交互的每一个软件界面分别重复进行脆弱性测试。这就意味着要想彻底测试神经网络需要开发人员制作数千个对抗性提示,这通常是不切实际的。
微软创建PyRIT就是为了消除这一限制。该公司表示,这个框架允许开发人员指定某种类型的对抗性人工智能输入,并自动生成数千个符合标准的提示。这些提示可被用于测试以网络服务形式实现的人工智能,以及通过应用编程接口提供的模型。
微软的研究人员在一篇详细介绍该框架的博文中强调:“PyRIT并不能取代生成式人工智能系统的人工红队。”“相反,它增强了人工智能红队成员现有的领域专业知识,并为他们自动完成繁琐的任务。”
PyRIT不仅能生成对抗性提示,还能评估目标模型的响应情况。据微软称,内置的评分引擎会自动判断开发人员正在测试的模型在响应提示时是否会产生有害输出。软件团队可以选择用针对相同任务构建的外部神经网络替换默认评分引擎。
由于能够分析人工智能的响应,因此PyRIT适合执行所谓的多轮风险评估。该框架可以向人工智能输入对抗性提示,分析其反应,并相应地调整下一个提示,使其更加有效。微软的研究人员解释说:“虽然单轮攻击策略的计算时间更快,但多轮红队测试可以实现更逼真的对抗行为和更先进的攻击策略。”
好文章,需要你的鼓励
OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。
北航团队推出VoxHammer技术,实现3D模型的精确局部编辑,如同3D版Photoshop。该方法直接在3D空间操作,通过逆向追踪和特征替换确保编辑精度,在保持未修改区域完全一致的同时实现高质量局部修改。研究还创建了Edit3D-Bench评估数据集,为3D编辑领域建立新标准,展现出在游戏开发、影视制作等领域的巨大应用潜力。
谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。
宾夕法尼亚大学研究团队开发出PIXIE系统,这是首个能够仅通过视觉就快速准确预测三维物体完整物理属性的AI系统。该技术将传统需要数小时的物理参数预测缩短至2秒,准确率提升高达4.39倍,并能零样本泛化到真实场景。研究团队还构建了包含1624个标注物体的PIXIEVERSE数据集,为相关技术发展奠定了重要基础,在游戏开发、机器人控制等领域具有广阔应用前景。