谷歌、微软、OpenAI和Anthropic近日宣布成立一个新的行业机构,目的是确保安全且负责任地开发AI模型。
在谷歌博客上发布的联合声明中,四家公司概述了这个名为Frontier Model Forum的组织,该组织负责推进AI研究,确定最佳实践,并与政府、政策制定者和学术界展开合作,为确保人工智能值得信赖和安全性铺平道路。
微软公司副董事长兼总裁Brad Smith表示:“开发AI技术的企业有责任确保其安全、可靠并处于人类控制之下。该举措是重要一步,旨在将科技行业聚集在一起、负责任地推进AI并应对挑战、使其造福全人类。”
自去年11月首次亮相以来,OpenAI的ChatGPT AI聊天机器人因其理解自然语言并使用令人信服的类人对话进行回复而风靡一时。从那时起,AI模型变得更加精致了,能够轻松地进行研究、长篇论文、执行逻辑谜题等。还有一些模型能够通过利用现有材料创建令人信服的图像和视频,从而引起对隐私和冒充的担忧。
声明称,Frontier Model Forum的成员仅限于致力于大规模机器学习模型的公司,这些模型将构建并超越当前模型的能力。成员企业的任务是开发和部署这些“前沿模型”,并对安全构建这些模型做出坚定承诺,以及推出考虑到安全、信任和社区外展的联合举措。
在接下来的几个月中,Frontier Model Forum打算成立一个顾问委员会来指导开展优先事项。创始公司还将重点为政府和社区引导AI模型发展进行决策和咨询。
根据声明,创始公司打算追随其他旨在为AI开发完整性带来积极成果举措的脚步,例如AI合作伙伴关系和MLCommons。
Frontier Model Forum的成立正值世界各国政府逐渐意识到AI模型和新兴行业背后的原始力量之际。上周,所有Frontier Model Forum的成员都加入了向白宫发布的自愿承诺声明,表示在总统拜登4月份会见科学和技术顾问以探讨AI技术的影响之后,他们将致力于解决人们对AI模型风险日益增长的担忧。
在某组织要求联邦贸易委员会调查OpenAI之后,这家公司最近成为美国联邦贸易委员的贸易行为调查目标。
与此同时,欧盟一直在推动全球第一部全面的AI法律,称为“AI法案”(AI Act),该法案将规范欧盟对AI的监管方式。这项立法自4月以来一直被人们所争议,旨在平衡不断发展的行业与消费者的安全和担忧以及隐私、监控、版权等人权。
好文章,需要你的鼓励
OpenAI今日宣布计划为ChatGPT配备新的安全功能,当用户遭遇心理或情感困扰时能提供更有效的帮助。首项更新将专注于GPT-5的路由组件,能检测用户急性困扰并调用推理优化的大语言模型。公司还将推出家长控制功能,允许家长与青少年账户关联,设置年龄适宜的行为规则并禁用特定功能。系统检测到青少年处于急性困扰时会发送通知。OpenAI将与青少年发展、心理健康专家委员会及全球医师网络合作完善这些功能。
北航团队推出VoxHammer技术,实现3D模型的精确局部编辑,如同3D版Photoshop。该方法直接在3D空间操作,通过逆向追踪和特征替换确保编辑精度,在保持未修改区域完全一致的同时实现高质量局部修改。研究还创建了Edit3D-Bench评估数据集,为3D编辑领域建立新标准,展现出在游戏开发、影视制作等领域的巨大应用潜力。
CTERA云文件服务公司发布的2025年数据与云战略调查报告显示,83%在过去两年遭受勒索软件感染的企业成功恢复,仅17%遭受永久数据丢失。调查涵盖美国、欧洲、中东、非洲和亚太地区300名高级IT和安全负责人,所有受访企业均在过去两年内遭遇勒索软件攻击。报告显示80%的领导者将安全视为2025年首要关注点,仅10%企业支付赎金。此外,98%受访者正在部署大语言模型和AI工具。
宾夕法尼亚大学研究团队开发出PIXIE系统,这是首个能够仅通过视觉就快速准确预测三维物体完整物理属性的AI系统。该技术将传统需要数小时的物理参数预测缩短至2秒,准确率提升高达4.39倍,并能零样本泛化到真实场景。研究团队还构建了包含1624个标注物体的PIXIEVERSE数据集,为相关技术发展奠定了重要基础,在游戏开发、机器人控制等领域具有广阔应用前景。