谷歌、微软、OpenAI和Anthropic近日宣布成立一个新的行业机构,目的是确保安全且负责任地开发AI模型。
在谷歌博客上发布的联合声明中,四家公司概述了这个名为Frontier Model Forum的组织,该组织负责推进AI研究,确定最佳实践,并与政府、政策制定者和学术界展开合作,为确保人工智能值得信赖和安全性铺平道路。
微软公司副董事长兼总裁Brad Smith表示:“开发AI技术的企业有责任确保其安全、可靠并处于人类控制之下。该举措是重要一步,旨在将科技行业聚集在一起、负责任地推进AI并应对挑战、使其造福全人类。”
自去年11月首次亮相以来,OpenAI的ChatGPT AI聊天机器人因其理解自然语言并使用令人信服的类人对话进行回复而风靡一时。从那时起,AI模型变得更加精致了,能够轻松地进行研究、长篇论文、执行逻辑谜题等。还有一些模型能够通过利用现有材料创建令人信服的图像和视频,从而引起对隐私和冒充的担忧。
声明称,Frontier Model Forum的成员仅限于致力于大规模机器学习模型的公司,这些模型将构建并超越当前模型的能力。成员企业的任务是开发和部署这些“前沿模型”,并对安全构建这些模型做出坚定承诺,以及推出考虑到安全、信任和社区外展的联合举措。
在接下来的几个月中,Frontier Model Forum打算成立一个顾问委员会来指导开展优先事项。创始公司还将重点为政府和社区引导AI模型发展进行决策和咨询。
根据声明,创始公司打算追随其他旨在为AI开发完整性带来积极成果举措的脚步,例如AI合作伙伴关系和MLCommons。
Frontier Model Forum的成立正值世界各国政府逐渐意识到AI模型和新兴行业背后的原始力量之际。上周,所有Frontier Model Forum的成员都加入了向白宫发布的自愿承诺声明,表示在总统拜登4月份会见科学和技术顾问以探讨AI技术的影响之后,他们将致力于解决人们对AI模型风险日益增长的担忧。
在某组织要求联邦贸易委员会调查OpenAI之后,这家公司最近成为美国联邦贸易委员的贸易行为调查目标。
与此同时,欧盟一直在推动全球第一部全面的AI法律,称为“AI法案”(AI Act),该法案将规范欧盟对AI的监管方式。这项立法自4月以来一直被人们所争议,旨在平衡不断发展的行业与消费者的安全和担忧以及隐私、监控、版权等人权。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。