至顶网软件频道消息: 根据一份最新报告所言,目前我们正处于人工智能革命的悬崖边缘。在这场革命当中,我们创造的技术可能同时呈现出善意、恶意与丑陋的面貌。
这份题为《人工智能的恶意应用:预测、预防与缓解》的报告长达100页,于本周二正式发布,其中包含来自牛津大学、剑桥大学、OpenAI以及新美国安全中心等不同机构的26位顶尖人工智能专家的真知灼见。
此份报告首先承认了人工智能技术在某些领域取得的进展,但其同时表示“从历史角度看,人们对于人工智能恶意使用方式的关注程度仍然较低。”更具体地讲,大家可以参考目前大热的反乌托邦惊悚剧集《黑镜》。
剑桥大学生存风险研究中心执行董事Seán Ó hÉigeartaigh博士正是该份报告的作者之一,其在另一份声明中表示,现在确实应该开始关注人工智能技术的恶意使用议题。
我们到底需要担心什么?具体来说,目前与人工智能相关的部分问题确实呈现出恶化趋势,例如机器人能够理解我们的阅读内容、个人感受以及我们的投票对象。Ó hÉigeartaigh博士提到,无人机的滥用状况要远比我们想象中的更为普遍,而人工智能支持下的聊天机器人也正通过在线方式大肆获取用户信息。他进一步补充称,人工智能还将提升黑客攻击活动当中对于人类声音及视频内容的伪造能力,从而生成更多更难以识别的虚假新闻。
牛津大学未来人类研究所研究员兼报告作者Miles Brundage解释称,“一般来讲,人工智能系统不仅能够达到人类的能力水平,甚至还将有所超越。虽然令人不安,但我们完全有必要充分考虑到人工智能在黑客攻击、监视、说服以及物理目标识别领域的实际表现,同时意识到人工智能与人类相比存在非人性且更具扩展能力的特性。”
正如《黑镜》剧集所描述,此份报告当中还提到了人脸识别技术,探讨恶意人士如何利用这种技术来搜索并打击目标人物——包括使用装备有爆炸物的无人机或机器人进行暗杀。这听起来似乎并不现实,但报告作者们认为其确实具备可行性。
援引最近刚刚离开OpenAI董事会的Elon Musk的观点,研究人员们认为技术的创造者必须同时考虑到其可能带来的所有恶意用途。因此,决策者需要充分了解正在开发的技术成果,并为其制定伦理框架。最重要的是,人工智能的发展必须始终保持充分的透明度,确保公众能够了解当前的实际技术动态。
好文章,需要你的鼓励
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
MiroMind AI等机构联合研究团队提出了UniME-V2多模态嵌入学习新方法,通过让大型多模态语言模型充当"智能法官"来评估训练样本质量,解决了传统方法在负样本多样性和语义理解精度方面的问题。该方法引入软标签训练框架和困难负样本挖掘技术,在MMEB基准测试中取得显著性能提升,特别在组合式检索任务上表现出色,为多模态AI应用的准确性和用户体验改进提供了重要技术支撑。
亚马逊云服务宣布投资500亿美元,专门为美国政府构建AI高性能计算基础设施。该项目将新增1.3千兆瓦算力,扩大政府机构对AWS AI服务的访问,包括Amazon SageMaker、Amazon Bedrock和Claude聊天机器人等。预计2026年开工建设。AWS CEO表示此举将彻底改变联邦机构利用超级计算的方式,消除技术障碍,助力美国在AI时代保持领先地位。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。