至顶网软件频道消息: 根据一份最新报告所言,目前我们正处于人工智能革命的悬崖边缘。在这场革命当中,我们创造的技术可能同时呈现出善意、恶意与丑陋的面貌。
这份题为《人工智能的恶意应用:预测、预防与缓解》的报告长达100页,于本周二正式发布,其中包含来自牛津大学、剑桥大学、OpenAI以及新美国安全中心等不同机构的26位顶尖人工智能专家的真知灼见。
此份报告首先承认了人工智能技术在某些领域取得的进展,但其同时表示“从历史角度看,人们对于人工智能恶意使用方式的关注程度仍然较低。”更具体地讲,大家可以参考目前大热的反乌托邦惊悚剧集《黑镜》。
剑桥大学生存风险研究中心执行董事Seán Ó hÉigeartaigh博士正是该份报告的作者之一,其在另一份声明中表示,现在确实应该开始关注人工智能技术的恶意使用议题。
我们到底需要担心什么?具体来说,目前与人工智能相关的部分问题确实呈现出恶化趋势,例如机器人能够理解我们的阅读内容、个人感受以及我们的投票对象。Ó hÉigeartaigh博士提到,无人机的滥用状况要远比我们想象中的更为普遍,而人工智能支持下的聊天机器人也正通过在线方式大肆获取用户信息。他进一步补充称,人工智能还将提升黑客攻击活动当中对于人类声音及视频内容的伪造能力,从而生成更多更难以识别的虚假新闻。
牛津大学未来人类研究所研究员兼报告作者Miles Brundage解释称,“一般来讲,人工智能系统不仅能够达到人类的能力水平,甚至还将有所超越。虽然令人不安,但我们完全有必要充分考虑到人工智能在黑客攻击、监视、说服以及物理目标识别领域的实际表现,同时意识到人工智能与人类相比存在非人性且更具扩展能力的特性。”
正如《黑镜》剧集所描述,此份报告当中还提到了人脸识别技术,探讨恶意人士如何利用这种技术来搜索并打击目标人物——包括使用装备有爆炸物的无人机或机器人进行暗杀。这听起来似乎并不现实,但报告作者们认为其确实具备可行性。
援引最近刚刚离开OpenAI董事会的Elon Musk的观点,研究人员们认为技术的创造者必须同时考虑到其可能带来的所有恶意用途。因此,决策者需要充分了解正在开发的技术成果,并为其制定伦理框架。最重要的是,人工智能的发展必须始终保持充分的透明度,确保公众能够了解当前的实际技术动态。
好文章,需要你的鼓励
谷歌发布数据共享模型上下文协议服务器,使开发者和AI智能体能够通过自然语言访问真实世界统计数据。该服务整合了政府调查、行政数据和联合国等全球机构的公共数据集。新服务旨在解决AI系统训练中常见的数据噪声和幻觉问题,为AI提供可验证的结构化信息。谷歌还与ONE Campaign合作推出数据智能体工具,该开源服务器兼容任何大语言模型。
这项由谷歌DeepMind研究团队完成的开创性研究首次系统阐述了AI智能体经济的概念框架。研究提出"沙盒经济"模型,从起源性质和边界渗透性两个维度分析AI智能体经济形态,预测未来将出现自然涌现且高度透水的AI经济网络。研究详细探讨了科学加速、机器人协调、个人助手等应用场景,提出基于拍卖机制的公平资源分配方案和使命经济概念,并深入分析了技术基础设施需求、社区货币应用以及相关风险防范措施。
微软宣布从周三开始将Anthropic的AI模型集成到其Copilot助手中,此前该助手主要依赖OpenAI技术。企业用户可在OpenAI的深度推理模型和Anthropic的Claude Opus 4.1、Claude Sonnet 4之间选择,用于复杂研究和构建定制AI工具等任务。此举标志着微软与OpenAI这对曾经独家合作伙伴关系的进一步松动。
中国人民大学研究团队提出LoFT方法,通过参数高效微调基础模型解决长尾半监督学习中的数据不平衡问题。该方法利用预训练模型的良好校准特性改进伪标签质量,并扩展出LoFT-OW版本处理开放世界场景。实验显示,仅使用传统方法1%的数据量就能取得更优性能,为AI公平性和实用性提供了新的解决方案。