至顶网软件频道消息: 根据一份最新报告所言,目前我们正处于人工智能革命的悬崖边缘。在这场革命当中,我们创造的技术可能同时呈现出善意、恶意与丑陋的面貌。
这份题为《人工智能的恶意应用:预测、预防与缓解》的报告长达100页,于本周二正式发布,其中包含来自牛津大学、剑桥大学、OpenAI以及新美国安全中心等不同机构的26位顶尖人工智能专家的真知灼见。
此份报告首先承认了人工智能技术在某些领域取得的进展,但其同时表示“从历史角度看,人们对于人工智能恶意使用方式的关注程度仍然较低。”更具体地讲,大家可以参考目前大热的反乌托邦惊悚剧集《黑镜》。
剑桥大学生存风险研究中心执行董事Seán Ó hÉigeartaigh博士正是该份报告的作者之一,其在另一份声明中表示,现在确实应该开始关注人工智能技术的恶意使用议题。
我们到底需要担心什么?具体来说,目前与人工智能相关的部分问题确实呈现出恶化趋势,例如机器人能够理解我们的阅读内容、个人感受以及我们的投票对象。Ó hÉigeartaigh博士提到,无人机的滥用状况要远比我们想象中的更为普遍,而人工智能支持下的聊天机器人也正通过在线方式大肆获取用户信息。他进一步补充称,人工智能还将提升黑客攻击活动当中对于人类声音及视频内容的伪造能力,从而生成更多更难以识别的虚假新闻。
牛津大学未来人类研究所研究员兼报告作者Miles Brundage解释称,“一般来讲,人工智能系统不仅能够达到人类的能力水平,甚至还将有所超越。虽然令人不安,但我们完全有必要充分考虑到人工智能在黑客攻击、监视、说服以及物理目标识别领域的实际表现,同时意识到人工智能与人类相比存在非人性且更具扩展能力的特性。”
正如《黑镜》剧集所描述,此份报告当中还提到了人脸识别技术,探讨恶意人士如何利用这种技术来搜索并打击目标人物——包括使用装备有爆炸物的无人机或机器人进行暗杀。这听起来似乎并不现实,但报告作者们认为其确实具备可行性。
援引最近刚刚离开OpenAI董事会的Elon Musk的观点,研究人员们认为技术的创造者必须同时考虑到其可能带来的所有恶意用途。因此,决策者需要充分了解正在开发的技术成果,并为其制定伦理框架。最重要的是,人工智能的发展必须始终保持充分的透明度,确保公众能够了解当前的实际技术动态。
好文章,需要你的鼓励
UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
Nebius团队开发了SWE-rebench,一个自动化管道用于从GitHub收集软件工程任务并进行去污染评估。该系统解决了两大挑战:高质量训练数据稀缺和评估基准容易被污染。通过四阶段处理(初步收集、自动安装配置、执行验证和质量评估),SWE-rebench构建了包含超过21,000个Python交互式任务的数据集,并提供持续更新的评估基准。研究发现部分语言模型在传统基准上的表现可能被污染效应夸大,而DeepSeek模型在开源模型中表现最为稳健。
这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。
浙江大学和西湖大学研究团队开发的Styl3R实现了艺术风格化3D重建的重大突破,能在不到一秒内从少量未标定照片和任意风格图像创建具有多视角一致性的3D艺术场景。通过创新的双分支网络架构将结构建模与外观着色分离,系统不仅保持了原始场景结构,还准确捕捉了参考风格特征。与现有方法相比,Styl3R在处理速度和视觉质量上均显著领先,为创意内容制作开辟了全新可能。