至顶网软件频道消息: 根据一份最新报告所言,目前我们正处于人工智能革命的悬崖边缘。在这场革命当中,我们创造的技术可能同时呈现出善意、恶意与丑陋的面貌。
这份题为《人工智能的恶意应用:预测、预防与缓解》的报告长达100页,于本周二正式发布,其中包含来自牛津大学、剑桥大学、OpenAI以及新美国安全中心等不同机构的26位顶尖人工智能专家的真知灼见。
此份报告首先承认了人工智能技术在某些领域取得的进展,但其同时表示“从历史角度看,人们对于人工智能恶意使用方式的关注程度仍然较低。”更具体地讲,大家可以参考目前大热的反乌托邦惊悚剧集《黑镜》。
剑桥大学生存风险研究中心执行董事Seán Ó hÉigeartaigh博士正是该份报告的作者之一,其在另一份声明中表示,现在确实应该开始关注人工智能技术的恶意使用议题。
我们到底需要担心什么?具体来说,目前与人工智能相关的部分问题确实呈现出恶化趋势,例如机器人能够理解我们的阅读内容、个人感受以及我们的投票对象。Ó hÉigeartaigh博士提到,无人机的滥用状况要远比我们想象中的更为普遍,而人工智能支持下的聊天机器人也正通过在线方式大肆获取用户信息。他进一步补充称,人工智能还将提升黑客攻击活动当中对于人类声音及视频内容的伪造能力,从而生成更多更难以识别的虚假新闻。
牛津大学未来人类研究所研究员兼报告作者Miles Brundage解释称,“一般来讲,人工智能系统不仅能够达到人类的能力水平,甚至还将有所超越。虽然令人不安,但我们完全有必要充分考虑到人工智能在黑客攻击、监视、说服以及物理目标识别领域的实际表现,同时意识到人工智能与人类相比存在非人性且更具扩展能力的特性。”
正如《黑镜》剧集所描述,此份报告当中还提到了人脸识别技术,探讨恶意人士如何利用这种技术来搜索并打击目标人物——包括使用装备有爆炸物的无人机或机器人进行暗杀。这听起来似乎并不现实,但报告作者们认为其确实具备可行性。
援引最近刚刚离开OpenAI董事会的Elon Musk的观点,研究人员们认为技术的创造者必须同时考虑到其可能带来的所有恶意用途。因此,决策者需要充分了解正在开发的技术成果,并为其制定伦理框架。最重要的是,人工智能的发展必须始终保持充分的透明度,确保公众能够了解当前的实际技术动态。
好文章,需要你的鼓励
Python通过PEP 810提案正式引入惰性导入功能,允许程序延迟加载导入库直到实际需要时才执行,而非在启动时全部加载。该提案由指导委员会成员Pablo Salgado于10月3日提出并于11月3日获批。新功能采用选择性加入方式,保持向后兼容性的同时解决了社区长期面临的启动时间过长问题,标准化了当前分散的自定义解决方案。
蒙特利尔多机构联合研究团队通过AInstein框架首次大规模验证了大语言模型的科学推理能力。研究使用1214篇ICLR论文测试AI提取研究问题和生成解决方案的能力,发现顶级AI模型成功率达74%,能够提出创新性技术方案而非简单模式匹配。研究证实AI具备真正的科学推理能力,但也揭示了其对问题表述敏感、推理稳定性有限等局限性。
Valve最新Steam硬件软件调查显示,Linux用户占比达到3.05%,较上月增长0.37个百分点,相比去年同期增长约50%。游戏网站Boiling Steam分析显示,Windows游戏在Linux平台兼容性达历史最高水平,近90%的Windows游戏能在Linux上启动运行,仅约10%游戏无法启动。
这项研究提出了MADPO方法,解决了AI训练中的"一刀切"问题。传统方法对所有训练案例使用相同强度,导致简单案例过度学习、复杂案例学习不足。MADPO通过两步训练:先评估案例难度,再据此调整学习强度,实现"因材施教"。实验显示该方法在不同质量数据上均有显著提升,最高达33.3%,为AI精细化训练提供了新思路。