ZD至顶网软件频道消息: 分析机构对维基百科机器人的一项调查已经证实,自动化编辑软件可以像人类一样迂腐和琐碎。我们知道,这样的在线口水战经常会持续很长时间。
据悉,机器人的行为有所不同,这取决于他们工作的维基百科的语言版本:基于它们最终处理的文化和主题,因此,有一些机器人变得更具争议。
机器人已经在全球的网络里漫游了20多年了。其中一些功能确实有用,但不排除还有一些则是没用的。例如,喷出种族主义辱骂言辞和垃圾邮件,或者在约会网站上扮成漂亮的女人。
对此,牛津大学和英国的The Alan Turing Institute研究人员今天在《PLOS ONE》上发表的论文将互联网机器人分为两类:仁慈的和恶毒的。
其中,维基百科的机器人被归类为仁慈的,因为它们帮助编辑文章、识别并清理恶意破坏、检查拼写、自动导入信息,并识别侵权行为。例如,在2014年,多达15%的编辑工作是由机器人完成的。该论文的第一作者、Oxford Internet Institute的研究员Milena Tsvetkova博士表示:"我们发现机器人在不同的文化环境中行为也不同,它们之间的冲突也与人类编辑之间的冲突不同。
当人类或机器人通过恢复文章的早期版本推翻了另一个编辑的贡献,Tsvetkova和她的团队发现了自动单词争论软件之间冲突的领域。文章指出,"与人类相比,机器人编辑还原的比例要小得多,而被还原的比例更小。"
在十年期间,英语维基百科上的每个机器人平均还原另一个机器人的编辑105次,比人类的平均值多三倍。这在葡萄牙语版本上更糟糕,在大约十年间,每个机器人平均还原另一个机器人的工作185次。在德国版本上,机器人彼此之间相处更加愉快,每个机器人改变另一个机器人的工作在超过十年的时间里,平均只有24次。
维基百科语言版本之间的区别是可以解释的:例如,葡萄牙语机器人比德语机器人更加活跃而且编辑更多的文章。Oxford Internet Institute的论文和研究员的共同作者Taha Yasseri教授表示,文化多样性也是一个因素。被设计以相同方式工作的机器人,或使用相同的代码的机器人,有时会在不同的文化和语言点上不同意彼此的意见。而一些文化挑起了更多的争论和编辑战争。
Yasseri教授对《The Register》表示,"研究结果表明,即使是同样的技术也会带来不同的结果,这取决于文化环境。"
"一辆自动驾驶汽车在德国高速公路上的行驶方式与通过意大利托斯卡纳山脉的方式不同,同样地,搭建在当地基础架构上的网络机器人也会在行为和性能受到一些影响。机器人是由来自不同国家的人类设计出来的,所以当它们彼此相遇,可能会导致网上的冲突。"
"最受机器人争议的文章是关于佩尔韦兹·穆沙拉夫(Pervez Musharraf,巴基斯坦前总统)、乌兹别克斯坦、爱沙尼亚、白俄罗斯、阿拉伯语、Niels Bohr和阿诺德·施瓦辛格的。"
这并不是说所有的机器人都是以相同的方式编程的,引起机器人口水战主要还是因为软件和主题组合。 Yasseri教授补充说:"我们看到不同的维基百科语言版本中使用的技术的差异,维基百科编辑的社区的不同文化涉及创建复杂的交互。这种复杂性是一个考虑在任何会话中考虑使用自动化和人工智能的基本问题。"
Wiki机器人不是唯一受文化差异影响的半智能代理。微软的中国机器人小冰,和在美国的那个满嘴脏话的机器人Tay相比,简直是一个天使。有人发现了Tay的后门命令短语,并利用它教了Tay很多脏话。行为的对比可以通过仔细观察这两个国家的互联网规则来解释。
似乎人工智能的世界并不是特别友好。 DeepMind最近的一项实验表明,人工智能机器人是由竞争驱动的,对于诉诸暴力并不会有任何良心上的不安。
好文章,需要你的鼓励
思科与英伟达、VAST Data合作推出安全AI工厂,整合服务器、GPU和存储设备为企业提供一体化AI基础设施。该方案采用融合基础设施形式,以AI POD作为核心组件,搭载英伟达RTX PRO 6000 Blackwell GPU和思科UCS服务器。存储方面支持NetApp、Pure Storage或VAST Data产品。VAST声称其InsightEngine能够加速RAG管道,将响应延迟从分钟级降至秒级,支持企业级智能体AI应用。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
随着人工智能深度融入商业文化,97%的高管认为生成式AI将改变其公司和行业。然而,当人们越来越依赖AI处理记忆、推理和创造性任务时,认知外包现象悄然兴起。研究表明,数字依赖正在重塑记忆模式,可能削弱问题解决能力和批判性思维。组织需要在效率与能力保持之间找到平衡,通过认知训练、批判性参与等方式,将AI视为增强工具而非替代品。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。