至顶网软件频道消息:从Facebook的“AI能够发明自己的语言”误报到微软公司令人诧异的种族主义聊天机器人,在过去的几年时间里,我们目睹了几起表现糟糕的人工智能使用案例。尽管了解AI行为的初衷并非一桩易事,但谷歌公司的DeepMind认为其已经为这一难题提供了解决方案,那就是:心理学。
今天,DeepMind宣布其能够用已经发布的Psychlab——一套开源代码AI平台——研究AI的行为表现,而其所采用的研究方式则与目前心理学家研究人类行为表现的方法类似。
由DeepMind实验室构建的Psychlab采用了模拟的3D环境以在不同的空间任务中训练并测试AI,而这些环境在以AI代理作为主要测试对象的同时也允许Psychlab重建真实世界的心理学实验。
DeepMind团队的研究员Joel Leibo在一篇博客中解释称:“一般来讲,这类测试过程会要求参与者坐在电脑显示器前且用鼠标回应屏幕上显示出的任务。类似的,我们所构建的环境允许虚拟主体在虚拟计算机显示器上执行任务,并将其所注视的方向作为其对于测试任务的回应结果。显然,这需要人类与人工智能代理双方都进行相同的测试,从而最大限度地减少实验差异性,而这也促使其能够更容易地与已有的认知心理学文献建立联系并从中获取一定见解。”
DeepMind方面发布了八项通过Psychlab测试人工智能不同认知能力的经典心理学实验。具体包括:
• 视觉搜索——测试其搜寻目标对象阵列的能力(图片)
• 持续识别——测试其对于增长型项目的记忆能力
• 任意的视觉运动映射——测试其对于刺激-响应配对的再次调动能力
• 变更检测——测试其就对象阵列再次出现延迟后,检测一系列变更设置的能力
• 视力与对比敏感度——测试其对微小且低对比度刺激的识别能力
• 玻璃模型检测——测试其球形感知能力
• 随机点运动判别——测试其感知相干运动的能力
• 多对象追踪——测试其长时间追踪动态对象的能力
Leibo表示由于Psychlab拥有一个“灵活且方便运用的API”,所以研究人员能够在该平台上创建并分享他们自己的实验。除此之外,DeepMind还发布了Psychlab的源代码。对此,Leibo解释是因为谷歌公司希望“更多的研究团队能够在其研究中使用Psychlab,而这也有助于该平台的进一步完善。”
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。