在不当使用健康数据引发争议和批评之后,谷歌的人工智能研究部门DeepMind Technologies Ltd.正在扩大其工作范围,并超出了技术的领域。
这家位于英国的公司今天上午宣布组建一个新的团队,负责探索伴随着人工智能的普及引发的伦理挑战。该部门由Verity Harding和技术顾问Sean Legassick领导,Verity Harding先前曾担任谷歌欧洲业务公共策略的领导。DeepMind希望在未来一年内将该部门现有的八个员工的数量增加两倍。
该小组将使用外部“DeepMind Fellows”的建议,“DeepMind Fellows”中包括经济学家、哲学家和其他专家的专家,他们专注的领域以某种方式涉及关于人工智能的讨论。还有计划与大学合作进行类似的研究。
除了为DeepMind的工作制定道德准则之外,该部门将尝试预测人工智能在未来可能重塑社会的方式。这一工作将强调一些重大问题,例如如何确保人工智能系统能够维护用户权利及其可能对经济造成的影响。DeepMind预计,该团队将在明年的某个时候开始发表其第一篇研究论文。
这样说来,组建这个部门的举措不仅仅是学术性质的。今年早些时候,DeepMind因与英国National Health Service合作的一个项目涉嫌违反有关病人记录处理规定而遭到抨击。内部的道德操守团队可以帮助该部门避免将来滥用其人工智能技术。
从长远来看,这个新组建的部门的研究工作也可以使其他谷歌部门受益。该搜索巨头的WAYMO自动驾驶子公司是首当其冲。自动驾驶汽车上路的前景引发了棘手的问题,例如车辆会如何处理在事故不可避免时必须做出的困难选择。
虽然谷歌和其他的科技公司正在人工智能领域进行激烈的竞争,可是许多伦理盲点仍然存在。就在几个月前,DeepMind分享了一个项目的结果,该项目旨在训练神经网络,让它们更能够像人类一样思考,具体的做法是让它们在模拟条件下学习行走的基本知识。
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。