至顶网软件频道消息:英国皇家历史学会最近透露,学会利用人工智能算法进行的首次研究显示,英国的劳动力存在“大规模性别偏差”。基于人工智能的系统搜集了整个英国互联网上的资料,排查了现有男女职位的分布。该项研究调研了108个不同的经济行业后发现,其中87%的行业存在倾向于男性的不平等,导致任高层领导职位的男性不成比例。
这项开创性研究很好地说明了人工智能在阐释我们的世界时具有极大的潜力,毕竟,人工智能的一个强大功能就是分析超大量的数据并在其中找到我们人类无法找到的模式。不过,虽然人工智能可以帮助发现偏差和不公平,但实际上人工智能也可能导致更多偏差和不公平。
来看一下以下的例子:加纳裔美国计算机科学家Joy Buolamwini(https://twitter.com/jovialjoy?lang=en)现在是麻省理工学院媒体实验室的罗德学者和研究员,她以前读研究生时发现她使用的人工智能面部识别系统无法识别她的脸。而只有在她戴上白色面具后系统才能确认她的存在。在Buolamwini案例中,面部识别系统不能识别她,因为用于训练软件的数据池里大部分是白色面孔,而且缺乏足够的多样性。换句话说,问题始于数据本身,人工智能系统要从这个有缺陷的数据集合里学习,系统越来越“智能”时,问题也就会挥之不去。其实,实际的系统会变得越来越笨,因为偏差本身会进一步强化偏差。Buolamwini发起了算法正义联盟(https://www.ajlunited.org/)计划,计划旨在推动大家对人工智能偏差的关注及培训组织实行最佳人工智能实践。Buolamwini希望借计划推动更公平、更道德的人工智能方法,这一使命在人工智能驱动决策制定的时代显得尤其重要。
一众企业不仅必须重新定位数据集和算法培训,还必须重新定位围绕人工智能的流程和人员。(图:美联社)
含偏差的人工智能也扩展到了其他领域,如刑事司法、招聘和招聘等等。IBM发表的一份研究报告提出,已经定义和分了类的人类偏差达180之多,每种偏差都可以干扰判断及影响最终决策。人工智能则很容易复制这些偏差。假定一家公司要利用人工智能来确定员工的工资,定工资的标准部分基于薪酬历史。这就可能会令女性处于相当不利的地位(https://www.brookings.edu/blog/techtank/2019/01/03/artificial- intelligence-and-bias-four-key-challenges/),基本就是因为她们过去一直受到歧视。再例如,推荐引擎也会从用户的偏好中学习并提出相应的建议。
各个组织要如何才能确定自己及人工智能系统所依赖的数据确实是合适的?而且不会强化歧视模式呢?
与许多其他问题一样,克服问题的第一步是承认问题的存在。企业不仅必须重新定位数据集和算法培训,还必须重新定位围绕人工智能的流程和人员。我们希望有一个更公平的工作场所,在这个过程中解决这些问题就至关重要。我们必须有专门的团队和流程,甚至可能需要创建诸如“首席偏差官”这样的职位,首席偏差官的工作就是审查数据并确保严格的道德标准,人工智能工具将会在我们的工作环境里越来越普及,首席偏差官的任务是与偏差和偏见做斗争。
例如,首席偏差官可以通过推动多样化,影响工程团队的招聘,然后再定期检查工程师为人工智能算法选用的数据输入。这是“人员就是政策”的一个例子。要认识到人工智能并非绝对可靠,这一点很重要,拙劣的输入意味着拙劣的输出。首席偏差官要定期进行绩效评估,要针对可查算法输出进行控制测试及持续微调。
各组织需确保多种背景的使用,多种背景可以防止扭曲和盲点。 Buolamwini本人则建议组织要检查不同偏差集的算法 ,一系列不同的视角可以加强这方面的工作,可以减少偏差数据及确保更公平的算法代码。
修复算法偏差需要管理层、人力资源和工程师的共同努力,三方面合作才能有效地将有意识和无意识的人类偏见排除在系统之外。人类的愚笨是永远无法完全消除的,但认识了人类的愚笨后,我们就可以打造更公平、更聪慧的人工智能系统,可以真正令我们的工作场所决策少一些人工、多一些智能。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。