至顶网软件频道消息:尽管算法支持的人工智能产品现在已经从梦想变成了现实,但是如果使用不当,它们很快就会成为现代噩梦。作为一家提供人工智能平台的公司的CSO,我知道我们在设计人工智能系统时匆忙做出的选择可以将任何原本高尚的行动变成躲在革命大旗后的怪物。对于设计粗心大意的人工智能系统,我曾经见过的最为常见但也是无意识带来的副作用之一就是预测结果针对特定利益相关方(一个人、一个群体或者一个国家)出现系统性的偏差,并导致了歧视。人工智能系统的偏见问题已经引发了长时间的讨论,政府机构——例如美国政府和欧盟基本权利机构(European Union Agency for Fundamental Rights )也已经就此问题发布了专门的报告。然而,直到最近,主要商业相关方对这一问题似乎都无所作为。但最终,我们看到了一线希望,该领域最大的参与者开始行动了。
云端
尽管人工智能领域取得了巨大的成就,但构成人工智能基础的算法只是冷酷的数学方程,它们本身无法做任何事情。它们就像停车场闲置的汽车,等待有人为它们加油并赋予它们存在的正确意义。算法的燃料是数据。数据教导算法理解我们的世界规则和数据。然而,这里的薄弱环节在于数据是由人准备的。这种知识传播链可能导致现实世界中的偏见和不公正会影响算法的思维方式,尽管这种影响可能是始料未及的。
一些比较壮观的日常例子可能包括《纽约时报》报道的面部识别软件在识别白人面部时表现得更好;一些作家称语音识别软件更难以理解女性的声音或者某些口音。然而,有很多例子表明带有偏见的系统可能会造成更大的社会影响:一项研究认为美国刑事司法系统使用的累犯风险评分可能存在着偏见,而另一些报道则称基于数据的教师评估系统也可能带有偏见。
幸运的是,我最近观察到这个领域的一些最大的玩家采取了一些行动,为更光明的未来带来了一线希望。
曙光初现
在2018年5月初,Facebook宣布它已经创建了一个特殊的内部机构,评估该公司算法做出的决策是否符合道德规范并且不含有偏见。此外,它还透露该团队的工作将得到“离散软件”的支持。
Facebook的这个团队广泛地同公司内部和外部的利益相关者合作(例如,Better Business Bureau’s Institute for Marketplace Trust和Brookings Institution)。尽管Facebook不会公开该软件的内部细节,但它正在考虑通过学术出版物提供调查结果。该公司希望获得更多元化的人工智能人才,积极推动对抗偏见的斗争。
大约在同一时间,微软采取了类似的行动——开发“一种能够自动识别各种人工智能偏见的工具”。我相信这一举措肯定会帮助该公司提高有问题的算法的检出率。该公司似乎已经明白,参与创建人工智能的人是人工智能偏见的主要来源。
而IBM则提出了另一种稍微不同的主张——这可能是目前最强大的一项举措,因为它可以直接适用于整个行业。该公司的研究人员发表了一篇论文,建议采用供应商符合性声明(SDoc),在多个层面上确定算法的性能,例如性能标准化测试、公平性、风险因素和安全措施。任何想要使用这一算法的人都可以看到这些结果。
虽然这些努力都建立在善意的基础上的,但我们不得不承认,我们每天都在使用认知偏见;仅维基百科就列出了200个。偏见在我们的学习过程中发挥着重要作用。无论它们多么有害,我相信它们是我们大脑探索的一种形式,可以让我们更快地做出决定。因此,建立毫无偏见的人工智能存在着固有的挑战,特别是如果你在人类制作的内容上进行训练的话,就更是如此。随着近几年对人工智能的炒作,我们倾向于忘记尽管技术和算法的改进让我们离科幻电影中真正可以思考的机器更近了一步,我们离真正自动化并且更理性的机器还有很远。
结论
我们现在就要开始解决因使用有偏见的人工智能而产生的所有潜在问题。自学机器的概念不再只是一个愿景,社会已开始接受这一事实。与此同时,我们仍将人工智能视为新生事物,我们仍在等待革命的真实面目。我们走得越远,我们听到的人工智能故事就越令人惊讶。而且,大规模使用未经检测、带有偏见并无法解释的算法可能会悄然引发悲剧,每个人创建自学产品越容易,这种悲剧就越发难以避免。我相信上述提到的所有举措都应该得到赞扬、支持和复制,人工智能革命所有的利益相关方都应该这样做。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。