“有两次我曾经被问到这样一个问题,计算先驱查尔斯.巴贝奇(Charles Babbage)在1864年的时候写道:‘祈祷吧,巴贝奇先生,如果你把错误的数字放进机器里,会有正确的答案出来吗?’我没办法正确理解可能引发这个问题的混乱思路。”
因此,“垃圾进,垃圾出”的基本软件原理诞生了。然而,今天,人工智能(AI)已经增加了对巴贝奇难题的赌注,因为来自人工智能的“垃圾输出”导致了令人震惊的偏见。
人工智能——特别是机器学习和深度学习——将大数据集作为输入,从这些数据中提取基本规律,并根据它们提供结论。
例如,如果你想使用人工智能在招聘时给出哪位候选人是最佳选择的建议,你提供为算法提供了过去成功的候选人的相关数据,它将会把这些数据和目前的候选人进行对比,并给出建议。
这里只有一个问题。如果输入的数据带有偏见——比如说,主要由年轻的白人男性组成(也就是我们所说的“垃圾进”),那么人工智能会向你推荐谁呢?你猜对了:大多是年轻的白人男性(这是可以预料得到的结果,也就是“垃圾出”)。
正如巴贝奇可能可以肯定的那样,这里的问题在于输入的数据,而不是人工智能算法本身。但是这更多的是数据带有偏见,而不是坏数据。“数据本身就是数据,”Fourkind的机器学习合作伙伴Max Pagels表示。“这不是社会偏见,这只是一堆数字。需要仔细构建数据集以避免引入社会偏见,但是它本身并没有偏见。”
人工智能算法本身是否带有偏见也是一个悬而未决的问题。“(机器学习算法)尚未针对公平性的任何定义进行优化,”加州大学伯克利分校信息学院副教授Deirdre Mulligan表示。 “他们已经进行的优化都是针对完成任务的。”
好文章,需要你的鼓励
皮尤研究中心最新分析显示,谷歌搜索结果页面的AI概述功能显著降低了用户对其他网站的点击率。研究发现,没有AI回答的搜索点击率为15%,而有AI概述的搜索点击率降至8%。目前约五分之一的搜索会显示AI概述,问题类搜索中60%会触发AI回答。尽管谷歌声称AI概述不会影响网站流量,但数据表明用户看到AI生成的信息后更容易结束浏览,这可能导致错误信息的传播。
约翰霍普金斯大学研究团队开发了ETTIN模型套件,首次实现了编码器和解码器模型的公平比较。研究发现编码器擅长理解任务,解码器擅长生成任务,跨界训练效果有限。该研究为AI模型选择提供了科学依据,所有资料已开源供学术界使用。
GlobalData研究显示,人工智能驱动的预测性维护正成为电力行业追求高可靠性和成本效益的关键组成部分。该技术结合数据分析、机器学习和实时监控,能够更准确预测设备未来状况,有望降低维护成本30%,提高设备可用性20%。GE Vernova、西门子等公司提供先进解决方案,而数字孪生技术、物联网和边缘计算等新兴技术正进一步提升维护策略的准确性和效率。
博洛尼亚大学团队开发出情感增强的AI系统,通过结合情感分析和文本分类技术,显著提升了新闻文章中主观性表达的识别准确率。该研究覆盖五种语言,在多项国际评测中取得优异成绩,为打击虚假信息和提升媒体素养提供了新工具。