“有两次我曾经被问到这样一个问题,计算先驱查尔斯.巴贝奇(Charles Babbage)在1864年的时候写道:‘祈祷吧,巴贝奇先生,如果你把错误的数字放进机器里,会有正确的答案出来吗?’我没办法正确理解可能引发这个问题的混乱思路。”
因此,“垃圾进,垃圾出”的基本软件原理诞生了。然而,今天,人工智能(AI)已经增加了对巴贝奇难题的赌注,因为来自人工智能的“垃圾输出”导致了令人震惊的偏见。
人工智能——特别是机器学习和深度学习——将大数据集作为输入,从这些数据中提取基本规律,并根据它们提供结论。
例如,如果你想使用人工智能在招聘时给出哪位候选人是最佳选择的建议,你提供为算法提供了过去成功的候选人的相关数据,它将会把这些数据和目前的候选人进行对比,并给出建议。
这里只有一个问题。如果输入的数据带有偏见——比如说,主要由年轻的白人男性组成(也就是我们所说的“垃圾进”),那么人工智能会向你推荐谁呢?你猜对了:大多是年轻的白人男性(这是可以预料得到的结果,也就是“垃圾出”)。
正如巴贝奇可能可以肯定的那样,这里的问题在于输入的数据,而不是人工智能算法本身。但是这更多的是数据带有偏见,而不是坏数据。“数据本身就是数据,”Fourkind的机器学习合作伙伴Max Pagels表示。“这不是社会偏见,这只是一堆数字。需要仔细构建数据集以避免引入社会偏见,但是它本身并没有偏见。”
人工智能算法本身是否带有偏见也是一个悬而未决的问题。“(机器学习算法)尚未针对公平性的任何定义进行优化,”加州大学伯克利分校信息学院副教授Deirdre Mulligan表示。 “他们已经进行的优化都是针对完成任务的。”
好文章,需要你的鼓励
OpenAI和微软宣布签署一项非约束性谅解备忘录,修订双方合作关系。随着两家公司在AI市场竞争客户并寻求新的基础设施合作伙伴,其关系日趋复杂。该协议涉及OpenAI从非营利组织向营利实体的重组计划,需要微软这一最大投资者的批准。双方表示将积极制定最终合同条款,共同致力于为所有人提供最佳AI工具。
中山大学团队针对OpenAI O1等长思考推理模型存在的"长度不和谐"问题,提出了O1-Pruner优化方法。该方法通过长度-和谐奖励机制和强化学习训练,成功将模型推理长度缩短30-40%,同时保持甚至提升准确率,显著降低了推理时间和计算成本,为高效AI推理提供了新的解决方案。
中国科技企业发布了名为R1的人形机器人,直接对标特斯拉的Optimus机器人产品。这款新型机器人代表了中国在人工智能和机器人技术领域的最新突破,展现出与国际巨头竞争的实力。R1机器人的推出标志着全球人形机器人市场竞争进一步加剧。
上海AI实验室研究团队深入调查了12种先进视觉语言模型在自动驾驶场景中的真实表现,发现这些AI系统经常在缺乏真实视觉理解的情况下生成看似合理的驾驶解释。通过DriveBench测试平台的全面评估,研究揭示了现有评估方法的重大缺陷,并为开发更可靠的AI驾驶系统提供了重要指导。