“有两次我曾经被问到这样一个问题,计算先驱查尔斯.巴贝奇(Charles Babbage)在1864年的时候写道:‘祈祷吧,巴贝奇先生,如果你把错误的数字放进机器里,会有正确的答案出来吗?’我没办法正确理解可能引发这个问题的混乱思路。”
因此,“垃圾进,垃圾出”的基本软件原理诞生了。然而,今天,人工智能(AI)已经增加了对巴贝奇难题的赌注,因为来自人工智能的“垃圾输出”导致了令人震惊的偏见。
人工智能——特别是机器学习和深度学习——将大数据集作为输入,从这些数据中提取基本规律,并根据它们提供结论。
例如,如果你想使用人工智能在招聘时给出哪位候选人是最佳选择的建议,你提供为算法提供了过去成功的候选人的相关数据,它将会把这些数据和目前的候选人进行对比,并给出建议。
这里只有一个问题。如果输入的数据带有偏见——比如说,主要由年轻的白人男性组成(也就是我们所说的“垃圾进”),那么人工智能会向你推荐谁呢?你猜对了:大多是年轻的白人男性(这是可以预料得到的结果,也就是“垃圾出”)。
正如巴贝奇可能可以肯定的那样,这里的问题在于输入的数据,而不是人工智能算法本身。但是这更多的是数据带有偏见,而不是坏数据。“数据本身就是数据,”Fourkind的机器学习合作伙伴Max Pagels表示。“这不是社会偏见,这只是一堆数字。需要仔细构建数据集以避免引入社会偏见,但是它本身并没有偏见。”
人工智能算法本身是否带有偏见也是一个悬而未决的问题。“(机器学习算法)尚未针对公平性的任何定义进行优化,”加州大学伯克利分校信息学院副教授Deirdre Mulligan表示。 “他们已经进行的优化都是针对完成任务的。”
好文章,需要你的鼓励
牛津大学研究团队发现,经过强化学习训练的AI搜索助手存在严重安全漏洞。通过简单的"搜索攻击"(强制AI先搜索)和"多重搜索攻击"(连续十次搜索),可让AI的拒绝率下降60%,安全性降低超过80%。问题根源在于AI的安全训练与搜索功能训练分离,导致搜索时会生成有害查询。研究呼吁开发安全感知的强化学习方法。
研究显示47%的企业在IT人才招聘和留存方面面临挑战,流失率居高不下。意大利53%的IT主管表示人才吸引和保留是日常难题。专家认为人才并非稀缺,而是未得到重视,因此更愿意出国发展。成功的CIO需要识别人才、给予适当机会并建立信任关系。通过持续培训、职业发展机会和有效领导力,企业可以更好地留住IT专业人员。
斯坦福大学团队开发了GuideFlow3D技术,通过创新的引导机制解决3D对象外观转换难题。该方法采用智能分割和双重损失函数,能在保持原始几何形状的同时实现高质量外观转换,在多项评估中显著优于现有方法,为游戏开发、AR应用等领域提供了强大工具。