至顶网软件频道消息: 几周前,我向技术与法律政策委员会提交了证据,以检查算法在英国司法系统中的应用。
对许多人来说,使用人工智能来预防犯罪和帮助给罪犯定罪可能看起来像科幻电影中的场景。然而,英国的警察部门——包括达勒姆(Durham)、肯特(Kent)和南威尔士(South Wales) ——已经在使用面部识别和行为软件在真正的犯罪发生之前,就采取预防措施。计算机评估框架正被用于通知拘禁和量刑决策。这项技术带来了巨大的希望,可也几乎有着同等程度的黑暗反乌托邦的前景。
这引发了几个道德问题。例如,预测性警务往往依赖于社区或警察巡逻队报告的犯罪记录,这可能导致反馈循环并在已经得到严格监管的社区中加强执法。鉴于有报道称Met的自动面部识别技术误报率为98%,因此对准确性也存在担忧。因此,我们必须小心警方资源被用于实际威胁,而不是被感知的威胁。
我们都知道,与人类一样,技术也会犯错误,并且经常会对有色人种和女性表现出不公平的偏见。美国的风险评估算法,例如美国的替代性制裁惩教罪犯管理资料(Correctional Offender Management Profiling for Alternative Sanctions ,COMPAS)被发现间接含有强烈的种族偏见,这意味着黑人被告被错误分类的可能性几乎是同等情况的白人的两倍。对于那些因为这些系统的大规模应用而处于不利地位的人来说,这不仅仅是不道德的,也是不可接受的。
面部识别是其中一个高侵入性的方面。在使用时,目标对象在不知情或未经同意的情况下就被摄入系统。例如,过去用于预测罪犯“典型”面孔的软件依赖于社交媒体、关系、社交活动、学校日程安排以及来自数据经纪人的商业数据。与喊停和搜查等传统警务方法的官僚控制相比,这些工具进行预测的方式以及警察部门使用这些系统的做法并不透明。重要的是要确保将类似的操作规范纳入机器中。
另一个需要审查的领域是使用评估框架或算法进行量刑。一些人工智能系统可以根据个人的历史和他们的伤害倾向来预测未来的犯罪行为。在美国,宾夕法尼亚州可能是最早一个不仅根据人们犯下的罪行做出刑事判决的州之一,量刑还要参考他们在未来犯下其他罪行的可能性。统计衍生的风险评估——基于年龄、犯罪记录和就业等因素——将帮助法官确定判决。这一观点认为,这将有助于降低监狱系统的成本和负担。
由于预算紧张和犯罪率不断上升,更广泛地使用人工智能程序协助预测犯罪行为可能具有优势。然而,我们必须确保系统公平透明,而现在我们仍然可以做到这一点。也许实现这一点最好的办法是建立一个监管人工智能的国际委员会,各个国家和消费者可以参与这些系统的发展,并确保行为守则和法律达到国际人权标准规定的门槛。
将道德责任融入机器似乎是一项艰巨的任务,但这是拯救这个勇敢的新技术世界的唯一途径,使它不至于演变成一种反讽的梦魇。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。