至顶网软件频道消息: 几周前,我向技术与法律政策委员会提交了证据,以检查算法在英国司法系统中的应用。
对许多人来说,使用人工智能来预防犯罪和帮助给罪犯定罪可能看起来像科幻电影中的场景。然而,英国的警察部门——包括达勒姆(Durham)、肯特(Kent)和南威尔士(South Wales) ——已经在使用面部识别和行为软件在真正的犯罪发生之前,就采取预防措施。计算机评估框架正被用于通知拘禁和量刑决策。这项技术带来了巨大的希望,可也几乎有着同等程度的黑暗反乌托邦的前景。
这引发了几个道德问题。例如,预测性警务往往依赖于社区或警察巡逻队报告的犯罪记录,这可能导致反馈循环并在已经得到严格监管的社区中加强执法。鉴于有报道称Met的自动面部识别技术误报率为98%,因此对准确性也存在担忧。因此,我们必须小心警方资源被用于实际威胁,而不是被感知的威胁。
我们都知道,与人类一样,技术也会犯错误,并且经常会对有色人种和女性表现出不公平的偏见。美国的风险评估算法,例如美国的替代性制裁惩教罪犯管理资料(Correctional Offender Management Profiling for Alternative Sanctions ,COMPAS)被发现间接含有强烈的种族偏见,这意味着黑人被告被错误分类的可能性几乎是同等情况的白人的两倍。对于那些因为这些系统的大规模应用而处于不利地位的人来说,这不仅仅是不道德的,也是不可接受的。
面部识别是其中一个高侵入性的方面。在使用时,目标对象在不知情或未经同意的情况下就被摄入系统。例如,过去用于预测罪犯“典型”面孔的软件依赖于社交媒体、关系、社交活动、学校日程安排以及来自数据经纪人的商业数据。与喊停和搜查等传统警务方法的官僚控制相比,这些工具进行预测的方式以及警察部门使用这些系统的做法并不透明。重要的是要确保将类似的操作规范纳入机器中。
另一个需要审查的领域是使用评估框架或算法进行量刑。一些人工智能系统可以根据个人的历史和他们的伤害倾向来预测未来的犯罪行为。在美国,宾夕法尼亚州可能是最早一个不仅根据人们犯下的罪行做出刑事判决的州之一,量刑还要参考他们在未来犯下其他罪行的可能性。统计衍生的风险评估——基于年龄、犯罪记录和就业等因素——将帮助法官确定判决。这一观点认为,这将有助于降低监狱系统的成本和负担。
由于预算紧张和犯罪率不断上升,更广泛地使用人工智能程序协助预测犯罪行为可能具有优势。然而,我们必须确保系统公平透明,而现在我们仍然可以做到这一点。也许实现这一点最好的办法是建立一个监管人工智能的国际委员会,各个国家和消费者可以参与这些系统的发展,并确保行为守则和法律达到国际人权标准规定的门槛。
将道德责任融入机器似乎是一项艰巨的任务,但这是拯救这个勇敢的新技术世界的唯一途径,使它不至于演变成一种反讽的梦魇。
好文章,需要你的鼓励
腾讯今日开源混元MT系列语言模型,专门针对翻译任务进行优化。该系列包含四个模型,其中两个旗舰模型均拥有70亿参数。腾讯使用四个不同数据集进行初始训练,并采用强化学习进行优化。在WMT25基准测试中,混元MT在31个语言对中的30个表现优于谷歌翻译,某些情况下得分高出65%,同时也超越了GPT-4.1和Claude 4 Sonnet等模型。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
今年是Frontiers Health十周年。在pharmaphorum播客的Frontiers Health限定系列中,网络编辑Nicole Raleigh采访了Startup Health总裁兼联合创始人Unity Stoakes。Stoakes在科技、科学和设计交汇领域深耕30多年,致力于变革全球健康。他认为,Frontiers Health通过精心选择的空间促进有意义的网络建设,利用网络效应推进创新力量,让企业家共同构建并带来改变,从而有益地影响全球人类福祉。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。