至顶网软件频道消息: 几周前,我向技术与法律政策委员会提交了证据,以检查算法在英国司法系统中的应用。
对许多人来说,使用人工智能来预防犯罪和帮助给罪犯定罪可能看起来像科幻电影中的场景。然而,英国的警察部门——包括达勒姆(Durham)、肯特(Kent)和南威尔士(South Wales) ——已经在使用面部识别和行为软件在真正的犯罪发生之前,就采取预防措施。计算机评估框架正被用于通知拘禁和量刑决策。这项技术带来了巨大的希望,可也几乎有着同等程度的黑暗反乌托邦的前景。
这引发了几个道德问题。例如,预测性警务往往依赖于社区或警察巡逻队报告的犯罪记录,这可能导致反馈循环并在已经得到严格监管的社区中加强执法。鉴于有报道称Met的自动面部识别技术误报率为98%,因此对准确性也存在担忧。因此,我们必须小心警方资源被用于实际威胁,而不是被感知的威胁。
我们都知道,与人类一样,技术也会犯错误,并且经常会对有色人种和女性表现出不公平的偏见。美国的风险评估算法,例如美国的替代性制裁惩教罪犯管理资料(Correctional Offender Management Profiling for Alternative Sanctions ,COMPAS)被发现间接含有强烈的种族偏见,这意味着黑人被告被错误分类的可能性几乎是同等情况的白人的两倍。对于那些因为这些系统的大规模应用而处于不利地位的人来说,这不仅仅是不道德的,也是不可接受的。
面部识别是其中一个高侵入性的方面。在使用时,目标对象在不知情或未经同意的情况下就被摄入系统。例如,过去用于预测罪犯“典型”面孔的软件依赖于社交媒体、关系、社交活动、学校日程安排以及来自数据经纪人的商业数据。与喊停和搜查等传统警务方法的官僚控制相比,这些工具进行预测的方式以及警察部门使用这些系统的做法并不透明。重要的是要确保将类似的操作规范纳入机器中。
另一个需要审查的领域是使用评估框架或算法进行量刑。一些人工智能系统可以根据个人的历史和他们的伤害倾向来预测未来的犯罪行为。在美国,宾夕法尼亚州可能是最早一个不仅根据人们犯下的罪行做出刑事判决的州之一,量刑还要参考他们在未来犯下其他罪行的可能性。统计衍生的风险评估——基于年龄、犯罪记录和就业等因素——将帮助法官确定判决。这一观点认为,这将有助于降低监狱系统的成本和负担。
由于预算紧张和犯罪率不断上升,更广泛地使用人工智能程序协助预测犯罪行为可能具有优势。然而,我们必须确保系统公平透明,而现在我们仍然可以做到这一点。也许实现这一点最好的办法是建立一个监管人工智能的国际委员会,各个国家和消费者可以参与这些系统的发展,并确保行为守则和法律达到国际人权标准规定的门槛。
将道德责任融入机器似乎是一项艰巨的任务,但这是拯救这个勇敢的新技术世界的唯一途径,使它不至于演变成一种反讽的梦魇。
好文章,需要你的鼓励
人工智能革命正在重塑各行各业的CIO角色,为技术领导者创造前所未有的机会来提升其战略影响力。在东北杂货店,这一转变使未来准备责任得以在整个组织中重新分配。CIO不再是唯一负责预见未来技术需求的人,而是通过赋予业务伙伴AI能力,使展望未来成为共同努力。AI的"WOW"因素不仅提高了效率和生产力,还将CIO从服务提供者转变为赋能整个业务生态系统的动力创造者。
一份新报告预测,到2035年人工智能将从根本上改变人类行为、认知和关系。专家们认为,AI 将深刻影响人的思维方式、情感能力和自主性,可能导致认知能力衰退、社交技能下降和个人独立性减弱。同时也可能加剧社会极化,削弱共同价值观。尽管存在担忧,部分专家仍对 AI 增强人类能力持乐观态度。这份报告引发了对 AI 如何重塑人类本质的深入思考。
Tomer Cohen作为LinkedIn的首席产品官,负责管理产品、用户体验和客户运营团队。他从以色列移居硅谷,在斯坦福大学就读期间被LinkedIn的理念所吸引。Cohen加入公司后,推动了从桌面到移动平台的转型,并致力于开发社交信息流等产品。他认为LinkedIn的核心价值在于连接人与职业网络,为用户提供发展机会。在Cohen的领导下,LinkedIn从单一的求职网站发展成为日常工作工具,拥有超10亿用户。他表示,未来将继续借助AI等技术,为用户提供更个性化的体验。
据《纽约时报》报道,亚马逊突然加入 TikTok 收购竞争,提交了全面收购报价。然而,交易各方似乎并不重视这一出价。TikTok 面临 4 月 5 日前剥离中国所有权或在美国遭禁的最后期限。特朗普总统将于周三与官员讨论 TikTok 的命运,他表示交易将在期限前敲定。与此同时,其他潜在买家如 Andreessen Horowitz 和 Blackstone 也在积极参与竞购。