市长Eric Adams日前公布了纽约市政府推广AI技术的应用计划。尽管仍面对一定质疑,但该计划仍提出了值得全美各州及地方政府认真思考的一系列重要概念。
目前,对AI经济影响力的大多数关注主要集中在商业领域,但政府也有借此广泛提高生产效率的机会。ChatGPT、Bard和Claude等大语言模型将提高工作人员在各类任务中的生产力水平,帮助包括政府在内的各类组织通过更少的人力投入完成更多工作。高盛公司的一项分析显示,受AI影响最大的领域为:办公室与行政支持,其中法务方面的得分也很高;建筑与工程;商业与财务运作;以及社区与社会服务。这基本涵盖了政府行政层面的大部分工作。另一方面,受AI影响较小的领域则包括维护、建设和生产制造。警察和消防事务未被列入,但这部分工作无疑也属于AI影响较小的类别。
市长Adams高度重视如何帮助企业应对城市的法规审查和监管。“MyCity Business将把企业经营者与监管要求联系起来,帮助他们在纽约市创办、运营和发展自己的公司。借助AI聊天机器人,企业主能够更轻松地访问来自2000多个纽约商业页面的可靠信息。”这无疑是AI的又一大重要用途。尽管部分经营者希望政府能在审查和法规层面做出简化和削减,但AI技术无疑更具可行性,在简单的承诺之外带来切实可见的效率提升。
纽约市还在计划中强调了AI带来的风险。“纽约市AI行动计划介绍了该市将要采取的一系列分阶段行动,以帮助各机构评估风险并确定AI工具是否能为纽约市民带来积极、正向的助益。”结合此前的媒体报道来看,目前约半数早期商业政策仍然禁止使用ChatGPT。人们顾虑的主要是大语言模型生成的虚假陈述(即「幻觉」)以及在提示词中使用的机密信息意外泄露。纽约的政策公告还提到了偏见和歧视等问题,这些都属于非常合理的应用风险。
政府选择使用AI也属于一种政治性决策。可以预见的是,纽约市将“建立外部咨询网络,就AI带来的机遇和挑战与各部门的利益相关方展开磋商。”毫无疑问,其中将包括关心工作岗位数量和潜在裁员影响的公共雇员工会。其他利益团队同样可能对AI应用感到担忧,但也有人对AI提升客户服务体验的潜力表示赞赏。
目前,AI技术仍处于早期发展阶段。大多数应用并不要求人们直接采用ChatGPT给出的答案或概括性观点。相反,我们看到许多初创企业在后台利用大语言模型来开发针对特定问题的专用应用程序。用户并不会直接接触到AI,而只会获取有助于执行任务的建议和指导。其中部分应用程序已经在政府和私营部门中得到使用,包括绩效评估、速记和采购清单整理等私营及公共部门之间的共通性需求。随着越来越多政府部门开始熟悉AI工具,相信会有企业开发出专门针对政府运营的应用产品。
正如消费者希望以更低廉的价格获得更好的质量,公民当然也希望以较低的税收负担换取更好的公共服务。竞争压力促使企业采用有助于降低成本、提升服务质量的工具。既然政府部门之间缺乏竞争,公民自己就需要挺身而出、提出诉求。他们可以转述纽约市的AI计划,并询问当地政府是否也在制定相关技术探索路线。
在支出方面,预算听证会上的各部门主管也可能需要回答将如何使用AI来减少人力需求。更进一步,主管甚至可以思考AI技术能够削减多少公务员职位;较为温和的方式则是考虑AI带来的生产率提升,能否在未来10到20年的周期内雇员退休的同时、不增加新岗位并继续服务好市民群体。
机动车管理部门往往是民众抱怨最多的政府部门。公民可以询问能否在遵循法规和监管要求的前提下,使用AI技术来配合普通群众的办事时间。
另一个合理担忧集中在安全层面。公民可以询问如果AI给出错误答案,是否能够联系人工客服;他们的私人信息将如何保护;以及AI模型是否存在偏见。
简而言之,承担并享受政府服务的民众才是推动AI政务应用的最终决策要素。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。