至顶网软件频道消息:最近的一项研究表明,看到机器抢走任务会让人类员工士气低落。这项研究是由康奈尔和耶路撒冷的希伯来大学(Cornell and Hebrew University of Jerusalem)的研究人员进行的,旨在通过一系列游戏研究人类是如何对抗机器的。(Dan Robitzski对结果进行了很好的总结。)
正如一位研究参与者(人类)所说:“与机器人竞争我感到非常有压力。在一些回合中,我一直看到机器人的分数越来越高,这让我感到非常神经紧张。”
关键是帮助员工获得舒适感,提供培训让他们准备好与人工智能系统协作。企业领导者希望他们的员工在工作中接受人工智能,因为公司对人工智能有很大的计划——并且希望它最终能够扩展——而不是取代——人类员工的能力。埃森哲研究所最近对1,200名商业领袖和14,000名工人进行的一项研究表明,人工智能将为人们的日常工作带来重大变化,从根本上重新定义或重新设计他们目前的工作岗位。接受调查的高管中有近一半(46%)的人表示,由于机器承担了日常任务,而且人们转向基于项目的工作,“传统的职位描述已经过时”。29%的最先进的人工智能公司的负责人表示,他们已经对工作进行了大量重新设计。
埃森哲的调查发现,近四分之三的高管(74%)计划在未来三年内使用人工智能将任务自动化的可能性“大”或“非常大”。与此同时,几乎所有人(97%)也表示其目的是提高工人的能力。他们设想他们的员工能与智能机器进行富有成效的合作。
埃森哲的报告作者Ellyn Shook和Mark Knickrehm表示,与此同时,高管们低估了员工获得相关技能的意愿。平均而言,高管们认为只有约四分之一(26%)的员工“准备好采用人工智能”,并将员工的抵制视为一个主要障碍。然而,从工人的角度来看,68%的高技能员工和近一半(48%)的低技能员工对人工智能对他们的工作的影响持肯定态度。总体而言,67%的员工认为发展与人工智能协同工作的技能非常重要。
因此,高管们乐观地认为人工智能会改善工作,但似乎并没有完全理解他们的员工希望开始学习如何与人工智能协同工作。为了解决这种脱节问题,Shook和Knickrehm提供了以下建议:“重新构想工作”,并在即将到来的人工智能时代推动员工队伍:
不断评估任务和技能,而不是工作。“公司需要确定必须执行的新任务” ,并“将这些任务分配给人类员工或机器”。这样的努力正在进行中,并且需要不断进行重新评估,“一些公司发现他们需要纠正他们对机器的初始工作分配。毕竟,许多人工智能系统不是完全自动化的,需要人类的大量输入和调整。”
创建新角色。Shook和Knickrehm表示,这是至关重要的,因为“人工智能使人们能够承担更高价值的工作。”他们表示:“运营工作将变得更具洞察力和战略性,而单一技能角色将变成多技能。”例如,“消费者品牌将越来越依赖人工智能聊天机器人在大众市场中代表他们。人格培训师将被要求为不同情况开发适当的语调、幽默感和同理心。医疗保健人工智能代理面对患者所需要的敏感度与面对杂货顾客的超市人工智能代理不同。”
将技能映射到新角色。埃森哲的作者表示,在许多情况下,那些工作角色被自动化取代的员工可以从事更高价值的工作,埃森哲的作者们表示:“使用人工智能和其他技术为客户提供更明智的服务。”他们表示:“接收订单处理和应付账款收款。埃森哲的一个客户已经生成了人类-人工智能混合劳动力,其中算法可以预测哪些订单存在问题,例如取消或支付纠纷的风险。因此,员工可以花更多时间关注高风险的情况并用积极主动的方式应对可能出现的负面结果。这种方法需要培训人员,帮助他们培养一系列专业知识和能力——从行业知识到分析和数据解释,再到以新方式与客户合作所需的软技能。”
需要优先考虑发展的技能。在埃森哲的调查中,有效部署人工智能的最重要技能包括资源管理、领导力、沟通、复杂的问题解决和判断/决策。Shook和Knickrehm表示:“对于与人工智能合作来说,需要的最有价值的人类技能将是在机器无能为力的时候,干预、制定或纠正决策所需的判断技能。”
应用数字化学习体验。这些作者表示:“数字学习方法,如虚拟现实和增强现实技术,可以提供真实的模拟,帮助工人掌握新的手工任务,使他们可以使用智能机器。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。