9月8日,主题为“新IT 新引擎”的第七届Techworld联想创新科技大会于线上启幕。在本次大会开设的“新IT时代,企业智能化转型之旅分论坛”上,联想创投董事总经理、首席营销官陈蜀杰与联想创投成员企业数码大方副总裁陈卫东、联想云科技客户成功副总裁张跃华、弘玑Cyclone首席产品官贾岿、懂的通信副总经理倪晓林等业务负责人齐聚一堂,深度剖析了数字时代企业智能化转型的痛点,并共同为企业的数字化、智能化转型提供了新思路。
新IT时代,企业智能化转型之旅分论坛现场
RPA关注的是人的技能如何被数字化
智能化变革已渗透到企业经营生产的方方面面,跨部门、跨平台的“协同”能力成为推动各行各业数字化、智能化转型的关键,而基于产品的个性化、差异化服务方案,也成为了企业智能化转型的重要驱动力。
弘玑Cyclone首席产品官贾岿博士
弘玑Cyclone首席产品官贾岿博士谈及Cyclone RPA如何通过智能的数字工具和技术,帮助企业穿针引线,大大提升企业整体效率时表示,进入数字时代,企业里的人、各种各样的IT系统、生产制造的OT系统等核心生产力和生产材料,都会以数字化的方式连接起来,并以智能化的手段进行决策和运营。RPA是以数字化而非信息化视角重新理解定义企业里人与系统的能力与关系,关注的正是人的技能如何被数字化。
作为诞生于数字化转型大潮中的新企业服务软件公司,弘玑深刻地意识到这个行业的巨大机会。目前,弘玑的产品已经突破单一的自动化技术,并通过增强AI的技能平台,具备了各种各样的数据分析能力,也已经开始开发企业级的流程挖掘和智能决策的超级自动化能力。
2021年,弘玑代表中国的RPA厂商进入Forrester Wave并被评为卓越表现者。近日,更凭借产品创新、技术服务及快速增长的全球市场表现入选Gartner魔力象限,获得迄今为止中国厂商在RPA行业魔力象限的最佳位置,这标志着弘玑在中国的RPA赛道处于一个绝对领先的地位,并进入全球一线RPA厂商阵营,有实力与世界顶级的RPA厂商同台竞技。
RPA+AI重构人、系统、软件机器人三元关系
伴随RPA与AI的深度融合,RPA已经不再是一个简单的工具,而是成为了一个具有智慧的“数字员工”,未来数字员工也会成为企业非常重要的生产力。贾岿博士认为,过去RPA主要负责一些发票、报销、Office等桌面级任务的处理,而现在的RPA已经完全融入了业务流程的各个角度。目前,RPA行业正在走向一个快速发展、深入贴近各个业务场景的发展期。
目前企业对非结构化数据的管理要求越来越高,弘玑Cyclone通过“RPA+AI”的策略,让人类的感知级的智能融入核心技术,而随着AI和自动化技术的相互反哺和支持,未来的数字员工也将从一个简单的数字化产品,变成智能化的产品生态。
贾岿博士强调,国内很多大企业客户都有了建设RPA的平台化和服务化的趋势。今年上半年,越来越多的大B企业,在企业级甚至集团级的层面建设RPA数字员工平台,开发速度甚至小范围的超过了国外一些大B客户对RPA的需求。而越来越多的中小微企业客户,甚至是个人客户或微商等,也开始有了大量自动化的需求。
弘玑Cyclone在企业级用户及中小微用户这两条线上都有非常清晰的产品布局,今年下半年会面向普通中小微企业发布一款产品,它会是以“RPA+AI”的远程交付方式,将自动化服务释放给更多普通用户使用。贾岿博士最后指出:“人的技能的数字化和智能化,能够重新构建人与系统和软件机器人的三元关系,推动企业的数字化转型。”
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。