ZDNet至顶网软件频道消息:IBM(NYSE:IBM)宣布,Polaris 金融科技公司(以下简称:Polaris)选择采用IBM的社交软件来为员工提供卓越的数字体验、提高员工队伍的生产力并加快业务增长。该公司总部位于印度,是一家为银行、保险及其他金融服务提供相关金融技术的全球领先企业。
通过采用IBM企业社交协作平台,Polaris正在改变全公司12500名员工之间的互联、沟通和协作方式,以期提升员工队伍的生产力。这种新平台并不是单纯依赖电子邮件来开展基本业务活动和项目协调工作,而是让其能够充分利用所有员工的集体知识来推动创新、激发创意并促进未来的业务增长。同时,新平台还大大缩短了新员工熟悉工作所需的时间。
与IBM合作,Polaris 设计并开发了一个企业社交平台——Octopus。该平台运行于IBM Connections之上,并使用了IBM社交商务工具包中提供的API。借助这项应用,包括Polaris 在内的众多IBM业务伙伴和客户都能利用Connections的基础资源来构建一类全新的基于云的社交商务应用,以用于开展业务活动。有了Octopus平台,Polaris 就能在一个基于云的开放式移动架构中运用各种社交网络、社交学习、数字体验和知识或是内容管理工具。
Octopus能够管理企业内部所有的项目交付成果、顾客互动、知识分享、在线协作以及雇员参与,这种变革帮助企业提高了整体生产力。利用Octopus提供的全方位情况透视和集中化信息存储,Polaris不必再完全依赖电子邮件来进行项目的记录、交付和协作,同时也改善了与客户之间的沟通与互动。为褒奖Octopus的强大功能,2013年10月,CIO 100大奖的评委将一年一度的“The Astute 100 – Honoree 2013”奖项颁给了Octopus平台。
Polaris 首席技术官兼首席信息官Shashi Mohan表示:“Octopus让我们公司更深刻地理解了员工参与和企业绩效之间的关系。通过为员工提供一个高效的社交协作平台,我们营造了一个更加灵活的工作环境,并且让员工与员工以及员工与客户之间能够更顺畅地对话沟通。实际上,这种改善是可以量化的。我们的分析显示,Octopus减少了8%的工作量和4%的流失,更将新人熟悉工作的时间缩短了75%!”
IBM软件集团大中华区协作解决方案总经理李贵兴表示:“全球各地的企业仍然在想方设法将自己打造成更加智慧的企业,以紧密联系顾客、雇员、业务伙伴以及其它关键利益相关方,从而互通有无、推动创新、提升业绩,并超越竞争对手。事实一再证明,要实现这一目标, 社交技术仍然是关键所在。无论是本地部署还是云端提供,社交都能让企业在组织内外推动强有力的团队合作,从而实现高效的配合协作和强大的员工生产力。”
由于世界各地的企业都希望转变为更加智慧化、互联化且能力更为强大的企业,社交商务解决方案的采用率仍在继续上升。通过部署高度可定制的企业社交平台,像Polaris这样的公司就能营造出一个灵活的环境,在这个环境中,企业能够捕捉到有价值的洞察,并能更轻松地接触员工、客户、合作伙伴及供应商等各个关键利益相关方,从而加快创新步伐并获得良好的经营业绩。
IBM正在帮助中小企业推动一场根本性的变革,让它们在面对问题时不再只是被动应对,而是能够主动预见并积极解决。在这个智慧化的时代取得成功,企业需要利用分析和移动技术以及社交商务和基于云的系统对自身进行改造,进而从小型组织转变为智慧的企业。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。