ZD至顶网软件频道消息:中间件,是位于操作系统之上和应用系统之下的一种软件门类,在IT系统中起着承上启下的关键作用,与操作系统、数据库一起同属基础软件范畴,也是国家重点鼓励和支持的软件类别之一。不过,与国产操作系统和国产数据库在市场的完全弱势相比,国产中间件的境遇显然要好得多,已经是中间件市场一支不可忽视的力量。
根据不久前计世资讯发布的市场研究报告,国产中间件的整体市场份额超过1/3,与IBM、甲骨文一起共成三分天下之势。其中,东方通的市场份额接近10%(9.7%),是国产中间件厂商中表现最为耀眼的。
应该说,东方通的这个表现并不令人感觉意外。作为国产中间件的中坚力量,也是继BEA被Oracle收购全球为数不多专门从事中间件业务的厂商,其对中间件市场的专注和志在必得使其在中间件的技术研发和市场推广上一直不留余力。不过,正是由于其一直专注于中间件业务,中间件的市场规模也限制了公司的想象空间。根据计世资讯的研究报告,中国的中间件市场规模大约在20亿左右,众多国产中间件厂商一起争夺IBM、甲骨文留下的30%市场份额,作为中间件龙头企业的东方通并不甘心。于是,东方通开始了多元化发展的探索之路,这就是从中间件厂商转向“云、大数据、移动软件基础设施和创新应用提供商”。
作为一家一直专注在中间件领域的厂商,过去的20多年来东方通见证了这个行业的变迁,也深刻地感受到这个行业的变化,特别是近年来互联网应用的兴起带来的企业IT架构的变化。
“中间件是十多年前IT系统从两层架构向三层架构演进过程中提出的概念,发展到今天发生了很多改变。特别是在大数据、互联网、移动应用铺天盖地涌来的时候,中间件在理念和技术实现上都发生了翻天覆地变化。不过,也有不变的,就是从架构上来说中间件起着基础架构的作用没有变化。”东方通首席产品规划师周炎表示,因为所有的应用,无论是物联网、大数据还是移动化,都需要有一个基础的支撑,而这个基础的支撑就是今天所说的基础设施。
东方通首席产品规划师周炎
这也是东方通将自己从中间件提供商转变为基础设施提供商的重要原因。当然,这里的基础设施也在中间件的外延上有了扩展。
周炎介绍说,这个基础设施超出了以前所谓的中间件的概念。比如,中间件在操作系统之上和应用层之下,ESB、消息转发、交易完成都是属于中间件范畴,现在扩展到基础设施这一层以后,所有应用或者业务中只要与技术相关都可以归为是基础设施。比如,IaaS、SaaS、PaaS都属于这个范围。
在东方通将自己的定位从中间件进入基础设施层面之后,业务范围一下子扩展开来。比如,很多新的业务进入公司视野,包括当下大热的区块链、IaaS、PaaS以及API经济等都已经列入东方通的重点关注技术,未来不排除进军这些领域的可能性。而且在虚拟化化上已经有了突破性进展,推出了东方通自己的Hypervisor。
“实际上,我们已经迈到了操作系统下面,未来甚至可能会有自己的操作系统,也有可能再往上,提供基础设施级的一个平台,原来的中间件只是其中的一部分。”周炎说。
创新应用提供商是东方通又一个新的业务方向。此前,东方通一直专注于传统的中间件业务,是一家纯技术型的公司,不涉及任何实际企业业务,是在这个技术领域里面横切了一刀。而创新应用提供商的角色则是要深入到企业业务层面,提供移动应用、大数据、云等完整的解决方案。
与中间件业务主要依靠自己研发不同,在转向创新应用提供商时,东方通走了一条不同的道路,依靠资本的力量。这在很大程度上得益于公司2014年在A股创业板成功上市,上市之后的东方通有了更多资源可以向新业务拓展,先后收购了数字天堂、慧捷朗和微智信业三家公司。
其中,数字天堂是一家移动平台产品提供和企业移动服务商,可以提供完整的移动生态链产品及服务;慧捷朗专注于无线网络测试与优化,提供移动通信网络优化综合解决方案;微智信业专注于信息安全,主营业务有信息安全监测、安全服务及质量提升和大数据安全。
“未来,我们认为就是至少两种企业可以生存下来,一种企业是依托于IT活着的企业,还有一种企业是依托于业务活着,IT只是辅助手段。现在整个社会离不开IT,离不开互联网技术。这些企业需要有一个可靠、可信任能够理解他们并且能够帮他们把技术实现达成目标的这么一个行业,或者是一堆人。这里有很大的空间,东方通所瞄准的就是其中的基础设施和创新应用,然后依靠我们的技术踏踏实实地为我们的客户去提供服务,帮助他们达成业务,进而换得我们业务的成长。” 周炎表示。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。