至顶网软件频道消息: 2018年6月26日,自2012年创立以来一直深耕国内云计算PaaS市场的企业级解决方案提供商BoCloud博云,对外宣布完成B+轮近亿元融资。引发市场关注的是,博云本轮融资由今年以来发力迅猛的京东云和京东金融联合投资,博云也一举成为京东云抢夺云计算市场的重要战略合作伙伴。同时,京东云获得博云公司董事会席位。
经过6年的高速发展,今天的BoCloud博云已经发展成为一家在PaaS领域拥有丰富实践经验的科技公司。包括银行、证券、保险、支付、互联网金融、能源、先进制造、零售等十多个领域的上百家大型企业客户,都由博云提供专业的云计算底层架构商业化服务,其保持着营业额年均不低于200%的增长速度,在PaaS平台、多云管理平台、超融合架构、自动化运维等领域为客户提供成熟的产品和解决方案,被业界誉为“PaaS领域收入增长最快的云计算厂商之一”。
作为国内主流云计算厂商,京东云JD Cloud持续看好企业级PaaS云市场,BoCloud博云作为PaaS行业领导者,拥有强大的本地服务能力和个性化交付能力,本次合作将加强双方的竞争优势。除了品牌背书,京东云成为博云的直接合作伙伴,从产品、解决方案到交付能力,双方将联合技术优势大幅提升客户上云一体化交付水平,深耕细作私有云。构建丰富的大生态,投资战略伙伴,迅速拓展细分领域的技术版图,是京东云展现后发优势的技术策略,依靠战略联盟与商业合作的强势组合,让京东云的业务在云计算各细分领域结出硕果。
京东金融作为面向金融机构提供的新型商业服务商,洞察到金融机构在科技转型的过程中,在 PaaS 层的痛点非常普遍,而博云凭借着扩展与服务金融大客户的强大能力,获得市场认可。借此契机,双方将打造金融技术领域“一站式解决方案”,加快促进金融客户快速顺利完成数字化转型。
2015年,以Docker为代表的容器技术的爆发,博云亦将骨干力量投入到容器技术产品的开发和落地中,但博云始终没有将自己仅仅定位为一家容器技术公司,而是深深地认识到,技术只是客户实现数字化转型的手段,技术的演进从不停歇,客户的需求才是根本。
如今的博云,明确的将自己定位为云计算开源技术的商业化服务提供商,为客户的云计算战略提供基于开源软件的IT系统底层架构支持,帮助客户将有限的资源聚焦到自身主营业务上,以实现数字经济时代对市场的快速反应和整体生产效率的提升。
为此,BoCloud博云坚持以客户需求为导向的产品研发、迭代原则,一切产品开发都紧紧围绕解决客户痛点。为支持客户对IT系统数字化转型的业务需求,博云从应用管理、资源管理、开发测试、运营维护等角度出发,不断完善产品体系,形成由PaaS、多云管理、自动化运维组成的iPaaS支撑体系,帮助客户在数字化转型的整个过程中实现硬件资源云化、软件应用云化和应用运维云化。
京东集团副总裁、京东云投资负责人邓天卓表示,从技术产品层面到市场推广层面,京东云和博云未来都有望实现“互联互通”,战略合作可以让双方取长补短,真正实现“1+1>2”的理想效果。不论是京东云,还是京东金融,在获得博云云技术的强大支撑后,客户上云需求一体化交付的效率将获得大幅提升,而博云技术团队凭借其在PaaS层长期的实战经验将会有效丰富京东云和京东金融的生态版图。
“通过本次合作,我们要进一步向客户学习,深入客户,了解客户的痛点、难点,务实地使用技术解决实际的问题,选择合适的技术来构建能解决客户实际需求的产品。”BoCloud博云CEO花磊说,博云的使命就是“通过技术提升社会效率”。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。