企业数字化转型,大家往往只关注如何使用技术,然而企业本身的文化是决定数字化转型的根本,同时CIO需要联合业务部门一起推进数字化转型,最后要考虑的才是技术。
最近,红帽总结全球企业数字化转型实践经验,结合中国本土市场、政策与技术特征,绘制了《中国企业数字化转型图谱》,让用户明晰数字化转型下一步需要面对的问题。
图谱中,第一圈分为六个不同维度,也可以说是六个战略,分别针对混合云架构、云原生应用、自动化、开放组织及人才培养、开源赋能、信息化+产业化,第二圈则是对应的技术,最外圈是对应的不同场景和需求。
“六个纬度既是互相关联,又是互相独立。”红帽全球副总裁兼大中华区总裁曹衡康说,一个客户认为目前现代化应用是最关键的,可以先从这个场景做起,在推进的过程中,可能客户又发觉要把应用自动化和混合云结合在一起。
红帽还会通过一些免费的训练营的方式对客户展开更进一步的互动,针对具体情况、行业特点、客户特点制定具体的路线图和图谱。
开源与下一代技术底座
企业下一代技术底座,开源是一个恰如其分的技术。红帽作为开源技术的倡导者,正在不同层面倾听客户的需求,并将开源技术和客户需求进行结合。
“环境一致性和开发流流线型是企业技术底座的两大特点。”曹衡康说道,不管是在数据中心,还是在云上,只要基于红帽的架构,就可以保证一致的体验。
红帽全球副总裁兼大中华区总裁曹衡康
曹衡康认为,下一代技术底座需要满足兼容、开放、敏捷和便利。
兼容:数字化转型涵盖非常广,需要在架构上就具备兼容性,可以兼容不同的产品和解决方案,目前全世界5000多家硬件厂商、4000多家软件厂商都与红帽都有认证兼容。
开放:开源技术源于众人的智慧,红帽是将开源变成企业级的产品,所以开放就是创新。
敏捷:数字化转型需要敏捷,消费者所提出的需求要迅速开发出来,现在微服务开发可以在短时间就开发出来。
便利:平台移动要便利,可以在任何环境实现开发,同时底层技术服务要有更高的自动化。
最近,在2022 Red Hat Summit:Connect(红帽论坛)中国站上,红帽也宣布了2022红帽亚太创新奖中国区获奖名单,联通数科、吉利汽车和迈瑞医疗采用红帽解决方案,在持续变化的商业环境中提高敏捷性并增强客户体验,因此也获得了该奖项。
图谱的演进需要共同努力
“德不孤,必有邻”,红帽也有志同道合的人一起作伴,与硬件厂商合作适配不同的硬件,与ISV合作开发出不同场景的应用,通过强大的生态合作伙伴体系共同完善图谱。
今年红帽也与两个重要的合作伙伴展开合作,一家是地平线,以软硬结合协同优化的技术理念,共同打造面向未来的车载智能计算基础平台。一家是中科创达,打造更多开放创新的系统技术产品和解决方案,通过云端一体融合创新,赋能各行各业的数字化智能化转型。
在曹衡康看来,正因为红帽是开放的体系和平台,也能团结更多的生态伙伴一起帮助客户实现数字化转型,同时不断开发演进图谱。
而且红帽同样希望把选择权交给客户,不会被某些技术所锁定。曹衡康说,选择权、决定权在客户,客户不会被某一个技术所锁定,他可以去做一些改变,让他能更加有弹性。
通过红帽开放创新实验室可以和客户融合在一起,了解需求提供建议。通过访谈的方式了解了企业现状,然后把相关人员放在一个大型会议室里,大家一起头脑风暴,设立一个标准和最后的目标,然后去探讨用什么样的方式去修正现在的工作模式,以达到预期目标。
曹衡康强调红帽所做的事情不只是开源技术,还包括开源的文化、开放的思维,真正能够帮客户打造出来更加自主性,且与时俱进的技术底座,跟随技术的前沿实现开放的未来。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。