“把每一家企业都视为软件公司是不够的。现在,每一位CIO都是云运营家。”总裁兼首席执行官Paul Cormier在新常态下给出了这样的判断。
在新常态下,创新仍然是第一优先事项。红帽全球副总裁兼大中华区总裁曹衡康(Victor Tsao)表示,过去像容器、人工智能、大数据都是来自于开源社区,毫无疑问开源也代表了创新。
红帽全球副总裁兼大中华区总裁曹衡康(Victor Tsao)
操作人员可以不分地点在本地、在云上都可以拥有一致的体验,简化操作复杂性,降低成本,并实现跨环境兼容性,红帽则具备广泛的选择和灵活性,可在任何地方进行创新。
为开源社区贡献成为被选择的重点
最近红帽发布的《2022年企业开源现状调查报告》对全球1296位企业IT决策者进行采访发现,95%的IT领导者认为企业级开源对于他们组织的整体企业基础架构非常重要,这相比去增长了5个百分点。
这也表明越来越多的IT领导者都在强调企业开源的重要性,同时82%的IT决策者更愿意选择为开源社区做出贡献的供应商。
究其原因可以总结为四点,第一,49%的CIO认为贡献度高的供应商对开源流程更清楚;第二,49%的CIO认为贡献度高的供应商会维持开源的健康发展;第三,49%的CIO认为贡献度高的供应商对所需功能开发有影响力;第四,46%的CIO认为贡献度高的供应商自身技术能力相对较高,能够挑战更高的新技术。
同时,80%的IT决策者预计,他们会在新兴技术领域使用企业级开源软件,其中71%在人工智能或机器学习、71%在边缘计算或互联网、68%在容器、61%在无服务器计算。
使用企业级开源的好处在于安全性更高、软件质量更高、能够安全地运用开源技术、为云技术、云原生技术设计。报告也调查了现在企业级开源的主要用途,IT基础架构现代化占62%、 数字化转型占54%、应用开发占53%、应用现代化占48%。
推动混合云的企业数字化转型模式
今年红帽全球峰会也发布了一系列的创新,Red Hat Enterprise Linux 9(RHEL 9)在混合云中拥有更快创新的自由度和灵活性,不会遗弃现有的工作负载和应用,而且RHEL 9是一个稳定、一致和值得信赖的平台,为扩展应用和跨混合云推出新兴技术提供更强大的安全环境。
软件定义车辆也是今年大会的一大重点,红帽宣布与通用汽车合作,把Ultifi平台运行在红帽的In-Vehicle Operating System车载系统上。这也将Linux标准应用于对安全至关重要的汽车系统;通过持续的安全认证方法,在开放平台上推动快速创新;利用设计重用和广泛的 Linux人才库优化开发;通过可更新的系统创建新的商业模式,使汽车具有长期相关性。
边缘计算这个未来趋势自然也不能少,OpenShift、RHEL能够支持边缘计算有效的扩展。实现智能边缘基础架构、从核心到边缘的共同基础、将自动化扩展到极致。
红帽还宣布与埃森哲扩大战略合作伙伴关系加快创新和云转型,包括埃森哲正在进一步投资Cloud First业务,与红帽开源产品组合共同增长;将红帽OpenShift与埃森哲服务集成,交付综合性的云服务;支持多合作伙伴合作,以交付定制的解决方案;加速开放混合云创新的共同路线图。
红帽希望通过混合云协助客户进行数字化转型。曹衡康表示,透过开放混合云,加速企业数字化转型进程是2022红帽大中华区发展策略。
同时,红帽也在今年成立了红帽客户成功团队(Red Hat Customer Success)来保障客户的成功,为企业使用开源软件提供全方位的规划、支持和保障,结合数字化转型及云原生转型趋势,提供端到端的全生命周期解决方案。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。