日前,红帽(Red Hat)发布 Red Hat Enterprise Linux(RHEL)9.3。RHEL 9.3 是红帽旗舰操作系统的重大更新。最新的RHEL 9.3版提供了大量新功能和改进。其中最吸引笔者的是开发者体验的增强、安全性的提高及运行容器扩展功能。
我们中的许多人仍然用 Linux 运行服务器,但最近 IDC Research 的预测显示,Linux 会越来越多地用来运行容器和云原生计算的启动平台。IDC 预测,到 2027 年,该软件市场将增长到 55.7 亿美元,复合年增长率(CAGR)将达 23.4%。
红帽希望 RHEL 9.3 成为该技术趋势的基础。红帽公司 RHEL 副总裁兼总经理 Gunnar Hellekson 表示,“最新的RHEL 9.3版在继续支持当前 IT 需求的同时,也为未来的创新创造了更顺畅的途径,无需全面改变技能、工具或工作流程。”
为了使 RHEL 9.3 更适合云计算,所有 RHEL 订阅现在都包括 Red Hat Insights。Insights是一套用于大规模开发和管理 Linux 平台的托管专家系统服务。Insights 可以提醒用户注意潜在的系统问题并帮助用户解决这些问题。Insights还可以帮助简化操作任务,例如构建标准化镜像、打系统补丁和优化资源。
至于容器的选择,红帽推荐用 Podman。Podman是一款用于部署、运行、构建和共享 Linux 容器的无守护进程工具。Podman 首次发布于2014年,而 RHEL 9.3 则与Podman 进行了深度整合。
例如,RHEL 9.3 包含预配置的 Ansible 角色和模块集,可简化特定的 Podman 系统操作。Podman 的 RHEL 系统角色现在也支持 Quadlet。Quadlet是一个简化使用 systemd 运行容器过程的工具。
除了容器方面的改进,RHEL 9.3 还针对开发人员推出了多项更新,包括:
· 更新的编程语言和工具:RHEL 9.3平台现在包含最新版本的流行编程语言和工具。其中值得注意为 Apache HTTP Server 2.4.57、Redis 7、GCC 13、Rust 1.71 和 LLVM 16,这些可为开发人员的项目提供最新资源。
· 增强的工具集和编译器:RHEL 9.3更新提供 GCC 13.1.1 编译器,其中包括大量错误修复和增强功能。Rust 1.71 解决了一个安全漏洞并引入了更高效的 Cargo 稀疏协议。LLVM 16 现在默认使用 C++ 17 构建版,增加了对新 CPU 扩展和优化指令集的支持。
· Go 1.20: 新版本 Go 包含多项改变,例如新的 crypto/ecdh 软件包、垃圾回收器的优化以及对配置文件引导优化的支持。
RHEL 9.3 自然还提供了多项安全更新。其中最重要的更新与容器和边缘计算有关,这一点没有人会感到意外。Keylime 提供了高度可扩展的远程启动验证和运行时完整性测量解决方案。用户可以通过Keylime 使用基于硬件的加密信任根节点监控远程节点。
所有这一切下面的核心 RHEL 依赖的内核版本为 5.14.0-362.8.1 的 RHEL 9.3 。内核版本包括对 perf 性能分析工具和崩溃工具的更新以及对精简配置逻辑系统角色的支持。
RHEL 9.3 还提供对 Linux 存储系统 Stratis 的全面支持。Stratis 将现有的 Linux 存储功能集成到一个更精简、更友好的用户界面,可以帮助简化存储管理并提高效率,使得存储配置和管理对新手和有经验的用户都很方便。
总的来说,RHEL 9.3 在为企业应用提供安全、稳定和开发人员友好的平台方面迈出了重要的一步,无论这些企业应用是在壁橱里的老式物理服务器上还是部署在云和边缘上。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
查尔斯大学和意大利布鲁诺·凯斯勒基金会的研究团队首次系统性解决了同声传译AI系统延迟评估的准确性问题。他们发现现有评估方法存在严重偏差,常给出相互矛盾的结果,并提出了YAAL新指标和SOFTSEGMENTER对齐工具。YAAL准确性达96%,比传统方法提升20多个百分点。研究还开发了专门的长音频评估工具LongYAAL,为AI翻译技术发展提供了可靠的测量标准。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
印度理工学院团队构建了史上最大规模印度文化AI测试基准DRISHTIKON,包含64288道多语言多模态题目,覆盖15种语言和36个地区。研究评估了13个主流AI模型的文化理解能力,发现即使最先进的AI也存在显著文化盲区,特别是在低资源语言和复杂推理任务上表现不佳,为构建文化感知AI提供了重要指导。