至顶网软件频道消息:今天在波士顿举行的Red Hat Summit大会上,Red Hat宣布备受期待的Red Hat Enterprise Linux 8(RHEL 8)现已上市。
6个月前这个新版本刚刚进入测试阶段,而上一代版本还是在大约5年前发布的。
为了跟上这期间云计算发展的热潮,Red Hat称这个版本“是针对混合云时代重新设计的”,是为跨多个公有云部署而构建的。Red Hat还以Universal Base Image的形式向非Red Hat客户提供了一个版本,在不要求许可的情况下内置于软件容器内的应用就可以运行在RHEL 8上。
Red Hat Linux 8引入的数百项新功能中,最大的亮点之一就是Red Hat Insights,一种自动诊断和系统管理服务,利用预测分析来发现和解决各种问题,从安全漏洞到稳定性等问题。另外一项名为Image Builder的新功能让客户能够构建一个操作系统映像,然后在他们所选的任何基础设施上进行部署。
Red Hat Smart Management是一个附加组件,据称可以最大程度上降低构建和管理混合云的复杂性,它结合了Red Hat Satellite(用于内部部署系统管理)、云管理服务(用于Red Hat Enterprise Linux分布式部署)、以及Red Hat Smart Management(用于对混合云的Linux部署进行管理、修复和配置)。
此外有一个面向开发者的功能Application Streams,聚合了用户希望运行在私有专用空间所需的所有应用。为了跟上众多语言、框架和开发者工具的快速迭代,Application Streams应用可以在不影响核心操作系统的情况下自动进行打补丁和增强功能等操作。
此外,Red Hat推出了一个新的图形Web控制台,整合了Linux实例的管理和监控,而且RHEL 8新增了对就地升级的支持以简化RHEL 7向新版本的切换。安全性方面也有所加强,支持OpenSSL 1.1.1和TLS 1.3加密标准。
鉴于软件容器(一种便携式的操作环境,包含了应用运行所需的所有软件)的普及,RHEL 8也着力打造了用于构建和管理软件容器的多项新功能。
其中包括一个Red Hat容器工具包,可以帮助开发者创建、运行和共享容器化应用,不需要对安全性较低的容器设置守护程序(运行在主机操作系统上的服务)。
RHEL提供了选配的Universal Base Image功能,可以构建运行在任何位置的应用。UBI并不是一个完整的操作系统,而是包含了一组基本映像、语言运行时映像以及满足常见应用依赖性的相关程序包。当运行在RHEL或Red Hat OpenShift容器平台之上的时候,应用就会得到Red Hat的全方位支持。
Red Hat Enterprise Linux产品管理总监Gunnar Hellekson表示:“以前,RHEL二进制文件不是免费的,会导致不稳定性。而UBI是一个安全稳定的基础,可供独立软件厂商和上游开发者使用。当运行在RHEL平台上的时候,ISV将不负责RHEL字位,不再时刻关注补丁和安全修复的进度;Red Hat将帮助他们做这些事情。”
Red Hat产品战略总监Brian Gracely表示,UBI旨在激励开发人员在RHEL上开发应用,同时推动整个Linux生态系统的一致性。“ISV可以使用这款产品,并且知道它是经过认证的RHEL。”
RHEL 8目前已经全面上市。
好文章,需要你的鼓励
这项研究介绍了Ankh3,一种创新的蛋白质语言模型,通过多任务预训练策略显著提升了模型性能。研究者采用两种互补任务:多掩码概率的掩码语言建模和蛋白质序列补全,使模型仅从蛋白质序列就能学到更丰富的表示。实验表明,Ankh3在二级结构预测、荧光预测等下游任务中表现优异,尤其在模型未曾训练过的任务上展现出强大泛化能力,为蛋白质设计和分析开辟了新路径。
法国波尔多大学研究团队开发了一个突破性框架,用于神经退行性痴呆症的差异化诊断。该框架将3D脑部MRI转换为文本报告,并利用强化学习优化的大语言模型进行详细诊断推理。不同于传统"黑箱"方法,这一系统能生成透明、有因果关系的解释,同时保持高诊断准确率。研究显示,通过群组相对策略优化(GRPO)训练的轻量级模型能展现复杂推理行为,包括假设检验和非线性思考,提供与临床决策流程一致的排序诊断结果。
这项研究提出了CLUE框架,首次能够生成自然语言解释来揭示AI事实核查系统不确定性的来源。与现有方法不同,CLUE能识别文本片段间的冲突与一致关系,并解释它们如何影响模型的预测不确定性。实验表明,CLUE生成的解释在三种语言模型和两个事实核查数据集上都更忠实于模型不确定性,用户评价其更有帮助、信息更丰富、冗余更少且逻辑更一致。CLUE不需要微调或架构更改,适用于任何白盒语言模型,为事实核查提供了实用支持。
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。