目前,几乎三分之一的服务器都在运行Red Hat Enterprise Linux(RHEL,RHEL 7是平台的最新版本)。当然,正如IBM-Red Hat收购显示的那样,Red Hat已经不仅仅是Linux的,它还关乎对云的支持。而最新的RHEL版本——RHEL 7.7,通过其内置的混合云和多云支持来证明了这一点。
首先,我们来看看RHEL 7.7的Linux基础。据了解,RHEL 7.7将在RHEL 10年生命周期内进入维护阶段I(Maintenance Phase I)。维护阶段I强调维护生产系统的基础架构稳定性和可靠性,未来的次要版本将全部涉及安全性和稳定性补丁。如果你需要新功能,请等待RHEL 8。
当你想要实现这一目标时,Red Hat提供的迁移工具(包括就地升级)可以从RHEL 7.x转换为RHEL 8。但是不用担心,你的RHEL 7将能够一直使用到2024年。
从现在开始,你可能不需要再重新启动RHEL 7.7实例。因为它引入了实时修补Linux内核支持,你可以使用它来应用内核更新,以修复紧急(Critical)或重要常见漏洞和风险暴露(CVE)。
RHEL 7.7最重要的更新是对最新一代企业硬件的支持以及最近披露的ZombieLoad漏洞的补救措施。但需要说明的是,RHEL对底层英特尔芯片问题却无能为力。这意味着你的处理器在许多作业上仍然将会运行得更慢。不过,从另一方面来看,所有操作系统似乎都是如此。
除此之外,最新的RHEL 7还包括网络堆栈性能增强功能。在此版本中,你可以将虚拟交换操作卸载到网络接口卡(NIC)硬件上。这意味着,如果你使用虚拟交换和网络功能虚拟化(NFV),将在云和容器平台(如Red Hat OpenStack Platform和Red Hat OpenShift)上获得更好的网络性能。
RHEL 7.7用户还可以使用Red Hat的新预测问题解决工具:Red Hat Insights。它使用基于软件即服务(SaaS)的预测分析方法,能够在系统出现问题之前发现、评估和缓解潜在问题。
对于开发人员,RHEL 7.7还附带了Python 3.6解释器,以及pip和setup工具实用程序。以前,Python 3版本仅作为Red Hat Software Collections的一部分提供。而未来,Python 3将成为RHEL 8默认的Python。换句话说,如果你仍在运行Python 2程序,那么现在就应该开始迁移到Python 3了。
RHEL 7.7 Red Hat Image Builder现在支持云中迁移。此功能也在RHEL 8中,使你可以轻松地为云和虚拟化平台(如Amazon Web Services(AWS)、VMware vSphere和OpenStack)创建自定义RHEL系统映像。
为了帮助云原生开发人员,RHEL 7.7在RHEL工作站上完全支持Red Hat的分布式容器工具包——buildah、podman和skopeo。在桌面上构建之后,程序员可以使用Red Hat Universal Base Image在混合云中构建、运行和管理容器化应用程序。
正如RHEL副总裁兼总经理Stefanie Chiras在一份声明中所说:“由于混合云作为关键任务工作负载的首选生产环境,因此保持所有IT足迹的稳定性和一致性是关键。”
截至目前,RHEL 7.7已经可以通过红帽的门户网站(Red Hat Customer Portal)提供给红帽企业Linux订阅用户。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。