Enlightenment 作为 Linux 桌面环境的元老级存在,在沉寂数年后发布了全新版本。
0.27.0 版本于本月初发布,其发行说明可能是我们在开源项目中见过最简短的:
"这是 Enlightenment 的最新版本。包含大量修复,以及一些新功能。"
仅此而已。不过,Enlightenment 0.27 并非独立发布:其图形编程库早已分离出来,成为 Enlightenment 基础库 (EFL)。随着 Enlightenment 0.27 的发布,EFL 也更新到了 1.28 版本,在 151 个文件中进行了数千项更改。
Enlightenment 有着漫长而复杂的历史,这也反映在其不太明显的版本编号系统中。首个版本发布于 1997 年,使其成为目前仍在积极开发的最古老的 Linux 图形环境之一。开发版本 16 (DR16) 于 1999 年发布,之后经历了 13 年的停滞期。该版本现在被称为 E16,最新的 1.0.30 版本于 2024 年 8 月 10 日发布。
随着 2012 年 12 月 Enlightenment DR17 的发布,从 2000 年起与早期版本一同开发的 EFL 正式成为独立工具包。该版本现在以 Moksha 分支的形式继续维护。轻量级 Ubuntu 衍生版 Bodhi Linux 就基于 Moksha 桌面,我们在 2023 年 8 月评测了 Bodhi 7 版本。
自 Enlightenment DR17 以来,更新变得更加频繁:项目在接下来的 13 年里发布了 10 个新版本。据报道,在经历了早期的不稳定后,近几个版本变得更加稳定。
虽然很少将其作为主打,但大多数知名 Linux 发行版都包含 Enlightenment。例如,openSUSE 在安装时将其作为桌面环境选项之一。Tizen 项目在许多智能电视中使用,其 9.0 M2 版本于去年 10 月发布,采用了 Enlightenment 和 EFL。
我们在 Arch Linux 上试用了新版本。运行非常流畅,虽然保持轻量级特性,但与 90 年代的根源一致,它保留了比 21 世纪桌面更多的动画和视觉效果。在 VirtualBox 虚拟机中,如果没有启用硬件加速,Enlightenment 会提示缺少 OpenGL 支持,而且无论是否启用都非常不稳定,我们认为这是因为它不适应模拟硬件。
Enlightenment 可能不适合所有人,但看到这样一个资深项目更新令人欣慰。在日益单调的企业级 Linux 环境中,它是一个有趣的替代选择。
好文章,需要你的鼓励
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。
浙江大学研究团队开发的"自制动力训练"(Self-Braking Tuning,SBT)方法解决了大型语言模型在推理过程中的过度思考问题。该方法不依赖外部干预,而是培养模型自主识别冗余推理并适时终止的能力。研究者通过分析推理效率比率和过度思考标记比率,构建了两种数据策略:SBT-E(精确版)和SBT-D(动态版)。实验结果表明,经过训练的模型在多个数学基准测试上保持原有准确率的同时,将标记消耗减少了30%到60%,显著提高了推理效率。这项创新使AI系统能更像人类一样有效思考,为资源受限环境下的AI部署提供了新解决方案。