Debian "Bookworm" 的最新点发布版本 Debian 12.9 在周末发布,紧随其后的是一个较为特别的下游发行版 MX Linux 23.5。
尽管 MX Linux 基于 Debian,但两者有显著差异——例如,MX Linux 包含了去年 12 月底发布的全新 Xfce 4.20 桌面环境。
由于版本 12.3 被取消,这仅是 Debian 12 的第八个点发布版本。12.9 版本的发行说明列出了 72 个已解决的错误修复和 38 个安全漏洞修补。然而,作为稳定版本,它仍然保持了组件包的相同版本。
Debian 12 "Bookworm" 发布至今已有约 18 个月,这意味着它已经完成了生命周期的四分之三。下一个代号为 "Trixie" 的版本预计将于今年年中发布。如果你期待使用首选桌面环境的新版本,就需要等待可能在 6 月中旬发布的 Debian 13。
这个组件老旧的问题是推动用户转向下游 Debian 元发行版的卖点之一。(Ubuntu 是其中最大的发行版,以至于它本身也有许多下游版本。) 通过互联网上的论坛和群组,The Reg FOSS 团队注意到用户对 Ubuntu 的不满在增加,特别是对于successive Ubuntu 版本中越来越多组件被 snap 打包版本替代的做法。根据我们的经验,snap 在最新版本中运行良好,我们更倾向于它简单、易懂的设计,而不是 Flatpak 隐藏的复杂性,但 Flathub 是开源的而 Snap 商店不是,这对许多人来说已经足够构成转投他版的理由。
一些不满的 Ubuntu 用户转向了 Debian,或者如果他们同时也不喜欢备受争议的 systemd,则转向 Devuan。这两个发行版都摒弃了 snap——但 Debian 非常缓慢的发布周期可能会让人感到不适,这一点对 Devuan 同样适用。
MX Linux 很好地解决了这个问题。它基于 Debian 核心,但虽然继承了很多特性,也做出了深层次的改变。MX Linux 23 给我们留下了深刻印象。它配备了许多图形化管理和系统调整工具,例如用于安装二进制驱动程序和选择首选内核版本。它不使用 systemd 作为初始化系统,但为了增强兼容性,开发者选择不完全移除它。(我们注意到它现在已加入了 No systemd 列表。) 你甚至可以选择使用 systemd 启动电脑来安装需要检查它的软件——或者之后再移除该软件包。
对于桌面使用而言,我们发现 MX Linux 比 Devuan 或 Debian 更加精致,所需工作量更少,其树莓派版本也运行良好。MX Linux 23.5 在 1 月 13 日 Debian 12.9 发布后几天就跟进发布,包含了上游的所有更新。它还添加了自己的新组件——例如,其默认桌面环境现在是最新的 Xfce 4.20。还有一个特殊的"高级硬件支持"版本,仅支持 x86-64 架构,基于 Liquorix 替代内核——目前版本为 6.12-11。
如果你已经在运行 Debian 或 MX Linux,下次更新时将自动收到新版本,两个发行版的全新安装媒体也已经可用。(R)
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。