Linux 内核项目负责人 Linus Torvalds 又重新成为全尺寸机械键盘爱好者一员。 这位企鹅皇帝于周日透露,他过去六个月一直在使用他所描述的 “更安静的低调键盘”。
我现在将方便地把责任归咎于 autocorrect,因为我无法将错误归咎于键盘。
“我用了半年的时间,原以为会习惯,但我还是回到了那嘈杂的咔哒咔哒声——带有点击感的蓝色 Cherry 机械键盘开关,”他写道,并指出这种键盘开关是由德国公司 Cherry 制造的,该公司宣传它们为 “点击感明显” ,因为每次按键都能产生触觉和听觉反馈。
“看来我需要听觉反馈 ( 或许还有触觉反馈 ) 来避免那些我一直在犯的打字错误。”
他现在也不确定自己为何要进行这次键盘实验。
“并不是说我处在某个办公室里,我键盘的噪音会打扰别人,”这位远程工作先驱写道。
“我提这点只是以防有人对我的打字错误作出反应,”他补充道。“或者其实只是我自己,并且我只是方便地把问题归咎于键盘。”
“总之,从现在起,我会方便地把责任归咎于 autocorrect,因为我无法将错误归咎于键盘。”
如果 Torvalds 打错字,也并未耽误 Linux 内核 6.15 版本的工作;他在周日称,在推出第六个候选版本后,整体进展依然“相当正常”。
“我们的提交记录比 rc5 多了一些,这并不是我在版本发布进程中想要看到的趋势,但差别并不大,更像是在修复拉取请求时的时间波动噪音,而非真正的信号,”他写道。
“所以我不会担心这一点。我们在正常的发布计划中还有两周时间,一切依然看上去在正轨上。”
Phoronix 的内核观察者认为,Intel 的 Advanced Performance Extensions 早期工作、用 Rust 编写的 Nvidia 产品驱动,以及用于加速启动速度的新代码,都是该项目最令人兴奋的新增内容之一。
好文章,需要你的鼓励
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。
这项研究探讨了多模态大语言模型在增强推理能力时出现的视觉幻觉问题。研究发现,模型生成更长推理链时,对视觉信息的关注减少,导致幻觉增加。研究者提出RH-AUC指标和RH-Bench基准来评估模型在推理与幻觉间的平衡,发现较大模型表现更好,纯强化学习训练优于监督微调加强化学习,且训练数据的类型比数量更重要。这些发现对开发既具推理能力又保持视觉准确性的AI系统具有重要意义。
这篇研究探讨了大语言模型在自动推理任务中的不确定性问题。研究者提出,模型生成形式规范时的概率不确定性不是缺陷,而是宝贵的信号源。通过引入概率上下文无关文法框架分析SMT-LIB程序分布,他们发现不确定性信号具有任务相关性(如逻辑任务中的语法熵AUROC>0.93)。他们的轻量级信号融合方法能减少14-100%的错误,仅需最小弃权,将大语言模型驱动的形式化转变为可靠工程学科。研究揭示当模型正确理解逻辑关系时会产生稳定的语法模式,为判断何时信任模型提供了可靠指标。
来自沙特阿拉伯王子苏丹大学和阿尔法萨尔大学的研究团队开发了GATE(General Arabic Text Embedding)模型,这是一套专为阿拉伯语设计的文本嵌入系统。该研究结合了套娃表示学习和混合损失训练方法,解决了阿拉伯语特有的语义处理挑战。GATE模型在MTEB基准测试的语义文本相似度任务中表现卓越,比包括OpenAI在内的更大模型高出20-25%,同时保持了多维度(768至64)的高效表现。研究通过详细的错误分析揭示了模型在不同相似度水平上的表现特点,为阿拉伯语NLP领域提供了新的研究方向。