ZD至顶网软件频道消息: 业内主流的Linux版本已经达成了共识:已经到了停止针对32位处理器的版本开发了。
简单地说:这样做完全是浪费时间,无论是创建32位端口还是保留32位硬件进行测试都是如此。
六月底,Ubuntu开发人员Dimitri Ledkov加入邮件列表中的辩论,直言不讳地表示32位的端口就是浪费资源。
“打造i386镜像并不是‘免费的’,它需要耗费开发环境、QA和验证时间。虽然我们有可扩展的开发环境,i386仍然需要所有的软件包、自动打包测试以及ISO,这些都要在我们的基础架构上重新验证。”
他建议18.10版本的Ubuntu只针对64位系统,如果用户迫切需要运行32位的旧有应用程序,就不得不使用容器或者虚拟机。
即使这个时间线将意味着32位版本即将慢慢出局:在2021年4月份的主机架构中,i386将落幕,旧有的应用程序安全支持将持续到2023年4月份。
在这个Reddit进程中,OpenSUSE主席对32位的支持“让我们的测试负担翻了一番(实际上还不止如此,你是否知道在现在这个时候想找一些32位的硬件有多么困难吗?)”这也让我们OBS的工作负担翻了一番。
无论时间表如何决定,让i386出局的决定远不像系统守护进程那样能够引起争议。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。