ZD至顶网软件频道消息: 业内主流的Linux版本已经达成了共识:已经到了停止针对32位处理器的版本开发了。
简单地说:这样做完全是浪费时间,无论是创建32位端口还是保留32位硬件进行测试都是如此。
六月底,Ubuntu开发人员Dimitri Ledkov加入邮件列表中的辩论,直言不讳地表示32位的端口就是浪费资源。
“打造i386镜像并不是‘免费的’,它需要耗费开发环境、QA和验证时间。虽然我们有可扩展的开发环境,i386仍然需要所有的软件包、自动打包测试以及ISO,这些都要在我们的基础架构上重新验证。”
他建议18.10版本的Ubuntu只针对64位系统,如果用户迫切需要运行32位的旧有应用程序,就不得不使用容器或者虚拟机。
即使这个时间线将意味着32位版本即将慢慢出局:在2021年4月份的主机架构中,i386将落幕,旧有的应用程序安全支持将持续到2023年4月份。
在这个Reddit进程中,OpenSUSE主席对32位的支持“让我们的测试负担翻了一番(实际上还不止如此,你是否知道在现在这个时候想找一些32位的硬件有多么困难吗?)”这也让我们OBS的工作负担翻了一番。
无论时间表如何决定,让i386出局的决定远不像系统守护进程那样能够引起争议。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。