至顶网软件频道消息:
你的下一代数据中心可能会是一个铝盒子,盒子里的服务器浸泡在油中。
这就是今天在悉尼举行的OpenStack峰会上多家欧洲公司描述的愿景。
其中一家名为Horizon Computing的公司开发的“RuggedPOD”,是一个70cm x 70cm x 70cm的盒子,能够容纳4个微型ATX主板或者8个迷你ITX板卡。所有这些都沉浸在有机电介质油中,这种物质可以传导热量,但不能传导电力,意味着固态元件即使在潮湿的情况下也能工作。与POD外表类似散热片的设计相呼应的是,传导也将让服务器保持在适当的温度。POD足够牢固可以用于室外运转,这也有助于冷却。
POD有两个外部连接:一个是连接电源,一个是连接网络。
另外一家名为Enter Cloud Suite (ECS)的意大利公有云提供商,正在测试一些pod,因为他们认为这种形式是一个运行工作负载又不需要固定基础设施的理想选择。容器等需要的只是运行Kubernetes。如果这恰好是一个被动冷却式的服务器,价格和延迟都比较合理,你还有什么理由不考虑呢?
ECS在这次峰会上的发言人展现了一个未来蓝图:未来数据中心包含被动冷却的服务器pod,被放置在没有暖气、通风和空调的建筑物中,或者确保空气流通的窗户。
这个想法听起来并不是那么地牵强。电介质油已经被用于沉浸变压器和其他电力基础设施。ECS是一家采用OpenStack的公司,他们认为OpenStack和Kubernetes可以协调工作负载在多个分散的POD中的位置。再加之固态磁盘很快将在容量方面赶超传统磁盘,所以POD甚至会开始提供便携式存储。
我们认为,这个想法会最终落到密度上,ECS称,POD可以应对一千瓦的套件,这在70厘米的立方体中并不多见。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。