8月28日北京,在AICC2019人工智能计算大会上,百度与浪潮宣布在人工智能领域达成合作,双方将共建百度飞桨(PaddlePaddle)与浪潮AIStation联合方案。本次合作,将让深度学习开发者可以更便捷、高效地在浪潮AI服务器上应用飞桨的深度学习能力。在此基础上,双方将携手创建一个开放全新的生态,赋能产业开发者,推进产业智能化进程。
据悉,当前,飞桨的PaddleHub、AutoDL Design、PARL三大工具模块,及包括ERNIE持续学习语义理解框架在内的160+个有优势性能的预训练模型,已经整合在浪潮AIStation平台上,开发者可同时享有敏捷高效的AI计算资源管理部署和专业AI框架优化服务。
百度飞桨是国内唯一功能完备的端到端开源深度学习平台,集深度学习训练和预测框架、模型库、工具组件和服务平台为一体,拥有兼顾灵活性和高性能的开发机制、工业级应用效果的模型、超大规模并行深度学习能力、推理引擎一体化设计及系统化服务等优势,致力于让深度学习技术的创新与应用更简单。
AIStation则是浪潮面向AI企业训练场景的人工智能PaaS平台,可实现容器化部署、可视化开发、集中化管理等,为用户提供极致高性能的AI计算资源,实现高效的计算力支撑、精准的资源管理和调度、敏捷的数据整合及加速、流程化的AI场景及业务整合,有效打通开发环境、计算资源与数据资源,提升开发效率。
自开源以来,百度飞桨持续进化升级。今年7月初发布的飞桨+华为麒麟NPU合作,打通了深度学习框架与芯片,通过“硬软结合”的方式,为中国产业开发者最大限度释放深度学习能力。
今天发布的与浪潮AIStation的联合方案,将帮助完善百度飞桨在服务器侧的战略布局,进一步释放深度学习在AI 服务器端的能力。至此,飞桨在端侧、云侧实现了全方位、立体式的覆盖。
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。