新闻摘要
•戴尔科技集团开发的开源Omnia软件加速并简化了人工智能和计算密集型工作负载的部署和管理
•HPC 按需付费服务现可面向VMware基础设施的混合云提供按需付费的资源
•Dell EMC PowerEdge服务器为先进计算添加了NVIDIA加速器选项
戴尔科技集团(NYSE: DELL)正推出新的解决方案,帮助客户更好地管理高性能计算(HPC)、人工智能(AI)和数据分析的融合。为帮助组织处理数据密集型工作负载,如基因组测序、产品开发模拟等,戴尔还扩展了HPC按需付费服务,以及Dell EMC PowerEdge服务器加速器支持。
“随着人工智能与高性能计算以及数据分析融合,在存储和网络配置仍处于竖井孤岛的情况下,IT团队难以为不断变化的需求提供所需的资源。”戴尔科技集团集成解决方案高级副总裁Peter Manca表示,“通过戴尔的Omnia开源软件,团队可以大大简化先进计算工作负载的管理,帮助组织加快研究和创新的速度。”
通过Omina简化和加速工作负载融合
Omnia是在戴尔科技集团高性能计算&人工智能创新实验室开发的,与英特尔合作并得到了高性能计算社区的支持。该开源软件旨在自动化高性能计算、人工智能和数据分析工作负载的部署和管理,创建一个灵活的资源池,以满足日益增长和多样化的需求。
Omnia软件栈是一个开源的Ansible操作集,它可以加速Kubernetes和Slurm的融合工作负载的部署,以及框架库、服务和应用程序。Omnia会根据用例自动将软件解决方案印记到每个服务器上,例如高性能计算模拟、用于人工智能的神经网络或用于数据分析的内存图形处理,将部署时间从几周缩短至几分钟。
社区的参与和贡献对Omnia的发展非常重要。亚利桑那州立大学计算研究所与戴尔科技集团高性能计算&人工智能创新实验室在Omnia开发上紧密合作,以更好地支持包括模拟、高吞吐量计算和机器学习在内的混合工作负载。
“来自亚利桑那州立大学的工程师们和戴尔科技集团一起工作,创造Omnia。”亚利桑那州立大学计算研究所高级总监Douglas Jennewein表示,“在亚利桑那州立大学和整个先进计算行业,编写代码将这些复杂混合工作负载的部署和管理简化,这是一项值得付出努力的工作。”
支持VMware的HPC按需付费随时提供基础设施访问
戴尔科技集团正扩展其HPC按需付费服务,以支持VMware环境。通过HPC按需付费和R Systems,客户可以在需要时使用高级基础设施来满足其峰值计算需求。随着VMware Cloud Foundation、VMware Cloud Director和VMware vRealize Operations的加入,客户可以在资源密集型的工作负载下使用混合云运营模式,快速访问HPC资源,并在需要时支付所需费用。
例如,在海洋推进系统方面处于领先地位的Mercury Marine,在新设计中使用计算机辅助水动力模拟,经常需要超过其内部能力的高性能计算算力。通过使用戴尔的高性能基础设施,Mercury Marine的工程师可以通过HPC按需付费将驻场48小时的模拟时间削减至仅仅2小时。
“我们已经实现了基础的计算可用性,并且现在通过HPC按需付费,我们能够运行现有基础设施无法实现的模拟和工作负载。” Mercury Maritime的模拟工程师专家Arden Anderson表示,“通过戴尔科技集团和R Systems,我们能够在更短的时间内处理更复杂的工作负载和模拟。”
面向先进计算的新NVIDIA GPU选项
戴尔科技集团现可为Dell EMC PowerEdge R750、R750xa和R7525服务器提供NVIDIA A30和A10 Tensor Core GPU选项。
NVIDIA A30 GPU支持广泛的AI推理和主流企业计算工作负载,如会话人工智能和计算机视觉。使用NVIDIA A10 GPU,客户可以在通用基础设施上支持人工智能和图形混合工作负载,这对于深度学习推理和计算机辅助设计非常理想。设计师、工程师、艺术家和科学家使用的NVIDIA虚拟GPU软件、虚拟桌面会自动以最高性能运行。
供货信息
•Ominia软件今日起全球正式可用
•支持VMware的HPC按需付费将于本季度正式可用
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。