近日,总部位于美国加州圣克拉拉的NVMe闪存阵列企业E8 Storage宣布,它已与国内人工智能云服务提供商星云Clustar达成合作,正式进军大中华区。通过本次合作,E8 Storage的全球合作伙伴继续增加,将凭借其共用NVMe over Fabric存储平台而扩大在高性能运算领域的国际影响力,该平台适用于需要高性能和低延迟资料密集型应用程序的客户。
星云Clustar总部位于中国,依托高性能底层设备提供企业级全面托管人工智能(AI)云平台,这项合作使星云Clustar能够将E8 Storage的NVMe-oF存储产品整合到其私有云和PaaS产品组合中,以提供更优的运算资源和更高的性能。
通过该合作协定,星云Clustar能够提供整合的高性能AI解决方案,既可以作为PaaS,也可以作为内部部署的私有云群集。借助星云Clustar的高性能AI运算群集,客户可受益于更高的性能和更快的应用程序开发,从而加速资料分析。
星云Clustar为客户提供易于使用的机器学习(ML)平台,让客户能够通过高性能架构而改善大规模群集的运算能力,增强AI演算法,并消除性能瓶颈。在GPU计算支持下,将E8 Storage增添到星云Clustar AI云端平台中可提供从储存到GPU的高输送量数据路径,确保客户能够充分利用对GPU的投入。
星云Clustar创始人陈凯教授表示:“我们一直在寻求创新,并致力于提升高性能和运算能力,进而为客户的AI/ML应用提供更优支持。E8 Storage与我们的产品组合相辅相成,将其整合到我们的Paas和私有云集群部署中,让我们可以充分发挥共用NVMe-oF存储的性能优势。这种组合将会大幅提升耗电程序的运行速度,从而实现更高性能。
E8 Storage联合创始人兼行政总裁Zivan Ori表示:“星云Clustar基于AI云平台提供的创新服务广受业界认可,E8 Storage与星云Clustar合作将进一步巩固我们的国际扩张进程。同时,我们的合作也将为致力于人工智能发展的相关机构带来业界领先的性能,并提供独特的主张。”
关于E8 Storage
E8 Storage是共用NVMe储存的先驱,适用于可提高业务收入的资料密集型高性能应用程式。经济、可靠和可扩充的E8 Storage解决方案非常适合最严苛的低延迟工作负荷,包括即时分析、金融和交易应用程式、基因检测和大型档案系统。在该公司专利架构的推动下,E8 Storage的高性能NVMe over Fabrics认证储存可提供创记录的性能,所需成本仅为现有储存产品的一半。当性能特别重要时,企业数据中心会转向E8 Storage以获得前所未有的储存性能、密度和规模,同时不会影响可靠性和可用性。 E8 Storage总部设在圣塔克拉拉,在特拉维夫设有研发中心,拥有遍布美国,欧洲和亞洲的合作伙伴。
关于星云Clustar
星云Clustar是一家持续创新的人工智能技术与服务提供商,致力于将高性能计算等领域的科研成果应用到人工智能和深度学习场景。公司核心团队在高性能计算、数据中心系统架构、大数据和人工智能等技术领域拥有国际领先的自主核心技术。星云Clustar自主研发的星云平台,基于数据中心通用硬件,为用户提供高性能、分布式、可扩展的人工智能基础设施。通过部署星云平台,用户可以降低深度学习训练成本、消除大规模集群的性能和扩展瓶颈。此外,公司还为行业用户提供算法咨询服务。目前公司产品和服务的落地案例包括制造业、保险、互联网等行业的知名企业,有效支持了用户在数字化转型过程中的人工智能应用落地。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。