至顶网软件频道消息: 微软日前开始在Azure里添加对NVIDIA GPU项目的新级别支持,此举可能令运行深度学习和其他高性能计算(HPC)工作负载的人受益。两家宣布推出配有GPU加速软件的预配置容器,可助数据科学家、开发人员和研究人员在运行HPC任务之前省掉许多整合和测试步骤。
客户可以选择35个GPU加速容器,可用于深度学习软件、HPC应用程序、HPC可视化工具等,这些工作负载都可以在以下配有NVIDIA GPU的微软 Azure实例类型上运行:
● NCv3(1、2或4个NVIDIA Tesla V100 GPU)
● NCv2(1、2或4个NVIDIA Tesla P100 GPU)
● ND(1、2或4个NVIDIA Tesla P40 GPU)
NVIDIA还提到,这些相同的NVIDIA GPU云(NGC)容器可以跨Azure实例类型工作,即使GPU类型或数量不同也可以跨Azure实例类型工作。微软Azure市场里有一个预先配置的Azure虚拟机映像,包含运行NGC容器所需的所有内容(https://azuremarketplace.microsoft.com/en-us/marketplace/apps/nvidia.ngc_azure_17_11?tab=Overview ) 。
微软今天还面向普通用户推出了“Azure CycleCloud”,可用于“创建、管理、操作和优化Azure中任何规模的HPC集群工具”。
好文章,需要你的鼓励
字节跳动Seed团队提出的虚拟宽度网络(VWN)通过解耦嵌入宽度与主干宽度,在几乎不增加计算成本的情况下显著提升模型表示能力。8倍虚拟宽度扩展使训练效率提升2.5-3.5倍,且发现虚拟宽度因子与损失呈对数线性关系,为大模型效率优化开辟新维度。
亚马逊研究团队通过测试15个AI模型发现,当AI助手记住用户背景信息时,会对相同情感情况产生不同理解,称为"个性化陷阱"。优势社会地位用户获得更准确的情感解释,而弱势群体接受质量较低的理解。这种系统性偏见可能在心理健康、教育等领域放大社会不平等,提醒我们需要在追求AI个性化的同时确保算法公平性。
两家公司在OverdriveAI峰会上分享了AI应用经验。Verizon拥有超过1000个AI模型,用于预测客户呼叫原因和提供个性化服务,将AI推向边缘计算。Collectors则利用AI识别收藏品真伪,将每张卡片的鉴定时间从7分钟缩短至7秒,估值从8.5亿美元增长至43亿美元。
微软等机构联合研发了DOCREWARD文档奖励模型,专门评估文档的结构布局和视觉风格专业度。该模型基于包含11.7万对文档的大规模数据集训练,在人类偏好准确性测试中超越GPT-5达19.4个百分点。研究解决了现有AI工作流忽视文档视觉呈现的问题,为智能文档生成和专业化排版提供了新的技术方案。