ZD至顶网软件频道消息: 云计算巨头亚马逊网络服务(AWS)的桌面即服务"WorkSpaces"初长成,而且已经颇具规模,并宣布了一个新的选项,即可以添加1,536个CUDA GPU核心与4GB的显存。
新的"Graphics包"还提供了8个虚拟CPU和15GB的RAM,并在100GB系统磁盘空间之上为用户提供的100GB虚拟磁盘空间。
需要注意的是,用户不能每个月以固定的费用租用新实例。相反,需要每个月为启动桌面电脑支付22美元,另外还要为每小时的使用支付1.75美元的使用费。
用户还需要注意每月费用,因为AWS的Jeff Barr在介绍的文章中警告表示:"由于底层硬件的运行方式,运行此捆绑包的WorkSpaces在配合AutoStop运行模式使用时不会保存本地状态(运行应用程序并打开文档)。"
这一点很重要,因为AutoStop功能会看到WorkSpaces在空闲时正常关闭,以避免支付另一小时的使用费。因此Barr建议"在断开你的WorkSpace或者长时间离开它之前,保存打开的文档并关闭应用程序。"
有两年事引发质疑,即AWS愿意在某些应用程序中引入专门的硬件,并且对WorkSpaces的可靠性不完全有信心?
AWS在工作站之后推出了这款产品。这种做法并不是孤立的,因为Citrix和VMware,在NVIDIA的助力下,增加了它们虚拟桌面的图形处理能力,而微软则为需要GPU的用户发布了一个NC级的Azure实例。
AWS对工作站市场的进攻也考虑到了数据移动成本,因为它指出这些新实例"距离其他服务只有几英尺",因此可以在一个工作地点实现大幅度提升和可视化。
也许这种组合会改变我们在第二次审视WorkSpaces时形成的观点,它们令人感到好奇而不是具有强烈的吸引力。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。