ZD至顶网软件频道消息: 云计算巨头亚马逊网络服务(AWS)的桌面即服务"WorkSpaces"初长成,而且已经颇具规模,并宣布了一个新的选项,即可以添加1,536个CUDA GPU核心与4GB的显存。
新的"Graphics包"还提供了8个虚拟CPU和15GB的RAM,并在100GB系统磁盘空间之上为用户提供的100GB虚拟磁盘空间。
需要注意的是,用户不能每个月以固定的费用租用新实例。相反,需要每个月为启动桌面电脑支付22美元,另外还要为每小时的使用支付1.75美元的使用费。
用户还需要注意每月费用,因为AWS的Jeff Barr在介绍的文章中警告表示:"由于底层硬件的运行方式,运行此捆绑包的WorkSpaces在配合AutoStop运行模式使用时不会保存本地状态(运行应用程序并打开文档)。"
这一点很重要,因为AutoStop功能会看到WorkSpaces在空闲时正常关闭,以避免支付另一小时的使用费。因此Barr建议"在断开你的WorkSpace或者长时间离开它之前,保存打开的文档并关闭应用程序。"
有两年事引发质疑,即AWS愿意在某些应用程序中引入专门的硬件,并且对WorkSpaces的可靠性不完全有信心?
AWS在工作站之后推出了这款产品。这种做法并不是孤立的,因为Citrix和VMware,在NVIDIA的助力下,增加了它们虚拟桌面的图形处理能力,而微软则为需要GPU的用户发布了一个NC级的Azure实例。
AWS对工作站市场的进攻也考虑到了数据移动成本,因为它指出这些新实例"距离其他服务只有几英尺",因此可以在一个工作地点实现大幅度提升和可视化。
也许这种组合会改变我们在第二次审视WorkSpaces时形成的观点,它们令人感到好奇而不是具有强烈的吸引力。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。