ZD至顶网软件频道消息:Amazon Web Services将要拥有130万台服务器,比现有的企业系统、数据中心的效率高三倍,并且能够更好地利用空间,产生大约20%的回报。
这些看法来自于Oppenheimer研究报告,该报告将亚马逊股票的目标价格上调至930美元。
很多Oppenheimer标记小组的分析师们都将重点放在了AWS以及它在未来将如何产生收入方面。是的,Oppenheimer的分析师也看好亚马逊的电子商务扩张计划。但是让我们面对现实:AWS是亚马逊团队的赚钱机器。
简而言之,Oppenheimer的结论是AWS的资本支出不像预想的那么高。Oppenheimer表示:“AWS在采购、设计和构建数据中心和计算/存储资源方面的竞争优势甚至能够产生高于之前预期的利润以及更低的资本密集度。”
AWS耗资约3.76亿美元新增总计10万平方英尺的数据中心容量,并产生超过20%的回报。像其他的云计算供应商一样,AWS的效率需要产生飞轮效应。Oppenheimer的分析师团队表示:
我们相信互联网和主要的云计算供应商占到了全球总体计算能力的45%,在五年内这个比例可能会接近65%,在这一点上我们相信这代表了全球计算能力发展的一种稳定状态。
事实上,Oppenheimer下注赌的是AWS和微软Azure到2020年将在服务器安装数量合计占比12.6%。如果你看看IBM和谷歌,就会看到前进的方向:服务器厂商将很大程度上向少数几个大买家进行销售。
如果这种高效的云模式发挥作用,AWS有望在2018年产生50亿美元的自由现金流,大幅超出Oppenheimer之前估计的32亿美元的规模。
Oppenheimer估计AWS的收入到2023年会令人惊叹。Oppenheimer预计AWS在2016年的收入将达到120亿美元,2017年将达到168.1亿美元。在2018年,AWS的收入将达到222亿美元,两年后的2020年将跳升至332.9亿美元。到2023年,AWS的收入将以575亿美元的巨额规模载入史册。
AWS的飞轮效应并不是个全新的概念。Evercore的分析师Ken Sena认为谷歌在云计算上的投资为时过晚,但是最终得出的结论是AWS已经领先太多。Sena表示:
亚马逊的投资水平和地理规模和我们目前估计的谷歌的投资水平和地理规模相比,大约是将近五倍的规模,看看刚刚过去的两年,它的规模也数倍于其他的供应商。而且,我们看到亚马逊目前在市场份额、容量和地理规模方面遥遥领先,并产生了飞轮效应,企业和/或开发人员能够使用Compute之类的核心AWS功能,并最终过渡到Redshift(一项数据仓库服务)、QuickSight(商业分析)或者Lambda/Elastic Beanstalk之类比较新的服务,这让AWS成为一个更全面服务的PaaS供应商,而不仅仅是简单的提供基础架构的服务。类似地,由于亚马逊已经在AWS上吸引了大量的托管服务合作伙伴,围绕着他们的产品的生态系统不可避免地会继续发展壮大。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。