ZD至顶网软件频道消息:Amazon Web Services将要拥有130万台服务器,比现有的企业系统、数据中心的效率高三倍,并且能够更好地利用空间,产生大约20%的回报。
这些看法来自于Oppenheimer研究报告,该报告将亚马逊股票的目标价格上调至930美元。
很多Oppenheimer标记小组的分析师们都将重点放在了AWS以及它在未来将如何产生收入方面。是的,Oppenheimer的分析师也看好亚马逊的电子商务扩张计划。但是让我们面对现实:AWS是亚马逊团队的赚钱机器。
简而言之,Oppenheimer的结论是AWS的资本支出不像预想的那么高。Oppenheimer表示:“AWS在采购、设计和构建数据中心和计算/存储资源方面的竞争优势甚至能够产生高于之前预期的利润以及更低的资本密集度。”
AWS耗资约3.76亿美元新增总计10万平方英尺的数据中心容量,并产生超过20%的回报。像其他的云计算供应商一样,AWS的效率需要产生飞轮效应。Oppenheimer的分析师团队表示:
我们相信互联网和主要的云计算供应商占到了全球总体计算能力的45%,在五年内这个比例可能会接近65%,在这一点上我们相信这代表了全球计算能力发展的一种稳定状态。
事实上,Oppenheimer下注赌的是AWS和微软Azure到2020年将在服务器安装数量合计占比12.6%。如果你看看IBM和谷歌,就会看到前进的方向:服务器厂商将很大程度上向少数几个大买家进行销售。
如果这种高效的云模式发挥作用,AWS有望在2018年产生50亿美元的自由现金流,大幅超出Oppenheimer之前估计的32亿美元的规模。
Oppenheimer估计AWS的收入到2023年会令人惊叹。Oppenheimer预计AWS在2016年的收入将达到120亿美元,2017年将达到168.1亿美元。在2018年,AWS的收入将达到222亿美元,两年后的2020年将跳升至332.9亿美元。到2023年,AWS的收入将以575亿美元的巨额规模载入史册。
AWS的飞轮效应并不是个全新的概念。Evercore的分析师Ken Sena认为谷歌在云计算上的投资为时过晚,但是最终得出的结论是AWS已经领先太多。Sena表示:
亚马逊的投资水平和地理规模和我们目前估计的谷歌的投资水平和地理规模相比,大约是将近五倍的规模,看看刚刚过去的两年,它的规模也数倍于其他的供应商。而且,我们看到亚马逊目前在市场份额、容量和地理规模方面遥遥领先,并产生了飞轮效应,企业和/或开发人员能够使用Compute之类的核心AWS功能,并最终过渡到Redshift(一项数据仓库服务)、QuickSight(商业分析)或者Lambda/Elastic Beanstalk之类比较新的服务,这让AWS成为一个更全面服务的PaaS供应商,而不仅仅是简单的提供基础架构的服务。类似地,由于亚马逊已经在AWS上吸引了大量的托管服务合作伙伴,围绕着他们的产品的生态系统不可避免地会继续发展壮大。
好文章,需要你的鼓励
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表明,上下文感知嵌入显著提升检索性能,尤其在处理非自包含文本片段时,同时保持计算效率,对分块策略更具鲁棒性,并且在语料库规模扩大时表现更佳。这一研究为更智能的文档检索系统铺平了道路。
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高资源语言也仅获得英语十分之一的研究关注,且这一差距正在扩大。研究还揭示非英语语言很少作为独立研究对象,且英语安全研究常忽略语言覆盖文档化。为解决这一问题,研究者提出了三个未来方向:开发文化敏感的评估基准、创建多语言安全训练数据,以及深入理解跨语言安全泛化挑战。
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了13%的偏好排名准确率,应用于DPO技术后在多项基准测试中达到了领先水平。这一突破将为娱乐、教育和心理健康支持等领域带来更加自然、个性化的AI互动体验。
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。