云计算继续对广告业巨头Alphabet和电子商务巨头Amazon有着巨大影响,但在最近几个季度,两家公司的收入增长并没有达到投资者希望的水平。
尽管如此,这两家科技巨头的第三季度云业务结果表明,两家公司在线上租用计算能力和应用(而不是在自己的数据中心托管硬件和软件)的做法几乎没有减缓的迹象。例如,Amazon将第三季度增长主要归结于云业务的营收增长。
尽管这两家公司在全球范围内建立大规模数据中心需要花费数十亿美元,但云计算也是一项利润丰厚的订阅业务,这就是为什么投资者对Alphabet拥有的Google云平台和AWS公司将如何发展非常感兴趣,尽管这两块与其核心业务相比,收入份额仍然相对较小。
AWS收入同比增长了46%,达到66.8亿美元,低于市场预期的67.1亿美元。总体而言,Amazon第三季度盈利29亿美元,即每股5.75美元,同比增长10倍多。收入增长29%,达到566亿美元。分析师此前预计每股盈利5.62美元,营收为570.7亿美元。
“AWS仍然是Amazon的盈利引擎,”Pund-IT首席分析师Charles King这样表示,他提到AWS营业利润增长77%。“从这个角度来看,虽然AWS占Amazon公司566亿美元季度收入的10%多一点,但其利润却占到了Amazon总净利润的1/3多。”
Alphabet并未报告云收入,不过首席执行官Sundar Pichai今年早些时候透露,AWS的季度业务规模达到了十亿美元,而且它也在这个包含了Google Play商店应用、智能手机和智能音箱收入的细分市场中占到了很高的市场份额。这部分细分市场在第三季度同比增长29%,达到46亿美元。
Alphabet整体在第三季度利润增长37%,达到92亿美元,或每股13.06美元,收入增长21%,达到337亿美元。分析师此前预计每股盈利为10.44美元,营收340.5亿美元。首席财务官Ruth Porat在分析师电话会议上表示,货币调整给销售额造成3.05亿美元的负面影响。
失望的投资者
然而,投资者们希望两家公司的收入能够增长更多。在盘后交易中,Amazon股价下跌近8%,Alphabet股价下跌约4%。
Amazon对第四季度的指引是这销售额增长10%-20%,在665亿美元到725亿美元之间,这一疲软的表现也可能对Amazon股价带来了一定的影响。此外,Amazon预测营业收入在21亿美元至36亿美元,去年同期为21亿美元,不过分析师预期是38.6亿美元。“这是一个关键点,因为一直以来假期销售都是Amazon的一座金矿。”
像许多科技股一样,Amazon和Alphabet的股票最近一直起伏不定。本周三Amazon股价下跌近6%至1664.20,相比9月4日近期高点的2050.50美元下跌了15%,但今年整体仍然上涨46%。今天收盘涨幅超过7%至1782.17美元。 Alphabet周三股价下跌超过5%至1,057.12美元,较7月高点下跌约15%,但今天回升至4%以上,升至1103.59美元。
尽管谷歌在云计算方面取得了进步,但Amazon仍然是云计算之王,至少从基础架构即服务计算、存储和网络服务方面来说。但这两家公司也面对着重新焕发活力的微软——第二大云计算公司。周三,微软公布财报,云收入增长正在放缓,但仍然达到了76%,这意味着微软正在从主要竞争对手那里夺取份额。
Pichai表示,谷歌的云业务正受益于不断增加的新服务。“我们肯定会看到强有力的信号表明产品投资显然已经开始奏效。从长远来看,我们非常符合市场的发展方向,”特别是企业将使用多个公有云的现实情况。
Pichai还说,他们正在“全面考量”更全面的混合云战略,也就是更多地接入客户内部部署基础架构——微软通过这项战略取得了巨大的成功——但目前他们正在通过与SAP和VMware等合作伙伴解决这一问题。“我们正在考虑如何做得更好,这不会成为我们的一个阻碍。”
分析师King认为,Google Cloud还是一个在成长中的业务。“这不一定是坏事,因为这样能够避免像AWS和微软Azure之间所发生的那种混战。在大多数人认为仍在不断发展的云计算市场中,这也给了Alphabet一些相对的平静,去有机地构建自己的云业务。”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
时尚零售巨头维多利亚的秘密因安全事件导致网站和线上订单服务中断,已立即启动应急响应、邀请第三方专家协助恢复运营,实体店仍正常营业。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。