大数据厂商Cloudera今天发布了第二季度财报,尽管业绩超出了华尔街的预期,但是强劲的表现还不足以阻止其股价在盘后交易中小幅下跌。
Cloudera主要面向企业销售数据工程、数据仓库、机器学习和分析软件。该季度Cloudera在未计入股票补偿等特定成本的利润为每股10美分,收入为2.143亿美元,比去年同期增长9%,此前华尔街预期的每股利润为7美分,收入为2.0814亿美元。
Cloudera表示,该季度新冠病毒大流行导致IT支出的疲软被市场对Cloudera数据平台的需求所抵消了。
该季度Cloudera的年度经常性收入为7.39亿美元,比去年同期增长12%,而这对投资者来说是一项重要指标,因为年度经常性收入代表了公司的发展状况,并可以预测未来的增长。
Cloudera称目前公司有1007家贡献10万美元年度经常性收入的客户,172家贡献超过100万美元年度经常性收入的客户。
Cloudera首席执行官Rob Bearden在与分析师的电话会议上表示,该季度Cloudera的Cloudera Data Platform Public Cloud客户数量翻了一番,预订量同样非常强劲。
他说:“尽管目前已确定的收入不算高,但CDP Public Cloud在市场中备受欢迎让我们感到鼓舞。这些产品作为独立的服务体现出差异化,将会随着时间的推移进行扩展。CDP Public Cloud直接战略价值主要在体现在它支持混合数据架构,将在为客户创建企业数据云方面发挥至关重要的作用。”
Bearden表示,Cloudera Data Platform Private Cloud产品也有突出表现,使得Cloudera能够更好地进入混合云和多云市场。他在电话会议上向分析师表示,CDP Private Cloud有助于加强Cloudera与AWS、Google和微软等公有云基础设施巨头之间的关系。”
“我们希望现有客户群采用我们的企业数据云,以推动公有云基础设施即服务方面的消费,而且CDP Private Cloud推动了我们与AWS、Azure和Google的公有云合作伙伴关系。我们估计,我们每赚1美元的软件收入,这些云提供商就会给我们贡献4至5美元的计算和存储收入,这部分IaaS潜在收入,是这些超大规模云合作伙伴关注的重点,同时也促进了我们与这些云合作伙伴之间的互动。”
Constellation Research分析师Holger Mueller表示,CDP Private Cloud的表现令人感到鼓舞,因为它可以帮助Cloudera抓住下一代云计算平台把云堆栈带入本地环境的发展趋势。
Mueller说:“在财务方面,很高兴看到Cloudera在财务方面进一步克服了挑战,很有可能在下个季度实现盈利。”
Pund-IT分析师Charles King认为,客户正在积极地向云转型,他们需要来自专家的建议和帮助,这会让Cloudera从中受益。
“Bearden关于Cloudera正在加强与AWS、微软Azure和Google Cloud等主要合作伙伴关系的战略是有道理的,因为像Cloudera这样的云软件厂商在经济体量上几乎不可能和这些云服务提供商一样。也就是说,Cloudera的表现超出分析师的预期,这体现了Cloudera扎实的管理和执行力,预示着Cloudera将在后疫情时代的市场中继续保持稳定表现。”
Cloudera预计,第三季度调整后的每股收益为8至10美分,收入在2.07亿至2.1亿美元之间,华尔街预期的每股收益为7美分,收入为2.055亿美元。
Cloudera预计全年收入在8.39亿美元至8.53亿美元之间,此前华尔街预期的全年收入为8.387亿美元。Cloudera表示,这一全年展望的假设前提是COVID-19所带来的“衰退影响”将持续到第四季度。
Bearden说:“我们不能幸免于COVID-19造成的经济衰退,但是我们认为,我们的业务比大多数企业软件公司更具弹性。这是事实,因为我们的产品支持数字化转型计划和关键任务场景。”
Cloudera的股价在盘后交易中下跌超过2%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。