Hortonworks周四发布财报,2017财年第四季度收入高于预期,而净亏损则符合预期。Hortonworks该季度净亏损4820万美元,合每股68美分,营收为7500万美元,与去年同期比增长44%。第四季度非GAAP损失为每股24美分。
华尔街曾预测Hortonworks非GAAP损失为每股24美分,收入为7046万美元。
Hortonworks在2017年全年净亏损2.045亿美元,合每股3.08美分,营收2.618亿美元,同比增长42%。全年非GAAP损失为每股1.40美元。
华尔街曾预测Hortonworks全年非GAAP净亏损每股为1.42美元,营收2.572亿美元。
Hortonworks首席执行官兼董事长Rob Bearden在一份声明中表示,“我们在2017年取得了巨大的发展势头,全年创纪录的收入达2.618亿美元,并实现了第四季度运营现金流量的盈亏平衡。我们的产品组合广度、我们团队的执行力以及我们业务战略的重点为我们自己及客户奠定了坚实的基础。”
前景方面,Hortonworks预计今年第一季度的收入为7500万美元,全年收入在3.22亿美元至3.27亿美元之间,两项都符合预期。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。