去年底ChatGPT的出现引发了生成式AI的热潮,如今几乎所有大型软件提供商都加入了这一潮流中。
然而,尽管技术提供商和客户对生成式AI抱有极大的热情,但还没有人弄清楚如何从这种强大的新产品中赚钱。相反,据《华尔街日报》近日的报道,微软、谷歌和OpenAI等公司因为向用户提供生成式AI功能而损失了大量的资金。
例如,最早推出的其中一款生成式AI产品GitHub Copilot,是程序员用来创建、修复和翻译软件代码的服务。GitHub的拥有者微软声称积累了超过150万的用户,并且编写了大约一半的代码。
但有知情人士告诉《华尔街日报》,即使这款产品被广泛采用,但也成了一个巨大的资金坑。GitHub每月向使用Copilot的用户收取10美金的费用,但每个客户每月平均要投入约20美金。
生成式AI是一项昂贵的技术,因为其模型可能需要数年的时间来训练和微调,即使完成之后,也需要大量资源才能保证日常运行。波士顿咨询集团营销销售和定价实践负责人Jean-Manuel Izaret表示:“这是需要强大计算能力的,需要大量的情报信息。”
而且许多用例中还存在矫枉过正的情况。例如,ChatGPT是由OpenAI GPT-4 模型提供支持,据说该模型是世界上最强大的模型之一。然而,很多ChatGPT企业订阅方使用该模型执行的任务却是极其有限的。正如《华尔街日报》所说,使用GPT-4来总结电子邮件就像开着兰博基尼送披萨一样。
价格更高,模型更便宜
为了阻止资金流失,很多企业正在寻求开发功能较弱的模型来执行较为简单的业务任务,而其他公司则只是计划提高成本。例如,微软将对Office 365软件套件的AI版本收取每月约30美金的额外费用。目前,Office 365最便宜的版本约为每月10美金。这些AI功能可以撰写电子邮件和PowerPoint演示文稿内容、自动生成Excel电子表格、以及执行其他很多任务。
同样地,谷歌计划要求用户每月支付30美金来购买谷歌生产力软件中的生成式AI功能,最低订阅级别目前只需6美金。
还有报道称,微软正在开发功能较弱的模型来消除杀伤力过大的问题。例如,微软正在针对Bing开发更小的、更便宜的AI模型,仅用于网络搜索。据报道,其中一些模型将基于Meta Platforms等公司的开源AI。
Adobe则采取了不同的策略。Adobe为其AI图像生成工具Firefly打造了一个积分系统。如果客户用完分配的每月积分,Firefly服务将会减慢,以防止过度使用。
Adobe公司首席执行官Shantanu Narayen向《华尔街日报》表示:“我们正在努力提供巨大的价值,同时也在成本方面保护自己。”
客户和投资者仍抱有疑问
微软、谷歌和其他正在考虑提高AI服务收费的企业面临一项挑战,那就是他们必须进行微妙的平衡,因为并不是每个人都认为这种软件是值得付费的。AWS公司首席执行官Adam Selipsky表示:“与我交谈过的很多客户都对运行其中一些模型的成本感到不满。”
目前,生成式AI变现的问题并没有阻止投资者,他们今年总共向那些最有前途的初创公司投入了数十亿美金。《华尔街日报》称,OpenAI目前正在讨论出售股票的可能性,这将使其价值超过900亿美金,是年初价值的3倍。
然而许多业内人士认为,投资者热情消退只是时间上问题。当这种情况发生的时候,很多人将会长期认真地审视运行AI的成本以及利用AI实现盈利的方法。
Writer公司首席执行官May Habib表示:“我认为明年将是生成式AI资金热潮消退的一年。”上个月该公司刚刚筹集了1亿美金资金。
好文章,需要你的鼓励
OpenAI发布ChatGPT新功能Pulse,可在用户睡眠期间生成个性化报告,提供5-10条简报帮助用户快速了解当日重要信息。该功能旨在让用户像查看社交媒体一样优先使用ChatGPT。Pulse首先向每月200美元的Pro订阅用户开放,未来计划扩展至所有用户。功能支持连接Gmail、日历等应用,可解析邮件、生成日程安排。报告以卡片形式展示,包含AI生成的图像和文本,涵盖新闻摘要、个性化建议等内容。
这项由谷歌DeepMind研究团队完成的开创性研究首次系统阐述了AI智能体经济的概念框架。研究提出"沙盒经济"模型,从起源性质和边界渗透性两个维度分析AI智能体经济形态,预测未来将出现自然涌现且高度透水的AI经济网络。研究详细探讨了科学加速、机器人协调、个人助手等应用场景,提出基于拍卖机制的公平资源分配方案和使命经济概念,并深入分析了技术基础设施需求、社区货币应用以及相关风险防范措施。
AI平台公司Clarifai发布新推理引擎,声称能让AI模型运行速度提升一倍,成本降低40%。该系统采用多种优化技术,从CUDA内核到高级推测解码,能在相同硬件上获得更强推理性能。第三方测试显示其在吞吐量和延迟方面创下行业最佳记录。该产品专门针对推理过程优化,特别适用于需要多步骤响应的智能体和推理模型。
中国人民大学研究团队提出LoFT方法,通过参数高效微调基础模型解决长尾半监督学习中的数据不平衡问题。该方法利用预训练模型的良好校准特性改进伪标签质量,并扩展出LoFT-OW版本处理开放世界场景。实验显示,仅使用传统方法1%的数据量就能取得更优性能,为AI公平性和实用性提供了新的解决方案。