至顶网软件频道消息: Google刚刚宣布了对其机器学习服务(MLaaS)进行重大改进,以缩小过去一年中和微软之间的竞争差距。不仅如此, Amazon的AWS去年11月份在AWS Re:Invent上宣布了自己新的MLaaS工具和服务,试图让AI应用开发人员在AWS云上构建自己的智能应用。 如今MLaaS还处于起步阶段,但对于那些更倾向于将所有杂乱细节留给其他人的企业来说,MLaaS可能会成为一个占主导的人工智能平台,这些企业点击一下就可以租赁到人工智能服务。本文总结了每个公司的战略和策略,并试图确定谁是赢家和输家。
MLaaS:承诺和问题
机器学习是很难的,特别是深度学习这个复杂领域。深度神经网络是以数以百万计的数据样本进行训练的,通过使用大量NVIDIA GPU进行分析,以提取和识别各种功能和类别。这是“人工智能时代”的曙光,所以企业和政府机构当然在争先恐后地弄清楚他们需要做什么来避免错过“下一个大事件”。为了到达目的地(无论在哪里),他们必须决定投资哪些项目,聘请稀缺人才,购买大量的服务器和GPU,为监督学习任务提供数据,然后建立和优化自己的深度神经网络(DNN)。听起来很难?那么,MLaaS提供了一个更简单的选择:选择一个捷径,并使用预先训练的神经网络来处理由主要云服务提供商提供的图像、视频、语音和自然语言处理。为什么要花时间和金钱自己来训练一个神经网络,尤其是当你可以写一个基于云的应用、通过一个简单的API来访问一个预先训练好的网络?
Google、微软和AWS:不同的优势和方法
Google MLaaS
战略:Google利用自己在人工智能和深度学习方面的领先专长(Google内部拥有超过7000个人工智能项目,全球超过100万人工智能用户),为人工智能开发提供最先进的开发工具和最高性能的硬件平台。这完全是关于开发人员的,因为Google不拥有像微软这样的用户。
策略:
- 让TensorFlow成为人工智能硬件和软件之王。
- 将人工智能应用于人工智能的开发。Google声称其最近宣布的Google Cloud AutoML可以极大地简化DNN开发的复杂任务。Cloud AutoML不是使用额外的自定义数据(如微软那样)来增强预先训练的API,而是从客户自己的数据开始,构建一个自定义深度学习模型。AutoML有非常酷的仪表板,你可以在开发和调整模型时轻松查看模型的效率。Google甚至将内部数据标记作为服务提供——这是一些人们认为最终将由人工智能实现自动化的手动过程。
- 将Google在数据中心之外的应用范围扩展到边缘消费者设备和自动驾驶汽车,获取Google云平台上的所有人工智能开发项目。
微软MLaaS
战略:使用微软庞大的企业和政府安装基础,以及其广泛的生产力和业务流程工具组合,成为企业中机器学习技术的默认提供商。
策略:
- 提供丰富的机器学习API来处理每种数据类型,因为每个公司或机构的数据都与其业务不同。使用户能够利用包含组织的产品、人员、词汇等的数据样本来扩展训练的神经网络(微软是第一个走上这条道路的公司,现在提供29个API,其中许多API支持DNN的定制训练数据)。
- 为那些需要构建自己的深度神经网络的客户提供最高性能的机器学习框架,尤其是针对自然语言处理的客户。
- 利用人工智能增强每个微软产品——为Office 365、Dynamics、Windows以及Redmond Vault中的每个产品提供智能功能。
亚马逊AWS MLaaS
战略:使用AWS的超大规模和丰富的工具集,为人工智能应用提供最具成本效益的开发和部署平台。
策略:
- 首先,将为亚马逊的大型在线业务开发的工具和平台提供为AWS服务。为Alexa和Amazon eComerce开发的工具,现在可以帮助你轻松构建聊天机器人或语音激活产品或服务。
- 提供世界级的开发工具,如MXNet框架、Lex、Rekognition和SageMaker,以减轻开发负担。这些工具都具有很高的粘性,确保AWS在开发过程完成后成为部署平台。 尤其是SageMaker很有趣,为整个机器学习开发生命周期提供了一个全方位管理的平台。
- 为每个开发人员提供最具成本效益的云基础架构,无论开发人员选择哪种CPU、GPU或AI Framework。
结论
首先,必须提醒的是:无论这些人工智能服务如何好,企业都需要认识到MLaaS的局限性。问题当然在于细节。如果预先训练好的网络作为一种服务不能充分地包含你想要识别的各种面孔、词汇和对象呢?如果你想在自己的基础设施上运行人工智能应用,将所有有价值的数据保存在内部(那么至少看起来数据是安全的)呢?在任何一种情况下,MLaaS都可能不是企业正在寻找的入口匝道。微软和谷歌正试图解决MLaaS的这些功能局限性,但我认为Google的方法可以产生更准确的结果——AutoML实际上是建立一个自定义的人工智能模型,而不是简单地提供一个可定制的预处理层。
顺便提一下,我很惊讶地发现AutoML是在NVIDIA GPU上运行的,而不是被称为GTP的Google TPU。我预计这种情况可能很快就会改变,但这确实表明,去年春天Google预先发布了Cloud TPU是为了颠覆NVIDIA GTC争取更多事件,而不是与即将到来的发布上市保持一致。
尽管如此,我相信Google在人工智能方面的实力将有助于Google达到并有可能超越微软目前在MLaaS技术上的领先地位,而微软在企业软件市场的实力将帮助其通过其应用组合实现其人工智能投资的变现。
好文章,需要你的鼓励
Rescuezilla 2.6.1发布,基于最新的Ubuntu 25.04"Plucky Puffin"版本,同时更新了基于旧版本的现有构建。新版本提供基于六个不同Ubuntu版本的构建,包括所有仍在标准支持中的LTS版本。该工具用于紧急备份、数据恢复和文件系统管理,支持硬盘、SSD和虚拟驱动器。新版本重新支持Firefox,并能处理多种虚拟硬盘格式。
莫斯科物理技术学院研究发现,大语言模型无需学习词汇语义含义也能实现语言理解。通过使用基于字符视觉形状的冻结嵌入代替传统可训练嵌入,模型在推理测试中表现更佳。研究表明语义理解是Transformer架构的涌现属性,而非来自输入嵌入的语义信息,为AI语言理解机制提供了全新视角。
AI代码编辑器Cursor的开发商Anysphere收购了AI客户关系管理初创公司Koala,旨在加强与微软GitHub Copilot的竞争。此次收购主要为获得Koala的顶尖工程师人才,组建企业就绪团队,而非整合其CRM产品。Cursor正通过这种人才收购策略快速构建企业业务能力,该公司年收入已达5亿美元,服务超过半数财富500强企业。
清华大学团队推出T-LoRA技术,解决AI绘画中的"背答案"问题。该技术通过时间步骤的智能控制和正交初始化,让AI在学习单张照片时既保持特征准确性,又避免过度记忆背景等细节,生成更有创意和多样性的图像。实验显示T-LoRA在文本对齐度方面比传统方法提升约10%,为AI创意产业开辟新可能性。