至顶网软件频道消息: Google刚刚宣布了对其机器学习服务(MLaaS)进行重大改进,以缩小过去一年中和微软之间的竞争差距。不仅如此, Amazon的AWS去年11月份在AWS Re:Invent上宣布了自己新的MLaaS工具和服务,试图让AI应用开发人员在AWS云上构建自己的智能应用。 如今MLaaS还处于起步阶段,但对于那些更倾向于将所有杂乱细节留给其他人的企业来说,MLaaS可能会成为一个占主导的人工智能平台,这些企业点击一下就可以租赁到人工智能服务。本文总结了每个公司的战略和策略,并试图确定谁是赢家和输家。
MLaaS:承诺和问题
机器学习是很难的,特别是深度学习这个复杂领域。深度神经网络是以数以百万计的数据样本进行训练的,通过使用大量NVIDIA GPU进行分析,以提取和识别各种功能和类别。这是“人工智能时代”的曙光,所以企业和政府机构当然在争先恐后地弄清楚他们需要做什么来避免错过“下一个大事件”。为了到达目的地(无论在哪里),他们必须决定投资哪些项目,聘请稀缺人才,购买大量的服务器和GPU,为监督学习任务提供数据,然后建立和优化自己的深度神经网络(DNN)。听起来很难?那么,MLaaS提供了一个更简单的选择:选择一个捷径,并使用预先训练的神经网络来处理由主要云服务提供商提供的图像、视频、语音和自然语言处理。为什么要花时间和金钱自己来训练一个神经网络,尤其是当你可以写一个基于云的应用、通过一个简单的API来访问一个预先训练好的网络?
Google、微软和AWS:不同的优势和方法
Google MLaaS
战略:Google利用自己在人工智能和深度学习方面的领先专长(Google内部拥有超过7000个人工智能项目,全球超过100万人工智能用户),为人工智能开发提供最先进的开发工具和最高性能的硬件平台。这完全是关于开发人员的,因为Google不拥有像微软这样的用户。
策略:
- 让TensorFlow成为人工智能硬件和软件之王。
- 将人工智能应用于人工智能的开发。Google声称其最近宣布的Google Cloud AutoML可以极大地简化DNN开发的复杂任务。Cloud AutoML不是使用额外的自定义数据(如微软那样)来增强预先训练的API,而是从客户自己的数据开始,构建一个自定义深度学习模型。AutoML有非常酷的仪表板,你可以在开发和调整模型时轻松查看模型的效率。Google甚至将内部数据标记作为服务提供——这是一些人们认为最终将由人工智能实现自动化的手动过程。
- 将Google在数据中心之外的应用范围扩展到边缘消费者设备和自动驾驶汽车,获取Google云平台上的所有人工智能开发项目。
微软MLaaS
战略:使用微软庞大的企业和政府安装基础,以及其广泛的生产力和业务流程工具组合,成为企业中机器学习技术的默认提供商。
策略:
- 提供丰富的机器学习API来处理每种数据类型,因为每个公司或机构的数据都与其业务不同。使用户能够利用包含组织的产品、人员、词汇等的数据样本来扩展训练的神经网络(微软是第一个走上这条道路的公司,现在提供29个API,其中许多API支持DNN的定制训练数据)。
- 为那些需要构建自己的深度神经网络的客户提供最高性能的机器学习框架,尤其是针对自然语言处理的客户。
- 利用人工智能增强每个微软产品——为Office 365、Dynamics、Windows以及Redmond Vault中的每个产品提供智能功能。
亚马逊AWS MLaaS
战略:使用AWS的超大规模和丰富的工具集,为人工智能应用提供最具成本效益的开发和部署平台。
策略:
- 首先,将为亚马逊的大型在线业务开发的工具和平台提供为AWS服务。为Alexa和Amazon eComerce开发的工具,现在可以帮助你轻松构建聊天机器人或语音激活产品或服务。
- 提供世界级的开发工具,如MXNet框架、Lex、Rekognition和SageMaker,以减轻开发负担。这些工具都具有很高的粘性,确保AWS在开发过程完成后成为部署平台。 尤其是SageMaker很有趣,为整个机器学习开发生命周期提供了一个全方位管理的平台。
- 为每个开发人员提供最具成本效益的云基础架构,无论开发人员选择哪种CPU、GPU或AI Framework。
结论
首先,必须提醒的是:无论这些人工智能服务如何好,企业都需要认识到MLaaS的局限性。问题当然在于细节。如果预先训练好的网络作为一种服务不能充分地包含你想要识别的各种面孔、词汇和对象呢?如果你想在自己的基础设施上运行人工智能应用,将所有有价值的数据保存在内部(那么至少看起来数据是安全的)呢?在任何一种情况下,MLaaS都可能不是企业正在寻找的入口匝道。微软和谷歌正试图解决MLaaS的这些功能局限性,但我认为Google的方法可以产生更准确的结果——AutoML实际上是建立一个自定义的人工智能模型,而不是简单地提供一个可定制的预处理层。
顺便提一下,我很惊讶地发现AutoML是在NVIDIA GPU上运行的,而不是被称为GTP的Google TPU。我预计这种情况可能很快就会改变,但这确实表明,去年春天Google预先发布了Cloud TPU是为了颠覆NVIDIA GTC争取更多事件,而不是与即将到来的发布上市保持一致。
尽管如此,我相信Google在人工智能方面的实力将有助于Google达到并有可能超越微软目前在MLaaS技术上的领先地位,而微软在企业软件市场的实力将帮助其通过其应用组合实现其人工智能投资的变现。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。