至顶网软件频道消息: 投资先进技术,在竞争激烈的企业云市场保持顶端位置:IBM在2017年获得了超过1900项云技术专利,并刚刚发布了一个AI优化的芯片,据说具有超过竞争对手10倍的IO和带宽。
过去的这一年IBM让很多观察人士惊讶不已,IBM将自己打造成为世界三大企业云提供商之一,与微软和亚马逊齐名,在截至10月31日的12个月中,IBM的云计算收入接近160亿美元。
虽然160亿美元的云收入与与微软和亚马逊的云收入数据相当,但许多分析师和大多数媒体观察人士仍然不承认IBM作为一个基础广泛的企业云计算平台的地位。IBM的软件功能使IBM在混合云、PaaS和SaaS的下一波云增长中处于领先地位。
IBM将于1月18日星期四公布其第四季度和年度财报,展现自己保持顶级云厂商的承诺, 2017年IBM获得近2000项云技术专利,是2017年IBM所有9043项专利中的一部分。
IBM首席执行官Ginni Rometty指出,这9043项专利中近一半来自“人工智能、云计算、网络安全、区块链和量子计算领域的开创性进展,这新一轮的先进技术创新将帮助我们的客户创造更加智慧的业务。”
在这些云相关领域,IBM新增的专利涵盖以下内容:
- 共有1400项人工智能专利,其中一项专门用于一套可以分析用户语音模式、使人类和人工智能相互理解的人工智能系统。
- 共有1200个网络安全专利,“其中一项专门针对使人工智能系统能够通过诱骗黑客进入电子邮件交换和网站、耗费其资源并阻止他们的攻击的技术”。
- 在机器学习方面,有一款系统是在需要的时候(例如在紧急情况下)的将自动车辆控制系统转移给人类。
- 在区块链方面,有一种方法可减少多个商业团体之间交易所需的步骤数量,“即使那些不可信任的团体,可能需要第三方信息交换所来执行”。
对于IBM来说,对创新云技术的追求尤其重要,因为这160亿美元云收入中有很大一部分来自IaaS、PaaS和SaaS的外部标准云收入流,而不是我所谓的IBM“云转换”业务——这是IBM独有的方法。
尽管IBM将其业务定义为“通过硬件、软件和服务让IBM客户能够实施全面的云解决方案”,从大型企业客户的角度来看,这一概念是鲜活的,有很多案例。
IBM最新的一批云技术专利——而且IBM现在每年的专利数量要比其他任何一家美国公司在过去25年中的专利总和还多——其中有一项专利, IBM在博客文章中是这样描述的:“一个监控数据源的系统,包括天气报告、社交网络、新闻推送和网络统计数据,以确定云资源的最佳用途以满足需求,这是使用非结构化数据的众多例子之一,可以帮助组织更高效地工作。”
这些基础广泛的研究方法和开发的先进技术,也促成了IBM上个月发布的一款微芯片,IBM说这个芯片专门针对人工智能工作负载进行了优化。
一篇关于IBM新Power9芯片的TechCrunch文章表示,它不仅适用于IBM Cloud,而且还将用于Google Cloud:“IBM打算向第三方制造商和包括谷歌在内的云供应商销售该芯片,同时,IBM将发布一款新的计算机AC922,采用Power9芯片,并打算在IBM Cloud上的服务中提供该芯片。”
IBM的这款新芯片是如何如何堆叠的? TechCrunch的文章引用了Moor Insights&Strategy的分析师Patrick Moorhead对Power9表现的认可:“Power9是一款采用新系统架构的芯片,该架构针对机器学习中使用的加速器进行了优化。 英特尔制造Xeon CPU和Nervana加速器,NVIDIA制造Tesla加速器。IBM的Power9实际上是瑞士军刀版的机器学习加速,因为它支持极高的IO和带宽,是今天任何厂商可以实现的10倍。”
这将是IBM在云计算领域非常有趣的一年。
好文章,需要你的鼓励
Carma Technology 针对 Uber 提起专利侵权诉讼,称其侵犯了涉及拼车系统的五项专利。案情回溯至十年前,凸显专利保护对创新者的重要性,可能对 Uber 及其他公司带来巨大影响。
东京大学研究团队开发的WebChoreArena是一个全新的网页代理评估基准,它包含532个精心设计的任务,专注于测试AI代理处理繁琐、复杂网页任务的能力。研究结果显示,即使是最先进的语言模型(如Gemini 2.5 Pro)在这些挑战性任务上的表现也比常规任务降低了约14个百分点,证明了这一基准有效区分了不同模型的能力。WebChoreArena通过设计海量记忆、计算、长期记忆等类型的任务,为评估AI代理在实际应用场景中的表现提供了更严格的标准。
经过暂停战略调整,Automattic 宣布重返 WordPress 开发,包括核心、Gutenberg、Playground 等模块,计划今年推出 6.9 版本,并涉及与 WP Engine 的法律争端。
这项研究提出了一种名为LIFT的新型微调方法,通过在低秩近似后识别大语言模型中的主要权重进行稀疏微调。研究表明,仅更新5%的主要权重就能在推理任务上超越全参数微调,同时保持与LoRA相当的内存效率。LIFT在常识推理、算术推理等多项任务上表现优异,还能更好地平衡学习新知识与保留原有能力。这一方法揭示了大语言模型中关键参数的重要性,为资源高效的模型定制提供了新思路。