IBM首席执行官关于新产品、人工智能和量子计算的五个最大胆的宣言

IBM首席执行官Arvind Krishna近日在IBM Think 2024大会上发表主题演讲,围绕IBM新产品发布、人工智能和量子计算的愿景发表了宣言。

IBM首席执行官Arvind Krishna近日在IBM Think 2024大会上发表主题演讲,围绕IBM新产品发布、人工智能和量子计算的愿景发表了宣言。

IBM董事长兼首席执行官Arvind Krishna周二在IBM Think 2024大会上发表演讲,就IBM 的新产品、他对量子计算的愿景以及兑现生成式人工智能生产力承诺的三大关键点发表了自己的看法。

Krishna在波士顿举行的IBM Think 2024大会上发表主题演讲时表示:“技术一直被用于提高生产力和自动化。将其视为企业实现精益化的助力,但是我认为情况正在发生变化。”

IBM的首席执行官表示:“技术的作用不再仅仅关乎精益。技术的作用已经真正转变为如何通过技术推动企业获得收入、扩大规模、在市场上获得更多份额——这是一个巨大的转变。”“每一个人的目标都应该是‘如何在业务背景下拥抱技术,从而帮助实现这一转变,而不仅仅是让自己尽可能地精益求精。’”

IBM Think 2024

IBM Think 2024大会于5月20日至5月22日在波士顿会展中心举行。

成千上万的IBM合作伙伴、客户、员工和开发人员涌入波士顿,观看IBM发布的一系列新产品,聆听这家市值620亿美元的公司的愿景。

这次技术大会上发布了一些重要的新产品,包括人工智能驱动的IBM Concert,这是一款生成式人工智能工具,可以深入洞察客户的应用组合,从而识别、预测和解决问题。另一款新产品 InstructLab 是与Red Hat共同开发的,旨在推动围绕大型语言模型(LLM)的、真正的开源创新。

Krishna在IBM Think 大会上面对座无虚席的观众席表示:“我真的要感谢大家对IBM的信任。”“也感谢所有向我们的客户传递所有这些能力的合作伙伴。”

以下是Krishna在主题演讲中围绕人工智能、新创新、量子计算以及扩大与亚马逊网络服务公司(Amazon Web Services)和Adobe的联盟所做的五点最大胆的发言。

Krishna的“IBM Concert 背后的愿景”

每家企业都在使用多种公共云,大家有SaaS应用程序,大家有自己的内部应用程序等等。据估计,通过生成式人工智能,到本十年末,将有6亿到10亿个新的应用程序被编写出来。

想想所有这些无序扩张、所有的连接和所有的基础设施。这意味着该将人工智能引入IT运营,真正帮助你了解发生了什么。

这样,当出现问题时,你就能知道发生了什么。如何调整响应时间?你是否可以自己处理问题而不用让旁人插手?

这就是我们在IBM Concert背后的愿景。

第一步:检查对环境所有的安全影响。哪里需要打补丁?哪里有遗漏?你需要做什么来快速修复?我所描述的整个愿景就是我们将在未来几个月内推出的功能。

量子计算 “不再是科学实验”,超过3万亿次量子测试

有一个我非常关心的话题,我要提一下。我们谈了很多关于人工智能和混合云的话题。但另一个即将到来的话题是量子计算。

我认为量子计算为我们大家能够完成的工作提供了巨大的潜力。首先,我要自豪一下。

我们已经建造了70多台真实的量子计算机。在过去的半年多时间里,这些系统已在全球范围内部署。已经有250多个组织非常积极地参与我们的量子网络。其中的一些人现在就坐在这个房间里。

在过去的许多年里,人们已经在我们的量子系统上进行了超过3万亿次的单独实验。我认为这说明了这些技术的现实性。

当你运行了3万亿次的时候,它就不再是科学实验了。它正在成为一个真正的计算机系统。

当我们看到这个状况的时候,潜在的希望在哪里?有些问题是传统计算机永远无法解决的。当我说“永远”的时候,我的表述是非常肯定的。

我们看看肥料、食品供应、新材料、金融风险等方面的问题。这些都是量子计算机在未来三到五年内能够解决的问题。这确实让我们感到兴奋。

兑现GenAI承诺的生产力的三大关键点

要想获得 GenAI 所承诺的生产力,我们需要做到以下三点。

第一,我们需要信任底层人工智能。这也是我们与Meta合作成立开放人工智能联盟的原因。在该联盟中,100多个组织聚集在一起,包括工业界、学术界和政府部门,以帮助制定标准和测试,从而实现人工智能的交叉。

我们还需要人工智能具有灵活性。我们如何组合模型?无论模型是来自像我们这样的公司,还是来自其他商业实体、开源软件,你们都应该能够灵活地在自己认为合适的地方部署这些模型。部署在你选择的公共云上、内部部署、在主权或大型公共环境中。(IBM 拥有)这种灵活性。

最后,安全至关重要。我们从根本上相信,当很多人都能看到某样东西(也称为开源)时,就是安全的。那么,如何才能真正让更多的人关注这件事,从而带来安全和创新呢?这就是为什么我们一直在推动将人工智能推断和部署方面的大量功能引入Red Hat Linux的原因之一。

IBM 和Red Hat的新InstructLab

Red Hat Linux具备很多功能,(用于)组建一个平台来运行这些人工智能模型,并在不同的硬件上运行推断任务,但这些功能已针对硬件进行了优化。

这样,你就能获得十倍于其他方式的性能。

我们指的是Granite模型,但也包括任何其他开源模型。

然后你就会遇到这样的问题:“如何开始增加技能?我特意用了'技能'这个词。你如何将自己的专有数据和知识注入,以此来增加技能?但是,建好的模型可能并不适用于该技能的特定用途。例如,你可以想象围绕着某些语言、代码等的情况。”

因此,你需要在需要时以比其他方法低得多的成本快速注入。这就是我们将 InstructLab 推向市场的原因。这是一种将开源社区贡献直接引入LLM的技术,这种模式是首创的。

有了 InstructLab,开发人员可以使用自己的数据建立针对其业务领域或行业的模型,这样他们就能看到人工智能的直接价值,而不仅仅是模型提供商看到了价值。

IBM 促进合作伙伴关系“至关重要”

一个重要的消息是关于我们的生态系统的。这是我们投入大量资金的地方,我们非常注重创新和整合。

如果你看一下我们与OpenShift和watsonx与Adobe Experience平台的合作,那就是一个很好的整合。

在AWS方面,我们正在将watsonx系列与AWS SageMaker集成,尤其是在治理方面。(这是)另一个很好的合作范例,我相信对AWS和IBM来说,这都有助于推动业务发展。

Watsonx在微软Azure整个平台上运行。它在Azure Marketplace中。这是一个很好的例子,Azure Marketplace上还有许多其他IBM 产品。

就Meta而言,我们的客户现在可以通过watsonx使用Llama 3。这也是我们携手合作的一个很好的例子。

我们与大型Mistral AI模型合作的Mistral AL可以通过 watsonx 购买。而且我们正要宣布我们的品牌模型与SAP、ServiceNow、Salesforce这三个平台的集成。

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2024

05/27

10:26

分享

点赞

邮件订阅