“当你不再听到AI层出不穷的新概念、新进展时,说明AI已经真正进入到了每个人、每个企业的工作、生活中,真正实现了无处不在。”在近日的媒体分享会上,英特尔中国软件技术合作事业部总经理唐炯如是说。
人工智能概念出现至今已有半个多世纪,这一概念的提出最早可以追溯到1956年的达特茅斯会议,然而,即便如此,一个全行业普遍的共识是,人工智能技术的产业应用依然处于初期阶段。
在过往这几十年里,阻碍人工智能技术产业应用的有两大关键因素,一方面是早期算力的严重不足,无法支撑起人工智能技术向高阶进化;另一方面是大家没有找到行之有效的通用人工智能研究范式,这使得人工智能技术迟迟未能发挥其应有的价值。
就算力而言,摩尔定律在过往几十年里不断将芯片算力推向更高、更强,尤其是近几年的AI芯片算力暴增,为人工智能技术研究提供了算力保障。
就人工智能研究范式而言,近十年有了快速发展,机器学习、深度学习,乃至如今被视为通用人工智能范式的生成式AI的快速迭代,让人工智能技术逐渐进入到了企业生产场景中。
也是在以大模型为代表的人工智能技术成为全球新一轮科技创新的主阵地时,作为全球主要算力提供者之一,英特尔也在不断推进人工智能技术生态构建。
在近日的媒体分享会上,我们看到了英特尔对于当下人工智能技术的理解,以及推动AI无处不在过程中,英特尔在生态构建上持续在做的工作。
让AI无处不在,英特尔考虑了三件事
如何让AI在企业中落地,真正成为生产力?
唐炯认为,至少需要考虑三件事:
第一,加速创新。
生成式AI、大模型让通用人工智能的到来成为可能,尤其是文生图、文生视频的能力,为我们带来了不小的惊喜,但要让这样的人工智能技术落地到企业中,真正打造出杀手级应用,依然需要大量创新工作。
如何激励更多开发者进行AI应用开发,加速AI创新,就成了一个不可忽视的问题。
第二,价值最大化。
生成式AI为手机、PC上的AI语音助手带来了一次跨越式提升,但如何让AI对于个人、对于企业真正产生价值,并让AI价值最大化,这更值得关注。
第三,灵活部署。
AI是一项应用广泛的技术,无论是算法模型、数据库,还是数据治理、数据安全团队,都在通过人工智能技术进行产品升级,如何让不同软件灵活部署,并将这些应用整合成一个完整的解决方案,这是另一个值得思考的问题。
面对这三大问题,作为AI生态构建者,英特尔在过往这些年里做了大量工作,不仅有面向AI PC、边缘AI、数据中心AI的算力生态,还有诸如PyTorch、TensorFlow、Python开放的可编程环境。
而面对种类繁多的AI基础架构,英特尔提供了诸如oneAPI、OpenVINO等大量开源工具,基于这些工具,通过一次性编程开发就可以在XPU异构平台上兼容使用。
这些计算平台和软件工具,都是英特尔经年积累下的产品,已经在业界得到广泛使用,然而,对于当下的要想将人工智能技术在产业中实现价值最大化,就需要一个良好的生态系统。
这个生态要足够开放,要有强大的互联互通性,要让基础设施厂商、软件开发商、应用开发商在这个生态系统中都可以聚焦自己擅长的领域潜心进行技术攻关、产品研发,通过这一生态实现产业上下游的价值协同。
为此,英特尔联合产业上下游,面向企业AI构建了一个完整的开放生态堆栈。
更为重要是是,英特尔今年特别面向全球推出了OPEA(Open Platform for Enterprise AI)开源社区,通过联合全球人工智能软件开发商,共同打造面向企业级的AI应用。
借力AI生态,打造企业级AI
尽管人工智能技术发展依然处于初期阶段,但在英特尔企业AI开放生态里,面对生成式AI、大模型这波时代机遇,一些企业已经在快速面向AI迭代他们的产品和业务。
东方国信是一家成立于1997年,专注大数据、云计算、人工智能的软件公司,与英特尔的合作已有五年之久。
面对当下大模型时代为硬件环境、交互体验、开发模式,以及应用构建模式带来的变化,东方国信也在构建一个由AI驱动并赋能的企业IT系统,与此同时,东方国信也在今年对外发布了幕僚大模型产品体系。
据东方国信副总裁兼CTO查礼透露,“在幕僚产品体系中的训推一体机在企业级AI领域的应用与OPEA的理念不谋而合,正是希望让每一个企业有一个自有的、专有的、私有化部署的硬件平台和行业模型,通过将这些软、硬件打包在一起,可以端到端交付给企业级用户,企业用户拿到产品就可以开箱即用,这一产品也是我们目前正在与英特尔合作的一个重要产品。”
海鑫智圣是国内最早从事人工智能技术研发的公司之一,也是一家积极拥抱大模型的企业,其研发的视觉大模型“智圣人脸编辑内容生成合成算法”入选了网信办备案,这一模型提升了AIGC在活体攻防领域的对抗技术。
据海鑫智圣总经理孟凡军介绍称,“我们认为云厂商要推出多少GPU算力来满足用户需求其实遵循一个简单的‘二八法则’,即在新时代到来时,只有20%的典型场景需要新设备和加速的方式去解决,而传统的80%的应用场景则需要通过新的软件技术和CPU进行技术升级来满足需求。”
基于这样的判断,海鑫智圣在英特尔合作,推出了云边端一体化AI解决方案,借助第三代英特尔至强可扩展处理器40%的AI推理性能提升,这一解决方案可以较好地支持云边推理的异构数据分析流程,提高了AI推理性能。
另一家同样致力于大数据、人工智能基础软件研发,并在积极拥抱大模型的厂商是星环科技,星环科技在2023年对外发布了分布式向量数据库产品。
向量数据库由于能够高效地存储和检索大规模的向量数据,因而也被认为是大模型关键基础设施之一,星环科技的分布式向量数据库正是基于第五代英特尔至强可扩展处理器的强劲算力,得以在去年年底推出了星环知识平台TKH(Transwarp Knowledge Hub),这一平台目标是为企业和个人构建知识库。
据星环科技生态合作部总经理张雷介绍称,“用于实时问答场景的无涯·问知是我们基于TKH的一个重要产品,由于用户在使用云端算力时有时会出现算力不足的问题,而且很多用户也不愿意将自己的数据上传到云上,我们还与英特尔联合打造了无涯·问知AI PC版,以满足用户需求。”
无论是东方国信的幕僚训推一体机、海鑫智圣的云边端一体化AI解决方案,还是星环科技的分布式向量数据库,都是当下大模型时代独特的产物,也是企业级AI所需要的基础设施和应用产品,而要想这些产品价值发挥到极致,就需要一个开放的AI生态。
正如唐炯在媒体沟通会上所言,“未来一定会有更多异构计算、创新应用、数据管理与治理解决方案,因此我们更需要通过一个开放、透明的平台,通过开源社区的力量,让大家能够便利地了解到自身所处的位置、能够在整个解决方案中做出贡献,以及可优化之处,不至于因为某一个大模型选择问题而将整个应用推倒重来、重新编码。”
而这也是英特尔推出OPEA开源社区、打造企业级AI开放的初衷。
好文章,需要你的鼓励
临近年底,苹果公布了2024年App Store热门应用和游戏榜单,Temu再次成为美国下载量最多的免费应用。
云基础设施市场现在已经非常庞大,很难再有大的变化。但是,因为人们可以轻松地关闭服务器、存储和网络——就像开启它们那样,预测全球云基础设施开支可能非常困难。