至顶网软件频道消息:无论主动或是被动、走得快或是慢,绝大多数企业都已经走在了数字化转型的道路上。而这,实际上也是企业一个从封闭走向开放的过程。
通过充分的连接,形成以数据为洞察的价值网络,并以此为基础打造别具一格的客户体验,更快速地推出创新成果,形成新的商业模式。这就是企业正在致力推动的事情。
当然,其中的连接已经不单单是企业内部的连接。一方面,企业要在内部实现数据信息的互联互通,另一方面,上下游的生态也将被重新构建。这显然不是某种应用、某个技术或某个方案就能解决的问题,随着市场格局的演变,企业需要的是一个融合性的服务平台和完整的生态体系。
因此,作为互联网开放模式以及云计算、物联网等技术所驱动的产物,API经济也由此而生,成为企业连接“万物”的核心载体。
一般而言,通过API(Application Program Interface)的上下游业务功能集成的商业交易,就被称为“API经济”。
举个例子,当我们在微信上支付话费、叫外卖、购物时,背后实际上就是电信公司、外卖服务平台和电商平台对微信开放了相关的API接口。它的本质是一种无处不在的服务,是以低成本实现数据流通的绝佳方式,也是数据价值最大化的一种输出方式。其最大的特点就是通过运维、开发 、流程和交互的快捷与创新,助力企业业务模式的重塑,推进跨企业、跨行业甚至跨领域的合作。
据IDC预测,到2018年,全球的API经济市场将达到2.2万亿美金。据此,在2018年最新的报告中,IDC还将其作为全球第二的技术趋势。报告显示,在接下来的三年里,亚太地区(不含日本)45% 的组织将会采用核心云API战略,并将其作为DX 架构的一部分,以便实现API驱动型经济。其背后所潜藏的能量之大可见一斑。
事实上, API热潮早年就已经在西方国家风靡,并带来了非常可观的经济效益。Salesforce、Google、Twitter、亚马逊都是其中的受益者。而除却互联网公司之外,金融机构也是其中主要的引领者。
在欧美,包括BBVA、CiTi Bank、Capital Bank等在内的金融机构,都已经通过将自己的银行金融服务以开放API口的方式提供给第三方进行调用,使得银行不必直接面对客户,而是通过合作伙伴为客户提供服务。这样的银行,也被称为“开放银行”。
相较于国外,虽然API经济在国内成形较晚,认知度也有所欠缺,但实际上已经在诸多场景中被应用。以中国银行为例,早在2012年,中国银行就提出了开放平台的概念,并在2013年上线了相关产品,开放了1600多个接口,涉及跨国金融、代收代付、移动支付,以及地图服务、网点查询、汇率牌价等服务。
当然,随着企业的开放程度越来越高,为了适应新的产品和服务模式,其IT架构在新的生态模式下也亟需进一步提升,通过重新进行平台化和生态化建设,以确保信息安全和业务连续性,以及产品和服务的快速交付和灵活调整。
作为全球API经济的主要推动者,IBM正在从咨询到云服务,从软件产品技术到项目实施,为企业用户的生态布局提供全面的解决方案和经验。在基础设施方面,不论是公有云还是私有云,IBM都有专门针对API能力的解决方案,帮助企业快速并且平稳地向微服务转型。
值得一提的是,IBM提供了开箱即用的社区开发模块,能够帮助客户更好滴进行场景和业务的创新。
在IBM看来,企业面向未来的IT架构至少需要包括三个层次:核心业务系统层、微服务支撑层和API平台层。通过灵活、开放、组件化的业务系统,实现敏捷化部署,确保在为合作伙伴提供支持和服务的同时,也能够得到外界能力的有效输入,构建良性的生态圈。
据此,在6月5日的网络直播研讨会中,IBM大中华区云计算部混合云技术经理潘雪梅将对此作出更详细的介绍,以金融行业为例,讲述企业如何构建新的技术平台,实现后台业务系统“瘦身”和敏捷化部署,通过前后台系统的解耦,打通金融生态圈,加速数字化进程。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。