近日,华为发布全球联接指数(GCI)2020,这是华为连续第七年发布该报告。本年度的报告首次提出行业数字化转型的五大阶段,分别是:任务效率、功能效率、系统效率、组织效率与敏捷、生态系统效率与韧性。
报告指出,2020年疫情新冠疫情席卷全球,世界运转在“线上”。在此背景下,智能联接一方面帮助各行各业抗击疫情,恢复生产;与此同时,国家和企业都在积极思考,如何进一步发展智能联接,加速数字化进程,适应新常态。研究表明,行业数字化转型助力国家发展“高水平”的生产力,推动经济复苏,提高未来竞争力。
起步者加速缩小数字鸿沟,得益于宽带覆盖率与可支付能力的提升
GCI分析了各国自2015年以来的分值变化,领跑者、加速者、起步者类国家的平均分自2015年以来均有所提升,其中起步者的年复合年均增长率(CAGR)最高(提升4.95%),加速者次之(4.58%),领跑者最低(提升3.38%)。这表明,起步者正在积极追赶加速者和领跑者,努力缩小数字鸿沟。报告分析,起步者在宽带覆盖率上取得了显著的进展,移动宽带普及率平均提升了2.5倍以上;4G用户占比总人口也从1%提升到19%;移动宽带支付能力提升了25%。这有助于提升其综合数字化服务水平,并推动新的经济发展机遇,电子商务支出较2014年几乎翻番,人均电商支出已超过2,000美元。部分起步者正在迈入更高水平的国家行列,其GCI得分增长了17%,GDP 增长要比其他同类快22%,越南和秘鲁在2020年已步入加速国家的行列。
领跑者国家的企业更有意愿保留IT预算
研究显示,不同国家的企业在IT 投入的意愿也有差异,总体而言,与非IT预算相比,领跑者与加速者国家的企业,更倾向保留IT预算;此外,受疫情影响,尽管多数企业预计会因业务下滑而削减IT预算,但领跑者国家的企业削减IT预算的比例要比其他类别国家低2.5至3.5倍。这也意味着,数字基础设施成熟度更高的国家在向高水平生产力模式转型时,能够更快地实现复苏,最大程度地规避影响。
行业数字化转型助力国家发展“高水平”的生产力
ICT投资需要考虑各国独特的现有生产要素禀赋,才能产生倍增效应。总体而言,每个国家的经济由不同的行业构成,有各自独特的支柱行业。报告建议国家ICT战略应构建在各国前期积累的优势行业之上。但无论在哪个产业,其数字化程度越高,带来的附加值就越大。
GCI 2020首次提出了行业数字化的五个阶段,分别是:
第一阶段:任务效率:通过基础联接,通过提升沟通效率,来跟踪单项任务的完成率。
第二阶段:功能效率:利用ICT技术实现计算机化或自动化,可同时处理多项任务,提高信息的共享。
第三阶段:系统效率:推动核心系统功能数字化,实现系统高效运作。在这一阶段,企业需要更广的联接,并对云服务提出需求。
第四阶段:组织效率与敏捷:企业的内部流程实现了数字化,应用普遍上云,且所有的系统都能有效集成,并能够借力于高覆盖的网络、云应用的普及,AI和物联网的部署,实现实时的数据分析与洞察。
第五阶段:生态系统效率与韧性:整个生态系统都会实现数字化,并能快速响应市场变化,且支持利益相关方的自动协调与跨界合作。5G、物联网、机器人等技术将成为这一转型的典型代表,为新商业模式、新工作方式和新产品创造新的机会。
华为ICT基础设施业务首席营销官张宏喜表示:“随着ICT技术进入到各行各业,数字化转型已经成为国家和千行百业的普遍共识,我们首次尝试将研究的视角从国家维度延展到行业维度,尝试为处于不同阶段的国家和企业,提供数字化转型的路径参考,构建面向未来的发展韧性”。
GCI旨在为政策制定者和经济领域的利益相关方提供有价值的洞察,推动数字经济更快增长。GCI 2020评估的79个国家占全球GDP总量的95%,占全球人口的84%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。