多年以来,随着AI技术的发展与变革,各个行业及IT决策者都在大力投资这一领域。AI有望改变企业内的一切、转变人们的工作方式,因此对业务及企业的宏观/微观层面控制体系至关重要。而随着AI的发展演进,我们更需要关注自己的业务功能变化,将每时每刻的需求与改进融入AI解决方案。
虽然只处于试点和起步阶段,AI已经显示出无可比拟的力量与影响力。随着AI的后续发展,预计我们将迎来一波又一波更大、更广泛的变革。那么,AI到底要怎样继续改进?
随着人们对于AI的努力改进,全社会对计算及基础设施资源的需求也将同步增长。当AI真正实现全面普及之后,我们无疑需要一个更经济、更高效的环境容纳如此庞大的流程。每家企业都需要适应这些变化,并以充分的灵活度迎接新型基础设施。换言之,云技术、特别是混合云解决方案,必将成为AI的实现基础。混合云解决方案能够保证将AI基础设施需求消解为业务需求,同时从容维持并匹配技术动态。只有这样,企业才能在持续使用、开发并实现AI方案的同时,不致对自身基础设施性能造成严重影响。
下面,我们就聊聊在评估潜在合作伙伴、选择最佳平台时需要关注的几大核心因素。
核心因素一 高算力
企业需要高性能计算资源(包括CPU与GPU)探索AI领域内的种种可能性。目前大部分企业仍在AI实验阶段,所以倾向于建立强大的CPU环境处理基础AI负载。但事实证明,基于CPU的现有计算架构并不能满足深度学习流程的需求;可扩展神经网络算法的部署以及高性能网络/存储管理都对算力和数据处理密度提出了极高的要求。
核心因素二 存储容量
存储容量是一切AI基础设施的基本要求;随着数据量的增长,存储系统也必须拥有扩展能力。因此对企业来说,最重要的就是明确AI实验究竟需要何等规模的存储系统支持。只有以强大的存储扩展计划与容量管理能力为依托,企业才能从容做出实时决策;也只有这样,我们手中的AI应用才能在数据的滋养下愈发完善。
核心因素三 网络基础设施
无缝网络是AI基础设施中的又一重要组成部分。考虑到可扩展性的重要意义,企业必须建立起高带宽、低延迟的网络体系。深度学习算法高度依赖于通信能力,随着AI实验的推进与扩展,网络系统自然要同步成长与进化。对于网络这种泛用性服务,企业有必要选择一家专业的基础设施服务商,由他们在全球范围内提供服务打包与技术支持,并确保不同区域内的堆栈始终拥有良好的分布式与一致性。
核心因素四 安全性
由于AI模型往往会接触到大量来自医疗保健、金融等部门的敏感数据,因此对个人数据的安全维护就成了一大现实挑战。这些信息在本质上极其脆弱;一旦管理不当、特别是被不可靠来源所利用,则可能对使用AI模型的企业造成巨大危害。此外,如果向AI系统中添加了非必要数据,则可能引发决策和推理错误。因此,我们需要一套更安全的AI基础设施保障数据免受侵扰。
核心因素五 解决方案必须具有成本效益
这一切还只是AI模型的发展起点。随着研究工作的缓慢推进,AI本身也会变得更加复杂、开发成本随之一路飙升。各个企业必须努力找到具有成本效益的解决方案,这样才能推动流程延续与业务增长。具体来讲,企业在支撑AI探索方面势必要不断升级网络、服务器及存储等基础设施,满足AI模型的训练与推理需求。整个过程将极其昂贵,因此必须谨慎选择那些资源经济性更好的服务供应商。只有这样,企业才能更明智地规划、决策并投资于AI基础设施,保证自身在被资源支出压垮之前找到提升自身业务绩效的宝贵机会。
好文章,需要你的鼓励
清华大学团队突破性开发"零样本量化"技术,让AI模型在不接触真实数据的情况下完成高效压缩,性能反超传统方法1.7%,为隐私保护时代的AI部署开辟新路径。
普林斯顿大学研究团队开发出"LLM经济学家"框架,首次让AI学会为虚拟社会制定税收政策。系统包含基于真实人口数据的工人AI和规划者AI两层,通过自然语言交互找到最优经济政策,甚至能模拟民主投票。实验显示AI制定的税收方案接近理论最优解,为AI参与社会治理提供了新路径。
K Prize是由Databricks和Perplexity联合创始人推出的AI编程挑战赛,首轮比赛结果显示,获胜者巴西工程师Eduardo Rocha de Andrade仅答对7.5%的题目就获得5万美元奖金。该测试基于GitHub真实问题,采用定时提交系统防止针对性训练,与SWE-Bench 75%的最高得分形成鲜明对比。创始人承诺向首个在该测试中得分超过90%的开源模型提供100万美元奖励。
南开大学研究团队提出了一种新的3D高斯泼溅重光照方法,通过在高斯原语上直接编码离散化SDF值,避免了传统方法需要额外SDF网络的问题。该方法设计了投影一致性损失来约束离散SDF样本,并采用球形初始化避免局部最优。实验表明,新方法在保持高质量重光照效果的同时,仅需现有方法20%的显存,显著提升了训练和渲染效率。