ZDNet至顶网软件频道消息:在近期亚特兰大举行的OpenStack峰会上,我注意到了一个主题——商业主义,这个主题在过去三年里一直在酝酿,终于在今年被提出来了。
有几十家供应商在销售OpenStack的附加服务。OpenStack是一个为技术发展带来巨大利好的项目。某些传统开源开发者可能对OpenStack现在的规模有一些敏感的担忧,但我却发现人们对该项目的兴趣正在升级,充满乐观和热情。对这个项目而言,资金越多,资源就越多。这能帮助所有相关公司从开放云的前景中获益。
然而,供应商的快速增加可能导致市场混乱。前景转化为现实和实践时,一个公司的OpenStack投资不一定能够顺利进行。这让某些人产生了疑问:OpenStack是否是一种容易实施的项目,或者它是否存在设计缺陷,阻止更多最终用户拥抱OpenStack潮流?
任何项目都可以改善用户体验。我们应当在宣传中力求更好地说明,如何才能以最佳方式迁移和管理OpenStack部署。但我还想提醒那些打算采用OpenStack云的IT总监:请谨慎从事。我们应当以明智的方式扩展OpenStack,下面是具体步骤:
循序渐进,步步为营
我观察到很多公司犯的最大错误是“贪多嚼不烂”。他们向OpenStack迁移了各种工作负载和流程,可能包括几种陈旧的系统。他们拥有带有各种挑战和细微差别的不同组件,而不仅仅是一项OpenStack部署。
OpenStack项目的其中一个主要目标是减少复杂性。但公司执行复杂安装时却让流程变得更加复杂。
与之相反的是,公司需要在云中制定和实施一个简单流程。然后成功就会逐渐积累,为向OpenStack中添加更多流程和工作负载奠定基础。用户添加的流程越多,它就会变得越简单。
由点及面,逐步推广
在OpenStack中循序渐进不仅出于技术原因,还出于政治支持和财务支持方面的考量。很多决策行为由各行各业作出,因此部署OpenStack项目会让原本没有机会交流的人们走到一起。如果用户的项目遇到了挫折或挑战,它会在组织内找到许多伙伴。
有条理的OpenStack部署旨在逐个处理这些利益相关者,在每个行业给IT一个关键接触点。一个部门收到效益之后,部署也将会推广到公司的其他领域。
专家支持
公司为OpenStack项目设置安全保障之后,就开始享受开源的好处,包括随之而来的帮助和协助。例如在部署之后的数天、数周乃至数月内都会有人员提供帮助,保护投资效益,这当然不错。很多供应商都是专家,能为公司提供必要的帮助,确保项目启动后能够顺利运行。
OpenStack在灵活性、适应能力和成本方面的优势显著 – 你只需参加下一届OpenStack峰会,就可以见证人们在有机会拥抱开源云时所表现出的兴奋和热情。这种兴奋不应当被安装和迁移方面的担忧浇灭。通过几个谨慎的小步骤,任何组织都可以轻松享受OpenStack带来的好处。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。