ZDNet至顶网软件频道消息:平台即服务(PaaS)被标榜为云计算进化的下一个阶段,它的发展是得益于企业希望寻求帮助拓展、加快自己开发人员成效并且抽象(如果有可能的话最好也能够商品化)中间件和数据库层。
Gartner对于这一切都感到很兴奋,并且认为2015年将是PaaS腾飞之年,Gartner预计,明年全球PaaS的销售额将达到18亿美元,到2016年这一数字将急剧增长至29亿美元。
不过,Mike Kavis认为PaaS要想在企业市场中大展宏图还存在着不少差距,至少在今年情况就是如此。在最近的一篇文章中,他指出至少有八个问题让PaaS仍然站不住脚。Mike明确表示他非常乐观地认为PaaS将在一年后或者什么时间里成为一个很大的市场。PaaS厂商正在“积极应对”遇到的任何障碍,特别是影响到PaaS推广的障碍。但是仍有很多障碍影响了PaaS的推广,特别是在企业的私有云和混合云应用环境之中:
混乱的市场信息:Mike表示,“问五个人什么是PaaS,你会得到五个不同的答案。从诸如移动计算、开发操作、大数据等专门的领域到通用的领域,PaaS解决方案针对的是应用程序开发。PaaS可以通过公共云、私有云或者混合云提供。
不够成熟:PaaS在企业推广中步履蹒跚。Mike指出,“在云计算模型的三个不同层次(IaaS、PaaS和SaaS)中,到目前为止PaaS是最不成熟的一个。”
缺乏操作性功能:不幸的是,PaaS有太多的开发,而操作性功能却不足。Mike认为,绝大多数私有云和混合云的PaaS解决方案都“迎合了开发者的需求,而忽略了运营团队的需求。”他不是唯一一个持有这种看法的人:James Thomason也认为PaaS仍然有太多的“非操作”,这给“运营团队带来了新的挑战,例如数据备份和迁移、灾难恢复、安全性和治理,如果忽略了这些问题,它们都会带来灾难性的后果。”(但是他也认为PaaS将最终在2015年崭露头角,所以明年肯定是PaaS的腾飞之年。)
IaaS不够成熟:影响到PaaS成熟度的另一个因素是下层基础架构即服务(IaaS)在私有云部署中的成熟程度。Mike表示,“绝大多数的首席信息官们宁愿在踏上PaaS之旅之前先解决好IaaS的问题。”
无法同时支持Java和.Net:PaaS提供商都在吹嘘他们支持多种开发语言,包括Java、Ruby、PHP、Python、Perl、Node和.Net等等。在大多数企业中,Java和 .Net是必备的两种语言。问题是,没有提供商同时擅长这两种语言。Apprenda和微软优先支持.Net,虽然他们也支持其他的语言,但他们的实力在.Net。而其它的PaaS供应商对开源语言表现出极大的热情,而.Net却是他们的短板。
推向市场速度存在问题:Mike表示,“很多企业有着这样一种信念,他们相信你可以简单地采购一套PaaS解决方案,然后开发者就能立刻开始实现更快速度推向市场的目标。”但是现实是“要想成功地实施私有PaaS项目需要付出很多的努力,还要有提供SLAs、高可用性所需要的一切操作性流程,以及让审计人员和安全团队满意的操作流程,并且能够真正服务于应用程序开发者。”
没有明确的行业领导者:Mike表示,企业的首席信息官们担心有些厂商无法在这个业务中存活。
价值主张还没有完全被理解:“我不能说出有多少企业愿意或者不愿意在它们的IaaS层级之上建设‘穷人的PaaS’”,这不太可能展现全部的优势。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。