ZDNet至顶网软件频道消息:在目前这场激烈的基础设施即服务争霸当中,Amazon Web Services一马当先成为群雄竞逐的目标。而谷歌则祭起价格战这一法宝,迫使立足未稳的微软Azure、Rackspace乃至其它参与者不得不咬紧牙关而勉力跟上。
时至今日,基础设施即服务(简称IaaS)市场已经被众多参与者挤了个水泄不通。IBM的SoftLayer、惠普、甲骨文、Verizon以及一大堆其它厂商,每个人都希望能从IaaS这场逐鹿中分得一杯羹。
不过Bernstein分析师Carlos Kirjner则将最后的赢家锁定在三位选手身上——Amazon、谷歌与微软,鼎立之势终将形成。其它厂商则要么面临生态系统中的利益冲突、要么没有能力承受AWS以及谷歌所构建起的技术架构规模,因而最终无法在这场残酷的生存挑战中苟全性命。
Kirjner对谷歌最近下调其Compute Engine各类服务器使用价格的决定作出了评论,他表示:
我们认为能够在规模上与AWS相匹敌的竞争对手(即不仅仅针对特定利基市场)用一只手就能数得过来。这是因为要想在这场巨头级IaaS联盟中占得一席之地,参与者必须拥有相当程度的资产积累、雄厚的技术实力以及极为丰富的业务经验:要想建立起分布式计算基础设施,厂商必须有能力应对数十万台、很快将突破上百万台的庞大服务器管理规模,具备创建并支持数千种不同服务及功能、并将其顺利交付给企业及政府客户的软件开发技术,同时拥有在保证可靠性与成本效率的前提下、构建超大规模分布式计算体系所必需的底层技术基础设施运营及调整能力。
Kirjner的论证有理有据,我们很难加以反驳。如其所言,目前只有少数几家公司能够处理超大规模基础设施,不过这一领域的施展空间也许并不止于此。他认为IBM虽然不应被彻底排除出去,但其尚不具备成为主要竞争参与者的经验或者专业知识——即使是收购了SoftLayer也无法从本质上解决这一难题。Kirjner的核心观点是,IBM缺乏在IaaS领域一争短长的经济动力。而作为最后一点原因,尽管已经将低端服务器业务出售给联想,但IBM仍然是一家毋庸置疑的硬件供应商。
但除了蓝色巨人之外,其它众多企业都受到经济因素的推动而纷纷加入IaaS战团。电信业巨头——例如Verizon——绝不会参与到IaaS的价格战当中,他们的最佳舞台在于市场上游。甲骨文将IaaS视为一种销售其云应用程序及平台的绝佳途径。对于甲骨文来说,基础设施构建成本只不过是一张迈向云领域的门票。
Kirjner补充称:
在我们看来,未来的IaaS市场将主要由三家厂商、在极端情况下可能由四家所瓜分,这些主要市场竞争者将占据整体份额的六成到八成。其它已经加入进来的众多厂商(或者至少公开宣布有意加入进来),其中包括Verizon、AT&T、VMware、惠普、Centurylink、BT以及思科等,则可能在此期间进一步意识到这一市场的庞大的规模、并发现即使是其中的一小部分也足以带来显著的经济回报。但归根结底,我们几乎可以肯定地指出,他们并不具备可以与Amazon、谷歌以及微软相抗衡的计算科学与工程技术能力。
生态系统现状也基本与Kirjner的论断相吻合。Amazon、谷歌与微软将别无选择,而只能以每年20%到30%的幅度下调价格定位,不过与此同时产品营收、服务器折旧、摩尔定律以及功耗水平等因素也将使其运营成本同步降低。换句话来说,基础设施即服务的利润率可能会始终保持在平稳的比例上。不过目前还无法断言Amazon、谷歌与微软肯定能从IaaS当中获得收益。他指出:
我们认为公有云业务的立足根基在于庞大的规模,因为AWS以及谷歌计算引擎将能够以很高的服务器利用率进行运营;这一利用率高到足以让每一台服务器带来确切回报并通过规模化毛利来抵消固定成本(包括研发与日常费用)。
总而言之:谷歌与AWS有可能在二十一世纪的第二个十年末实现400亿美元整体营收,当然其间也将经历不计其数的价格下调。
那么,为什么其它一些技术巨头不会加入竞争?谷歌、Amazon与微软很可能掀起一波通货紧缩的全新IT周期。几乎没有几家厂商能够像三大云巨头那样实现极高的设备利用率。有鉴于此,他们也就不会为此购买服务器硬件。而其它同时涉足硬件销售业务的厂商则往往会因此而退出公有云市场,因为他们肯定不希望推动这类会对自身核心业务造成严重负面影响的趋势。“AWS或者谷歌所购买并使用的一台服务器或者交换机能够在极高利用率的支持下满足以往两台服务器才能满足需求的企业客户,“Kirjner解释道。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。