ZDNet至顶网软件频道消息:根据Forrester Research报告,2020年全球公有云市场规模预计将达到1910亿美元。相较2011年Forrester给出的预测高出了20%。2014年Forrester预计的全球公有云市场规模为720亿美元。
在2013年的预测中,软件即服务占到了大约360亿美元,泛云平台的规模大约是47亿美元。
Forrester强调,Amazon Web Services是去年的关键领导者。不过,可能是由于最近大幅降价所点燃的新一轮大战,分析指出这个市场的竞争正日益激烈——特别是来自于“传统IT合作伙伴”,例如IBM、惠普和微软。
不过对于除了CIO、CTO以及他们各自IT团队之外的很多业务和技术人员来说,很显然云的到来已经是一个事实,但分析师警告称,这并不意味着在采用云方面就不存在障碍了。
Forrester运营副总裁、负责基础架构和运营方面的首席分析师James Slaten在本周四的一篇博客文章中解释了这些障碍背后隐藏的理由。他指出,现在向任何人解释公有云是CIO未来最有效(在成本和性能方面)的部署方法已经变得越来越困难了。
Slaten指出:“惯性仍然是企业级市场中难以克服的一个问题,在全球某些地区、针对某些用例以及数据类型来说,仍然存在对于云解决方案的安全性以及性能的合理担忧。正如过去三年所显示的那样,这些问题都将被克服。CIO最大的障碍是内部文化、不同阶段的心理以及财务方面的障碍,这需要几十年的时间才能改变。”
Forrester预测,到2020年公有云平台将向传统基础架构和中间件部署延伸,据Forrester猜测,公有云将演变为现有内部系统的一种补充,而不是替代。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。