至顶网软件频道消息: 2018年新年伊始,企业级容器云PaaS平台和解决方案提供商时速云对外宣布,完成近亿元 B 轮融资,并且资金已经全部到账。本轮融资由泰达科技投资领投,原投资方朗玛峰创投、九合创投、众海投资继续跟进。成立于2014年10月的时速云(TenxCloud),是容器云领域的一家初创企业,业务涵盖容器云PaaS、微服务治理、DevOps、自动化运维、AIOps等领域。
在容器云的道路上,时速云并不孤单,在此之前先后有灵雀云、数人云等容器云厂商对外发布了成功融资的消息。其中,灵雀云于2017年11月宣布完成B轮,该轮融资由腾讯云领投,高榕资本、宽带资本跟投,其他战略投资者跟进,融资总额超过亿元。更早的2017年年初,数人云也对外宣布已完成5000万人民币A+轮融资,此次融资由沣源资本领投,云启资本、唯猎资本以及UCloud等A轮投资方继续跟投。从事容器云的几家厂商在差不多一年左右的时间先后获得了大笔投资,基本上可以说今天的容器云是在风口。
容器云备受追捧源起于Docker的兴起。Docker 最早是一个开源项目,诞生于 2013 年初。作为一种轻量型的虚拟机,它具有传统虚拟机很多优点(比如它有自己的配置,可以独立地运行其他程序),但没有虚拟机的开销;它允许可以将环境和配置放入到代码中加以部署,同样的Docker配置还可以用在各种环境中,这有利于将基础设施需求与应用程序环境分离开来。而且由于容器的运行只需要为应用本身创建容器,并不启动操作系统,这可以大大加速应用的部署时间。
应该说,Docker本身只是解决了应用的打包问题,在大量容器镜像出现后,容器的调度和管理需要借助Swarm、Mesos以及K8S等容器编排引擎来实现。只有把Docker和编排引擎结合起来才能构成一个真正完整可用的容器平台,这个平台和底层的IaaS一起共同构成容器云PaaS。由于这里技术复杂,因此挑战很大,由此也诞生了如前面提到的时速云、数人云、灵雀云,它们都以此为主要业务。
以前,容器编排引擎是Swarm、Mesos、K8S三分天下,更早些时候前两者可能比K8S势头更猛。但是到2017年形势出现逆转,有Google做后盾的K8S明显占据上风。到2017年10月,在Dockercon Europe 2017大会上,容器供应商Docker放出重磅消息,未来Docker将同时原生地支持自家的Swarm和竞争对手K8S,这意味着在Mesos、Swarm和K8S之间进行的容器编排器大战基本告一段落。作为后来者的K8S还是在CNCF的领导下得到了更广泛的支持,凭借技术的后发优势和生态系统赢得了市场优势。进入2018年,随着K8S成为事实标准,容器相关服务商得以集中有限的资源来完善产品,构建生态体系,这对于容器技术的普及无疑将会更加利好。
第二个利好的是容器市场的持续走高,如今DevOps已经从互联网企业进入众多传统企业。越来越多的传统企业希望借助DevOps来实现应用软件的快速开发/快速集成,而Docker真正DevOps落地的最重要的支撑性技术。
不过,最后要指出的是,虽然容器云的未来看好,但挑战不少。首先就是容器云本质上是一种PaaS平台,而相对于IaaS和SaaS,PaaS在用户接受度上还存在不小的差距。目前,几家主要从事容器云的厂商对未来究竟是定位在公有PaaS还是私有PaaS也还在摸索之中。比如前面提到的时速云、数人云最早都曾经在公有容器云领域做过尝试,最后还是选择了私有容器云。那么,公有的容器云的前途到底如何?
对此,Rancher创始人梁胜的一句话让笔者印象颇深。他认为只要私有容器云有存在价值,那么共有容器云一定是有未来的。实际上,如今航海云和华为云都把容器云作为其云服务的一部分。
对于容器云未来的另一个挑战是容器技术的成熟度。毕竟是新生事物,技术本身还在成熟,同时,相关厂商大多数是创业公司,这在一定程度上影响了用户对这种技术的认可。
因此,展望2018年,我们预计容器热仍将持续,而容器云仍将是风口。至于到底能飞多高、飞多久则这要看容器云技术成熟程度以及其到底能多大程度地满足用户的需求。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。