6月10日,极狐(GitLab)正式上线DevOps系列培训课程和相关认证体系,完成课程培训并通过相应考试,即可获得极狐(GitLab)官方认证证书。
DevOps是近年来软件开发领域最热、最前沿的概念之一,它彻底改变了软件开发和交付方式,使得软件开发人员(dev)和运营(ops)团队能够通过自动化、协作、快速反馈和迭代改进来加速软件开发生命周期。
GitLab是全球最常用的DevOps工具之一。据估算,GitLab在全球范围内拥有超过3000万的注册用户,10万以上的企业级用户。在国内,有数百万的GitLab注册用户,极狐(GitLab)从本地需求出发,为帮助广大中国用户掌握GitLab应用最佳实践,成为DevOps领域专家,并进一步推动开源DevOps技术的发展和落地,正式推出《极狐GitLab DevOps系列培训课程》和考试认证体系,课程涵盖极狐GitLab的基础理论、项目管理、安全功能及系统管理等内容。
《极狐GitLab DevOps系列培训课程》主要面向使用极狐GitLab的DevOps工程师、安全审计人员、系统运维工程师、系统管理员、项目经理或项目管理人员,全方位覆盖DevOps的理论、功能及实操,旨在帮助企业和团队深入了解极狐GitLab在DevOps各个应用场景中的解决方案,提高企业和团队的DevOps能力,并为DevOps平台落地提供最佳实践参考。
该系列课程从极狐GitLab与Git基础(提供官网免费试学),到如何基于极狐GitLab实现持续集成/持续部署(CI/CD),如何使用极狐GitLab进行项目管理,如何通过issue管理软件产品开发或者其他项目,再到有关DevSecOps/安全左移与系统管理的专业知识,层层递进,逐渐深入。
极狐(GitLab)为学员提供由原厂培训服务,讲师均来自极狐(GitLab)资深的核心系统架构师团队及专家服务团队,课程设置Hands-on Labs 实践训练,以远程教学或线下培训的形式,确保学员可以成功应用所学知识,并顺利通过认证考试。相关课程信息已上线极狐(GitLab)公司官网(https://about.gitlab.cn/services/education/)。
与此同时,极狐(GitLab)配套推出DevOps认证体系,完成不同级别的课程,即可获得相应的证书和徽章,帮助学习者增强自身的就业竞争力,为企业雇主打造专家级DevOps团队和数字化人才储备提供有利抓手。
极狐(GitLab)创始人兼CEO陈冉表示,作为开源的引领者与推动者,极狐(GitLab) 希望赋能更多开发者协同创新:“如今,DevOps处于高速增长的阶段,受到各大企业的欢迎。我们推出DevOps系列培训课程,希望以此为契机,帮助更多开发者掌握新技能,进入行业生态,共同推动DevOps理念和技术的成熟。”
未来,极狐(GitLab)公司将持续为中国用户打造“开源开放,人人贡献”的平台,在此基础之上,大力发展开源培训和教育,扶植初创科技企业和青年人才,并进研发和最佳实践,助力构建DevOps相关技术标准,繁荣开源社区。
关于极狐(GitLab)
极狐(GitLab)公司面向中国市场,提供全球知名开源代码托管和项目管理平台GitLab的本地化DevOps产品——极狐GitLab。极狐(GitLab)公司秉承“核心开放(Open-core)” 原则,结合全球领先的DevOps技术与国产化自研创新和定制化服务,致力于为中国用户提供一站式覆盖软件开发生命周期的开放一体化DevOps平台,为整个DevOps生命周期提供了单一的数据存储、用户界面和权限模型,实现产品、开发、QA、安全和运维团队间的高效协同,显著加快软件创新生命周期。极狐(GitLab)公司以“中外合资3.0”模式创立,在中国本地独立运营,公司资方包括GitLab Inc. 、红杉宽带跨境数字产业基金,以及高成资本。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。