超过 80% 的受访者表示,2022年,已部署的软件中的重大安全问题影响了他们的 DevOps 交付进度
采用DevSecOps方法论现已成为现代软件开发的一部分。成功的DevSecOps策略使用完整的安全工具集来处理整个软件开发生命周期中的代码质量和安全问题,包括动态应用安全测试(DAST)、交互式应用安全测试(IAST)、静态应用安全测试(SAST)和软件组成分析(SCA)工具。但是,目前网络安全人才短缺仍是DevSecOps面临的一个重大挑战。
近日,新思科技(Synopsys, Inc.,Nasdaq: SNPS)发布了《2023 年全球DevSecOps 现状调查》报告。该报告审查了影响软件安全的策略、工具和实践,由 新思科技网络安全研究中心汇总。新报告基于市场研究咨询机构 Censuswide 对全球 1,000 多名 IT 专业人员的调研进行汇编,其中包括开发人员、AppSec专业人员、DevOps 工程师和 CISO,以及技术、网络安全和软件开发领域的专家。
超过 80% 的受访者表示,已部署软件中的重大安全问题影响了他们2022年的 DevOps 交付进度。实施 DevSecOps 是一个专注于在软件开发生命周期 (SDLC) 的每个阶段嵌入安全测试的框架,是减少生产应用中关键漏洞和可利用安全问题数量的既定方法。
新思科技软件质量与安全部门总经理Jason Schmitt表示:“虽然绝大多数(91%)的企业已经在不同程度上采用了 DevSecOps 实践,但在如何有效地部署方面仍然面临障碍,特别是在企业规模级别领域。具体来说,我们注意到全球各地的企业都在努力整合其团队使用的多种应用安全测试工具的结果并确定其优先级。他们还争取通过基础设施即代码自动执行安全和合规策略,受访者最常将这种方式视为其安全计划整体成功的关键因素。”
该调研报告主要发现如下:
点击下载《2023 年全球DevSecOps 现状调查》报告。
好文章,需要你的鼓励
工业升级的关键,或许在于智能本身。“工业+机器人”将成为通向下一阶段工业体系的核心抓手。——黄仁勋。
浙江大学等联合研究发现,AI强化学习效果取决于"模型-任务对齐"程度。当AI擅长某任务时,单样本训练、错误奖励等非常规方法也有效;但面对陌生任务时,这些方法失效,只有标准训练有用。研究团队通过大量实验证实,这种"舒适圈"现象比数据污染更能解释训练差异,为AI训练策略优化提供了新思路。
瑞士政府正式发布了自主研发的人工智能模型,该模型完全基于公共数据进行训练。这一举措标志着瑞士在AI技术自主化方面迈出重要一步,旨在减少对外国AI技术的依赖,同时确保数据安全和隐私保护。该模型的推出体现了瑞士对发展本土AI能力的战略重视。
巴赫切希尔大学研究团队通过对五种不同规模YOLO模型的量化鲁棒性测试发现,静态INT8量化虽能带来1.5-3.3倍速度提升,但会显著降低模型对噪音等图像损伤的抵抗能力。他们提出的混合校准策略仅在大型模型处理噪音时有限改善,揭示了效率与鲁棒性平衡的复杂挑战。