OpenSSL缓冲区溢出漏洞的反思
新思科技指出世界在不断变化,安全事件也不会停止。但从各种安全事件中学会反思和改进,才能有机会跑赢攻击者,防患未然。近日,开放源代码的软件库包OpenSSL发布安全公告,其用于加密通信通道和 HTTPS 连接的开源密码库中存在两个高危漏洞,编号为 CVE-2022-3602 和 CVE-2022-3786,主要影响 OpenSSL 3.0.0 及更高版本。CVE-2022-3602 是一个任意 4 字节堆栈缓冲区溢出漏洞,可能导致拒绝服务或远程代码执行;CVE-2022-3786 可能会被攻击者通过恶意电子邮件地址利用,通过缓冲区溢出触发拒绝服务状态。目前安全补丁已经发布。
此前,OpenSSL预告于11月1日发布安全补丁。这种做法的好处是让有关团队有机会在补丁可用之前自查,确定哪些应用程序易受攻击。但这也是一把双刃剑:不法分子可能在补丁发布之前趁机进行有针对性的攻击。通常来说,只有在补丁创建、验证和可用之后才会进行漏洞披露。
新思科技高级安全策略师Jonathan Knudsen表示:“此前,OpenSSL的‘心脏出血’(Heartbleed)漏洞默认暴露在任何使用易受攻击版本的OpenSSL 的软件上,攻击者很容易利用它来查看存储在服务器内存中的加密密钥和密码。新报告的两个漏洞虽然高危,但是程度不同。易受攻击的服务器需要请求客户端证书身份验证,这不是常态。易受攻击的客户端需要连接到恶意服务器,这是一种常见的攻击媒介。如果您还不知道软件中有哪些开源组件,请尽快考虑采用软件组成分析(SCA)工具。一旦您知道哪些软件包含易受攻击的 OpenSSL 版本,您就可以制定计划以优先顺序更新软件。对于已经部署了软件供应链风险管理的企业来说,他们可以尽快进行更新。现阶段安全管理还不充分的企业应该考虑开始将软件供应链风险管理纳入流程。”
安全团队应使用SCA工具对所有软件进行分析,包括创建、获取、下载或使用的所有软件,与来源或功能无关(这包括商业和开源软件)。如果无法访问应用的源代码,则应在应用及其库上使用二进制SCA工具。测试结果将显示使用 OpenSSL 的位置、正在使用的版本以及该版本的源点在哪里。
新思科技网络安全研究中心首席安全策略师Tim Mackey表示:“我也建议企业采用SCA工具进行主动扫描。SCA工具扫描应用的源代码并为该应用程序创建软件物料清单 (SBOM)。拥有所有软件的最新、准确和完整的SBOM 是快速响应事件的关键。”
新思科技《2022年开源安全和风险分析》报告(OSSRA)报告调研了17个行业,其中计算机硬件和半导体、网络安全、能源与清洁技术,以及物联网这四个行业被审计的代码库中100%包含开源组件。其余的垂直行业的代码库中有93%到99%包含开源组件。而且这些被审计的代码库中有81%包含至少一个漏洞。
由此可见,创建开源组件的SBOM的重要性。它可以帮助开发人员快速定位存在风险的组件,并合理确定修复工作的优先级。全面的SBOM应列出应用程序中的所有开源组件以及这些组件的许可证、版本和补丁状态。
新思科技中国区软件应用安全业务总监杨国梁表示:“采用开源更容易激发技术创新和加速构建可信的协作模式。因此,中国正在积极系统地布局‘十四五’开原生态发展,以为数字经济提供基础‘养分’。企业为了满足用户对敏捷迭代的需求,采用开源已经成为常态。同时,软件供应链安全也成了业界的重点关注。在全面部署安全治理之前,企业应该先了解使用了哪些代码,才能有效开展软件供应链安全管理,进而以满足业务发展需求的速度开发可信软件产品。”
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。