74%被列为“高”或“严重”的CVSS评级在大多数常见情况下并不适用,但有60%的安全和开发团队仍花费25%的时间修复这些漏洞
2024 年 5月 21 日 —— 流式软件公司、 JFrog 软件供应链平台的缔造者JFrog (纳斯达克股票代码:FROG)近日发布了其 《2024年全球软件供应链发展报告》的调查结果,指出了新兴的发展趋势、行业风险以及保障企业软件供应链安全的最佳实践案例。
JFrog 首席技术官兼联合创始人 Yoav Landman 表示:“软件安全领域变幻莫测,全球的 DevSecOps 团队都在探索前行,在 AI 迅速普及的时代,更需要创新来满足需求。我们的数据涵盖了迅速发展的软件生态系统,为安全和开发组织提供了一个更为全面的介绍,包括值得关注的 CVE 评级错误、使用生成式AI进行编码所带来的安全影响相关洞察、允许组织用于开发的高风险软件包等信息,以便相关人员做出更明智的决策。”
研究结果亮点
JFrog 的《2024年全球软件供应链发展报告》结合了超过7000家企业的JFrog Artifactory开发者使用数据、JFrog安全研究团队原创的CVE分析、以及委托第三方对全球1200名技术专业人士进行的调查数据,旨在为快速发展的软件供应链领域提供信息参考。主要研究结果包括:
JFrog安全研究高级总监Shachar Menashe表示:“虽然安全漏洞的数量每年都在增加,但这并不意味着其严重性也在同步上升。显然,IT团队愿意投资于新工具以提升安全性,但了解如何部署这些工具、如何有效利用团队时间以及简化流程,对于确保软件开发生命周期(SDLC)的安全至关重要。我们编制这份报告的目的不仅仅在于分析趋势,更是为了当技术业务领导者在针对AI导航、恶意代码或安全解决方案等方面制定决策时,能够为其提供清晰的指导和专业的技术咨询。”
好文章,需要你的鼓励
OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。
字节跳动团队开发了首个AI研究助手评估系统ReportBench,通过对比AI生成报告与专家综述论文的引用质量,并验证陈述准确性来评估AI助手表现。研究发现OpenAI Deep Research引用准确率38.5%,Gemini为14.5%,两者都存在陈述和引用幻觉问题。该系统为AI研究助手建立了标准化质量检测工具,推动行业发展。
谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。
台湾大学研究团队开发了MovieCORE数据集,这是首个专门训练AI深度理解电影内容的创新工具。该数据集通过多AI智能体协作生成复杂问题,采用认知分类法测量思维深度,99.2%的问答需要高层次思维。研究还开发了ACE增强技术,可将AI性能提升25%。实验显示现有AI在深度视频理解方面仍存在显著不足,为未来AI发展指明了方向。