中国正在推动新技术与交通行业深度融合,稳妥发展智能网联车产业。软件供应链、车机端本地服务以及云服务、移动应用等,任何一个环节存在缺陷或者漏洞,都可能会影响用户的安全。整个产业链需要从底层安全架构、从平台自身安全开始规划车联网安全。更重要的是,有标准可依才能确保整个产业正在朝着一个正确、高质的发展方向迈进。
新思科技(Synopsys)应邀参加第十届互联网安全大会(ISC 2022),并在8月1日举办的车联网安全创新发展论坛发表主题演讲,聚焦车联网软件安全,探讨如何推动智能网联车产业革新。
ISC 2022于7月30日至8月2日在北京举行。大会由中国互联网协会、中国网络空间安全协会、中国信息通信研究院、中国中小企业协会、中国企业联合会、全国工商联大数据运维(网络安全)委员会、中国通信企业协会、中国软件行业协会、中国企业家协会和360互联网安全中心共同主办,是亚太地区乃至全球规格高、辐射广、影响力深远的安全峰会。ISC 2022主题为“护航数字文明,开创数字安全新时代”。
新思科技高级安全架构师许焱以《软件定义汽车时代的安全合规测试之道》为主题,分享了软件定义汽车的趋势以及安全合规测试方案与实践等洞察,期望与业界共同推动产业革新,筑牢车联网安全屏障。
许焱指出:“软件能力、用户体验等将成为未来车企的核心竞争力之一。软件能力越强、越安全,智能车企的收入占比预计越高。因此,在智能网联汽车中构建软件可靠性及安全性至关重要。在编码、测试和开源使用环节出现缺陷和漏洞是当下汽车软件出现安全问题的主要原因。车联网产业需要加强在软件开发生命周期(SDLC)的每个阶段和整个软件供应链中的软件安全状况。”
无规矩不成方圆。有相应的法律法规和标准制定,一个产业的发展才能行稳致远。智能网联车是人工智能与传统产业的结合,中国已将其列为“十四五”规划制造业核心竞争力提升项目,并在3月份正式出台了《车联网网络安全和数据安全标准体系建设指南》,正在加快开展智能网联汽车准入管理试点。在全球范围内,很多重要的国际行业法规也已陆续颁发,例如ISO/SAE 21434《道路车辆-网路安全工程》(Road vehicles – Cybersecurity engineering)。ISO/SAE 21434为车辆产品的全生命周期,定义了一个网络安全流程要求以及网络安全风险管理的框架。
新思科技认为要满足ISO/SAE 21434标准要求,智能车企至少需要做到以下五点:
此外,新思科技一直强调安全是一个过程,而不是一个产品。对于网络安全领域来说,挑战来源于不断演进变化的威胁。企业的安全团队需要一个持续改进的工作驱动模式。一直以来,新思科技支持企业管理应用安全,进而构建可信的软件。软件安全构建成熟度模型(BSIMM, the Building Security In Maturity Model)是业界最佳安全实践模型之一,由新思科技(Synopsys)和BSIMM社区自2008年起合作开发。智能车企可以基于真实数据,衡量及创建产品相关的安全活动。除了BSIMM评估,新思科技还提供覆盖软件开发生命周期的安全测试解决方案,包括Coverity静态应用安全测试以及Black Duck软件组成分析。
新思科技中国区软件应用安全技术总监杨国梁总结道:“中国正在推动各类新兴产业融合发展,其中智能网联汽车正成为新一轮新兴产业发展变革的关键着力点。‘智能’和‘安全’需要始终并行。依赖安全可信的软件,车联网才能走得更稳、更远。传统产业需要进一步革新,着力构建可信的安全生态,护航车联网产业的高质量发展。当然,车联网安全的建设除了政策等方面的支持外,更离不开软件安全公司的助力。新思科技将持续助力汽车制造商、车联网产业链相关企业,更有效地应对汽车安全及合规新挑战,解决数字化转型中遇到的软件安全难题,为智能网联车牢牢系好‘安全带’。”
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。