5月13日,国汽智控在北京举办智能汽车数据安全ICVSEC2.5发布会暨媒体见面会,发布国内首个面向量产的车规级智能汽车数据安全产品ICVSEC2.5。该版本涵盖数据防护和隐私保护两项核心功能,包括硬件、软件、容器等三种形态,并在多家主机厂实现落地。
国汽智控于去年11月发布智能汽车基础脑iVBB(intelligent Vehicle Base Brain)产品家族新成员信息安全数据安全ICVSEC(Intelligent Connected Vehicle SECurity),这是相关监管政策发布以来业界首个专门针对智能汽车数据安全的可落地解决方案。ICVSEC2.5版本基于量产项目对产品进行了深化。
在数据防护方面,2.5版本可帮助主机厂实现自动驾驶数据的分类分级,针对150+智能驾驶业务场景需求,实现100%全量数据资产识别;基于分类分级后的自动驾驶数据,进一步实现人脸、车牌等数据脱敏,实现动态监测、实时检测、白名单管理、合规性校验等数据管控。
国汽智控总经理、首席技术官尚进博士表示,车辆在高速移动过程中会采集海量数据,数据在自动驾驶的感知、规划、控制等全生命周期内会被处理、变形、存储,产生新的数据,车辆逐渐成为移动的数据中心。基于此,ICVSEC2.5秉承“双周期”管控策略,即在车辆自动驾驶全生命周期和数据处理全生命周期的每个关键节点部署数据安全策略。
2.5版本支持智能汽车数据安全前置到传感器采集阶段,提供接口和工具,支持用户自定义重要敏感区域,配合地理围栏技术,利用目标物、GPS等信息进行场景融合识别,车辆经过相关区域可自动切换人工驾驶;针对行人的人脸数据实现轮廓保留前提下的人脸数据脱敏,在保障自动驾驶感知准确的同时实现行人个人隐私防护。
在隐私保护方面,ICVSEC2.5将常用隐私保护技术区块链技术应用到高实时、高安全、高可靠的自动驾驶操作系统中,一方面在车内配置云端区块链轻节点,将车内数据收集使用纳入到云端区块链体系,另一方面基于车内存在数据被多方应用的现状,在车内构建了完整的区块链隐私保护体系,保障数据可审计、可追踪、防篡改,便于查看数据调取流向、研判智能汽车事故。ICVSEC2.5隐私保护能够支撑数据共享、存证追溯、数据可信、事故研判、去中心化、安全存储、风险可控等特性。
自2020年以来,汽车数据安全成为行业关注热点。2021年8月20日,网信办、发改委、工信部等五部委联合发布《汽车数据安全管理若干规定(试行)》(第7号令),《规定》倡导汽车数据处理者在开展汽车数据处理活动中坚持“车内处理”、“默认不收集”、“精度范围适用”、“脱敏处理”等数据处理原则,明确汽车数据处理者应当履行个人信息保护责任,加强重要数据安全保护,做好汽车数据安全管理和保障工作。2021年10月29日,网信办发布《数据出境安全评估办法(征求意见稿)》,指出要防范数据出境安全风险,保障数据依法有序自由流动。相关政策不绝如缕,同时智能汽车数据安全行业仍然存在诸多技术难点和挑战,催生了数据资产清理、数据管控、隐私防护等需求,主机厂迫切需要可落地的产品和解决方案来应对强标和准入时间窗口。
尚进博士表示,计算基础平台拥有最复杂的软件,也是最容易受到攻击的地方,数据安全要与自动驾驶操作系统相耦合。国汽智控作为智能驾驶操作系统、智能驾驶计算基础平台的定义者和引领者,对于提供可量产落地的智能汽车数据安全产品责无旁贷。数据安全ICVSEC2.5作为国汽智控核心产品“智能汽车基础脑iVBB”重要组成部分,围绕OS功能软件中的数据流建立,能够帮助主机厂应对智能汽车数据安全强标和准入挑战,实现智能汽车数据安全监管落地。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。