2023年12月底,一起涉及理想L7的重大交通事故在广东省清远市发生,随后,理想汽车公布了行驶数据和行车记录仪视频,带来强烈反响。理想公开汽车行驶数据和行和记录仪视频,是否涉嫌侵犯驾驶员隐私?智能网联汽车事故分析过程中可能引发哪些数据合规问题?至顶网就此采访了望衡律师事务所创始合伙人韩婷律师,她认为,理想汽车公布的行驶数据和视频并非隐私范畴,但她呼吁,相关部门应加快出台智能网联汽车黑匣子相关法规和标准。
图:望衡律师事务所创始合伙人韩婷律师
至顶网:事件中涉及哪些个人信息/数据?是否属于隐私?
韩婷:此次“理想L7清远车祸”发生后,理想发布了两条事件相关微博。其中第一条微博中公布了车速(178km/h和96km/h)和驾驶行为(采取制动措施);第二条微博中公布了行车记录仪视频,该视频中无声音,亦未显示驾驶员的行踪轨迹及精准定位信息。我们认为,以上信息均属于驾驶员的个人信息,同时也构成数据,但不属于隐私,因为该视频中公开的内容并未与驾驶员的私密活动或私密信息相关。
至顶网: 理想收集和公布上述个人信息/数据,是否有法律依据?
韩婷:理想在公开报道中提到车速和驾驶行为数据源自车辆后台,所以这些数据应当是理想收集的。车企是否有权对这类数据进行处理,即收集、使用、公开数据,取决于车企与用户之间是否有协议。我们目前并不知道用户是否签署过包含同意数据处理的协议,所以无法对理想收集和公开数据的行为的合法性做出判断。
关于行车记录仪视频,我们推测有可能不是理想收集的,因为行车记录仪通常是不联网的,而且如果收集行车记录仪视频对车企而言存储成本会非常高,法律风险也较高。至于理想自何处获得行车记录仪视频,有待进一步了解。
至顶网: 发生事故后,数据到底应该由谁处理?
韩婷:这个问题比较复杂,不仅涉及设备和技术问题,更涉及权属和权利问题。
通常发生交通事故后,应当由交通管理部门处理数据并进行事故责任认定。目前我国关于智能网联汽车事故相关数据处理问题还没有针对性特别强的细致的法律规定。我们相信,随着法规和标准的进一步细化,尤其是未来随着Event Data Recorder (“EDR”或“黑匣子”)的应用,这一问题的答案将逐步明晰。
事故所涉的L7属于具有辅助驾驶功能的智能网联汽车,可实现L2级别即“有条件自动驾驶”。对具有辅助驾驶甚至未来具备更高级别自动驾驶功能的智能网联汽车而言,事故分析很大程度上将依赖于黑匣子。
我国目前还没有车内黑匣子的强制性规定,但2021年4月7日,工业和信息化部发布了《智能网联汽车生产企业及产品准入管理指南(试行)》征求意见稿。该征求意见稿第八条规定:“智能网联汽车产品应具有事件数据记录和自动驾驶数据存储功能,采集和记录的数据至少应包括驾驶自动化系统运行状态、驾驶员状态、行车环境信息、车辆控制信息等,并应满足相关性能和安全性要求,保证车辆发生事故时设备记录数据的完整性。”通过该条表述可知,自动驾驶汽车的数据记录、存储功能应当是由车内“设备”完成的,而并非通过网络将数据上传到云端系统或车企。简言之,若该指南正式颁布,则每辆智能网联汽车车内都应安装一部黑匣子。
《汽车数据安全管理若干规定(试行)》倡导车内处理原则,即除非确有必要不向车外提供数据。据此,我们可以预见,智能网联汽车在安装了黑匣子后,传回车企的数据类型有可能会受到法规的进一步限制。
除了数据收集外,还有一系列与黑匣子相关的问题:黑匣子应当受谁控制,车企是否有权掌握黑匣子的密码或阅读权限;在何种条件下由谁打开黑匣子,用户同意是否可以缺省;交管部门或第三方机构若不具备处理数据的环境或能力,可否由车企做事故分析;车企所得的分析结论若被用户质疑,该如何解决,等等。期待未来更有针对性的法规和标准出台,解决上述问题。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。