智能网联汽车引领产业革新之路
世界智能大会是经中国政府批准,由国家发展和改革委员会、科学技术部、工业和信息化部、国家广播电视总局、国家互联网信息办公室、中央广播电视总台、中国科学技术协会和天津市人民政府共同主办的国际盛会。
为展示全球范围内智能产业全要素领域示范者,推动智能科技与千行百业深度融合,加快智能科技关键技术转化应用,世界智能大会隆重推出“WIC智能科技创新应用优秀案例”评选活动。活动自2022年发布以来,受到全球智能科技创新者的高度关注和认可,已成为全球智能科技领域的头部奖项。2023年10月,第八届“WIC智能科技创新应用优秀案例”评选活动正式启动,本次活动将面向全球征集智能制造、智能网联汽车、智能网络安全三大领域的优秀案例,获奖案例将在2024第八届世界智能大会期间进行重磅发布。本文为大家解读智能网联汽车领域发展态势及征集范围。
智能网联汽车产业正成为全球汽车产业发展的新趋势。随着自动驾驶技术、车路协同技术和关键零部件设计制造等技术的不断发展与应用,智能网联汽车将为人们带来更加便捷、安全、舒适的出行体验。为加快我国智能网联汽车产业的变革与发展,国家各部门在近年来出台了一系列政策,鼓励支持智能网联汽车产业的整车制造、交通运输、信息交通通信、电子交通互联等多个领域的创新。尤其是在顶层目标提出、规范制定和核心技术发展以及行业相关的落地应用、产业驱动上,都给予了明确的发展指导方向。
2023年11月,工业和信息化部和公安部联合发布《关于开展智能网联汽车准入和上路通行试点工作的通知》,对智能网联汽车的发展给予多个具体的政策支持。在多项政策叠加支持下,智能网联汽车应用场景越发广阔。国家智能网联汽车创新中心数据显示,至2025年,我国智能网联汽车产业仅汽车部分新增产值将超1万亿元。至2030年,汽车部分新增的产值会到2.8万亿元。
不同于传统汽车产业的发展模式,智能网联汽车具备天然跨界融合的特质,智能网联汽车产业的发展涉及多个领域和环节,包括车规芯片、传感器、车载软件研发与设计,车辆安全、信息内容服务等智能化服务。这些环节之间相互依存、相互促进,正在形成一个更加完整的智能经济新生态。
WIC评选面向智能网联汽车领域,围绕智能网联汽车关键核心技术、智能网联汽车平台和智能网联汽车安全三个方向,征集包括智能网联汽车关键零部件及系统开发应用、智能网联汽车复杂环境感知、新型电子电气架构、车载智能计算平台、车规级芯片、高性能车辆智能驱动、无线通信关键技术、数据管理平台、测试验证平台、数据融合与计算处理平台、智能网联汽车数据安全、网络安全、功能安全、道路交通安全、在线升级安全、自动驾驶安全等智能科技创新应用案例。
诚挚邀请全球科技领袖、企事业单位、科研院所、行业组织和科技创新团队积极参与申报智能网联汽车领域优秀案例!
申报方式:
1.申报渠道:
申报主体通过线上申报系统提交优秀案例申报材料。
申报系统网址:https://wic-awards.wicongress.org.cn
申报系统二维码:
2.需要提交材料:
注册申报系统后,登录并下载填报《2024第八届世界智能大会WIC智能科技创新应用优秀案例申报书》。除基本信息外,申报单位应提供如下材料(包含但不限于):
(1)案例介绍;
(2)自主知识产权等相关佐证材料;
(3)第三方鉴定报告、科技查新报告、媒体报道等真实性、先进性相关佐证材料;
(4)该案例取得或预期取得经济效益和社会效益的相关佐证材料。
3.截止时间:
2024年2月28日17:00前(以世界智能大会官方网站、官方微信公众号发布截止时间为准)。
联系方式:
报名咨询:022-87332955
技术咨询:18500287239
传 真:022-83607342
联系邮箱:jzy@wicongress.org
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。