新华社北京8月15日电 2018世界机器人大会开幕式15日在北京举行,中共中央政治局委员、国务院副总理刘鹤出席并讲话。中共中央政治局委员、北京市委书记蔡奇,全国政协副主席、中国科协主席万钢出席开幕式。
刘鹤指出,机器人是当前科技变革的最重要领域之一,将对人类社会的生产模式和生活方式产生深刻影响。当今世界,在人口和社会结构变化、由“科”到“技”变革加快、经济发展迫切需要新增长点的背景下,机器人发展受到广泛重视。当前机器人领域发展呈现出一些趋势性现象,机器人产业发展明显加快,机器人与新一代信息技术深度融合,应用范围不断拓展,机器人领域的国际协作更为密切。
刘鹤强调,促进中国机器人领域持续健康发展,要从中国实际出发,坚持需求导向,坚持以人民为中心,不断提高供给质量和水平。要处理好政府和市场的关系,发挥市场配置资源的决定性作用,允许自由思考和充分探索,创造公平竞争的市场环境,坚定不移加强知识产权保护。要大力加强教育,培养更多机器人领域发展所需人才,努力提升国民教育水平,适应机器人时代的新要求。要妥善应对道德伦理和法律法规方面提出的新问题,趋利避害。要积极开展国际合作,与世界各国携手应对诸多共同挑战,推动构建人类命运共同体。
延伸阅读:
由北京市人民政府、工业和信息化部、中国科学技术协会主办,中国电子学会、北京市经济和信息化委员会、北京经济技术开发区管委会承办的2018世界机器人大会,于8月15日至8月19日在北京亦创国际会展中心举行。大会以“共创智慧新动能,共享开放新时代”为主题,由论坛、博览会、大赛、地面无人系统活动四大板块组成。
世界机器人大会已经成功举办三届,有机器人界“达沃斯”、“汉诺威展”、“奥运会”的美称,业已发展成为沟通中国与世界、融合科技与产业的一个重要平台。2018世界机器人大会将继往开来,共话技术发展、展示创新成就、探索合作途径、展望未来愿景,为全球机器人产业发展贡献智慧与方案。
本届大会受到了海内外的广泛关注,得到了来自联合国工业发展组织(UNIDO)、IEEE机器人与自动化学会(IEEE RAS)、世界工程组织联合会(WFEO)等21家国际机器人机构的支持。大会将致力于搭建起一个更加成熟的国际合作平台,展开一系列学术研究和前沿领域探讨,构建全球机器人产业新生态。
大会论坛将于8月16日至18日举行,为期3天的主论坛汇聚来自中、俄、美、德、日、加、韩、以等国300多位业界顶尖专家和企业领袖。嘉宾将分别围绕“国际合作与机遇”、“基础技术与创新”、“前沿趋势与探索”、“人工智能与融合”、“新兴应用与实践”、“市场前景与投资”六大阶段进行主旨报告和高峰对话;20多场专题论坛则专注于不同领域,为全球机器人领域精英们搭建观点交流与碰撞的平台。
博览会作为机器人大会专业性强、参与度高的板块之一,ABB、发那科、新松、哈工大机器人集团、安川首钢、科尔摩根、中瑞福宁、费斯托、SMC、科沃斯、优必选等160多家国内外知名企业将全面展示最新成果及应用。博览会专业化程度全面加强,格力钢琴机器人,中国自主制造完全摆脱外部供电的机器狗,在中国首飞成功的费斯托仿生飞蝠机器人,手术机器人达芬奇Xi,人形机器人优必选Walker等精彩展品集中亮相。为期5天的博览会将为全球机器人产业提供国际性的展示舞台,沟通产、学、研、用,推进机器人产业良性发展。
大赛共设共融机器人类、BCI脑控类、青少年机器人设计类、KOB全球机器人格斗类、无人船公开赛五大类赛事。经过全国各大赛区历时数月的严格选拔,从近20个国家和地区的10,000多支参赛团队40,000多位参赛选手中脱颖而出的国际化赛队,将在大会现场展示他们的杰出作品与前沿技术,角逐冠军席位。
2018世界机器人大会将以开放、包容、共享、互惠的国际视野,集学术引领、行业应用、产业发展、技能竞赛、科普教育等于一体,聚焦机器人发展最新成果。为行业观点碰撞创造机会,为产业链、资金链、创业链提供纽带,促进多领域融合,构建良好行业生态,打造人机共融发展新格局,为机器人产业界的未来发展注入新动能。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。