2018年12月19日,2019微软“创新杯”全球学生科技大赛(以下简称“创新杯”)中国区总决赛在京举行。微软“创新杯”始于2003年,至今已连续成功举办了17届比赛。从全国838个参赛团队中过关斩将胜出的12支高校队伍,与各界投资和教育专家齐聚微软大厦。最终来自深圳大学的《轨道交通运营维保检测机器人》项目从12支决赛队伍中脱颖而出,夺得了微软“创新杯”中国赛区冠军。
深圳大学《轨道交通运营维保检测机器人》团队夺冠微软2019“创新杯”中国区总决赛
微软公司资深副总裁、大中华区董事长兼首席执行官柯睿杰(Alain Crozier)表示:“微软举办‘创新杯’的目的在于鼓励青年学生在微软最新技术平台创建前沿的科技解决方案,将创意变为商业现实。微软通过‘云暨移动技术孵化计划’、微软加速器等各种资源,为大学生开发者创新创业提供了全方位支持。17年来,大赛的参与者从开始的80后、90后,现在已经传承到00后,‘创新杯’正在逐渐成长为中国AI创新人才的培育基地,我们为‘创新杯’这些年在中国所取得的成就感到由衷的自豪。”
微软公司资深副总裁、大中华区董事长兼首席执行官柯睿杰现场致辞
2019微软“创新杯”中国区初赛中,来自全国18个省份201所高校的3486名学生共提交了838件作品,最终12支队伍经过层层角逐成功入围全国总决赛。本次比赛中75%的作品聚焦人工智能,运用视觉识别、大数据、机器学习等技术解决社会方方面面的挑战与难题。
此次冠军团队将目光聚焦在轨道交通检测领域。他们设计的地铁隧道铁轨检测机器人,通过机器视觉技术识别隧道内存在的故障,可以将地铁检测工人从繁重的体力劳动和恶劣的工作环境中解放出来,为日益增长的地铁运营提供一种高效、安全、低成本的解决方案。本次12支决赛参赛作品广泛涉及交通、医疗、农业、零售等多种行业,充分展示了当代青年学生的广阔视野和对社会问题与热点的关注。在人工智能技术开发上,微软一直强调“普及人工智能全民化”的理念,致力于把人工智能变成人人触手可及的生产力,解决人类面临的重大挑战。令人可喜的是,本次决赛中出现了很多这方面的作品,例如基于Azure的视障人群智能辅助耳机,为抑郁症患者开发的自我交流系统,针对突发事件人群设计的无人机搜救系统等,展示了技术造福人类的种种可能。
微软大中华区副总裁、公共服务事业部总经理滕文与参赛学生交流
赛后,微软还将为获奖团队提供专属导师群,由来自于微软研究院、微软解决方案部门、微软加速器和微软孵化器的导师组成,帮助他们进一步完善商业创意和落地。同时,微软创新生态将向优秀团队成员进一步开放,区域赛优胜队伍可以在当地与微软遍布全国的21个孵化器平台对接,获得实习机会、导师指导以及资源支持等后续扶植。微软希望通过进一步帮助参赛团队提升创新能力和将创新项目实现商业化的过程,使更多青年学子成为人工智能领域创新创业的主力军。
在过去17年里,有超过来自190个国家和地区的200多万名学生参与了全球“创新杯”比赛及相关活动。在中国,微软“创新杯”为超过23万名中国学生提供了孵化梦想的机会与平台。自2003年开始参加“创新杯”以来,中国学子在微软“创新杯”的国际舞台上屡创佳绩,共获得5项一等奖,9项二等奖,11项三等奖以及数次特别奖奖项。
未来,微软希望继续为青年学生和年轻创业者们提供充分释放创意和展示才华的平台,通过多样化的技术、工具和渠道予力AI创新人才,共同打造美好世界。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。