至顶网软件与服务频道消息: 11月6日,“2019数据智能创新应用大赛”拉开帷幕,正式发布赛题。本次大赛是由北京市科学技术委员会人才交流中心和北京百分点信息科技有限公司联合举办的智能对话顶尖赛事。
大赛以“创新应用 · 数据赋能”为主题,致力于为全国高校、企业、团队和个人搭建一个公平开放的数据智能创新应用竞技平台。目标是探索用数据智能来解决现实世界问题的可行性,挖掘并培养掌握新一代信息技术的数字人才,加强数字人才体系建设,构建数字产业生态,推动数字经济发展。
大赛亮点1:行业竞赛与人才培养深度融合
数据和人才是新时代数字经济发展的重要生产要素。围绕数字人才培养,联合大数据和人工智能头部企业、高等院校、科研机构,以及学堂在线、来Offer、猎聘网等数字人才学习和服务平台,组织大数据、人工智能等领域知名专家与高校名师资源,搭建国内顶尖的数据智能创新竞赛平台和数字人才培训服务平台,提升在大数据分析、数据建模、算法优化、软件编程等领域的数字技能应用和跨界交叉融合能力。
大赛亮点2:权威专家与数字精英紧密互动
大赛设置了高规格的专家评审委员会,邀请来自清华、中科大、复旦等高校学科带头人,中国科学院、中国电子科学研究院等业界专家,以及企业技术负责人担任赛事评委,对参赛选手任务结果进行评选。此次大赛通过竞赛评选、人才培养和应用实践的创新模式,可以为企业和社会发掘数字人才,加强数字人才的培养,为新一代信息技术培养数字精英,服务实体产业升级,推动数字经济快速发展。
大赛亮点3:创新应用与产业实践有机协同
为了加强数字人才培训和实践,大赛通过与北京城市大数据研究院、北京金隅智造工场等数字技术创新与服务平台合作,打造数字人才实践基地,鼓励参赛选手将富有创新性的研究成果转化为应用实践,融通“教育链-人才链-创新链-产业链”, 打造北京数字经济产业生态系统,建设北京数字经济人才高地,推动北京全国科技创新中心建设。
赛题发布 公开业内首批法律问答类数据集
智能问答在各个领域的应用正在获得越来越广泛的关注,尤其对于政务、法律等专业领域而言,智能问答系统的准确度及稳健性尤为重要。
在法律领域,AI律师助手的出现可以有效缓解目前存在的国内法律专业人才稀缺的问题。然而在现实生活中,人们语言表达方式多样,在对话中出现一些错别字或一些无意义的干扰词,就会使机器难以“听懂”一句话的真实意图。目前在智能对话研究领域内,对抗攻击研究是AI领域内的一个新兴研究方向,旨在提高智能问答系统的准确度及稳健性。所谓对抗攻击(Adversarial Attack),就是针对现实中复杂多变的对话情况,来考验模型的稳健性,能否准确地判别用户的输入是否为系统内置给定问题的语义等价问法。
为此,本次赛题定为“基于Adversarial Attack的问题等价性判别”,源自百分点在实践中的真实应用场景,并公开发布业内首批法律问答类数据集。要求参赛团体和个人通过研究智能对话的鲁棒性问题进行算法创新,创造出更多新的智能解决方案,解决法律知识问答当中存在的系统不稳健问题,提高对话系统的“思考能力”和“解决问题”的能力,实现从“听见”到“听懂”, 最终提高AI律师助手的用户体验度。
让机器从“听见”到“听懂”的距离,也许只差一个舞台。本次大赛,是汇集人工智能领域顶尖专家交流技术成果的平台,是科研才俊展现技术实力与创造力的竞技场,是心怀科技理想的青年工程师们展示卓越才华的最佳舞台。希望参赛者以更广阔的视角发挥出最大的创造力,来场硬核的“智斗”。登录官网,了解更多大赛详情:http://2019diac.percent.cn/
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。