12月14日,昇思人工智能框架峰会在北京中关村国际创新中心召开,本次大会以“创新源动力,框架新选择”为主题,由昇思MindSpore开源社区、中国人工智能学会及AITISA联合主办,旨在汇聚AI产业界、学术界力量,共建人工智能框架开源生态,共探人工智能框架新未来。会上,中国科学院科技战略咨询研究院预测,中国AI框架2024年新增市场昇思份额将达30%,18家单位发布基于昇思的原生开发大模型成果。
华为ICT战略与业务发展部总裁彭红华在致辞中表示,华为一直坚持打造开放的计算产业生态,坚持根技术创新,与产业界共同打造坚实的、可持续的计算产业生态。人工智能框架是AI时代的操作系统与软件底座,领先的AI框架需要同时具备“更高效、更敏捷、更开放”的技术与生态能力,未来,华为将持续投入昇思MindSpore,坚持以开源的方式,向业界开放技术创新成果,携手产业界客户、伙伴和广大开发者共促中国人工智能框架生态健康、高速发展。

华为ICT战略与业务发展部总裁彭红华
昇思新增份额将达30%,成为AI框架新选择
昇思MindSpore自2020年开源以来,技术持续创新,生态繁荣发展。目前已孵化、支持50多个国内外主流大模型;开源版本已累计获得1100万次下载,覆盖全球130多个国家和地区的2400多个城市;3.7万多名开发者参与社区贡献;昇思与360多所高校科研院所展开教学及科研合作,联合1700多位生态伙伴,打造超过2000+解决方案;PaperwithCode网站显示,支持基于N思原创论文发表累计超过1700篇,位列全球第二、中国第一。会上,中国科学院科技战略咨询研究院预测中国AI框架2024年新增市场昇思份额将达30%。

中国科学院科技战略咨询研究院、学术委员会副主任刘海波
这标志着昇思MindSpore成为大模型时代AI框架的新选择,作为中国乃至世界的框架“新势力”,引领技术创新,加速全面智能化时代到来。

昇思MindSpore开源社区理事长丁诚
在成果发布环节,昇思携手18家生态伙伴重磅发布基于昇思AI框架的大模型原生开发成果,面向金融、工业、互联网、电信、能源、交通等重点行业推出丰富的AI应用,加速千行万业数智化升级。未来昇思将继续携手生态伙伴共同加速原生开发,推动科研落地与产业创新。

昇思携手18家生态伙伴重磅发布基于昇思AI框架的大模型原生开发成果
技术持续迭代演进,成为AI创新源动力
人工智能高速发展,大模型技术加速演进,参数量走向万亿级,序列长度迅速增长,模型结构走向多模态甚至全模态。模型计算过程从单模型单任务走向多模型多任务,深度学习和强化学习相融合,AI框架面临前所未有的挑战与机遇。
昇思围绕开发者编程体验、大模型训练及AI框架基础能力,持续升级框架架构,使能AI模型未来创新:
(1)在开发者编程体验方面,昇思兼容业界主流生态,提供一致开发体验,持续降低迁移学习成本;
(2)在大模型训练方面,昇思提供更丰富的分布式并行策略,结合自动搜索仿真调优,为大模型训练节约端到端成本;
(3)面向最新类o1模型带来的技术挑战,完善多模型多任务调度、训推无缝转换能力,强化学习亲和架构,加速类o1模型演进升级;面向AI4S场景,昇思持续升级底层函数式编程体验,并打造高性能AI4S使能套件,联合行业用户、科研机构、学术专家共同加速科研创新,推动科技进步。
与开发者共成长,以开放治理共建开源框架繁荣生态
开发者是推动昇思社区发展的中坚力量,昇思MindSpore开源社区理事长丁诚表示,昇思将提供分层分级的学习与发展体系,通过学习、实践、专项学术论文基金、社区项目支持等方式,发展开发者、鼓励技术创新、激励成果落地。在开发者回馈社区、贡献社区、共建社区的过程中,与开发者共成长。
昇思社区坚持开放治理,通过社区理事会成员共同管理、决策、规划社区整体发展;技术委员会看护整体方案架构,共同决策社区技术迭代演进;SIG兴趣小组看护具体技术领域,管理日程开发与维护等方式共治框架未来。
昇思与业界算法专家团队合作,以多种方式支持昇思原生大模型孵化,并汇聚各类伙伴成立产业联合体,打通产学研用通路,加速成果转化落地。
会上,昇思MindSpore模型开发挑战赛金奖接受颁奖,19名开发者及5名布道师获得昇思MindSpore开源社区2024年度杰出开发者及布道师称号。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。