6月30日,在刚刚结束的网易数帆CodeWave生态伙伴招募会上,网易数帆透露有计划面向个人开发者和生态伙伴免费开放CodeWave智能开发平台,进一步推动低代码人才培育和产业发展,助力企业在数字化领域“小步尝试,大步创新”。此外,网易数帆新增十家生态伙伴并达成合作,以CodeWave智能开发平台为载体的生态圈又外拓一层,共同推进“AIGC+低代码”在软件生产端的应用。
计划向生态伙伴和个人开发者免费开放
CodeWave智能开发平台是以网易自研的智能模型为底座,帮助IT人员实现从“智能生成”到“可视化拖拽调整”的全栈低代码应用搭建。自20年发布以来,已经在网易公司内部、金融、零售等各领域得到应用。网易数帆在会上透露,有计划针对个人学习者和生态伙伴免费上线适合学习与研究的SaaS个人版、满足基础开发需求的SaaS团队版、满足高安全、高性能需求的私有化订阅版,满足低代码学习、应用搭建、应用展示等场景。
面向生态伙伴,网易数帆免费开放CodeWave智能开发平台
三个版本均提供应用模板、扩展组件等平台基础功能,供开发者依据实际需求,完整体验拖拉拽快速搭建应用。与SaaS个人版不同的是,SaaS团队版在可创建应用数、支持导出应用等方面有所增强。在前两个版本基础上,私有化订阅版还支持授权开发、多人协同开发、更改域名、源码配置、导出应用等高级功能,帮助企业搭建复杂应用。
借由这一系列的推动,网易数帆旨在帮助更多业内外的开发爱好者更好地认识、学习利用这一工具,解决日常遇到的开发难题。网易数帆云原生与低代码产品线总经理陈谔表示,我们希望通过平台的免费开放,让更多人能在实操的过程中感受到低代码开发的潜力,进一步推动开发者对低代码的学习与应用,也帮助企业在数字化领域“小步尝试,大步创新”,逐步提升软件生产力。
新增十家伙伴 低代码生态再升级
今年5月,网易数帆发布Wave+生态成长计划,提供最高2亿元的共创基金和最高5000万元的市场支持基金,招募战略合作伙伴、分销合作伙伴、解决方案合作伙伴、交付合作伙伴。同时提供开发支持、专业认证,将在未来5年内赋能1万家合作伙伴,推动培育100万个开发者。
网易数帆与十家伙伴达成合作
除了首批18家伙伴,此次招募会上,基于“AIGC+低代码”的产业力量再次加码,逸迅科技等在内的十家公司宣布与网易数帆达成合作,共同挖掘行业应用价值、共推产业新发展、共育软件新人才。
上海逸迅信息科技有限公司CTO 陈光辉在现场表示,网易数帆与逸迅科技在平台能力、业务等方面互补,CodeWave智能开发平台支持源码导出、私有化部署等特点也解决了在低代码使用上的顾虑。在双方已经合作落地的项目中,交付成本从1个月缩短到短短3周,人力投入时间也从2.5人/月降低到0.75人/月,大大提升了软件开发效率,为业务创新降本增效。
上海众调信息科技有限公司CEO谢鹏表示,集成性高、可拓展性强、复杂应用开发是选择CodeWave智能开发平台的重要原因,在快速发展的汽车行业,低代码的应用能帮助快速提升软件交付效率和营销效能,未来,双方会在应用域、中台域、AI域等领域合作,共同助推汽车行业数字化。
上海万极互联技术有限公司 CEO 吴胤在会上发言,通过与网易数帆的合作,万极互联在数字运营、快速响应、人才赋能、节省成本、风险管控五个方面有明显提升。双方将合力打造覆盖企业核心业务的解决方案,驱动业务、沉淀数据,提升数字竞争力。
好文章,需要你的鼓励
这项来自麻省理工和滑铁卢大学的研究质疑了在AI文本排序中"思考过程"的必要性。研究者比较了三种文章重排模型:直接判断的StandardRR、先推理再判断的ReasonRR,以及禁用推理功能的ReasonRR-NoReason。实验结果表明,不仅推理过程没有提高排序质量,有时甚至会降低效果。主要原因是推理导致模型倾向于极端判断,难以表达"部分相关"这种微妙关系。即使应用"自洽性"等改进技术,简单直接的判断方式仍然更为高效有效。研究为信息检索系统设计提供了新视角:有时,少即是多。
TAGS是一种创新的医学问答框架,结合了泛医和专医两种视角,通过层次化检索和不确定性验证机制提升医学AI回答的准确性。该框架由穆罕默德·本·扎耶德人工智能大学等机构的研究团队开发,无需任何模型微调即可显著提升包括GPT-4o和DeepSeek-R1在内的大型语言模型在九个医学问答基准测试上的表现。TAGS通过模拟医疗专家协作、结构化知识检索和质量控制,解决了现有方法在复杂医学推理中的短板,为构建更可靠的医学AI系统提供了新思路。
这篇研究提出了时间抽象值学习(OTA)方法,解决离线目标条件强化学习中的长期规划问题。研究团队发现现有分层方法失败的关键在于高层策略无法生成合适子目标,原因是价值函数在长期规划中估计不准确。OTA通过"选项"概念实现时间抽象,有效缩短规划视野,使价值函数能提供更准确的优势信号。在复杂迷宫导航和视觉机器人操作任务中,OTA显著优于现有方法,证明了该方法在处理长期任务时的有效性。
这项研究探索了大语言模型内部可解释特征的形成过程,分析了它们在训练过程中(时间)、模型层级间(空间)和不同规模模型(尺度)的行为变化。研究团队使用稀疏自编码器技术,成功识别出特定语义概念在神经激活中出现的时间点和位置。研究结果显示,不同领域的知识概念在模型训练和规模扩展中存在明确的激活阈值,且在空间分析中发现了早期层特征会在后期层重新激活的现象,这挑战了对变换器模型表示动态的传统认知。