至顶网软件频道消息:
DeepMind科技有限公司的阿尔法狗在古老的围棋游戏中超过了所有的人类玩家,但是这家Alphabet有限公司旗下的实验室还在继续改进其人工智能冠军。在今天发表的一篇新的研究论文中,DeepMind展示了阿尔法狗在过去两年中的进步情况:它现在已经如此聪明,可以在几乎完全没有人类资源的情况下学习。
DeepMind在《Nature》杂志上发表了一篇题为《不借助人类知识精通围棋游戏》的新论文,并介绍了新的AlphaGo Zero。与以前版本的阿尔法狗不同——之前版本的阿尔法狗是通过分析从人类玩家的真实围棋棋谱中提取的数据来进行学习,而AlphaGo Zero则完全是通过自行随机游戏,自主地学习游戏规则的。
AlphaGo Zero和之前的版本还有一些其他的不同。例如,新版本通过计算机视觉使用白色和黑色棋子作为输入,而不是依赖于定制设计的输入。AlphaGo Zero还只使用了一个神经网络而不是两个神经网络,它依靠该网络来评估位置,而不是针对可能的下法使用快速走子的方法。
Alphabet为了一个棋盘游戏投入了这么大量的研究看起来可能显得很奇怪,但是AlphaGo Zero的成功证明了未来人工智能可以在没有大量数据的情况下被训练的可能性。这在真实数据稀缺或难以收集的领域(如执法或医学领域)中将是一个主重大的优点。
事实上,对机器学习的一个一直存在的批评是,和儿童相比,它要想识别对象所需要的数据和能源要多得多。这表明在机器学习领域占据领导地位的深度学习神经网络近年来在图像和语音识别方面的突破远不能真正地模仿人类的大脑。
DeepMind认为,AlphaGo Zero代表了构建可以解决困难问题的人工智能的重大进步,同样的强化学习方法也可以应用于广泛的用例。
DeepMind首席执行官Demis Hassabis和研究科学家David Silver在一篇博文中表示,“在数百万局阿尔法狗与阿尔法狗对弈的过程中,系统从头开始逐渐学习了围棋的游戏,在短短几天内累积了人类数千年的知识。”他们表示,“AlphaGo Zero还发现了新的知识,开发非常规的策略和创新的下法,回应并超越了在同李世石和柯洁对弈时使用的技术。”
虽然研究人员表示虽然为时尚早,但AlphaGo Zero构成了迈向最终目标的“关键步骤”。他们表示:“如果类似的技术可以应用于其他结构化问题,如蛋白质折叠、减少能源消耗或寻找革命性的新材料,这些突破将有可能会产生积极的社会影响。”
好文章,需要你的鼓励
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
当前企业面临引入AI的机遇与挑战。管理层需要了解机器学习算法基础,包括线性回归、神经网络等核心技术。专家建议从小规模试点开始,优先选择高影响用例,投资数据治理,提升员工技能。对于影子IT现象,应将其视为机会而非问题,建立治理流程将有效工具正式化。成功的AI采用需要明确目标、跨部门协作、变革管理和持续学习社区建设。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。