微软已经在星期四推出了Cognitive Toolkit 2.0,从而更新了其人工智能框架。
所有投资深度学习的主流公司都有某种打包软件,可帮助开发人员创建神经网络模型。Google已经有TensorFlow,DeepMind发布了Sonnet,Facebook最近宣布推出Caffe2,而Amazon则推出了MXNet。
微软的版本以前被称为CNTK,该系统在去年十月发布了beta版。新的Cognitive Toolkit 2.0已经扩展到支持Python和Keras,这是一种流行的神经网络API。
考虑到Keras是一个高级框架,这是一个很好的举措,允许研究人员快速实验和建立模型。 “(它)抽象了大多数用户不需要了解的许多细节,”使用户免于面对混乱的代码行,Keras的作者及谷歌的工程师François Chollet之前对《The Register》做出了这样的解释。
微软人工智能的优势在于语音识别。去年,由微软首席语音科学家Xuedong Huang(音译:黄学东)率领的团队宣布,他们创立了一个能够以“等同于人类”水平对语音进行抄录的系统。
这个Cognitive Toolkit特别适用于自然语言处理中常用的复现神经网络和长的短期记忆网络,这并不奇怪。微软使开发人员更轻松地使用Keras分支到不同类型的神经网络。
它还将包括Java语言绑定和压缩经过训练的模型的新工具,这样在运行诸如图像识别等应用程序时所需的资源就更少。
它已经被应用于像Cortana这样的内部应用程序,这是微软的数字助理,也是微软让人工智能变得更容易访问这个更广泛的目标的一部分。
该工具包是开源的,可以在这里(https://github.com/microsoft/cntk)找到。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。