微软正努力在一年一度的Build开发者大会前夕制造一些兴奋点,推出了多款旨在帮助软件提供商更轻松地使用人工智能和区块链技术的新工具和新服务。
Build大会在美国西雅图举行,微软打算利用这次活动展示自己基于云的软件和计算服务能力,这些能力正在逐步成为微软主要的收入来源。微软表示,此次宣布推出的新工具和新服务旨在展示微软Azure将成为面向人工智能、区块链和边缘计算的最佳云平台。
首先,微软将在FPGA上支持运行Project Brainwave硬件加速模型。微软在去年发布了Project Brainwave的Azure Machine Learning Hardware Accelerated Models的预览版,旨在加速人工智能模型的训练。此外微软还与Dell Technologies以及HPE合作推出了该模型面向边缘设备的预览版。
同时,微软还在运行在Azure云中的Nvidia TensorRT和英特尔nGraph处理器上增加了对ONNX Runtime的支持。ONNX Runtime是一款高性能的推理引擎,适用于Linux、Windows和Mac上ONNX格式的机器学习模型。
The Azure Machine Learning Service也有更新,增加了旨在更轻松制作高质量机器学习模型的功能,包括新的可视化界面,让非开发人员也能够使用“无代码”的方法创建模型。
认知服务是微软另一个重点关注领域。微软在Decision类别下增加了新的API,包括Anomaly Detector API、Content Moderator API和Personalizer API。微软表示,这些新的API都是为软件应用增加更多的决策功能。
让区块链落地
微软还将目光集中在了另一个热门领域,发布了Azure Blockchain Services区块链服务,这项完全托管的服务是针对那些希望构建和维护自己的分布式分类账、并在其上构建应用的企业。
Azure Blockchain Services可与Azure Active Directory集成,提供权限并监控网络活动和运行状况。微软表示,首批获得支持的分类账是JPMorgan Chase&Co的Quorum,后者是一个以企业为中心的以太坊版本,专为需要高速和高吞吐量处理私人交易的应用而设计。
微软Azure首席技术官Mark Russinovich在声明中表示:“因为它是基于流行的以太坊协议构建的,该协议拥有全球最大的区块链开发者社区,因此选择Quorum非常合适。它集成了丰富的开源工具,同时也支持机密交易——这正是我们企业客户所需要的。”
据称,Azure Blockchain Services与Visual Studio Code集成,让企业可以创建智能合约并在其区块链上部署这些合同,通过Azure DevOps管理代码。此外,与Flow和Logic Apps的集成让针对这些智能合约构建应用变得更加容易了。
Constellation Research分析师Holger Mueller表示,Azure Blockchain Services是微软的一个重要里程碑,因为区块链技术是下一代应用的关键推动因素。
Mueller说:“区块链驱动的应用总是全新的,企业希望云能够为这些应用提供支持。因此,云提供商们正在尽其所能,尽可能简化区块链应用的创建和运营。”
更靠近边缘
微软关注的另一个重要领域是所谓的物联网和边缘计算,发布了一项名为Azure SQL Database Edge的新服务,它是Azure SQL Database的运行在网络边缘的ARM和x64设备上的一个版本。目前该服务处于预览状态,可通过Azure Early Adopter Program访问。
此外,微软还推出了一项名为IoT Plug and Play的新服务,这个开放的建模语言旨在让云中的物联网设备更容易相互连接。
最后微软表示,将在今年早些时候发布HoloLens 2头戴设备的开发者版本。微软表示,该设备售价为3500美元,可用于安全培训和复杂维修等工作。
好文章,需要你的鼓励
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
当前企业面临引入AI的机遇与挑战。管理层需要了解机器学习算法基础,包括线性回归、神经网络等核心技术。专家建议从小规模试点开始,优先选择高影响用例,投资数据治理,提升员工技能。对于影子IT现象,应将其视为机会而非问题,建立治理流程将有效工具正式化。成功的AI采用需要明确目标、跨部门协作、变革管理和持续学习社区建设。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。