微软正在开发AI优化芯片,以降低训练生成式AI模型(例如为OpenAI ChatGPT聊天机器人提供动力的模型)的成本。
The Information近日援引两位知情人士的话说,至少从2019年开始,微软就一直在研发代号为“Athena”的新芯片组。微软和OpenAI的员工已经可以使用新芯片,并正在使用这些芯片在GPT-4等大型语言模型上测试芯片的性能。
训练大型语言模型需要摄取和分析大量数据,以便为AI创建新的输出内容来模仿人类对话,这是生成式AI模型的一大标志,这个过程需要大量(大约数万个)针对AI进行优化了的计算机芯片,其成本可能是非常高的。
据说微软正在开发用于自己产品的新型芯片,以减少对第三方芯片的依赖,并降低成本。目前,计算机芯片设计商Nvidia在AI芯片市场占据主导地位,去年发布了最新的H100 GPU。微软将加入Amazon、Google和Meta Platforms的行列,都针对AI开发和构建自己的定制化芯片。
SemiAnalysis首席分析师Dylan Patel告诉The Information:“微软希望在其所有应用中使用大型语言模型,包括Bing、Microsoft 365和GitHub,要使用现成的硬件进行大规模部署,那么每年的花费将达到数百亿美金。”
微软在2023年初向OpenAI投资100亿美元,迅速开始将其AI技术集成到微软的各项服务中,包括带有Bing Chat功能的Bing搜索引擎、Microsoft 365、面向企业用户的Dynamics 365以及面向安全专业人员的Security Copilot。
报道指出,微软的这些芯片其目的并不是取代Nvidia的芯片,相反,这些芯片是为了增强微软现有的基础设施。据The Information称,微软已经规划好了该芯片的未来几代。
目前尚不清楚微软是否计划为Azure云AI客户发布这些芯片,或者是否仅供内部使用,但微软确实提供了基于Nvidia H100芯片组的AI优化云实例。目前还不清楚这会给微软和Nvidia去年年底公布的AI超级计算机合作关系带来怎样的影响。
据报道,微软预计新芯片将在2024年亮相。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。