据说微软拥有OpenAI LP不到一半的股份,尽管如此,微软还在开发功能稍弱但是效率更高的替代人工智能模型。
The Information今天的一篇报道援引了未具名的 OpenAI员工的说法,称微软担心运行强大的模型(如ChatGPT的基础 GPT-4)有时会产生惊人的成本。
据报道,为了解决这个问题,微软的研究主管Peter Lee已经命令该公司1500名人工智能研究人员集中精力开发运行成本更低的小型对话模型,不过这些模型的能力可能比不上GPT-4。
报道称,微软正努力在旗下大部分软件产品中加入人工智能功能,包括基于GPT-4的 Windows Copilot。但该公司担心,Windows在全球拥有超过10 亿用户,运行这些人工智能功能的成本可能会激增。The Information表示,该公司不想损失人工智能新产品带来的经济效益,所以现在正在寻找成本更低的替代方案。
微软转向更高效人工智能模型的工作目前还处于早期阶段,不过据说该公司已经开始在必应聊天等服务中测试内部开发的模型。
微软搜索主管Mikhail Parakhin此前曾表示,必应聊天的创意和精准模式100%依赖于GPT-4。不过,在平衡模式中,它使用了一种名为Prometheus的新模型以及图灵语言模型。图灵语言模型的功能不如GPT-4强大:它们可以识别并回答简单的问题,但当遇到更棘手的问题时,它们会将这些问题转交给GPT-4。
在编码方面,微软最近发布了13亿参数的Phi-1模型,据说该模型是在教科书级的数据上训练出来的。The Information表示,它能以更高效的方式生成代码,但还达不到GPT-4的水平。
据说该公司还在研究其他的人工智能模型,例如基于Meta Platforms公司开发的开源Llama-2模型的Orca。据报道,尽管Orca的体积更小、资源消耗更少,但它的性能接近于OpenAI的模型。
据说微软的人工智能研究部门拥有大约2000块来自英伟达公司的显卡,据说Lee现在已经下令将其中大部分显卡用于训练更高效的模型,这些模型专注于执行特定任务,而不是像GPT-4一样具有更强的通用性。
据报道,微软持有OpenAI 49% 的股份,并为这家初创公司注入了数十亿美元的资金。预计未来几年,微软还将继续与OpenAI密切合作。
不过,微软和OpenAI的利益并非处处一致。尽管双方是合作者,但两家公司也是竞争对手,它们的ChatGPT Enterprise和Bing Chat Enterprise产品实质上是在争夺相同的目标受众。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。