美国国防部官员近日表示,将推迟公布JEDI中标者,要等待新国防部长Mark Esper完成该项目的审查。国防部首席信息官Dana Deasy表示,该评估预计需要数周时间。
Deasy没有提供具体的时间框架,但他告诉记者,中标者的名字可能不会在月底之前宣布。6月下旬时国防部官员曾预计JEDI招标程序将在8月底结束。
Deasy表示,“我们必须做好这件事,因此我们不急于做出决定。我们花费的时间由评估团队所需花费的时间定,目的是确保我们以合适的价格、合适的标准选择最佳技术解决方案。”
JEDI计划是联合企业防御基础架构计划的英文缩写,五角大楼在未来10年内将因为JEDI计划在云服务上花费高达100亿美元。 计划的合同规范要求将整个交易交给单个提供商。目前只剩下两个竞标者:亚马逊网络服务公司(AWS)和微软公司,两家公司分别是基础架构即服务市场里第一大和第二大参与者。
而AWS中标的呼声最高,业界普遍预计AWS将拿下这笔交易。Deasy在接受记者采访时表示,合同中规定了单个供应商,目前仍然没有计划将合同分成几个。五角大楼官员还在新闻发布会上分发了JEDI项目情况说明书和要求指南,试图消除坊间对JEDI的传言和错误信息。
国防部长Esper几天前曾暂停JEDI招标以对项目细节进行评估,随后则宣布延迟宣布招标结果。唐纳德·特朗普总统在这之前曾表示,作为对AWS竞争对手投诉的回应,他决定要看看合同。业界人士认为云计算巨头AWS是赢得这项有利可图交易的最佳选择,但亦有人指责AWS在竞标过程中拥有不公平的优势。
甲骨文公司去年提起诉讼,指控美国国防部存在利益冲突,偏袒了AWS,但法院在调查后未发现存在组织偏见的证据,今年7月驳回此案。
甲骨文的投诉可能会导致JEDI的进一步复杂化。在法院驳回诉讼之前,消息人士告诉联邦新闻网,如果诉讼被驳回,甲骨文公司可能会将案件提交到美国上诉法院。
但五角大楼可能会在此之前完成JEDI招标。据华尔街日报报道,国防部长Esper对合同的审查与最终中标者的选择是“分开”进行的,华尔街日报报道称五角大楼官员正在推进该过程的技术层面。
这可能表明官员们对敲定中标者的时间框架持乐观态度。该计划的竞标在12个月前启动,这也反映了一定的紧迫感。 五角大楼联合人工智能中心负责人、空军中将John Shanahan近日在新闻发布会上说到有关JEDI的延误时称,“我们不想浪费任何时间.......我们知道我们的潜在对手正在以他们自己的速度进行。“
官员还称人工智能是快速解决问题的关键驱动因素。担任美国国防部人工智能负责人的Jack Shanahan中将表示,若无企业云计算,“就没有大规模的人工智能”,而人工智能对作战至关重要。
Shanahan表示,若无大规模人工智能,“人工智能就只会停留在一系列小规模的独立项目上,没有办法令人工智能有用处或对战士有用处。”他还表示,“JEDI可以提供按需的规模弹性计算、规模数据、实质性网络和传输优势、DevOps和安全的运营环境。”
但Shanahan也表示不仅仅事关人工智能。他说,“还涉及到联合全域作战、利用新兴技术为一类战争开发新的作战概念,这一类的战争与我们过去20年所经历的是完全不同的。”
五角大楼之所以决定将JEDI交给单一提供商而非多家公司的主要原因之一,是需要快速推出系统。 尽管如此,合同方面则仍然存在争议。JEDI赢家的通吃做法遭到甲骨文、AWS竞争对手IBM公司,甚至国会议员的抨击,尽管这些议员不在管军事交易的关键参议院军事委员会当中。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。