微软方面曾多次表示,微软正在增加云容量努力满足市场对Azure和其他微软云服务的需求。如前所述,微软已经将第一响应者、医护人员和其他前线人员的需求放在优先位置,限制了一些不太重要的服务,以保持正常运转。4月23日,微软分享了一些为满足需求正在采取的措施。
一位未具名的作者在一篇有关“Azure业务连续性”博客文章中指出,除了继续扩大微软全球数据中心的规模之外,微软还做了一些改进。
微软多年来一直在设计和开源自己的数据中心基础设施组件。根据这篇博客文章,微软的经验法则是:
“总的来说,在任何特定Azure地区,我们确保数据中心内的容量缓冲区几乎是即时的,还设置了额外的基础设施缓冲区,提供给需求较高的地区。”
文章指出,微软还设置了“Azure新增订阅的临时资源限制”,以管理容量需求,而且,现有客户并没有这些限制,因为每个Azure客户帐户“都有一个他们可以使用的、已经定义好的服务配额”。
正如之前所说,当COVID-19病毒大流行期间越来越多人选择在家办公,此前有报道称某些地区的客户遇到了Azure容量限制的问题,而这并不是第一次发生。去年秋天,East US2 Azure的许多客户报告说,Azure容量问题导致他们甚至无法启动虚拟机。今年3月,很多欧洲客户还报告称遇到了Azure相关的各种容量问题。一些现有Azure客户也报告说遇到了SQL Server on Azure的容量限制问题。
我曾询问过微软,有关现有客户不会遇到容量限制的说法,是否指的是那些保留了实例的客户。到目前为止,我还没有收到回复。
今年发布的这篇博客文章称,微软已经采取了其他措施继续满足云服务需求,特别是Teams的需求,其中包括:
从去年秋天开始,或者还要更早,微软方面就一直强调自己在增加产能。很期待能了解这方面的情况,特别是在下周微软发布FY20第三季度财报之前。
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。