据悉,微软正在开发旗下的Azure 栈混合计算家族的新成员,新成员的代号为Azure Stack“Fiji”。据笔者的联系人称,Fiji旨在令用户能够将Azure放在本地云运行,本地云由公共Azure管理并能够以微软服务器机架形式直接提供给用户。
微软是顶级云供应商里将混合计算支持作为自己战略关键部分的第一家。不过自从微软自2017年7月开始销售Azure Stack以来,客户对混合的期望已经改变。AWS最近通过AWS Outposts进入混合云战场,谷歌云则利用Anthos进入。微软正开发相应的新混合云功能。
据了解,Azure Stack Fiji的主要对标的是AWS自2019年12月开始提供给普通用户的亚马逊AWS Outposts产品。AWS对Outposts的描述如下:“Outposts是一项完全托管服务,Outposts服务将AWS基础设施、AWS服务、API和工具扩展到差不多所有的数据中心、合用空间或本地设施,实现了真正一致的混合体验。AWS Outposts的理想工作负载是那些要求以低延迟访问本地系统、本地数据处理或本地数据存储的工作负载。”而微软Azure Stack Fiji的目标将重点放在为用户提供低延迟功能上,低延迟功能可以通过Azure架构(大致是通过Azure Arc)进行完全管理,而且使用微软用于运行Azure的相同硬件。
Azure Stack Hub是目前微软混合计算的核心,少数微软合作伙伴经过认证的服务器硬件上作为设备预先安装了Azure Stack Hub。要实现这一目标并非易事。微软必须修改旗下Azure服务的运行方式,还要考虑其安全模型的工作方式及调整微软对配置和管理其硬件方面的取态。笔者不太确定微软在这方面能走多远。
如果你研究过微软代号,可能就会发现,这实际上不是微软第一次用“Fiji”作代号。希望这次用Fiji作代号的结局不会太差。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。