ZD至顶网软件频道消息: 微软发布Azure安全指南文件,明确指出微软公司将就哪些问题负责,而其余问题则由客户自己买单。
两份文件解释了微软解决问题的方法。第一份文件名为《云计算的共同责任》(Shared Responsibilities for Cloud Computing,PDF),它解释了微软是如何划分安全责任的。
微软的方法的基本原则是这样的:
1,所有传统内部部署的IT问题都由客户自己负责。
2,当客户将Azure作为基础架构即服务使用的时候:
3,当客服使用平台即服务时:
4,当客户使用SaaS模式时,除了数据分类、终端安全和用户管理由客户自己负责之外,其他一切的问题就都由微软负责。
此外,另外一份文件名为《微软Azure云安全响应》(Microsoft Azure Security Response in the Cloud ,PDF)的白皮书,在这份白皮书中,微软解释了在当云服务出现问题时微软是如何响应的。
根据文档显示,微软使用了下面五个步骤巡查Azure的边界:
文档的其余部分没有揭示太多内容,但是在关于缓解措施的章节里确实介绍了微软努力修复“可能导致短暂中断”的Azure问题的工作。
这份文件指出:这种决定不能够掉以轻心。当采取积极的措施的时候,标准流程会通知客户中断和恢复所需要的时间。
微软响应流程的其余部分如下面从文档中摘录的一个关系图和一个表所示:
好文章,需要你的鼓励
谷歌地图将集成Gemini人工智能技术,旨在将其升级为一个"全知型副驾驶"助手。这一整合将大幅提升地图服务的智能化水平,为用户提供更加个性化和全面的导航体验。通过AI技术的加持,谷歌地图有望在路线规划、地点推荐和实时信息服务等方面实现重大突破。
这项由圣母大学和IBM研究院联合开展的研究,开发出了名为DeepEvolve的AI科学助手系统,能够像人类科学家一样进行深度文献研究并将创新想法转化为可执行的算法程序。该系统突破了传统AI要么只能改进算法但缺乏创新、要么只能提出想法但无法实现的局限,在化学、生物学、数学等九个科学领域的测试中都实现了显著的算法性能提升,为AI辅助科学发现开辟了新的道路。
微软研究人员发布新的仿真环境来测试AI智能体,研究显示当前智能体模型容易受到操纵。该名为"Magentic Marketplace"的合成平台让客户智能体与商家智能体进行交互实验。测试包括GPT-4o、GPT-5和Gemini-2.5-Flash等模型,发现智能体在面临过多选择时效率下降,且在协作方面表现不佳。研究揭示了AI智能体在无监督环境下的性能问题。
卡内基梅隆大学研究团队通过3331次大规模实验,系统揭示了代码训练如何提升AI推理能力。研究发现,代码的结构特性比语义内容更重要,适当的抽象形式(如伪代码)可以达到与原始代码相同的效果。不同编程语言产生差异化影响:低抽象语言有利于数学推理,Python更适合自然语言任务。这些发现为AI训练数据的科学化设计提供了重要指导。