生成式人工智能的热潮已经席卷到了美国联邦政府,微软宣布推出Azure OpenAI服务,允许Azure政府客户访问GPT-3、 GPT-4以及Embeddings。
微软在一份声明中说,政府机构将通过此项服务获得ChatGPT用例,而且不会牺牲“他们为了满足政府对敏感数据的要求所需要的、严格的安全和合规标准。”
微软声称,它已经开发了一种架构,让政府客户“能够从Azure Government安全地访问商业环境中的大语言模型”。微软表示,通过Python SDK REST APIs或者 Azure AI Studio进行访问,所有这一切都不会将政府数据暴露在公共互联网上。
微软承诺称:“只有提交给Azure OpenAI服务的查询才会转入商业环境中的Azure OpenAI模型。”“Azure Government直接与微软Azure商业网络对等,而不直接与公共互联网或者微软企业网对等。”
微软报告称,它使用IEEE 802.1AE——或MACsec——网络安全标准对所有Azure流量进行加密,而且所有的流量都驻留在全球骨干网中,该骨干网由超过25万公里的光纤和海底电缆系统构成。
Azure OpenAI Service for government已经全面推出,对于经过批准的企业或者政府客户,已经可以使用了。
政府用的ChatGPT到底能有多保密?
微软一直希望赢得美国政府的信任——但它也出过纰漏。
有消息称有超过1兆字节的政府敏感军事文件被暴露在公共互联网上——国防部和微软就这个问题互相指责。
微软子公司、ChatGPT的创建者OpenAI在安全方面也不尽如人意,3月份,一个糟糕的开源库让一些用户的聊天记录被曝光。从那个时候起,一些知名的公司——包括苹果、亚马逊和几家银行——因为担心ChatGPT可能暴露内部机密信息,已经禁止内部使用它。
英国的间谍机构GCHQ甚至对这种风险发出了警告。那么,即使这些秘密显然不会被传输到一个不受信任的网络,但美国政府把自己的秘密交给微软是否正确?
微软表示,它不会专门使用政府数据来训练OpenAI模型,所以绝密数据很可能不会在给其他人的回复中被泄露。但是这并不意味着它可以被默认安全。微软在公告中委婉地承认,当政府用户使用OpenAI模型的时候,一些数据仍将被记录下来。
微软表示:“微软允许具有额外限定访问资格并证明特定用例的客户申请修改Azure OpenAI的内容管理功能。”
它补充说:“如果微软批准了客户修改数据记录的请求,就不会存储与已批准的Azure订阅相关的任何提问和回复,在Azure商业中的数据记录也会被设置为关闭。”这意味着,除非政府机构符合某些特定的标准,否则提问和回复——由人工智能模型返回的文本——将被保留。
好文章,需要你的鼓励
Xbox 部门推出了名为 Muse 的生成式 AI 模型,旨在为游戏创造视觉效果和玩法。这一举措反映了微软全面拥抱 AI 技术的战略,尽管游戏开发者对 AI 持谨慎态度。Muse 不仅可能提高游戏开发效率,还有望实现老游戏的现代化改造,但其实际效果和对行业的影响仍有待观察。
Sonar收购AutoCodeRover,旨在通过自主AI代理增强其代码质量工具。这项收购将使Sonar客户能够自动化调试和问题修复等任务,让开发者将更多时间用于改进应用程序而非修复bug。AutoCodeRover的AI代理能够自主修复有问题的代码,将与Sonar的工具集成,提高开发效率并降低成本。
人工智能正在推动数据中心的变革。为满足 AI workload 的需求,数据中心面临前所未有的电力消耗增长、散热压力和设备重量挑战。应对这些挑战需要创新的解决方案,包括 AI 专用硬件、可再生能源、液冷技术等。同时,数据中心还需平衡监管压力和社区关切。未来数据中心的发展将决定 AI 技术能否实现其变革性潜力。