生成式人工智能的热潮已经席卷到了美国联邦政府,微软宣布推出Azure OpenAI服务,允许Azure政府客户访问GPT-3、 GPT-4以及Embeddings。
微软在一份声明中说,政府机构将通过此项服务获得ChatGPT用例,而且不会牺牲“他们为了满足政府对敏感数据的要求所需要的、严格的安全和合规标准。”
微软声称,它已经开发了一种架构,让政府客户“能够从Azure Government安全地访问商业环境中的大语言模型”。微软表示,通过Python SDK REST APIs或者 Azure AI Studio进行访问,所有这一切都不会将政府数据暴露在公共互联网上。
微软承诺称:“只有提交给Azure OpenAI服务的查询才会转入商业环境中的Azure OpenAI模型。”“Azure Government直接与微软Azure商业网络对等,而不直接与公共互联网或者微软企业网对等。”
微软报告称,它使用IEEE 802.1AE——或MACsec——网络安全标准对所有Azure流量进行加密,而且所有的流量都驻留在全球骨干网中,该骨干网由超过25万公里的光纤和海底电缆系统构成。
Azure OpenAI Service for government已经全面推出,对于经过批准的企业或者政府客户,已经可以使用了。
政府用的ChatGPT到底能有多保密?
微软一直希望赢得美国政府的信任——但它也出过纰漏。
有消息称有超过1兆字节的政府敏感军事文件被暴露在公共互联网上——国防部和微软就这个问题互相指责。
微软子公司、ChatGPT的创建者OpenAI在安全方面也不尽如人意,3月份,一个糟糕的开源库让一些用户的聊天记录被曝光。从那个时候起,一些知名的公司——包括苹果、亚马逊和几家银行——因为担心ChatGPT可能暴露内部机密信息,已经禁止内部使用它。
英国的间谍机构GCHQ甚至对这种风险发出了警告。那么,即使这些秘密显然不会被传输到一个不受信任的网络,但美国政府把自己的秘密交给微软是否正确?
微软表示,它不会专门使用政府数据来训练OpenAI模型,所以绝密数据很可能不会在给其他人的回复中被泄露。但是这并不意味着它可以被默认安全。微软在公告中委婉地承认,当政府用户使用OpenAI模型的时候,一些数据仍将被记录下来。
微软表示:“微软允许具有额外限定访问资格并证明特定用例的客户申请修改Azure OpenAI的内容管理功能。”
它补充说:“如果微软批准了客户修改数据记录的请求,就不会存储与已批准的Azure订阅相关的任何提问和回复,在Azure商业中的数据记录也会被设置为关闭。”这意味着,除非政府机构符合某些特定的标准,否则提问和回复——由人工智能模型返回的文本——将被保留。
好文章,需要你的鼓励
博通公司第三季度业绩超预期,每股收益1.69美元,营收159.6亿美元,同比增长22%。公司获得来自新客户的100亿美元定制AI芯片订单,推动股价在盘后交易中上涨超3%。AI相关营收同比增长63%至52亿美元,预计第四季度将超过62亿美元。公司专注为超大规模云基础设施提供商设计定制芯片,已成为英伟达的主要竞争对手之一,年内股价上涨32%,市值超1.4万亿美元。
韩国AI研究院团队深入研究了大型语言模型的置信度评估机制,发现AI有时会对错误答案表现出过度自信的"幻觉"现象。研究揭示了AI内部"置信度计算器"的系统性偏差,提出了"内部一致性检测"方法来识别AI的真实确信程度,为开发更可靠的AI系统提供了重要科学基础。
时光壶公司发布了全新的翻译耳机产品,这款耳机的最大特色是专为分享设计。用户可以与他人共享使用,实现实时语言翻译功能,打破语言沟通障碍。该产品采用先进的翻译技术,支持多种语言互译,为跨语言交流提供了便捷解决方案,特别适合旅行、商务会谈等场景使用。
苹果公司研究团队通过创新的GSM-Symbolic测试方法,发现当前先进AI系统在数学推理方面存在严重缺陷。研究表明,AI虽然在标准测试中表现优异,但面对表述稍有变化的同类问题时准确率显著下降,暴露出其缺乏真正的逻辑理解能力,主要依赖模式匹配而非推理。这项发现为AI评估提供了新标准,并为未来开发更可靠的AI推理系统指明了方向。