网络安全人员往往要管理很多工具,和来自多个来源的海量数据。近日微软宣布推出了Security Copilot,这款新工具旨在通过AI助手简化网络安全人员的工作,帮助他们应对安全威胁。

Copilot利用基于OpenAI的GPT-4最新技术,让网络安全人员能够就当前影响环境的安全问题提问并获得答案,甚至可以直接整合公司内部的知识,为团队提供有用的信息,从现有信息中进行学习,将当前威胁活动与其他工具数据相关联,提供最新的信息。
微软在这款工具中结合了OpenAI大型语言模型的强大功能,使其能够理解提出的问题,总结出由公司网络安全团队和外部数据生成的威胁报告,以及微软自己的威胁分析。微软表示,模型是由100多个不同的数据源提供信息的,每天接收超过65万亿个威胁信号。
专业人员借助Security Copilot可以利用AI助手,使用自然语言深入研究数据,从而快速调查重大事件。该工具可以利用其理解会话语言的能力来总结流程和事件,提供快速报告,使团队成员更快地跟上进度。
例如,提示助手根据一组工具和事件为特定的、正在进行的调查提供事件响应报告。AI助手可以从这些工具中提取数据和信息,并根据给定的查询为用户提供摘要、报告和其他信息,并显示出来。然后,用户可以改进他们的提问,让AI提供更多信息,更改显示方式或者总结报告的方式、使用的工具、以及从中提取的事件信息。
Jakkal表示,该助手还可以通过使用微软自己的全球威胁情报来预测和发现专业人士可能会遗漏的潜在威胁,找出异常情况。专业人士还能使用该工具扩展自己的技能,例如对潜在的恶意脚本进行逆向工程,并将信息发送给另一位同事,后者查看是否需要对其进行标记以供进一步研究。
尽管这对于安全专业人员来说是一个非常有用的工具,但并非没有缺陷。由于所有的Copilot工具都集成了GPT-4,微软提示说,该工具并不能“总是把所有事情都做对”,对于Security Copilot来说也是如此。为了解决这个问题,微软增加了一项功能,让用户对AI生成的响应进行报告,以便更好地进行调整。
Gartner副总裁、知名分析师Avivah Litan表示:“Security Copilot要求用户检查输出的准确性,而不会给用户任何关于输出正确与否可能性的评分。用户依赖输出并假设这些输出的内容是正确的,鉴于我们正在谈论企业安全,我们认为这是一种不安全的方法。”
在微软的演示中,AI的错误是良性的,但是在现实的调查中,AI可能会犯一个安全专家更难发现的错误,并且被忽视掉。Litan说:“在企业能够安心地使用这些服务之前,还有很长的路要走。”
微软一直在大举收购以增强威胁检测的能力,其中包括威胁管理公司RiskIQ和威胁分析公司Miburo。
这个AI助手与很多微软安全产品进行了本地集成,包括基于企业云的网络威胁管理解决方案Sentinel,以及反恶意软件解决方案Defender。该软件目前提供了私人预览版。
好文章,需要你的鼓励
Instagram负责人莫塞里在接受采访时透露,平台正考虑引入长视频内容功能,尽管此前一直专注于短视频。他承认为了吸引优质内容,Instagram可能需要支持长视频格式。此外,Meta最近推出了"您的算法"功能,旨在让用户更好地控制信息流内容。莫塞里承诺未来将提供更多工具,让用户主动塑造个性化内容,但完整实现可能需要2-4年时间。
香港大学联合Adobe研究院提出PS-VAE技术,成功解决了AI无法同时具备图像理解和生成能力的难题。通过创新的两阶段训练策略,让AI既能准确理解图片语义,又能生成高质量图像,在图像编辑任务上性能提升近4倍,为统一视觉AI系统开辟新路径,在数字创作、教育、电商等领域具有广阔应用前景。
在信息爆炸的时代,AI实验室的研究员们常常需要面对海量的论文、专利文件、论坛发言等各种渠道的信息。传统的查找方式不仅费时费力,还容易遗漏关键内容。那么,有没有一种方式能让AI真正代替人工,完成从找资料到写出稿的全流程工作?
华中科技大学与马里兰大学研究团队开发出Sage评估框架,首次无需人工标注即可评估AI评判员可靠性。研究发现即使最先进的AI模型在评判任务中也存在严重不一致问题,近四分之一困难情况下无法保持稳定偏好。团队提出明确评判标准和专门微调等改进方法,为构建更可靠AI评估体系提供重要工具。