这些新产品旨在将各种形式的医疗数据整合起来,进行深入分析,从而为临床医生提供基于大模型的医疗辅助功能。

医疗保健领域越来越成为AI领域各大厂商的角逐焦点,微软便是其中最新的例子。
就在上周,微软宣布对其今年5月推出的数据分析平台Fabric进行扩展,使其能够对多种类型的医疗数据进行分析。此外,微软还宣布将在其Azure云计算服务中推出新选项,包括基于大语言模型的医疗保健助手。
微软Cloud for Healthcare医疗保健云总经理Umesh Rustogi在采访中解释称,“我们希望能在Fabric One Lake中建立起统一的多模态数据底座,在这里帮助用户将不同模态的数据整合起来,从而对数据进行推理、运行AI模型等。”
Rustogi还表示,目前媒体上已经有大量专题文章在讨论多模态技术趋势在医疗保健领域的重要意义,“我们从多家客户那边听到了这一论断。他们认为,如果能将多种数据模态结合起来,就能释放出新的见解,带来单一数据模态研究所无法企及的可能性。”

微软Cloud for Healthcare总经理Umesh Rustogi
这种组合模态的现实用例包括“一些看似简单的任务,比如根据成像结果和临床诊断标准来确定患者接受护理的次序。这是个极为常见的期望用例,但在目前还很难真正实现。”Rustogi还引用了2020年《自然》杂志上发表的研究作为范例,文中概述的“数据融合”技术可“用于将医学影像同EHR(电子健康记录)相结合”。
Fabric的另一项新功能则是“去识别化服务”,即使用机器学习形式的AI技术来清洗临床数据,从而隐藏医生笔记中包含的患者身份信息。Rustogi表示,“对于整个医疗保健行业来说,如何在获取这些非结构化临床记录的同时、以有意义的方式对其进行「去识别化」处理,一直是个难以解决的现实挑战。”
Rustogi的同事、微软健康AI及健康与生命科学主管Hadas Bitran,则讨论了Azure Web服务业务中的几项新增AI产品。
首先是Azure AI Health Insights,这款产品由预构建的机器学习AI模型组成,在目前的预览阶段共提供三种新增模型选项:
除了这三款模型之外,新服务还包含多个预先内置的模型选项,后者已经在临床试验中被用于匹配和分析肿瘤表型。
另有一款名为Azure AI Health Bot的新产品,其使用大语言模型技术从医疗机构自有数据库、美国国立卫生研究院和美国药监局先进来源处,为医疗问题检索匹配的答案。
在与Rustogi共同接受的采访中,Bitran表示“其中的基本思路,就是通过这项服务为客户提供专业的医疗保健辅助体验。”
“有趣的是,这种探索能够产生级联效应。也就是说,医生可以优先使用自己的信息来源;但如果找不到相匹配的信源内容,AI服务将提供来自可靠消息来源的答案。如果后者处同样没有可供参考的内容,AI服务还能从更广泛的通用信息中搜寻参考资料。”
当然,目前人们对于在医疗保健等敏感场景下使用生成式AI(特别是大语言模型)仍抱有诸多怀疑。那么微软又是如何看待这些担忧?

微软健康AI及健康与生命科学负责人Hadas Bitran
Bitron认为,“这是个很好的问题,也确实值得我们高度关注。我绝对相信大语言模型还需要进一步发展,才能真正带来符合需求的良好结果。”
“我们采取的方法,就是对于所创建的每个模型,只要其属于大语言模型,就必须始终受到医疗保健行业内特定保障措施的约束。”
Bitran还强调,“其中一种有趣的保障方法,就是在将大语言模型与体量较小且基于规则的模型混合起来,通过这种方式保证大语言模型始终稳定可靠。”
例如,在用于临床报告简化的预构建模型当中,“我们不仅要求语言模型对自己生成的结果做出解释,同时还添加了一系列预处理和后处理逻辑,借此获取简化结果并结合性能指标衡量其可靠性。接下来,我们还会对结果进行交叉引用,看看其能否切实在相关场景中起到简化作用,或者是否存在各种捏造或遗漏问题。”
Bitran指出,医疗保健领域的工作属于微软此前强调的“负责任的AI框架”所涵盖的范畴。目前这套框架仍在评估阶段。
“负责任的AI框架不仅涉及隐私、安全、可及性和透明度等层面,同时也高度强调正确性、负责任与公平性。”
Bitron最后总结道,“另外需要专门强调的是,我们的模型并不是要取代人类医生。人类医生永远是流程的主体,而这些新模型的目标是作为能帮助临床医生减轻负担的工具,为他们带来更加高效、轻松的工作体验。”
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。