生成式AI技术:医患关系的调和剂还是引爆线?

医学正面临着前所未有的挑战:生成式AI。患者越来越担心像ChatGPT这样的AI工具出现在医疗领域。皮尤研究中心发布的调查显示,大多数患者担心:医疗保健服务商过度依赖AI来诊断疾病和推荐治疗方案(60%)。AI导致患者自己与医师失去个人联系(57%)……

与其他职业不同,医学有着自己的独特属性。

在安静明亮的诊室中,医生要求患者褪去衣物、坦白自己的秘密,还要直面针头和刀具。换言之,如果没有深厚的人际信任,医学诊疗的流程根本无法成立。

在这个深深根植于信任关系的行业中,医学正面临着前所未有的挑战:生成式AI。患者越来越担心像ChatGPT这样的AI工具出现在医疗领域。

根据皮尤研究中心最近发布的调查显示,大多数患者担心:

  • 医疗保健服务商过度依赖AI来诊断疾病和推荐治疗方案(60%)。
  • AI导致患者自己与医师失去个人联系(57%)。
  • 人、机器与伦理

研究人员可以客观衡量多种临床表现,比如测试放射科医师对胸部X光片反映的肺炎解读是否准确。之后,他们会把这些结果跟计算机的分析输出进行比较。

这样的科学探究非常重要,但医学实践也充斥着大量无法量化的元素。患者给医师们提出的往往是一些没有客观、或者“正确”答案的问题。

因此,到底应该以怎样的伦理规范指导个人行为和医师决策,就引发了激烈的争论。事实上,美国医学协会就维持着庞大的道德规范指南,涵盖11个章节共161条,对现代医学从业者的正确行为做出严格约束。

这里试举几例:安乐死是否应当合法?如何更好地将器官分配给等待移植的患者?哪些病症适用于采取未经证实的治疗方法?

这些问题并没有确切的正确或错误答案,患者所能仰仗的就只有医生自己的伦理判断和道德标准。现在,他们担心生成式AI会侵蚀并破坏这种宝贵的人际关系。

这种恐惧当然可以理解。但从乐观的角度来看,生成式AI也有望改善医疗保健、促进道德决策,甚至加强医患之间的联系。而要想达成这样的效果,就必须做思维层面的转换。

机器:坏;人类:好

身为人类,我们更能容忍其他人犯的错误,但对机器的故障却不太宽容。

举例来说,假定一夜之间,全国的汽车都变成了自动驾驶车辆。这种交通工具再也没有了旗舰、油门或者刹车,人类根本就没有介入的余地。

现在,在这场宏大实验的第一年,技术故障共导致10000人死亡。在这种情况下,媒体和大多数民众会将转向自动驾驶汽车视为振奋人心的技术进步吗?不好说,但反对的声音肯定不会小。根据迄今为止对自动驾驶汽车事故的报道,到时候互联网和电视上很可能充斥着血腥的车祸画面。随着恐惧情绪的蔓延,无数民众可能会要求由人类重新掌控每辆汽车。

但一片喧嚣之下,人们似乎忘记了一个重要事实:在美国,每年约有4到5万人是因人为错误而失去生命。

反酒驾母亲组织(MADD)等机构一直在努力解决这些问题。但除非我们身边就有受害者,否则人为错误造成的伤亡很少进入大家的视野。我们会将事故归咎于特定某个人,比如酒驾的坏蛋或者心猿意马的年轻人,同时坚信自己永远不会伤害到他人。但是,面对无人驾驶汽车的肇事新闻,我们却坚定认为这证明该技术存在致命缺陷。

随着生成式AI在医学领域发挥更大作用,同样的亲人类、反技术偏见也可能浮出水面。

 “但我喜欢我的医生”

在民意调查中,患者们表示自己更信任护士(71%)、自己认识的医护人员(70%)和医生(67%);相比之下,总体上只有34%到44%的美国民众对整个医疗系统抱有信心。

作为人类,我们明显更相信同类、相对抗拒系统。但很遗憾,真实数据与我们的直觉相互矛盾。近四分之一的住院患者经历过医疗失误,每年数万人因此意外失去生命。同样的,在美国每年有数十万例本可避免的心脏病发作、中风和癌症死亡因此发生,更不用说被耽搁或疗效不佳的慢性疾病。

尽管有客观证据表明临床医生远非完美,但我们对此更加宽容,就如同我们更能容忍因人为错误造成的交通伤亡一样。我们还是会假设自己的医生不会犯那些错误(虽然没有任何数据或证据能支持这一点),同时担心生成式AI会害了自己。

要克服这些恐惧,需要思维和时间两方面的积累。但在AI的加持下,医学的未来一定会更加光明:

1. 修复医患关系

过去,医生拥有紧密联系的社区且广受尊重。但如今,医生与患者间的关系则是一言难尽,更不用提什么私交。

目前,全美60%的成年人患有慢性疾病,这些疾病每天都在影响他们的健康。另外,患者比以往任何时候都更需要持续监测和快速医疗干预。但由于医生人手严重不足,病人无法得到连续护理——回访往往每四到六个月才能进行一次。

生成式AI为此提供了解决方案。ChatGPT能够充当医疗助手,不是在医生办公室内、而是在患者家中,从而帮助提高护理连续性。AI技术与家庭监控设备相结合,将为患者提供日常监督,并在读数走出临床计划时发出警报。AI将帮助患者快速便捷地获取所需护理服务。

2. 更趋一致的诊断和治疗体验

研究表明,美国民众所需的护理质量与实际能获得的服务之间存在巨大差距。

例如,一半的美国成年人患有高血压,这部分人群罹患心脏病和中风的几率更高。对于大多数患者,市面上物美价廉的药品完全能帮他们成功控制风险。

但在全国范围内,只有60%的高血压患者得到了适当的维持性治疗。至于那些血压控制率超过80%的医疗服务商,他们的成功源自采用先进IT系统和基于指标的筛查、监测与医疗方法。因此美国民众不必担心生成式AI会带来隐患,其反而会成为中风、心脏病和肾衰竭患者的福音。

Glass AI 2.0等工具已能帮助医生在几秒钟内创建出诊断和临床治疗计划,省下时间让医患之间能充分沟通。另外,随着AI技术语音记录能力的加强,它也将进一步解放医生精力,避免长时间操作电脑、无暇顾及病人的情况。

最后,当医生自己也不太确定该如何诊断和治疗时,ChatGPT能够成为可靠且快速的专业知识来源。医学知识每73天就翻一番,所以任何医生都不可能跟得上时代变化。但生成式AI可以,因此当患者遇到罕见病时,医生可以立即访问关于该疾病的最新期刊文章或病例报告。

3. 更具伦理考量的个体化护理

在帮助人们做出临终选择或决定是否接受高风险手术时,医生往往不知道该如何加以引导。很多临床医生不愿讨论临终关怀,或者承认额外治疗手段也许毫无效果。对他们来说,这种向病人的坦白相当于对自己职业的否定。

但研究表明,患者想要的就是关于自己病症和预后效果的真相,真相就是最好的安慰。数据显示,临终关怀反而比一味抢救更能延长病人的存活时间。

生成式AI无法取代医生做出这个艰难的决定,但可以向患者提供咨询、帮助他们考虑更广泛的可能性,扩展医生的现有分析框架并得出更好的结论。

化解生存威胁

在一项高引用研究中,AI研究人员等专家被问到“你认为,人类无法控制未来可能致使人类灭绝的AI系统的可能性有多大?”中位数答案是10%。

颠覆性技术总会引发过度关注,ChatGPT也不例外。生成式AI必将影响医患关系并取代人类完成许多任务,但它同时也让医生们能有更多时间与患者相处,从而减少医生的倦怠感并提高患者满意度。未来几代ChatGPT将带来质量更优的结果,帮助患者快速获取医疗服务并降低诊疗成本。是的,AI科技确实会带来风险,但也带来了让每个人拥有健康体魄的新希望。

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2023

05/09

11:49

分享

点赞

邮件订阅