0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于医学知识增强的基础模型预训练方法

CVer 来源:CVer 2023-07-07 11:10 次阅读

近年来,基于大数据预训练的多模态基础模型 (Foundation Model) 在自然语言理解和视觉感知方面展现出了前所未有的进展,在各领域中受到了广泛关注。在医疗领域中,由于其任务对领域专业知识的高度依赖和其本身细粒度的特征,通用基础模型在医疗领域的应用十分有限。因此,如何将医疗知识注入模型,提高基础模型在具体诊疗任务上的准确度与可靠性,是当前医学人工智能研究领域的热点。 在此背景之下,上海交通大学与上海人工智能实验室联合团队探索了基于医学知识增强的基础模型预训练方法,发布了首个胸部 X-ray 的基础模型,即 KAD(Knowledge-enhanced Auto Diagnosis Model)。该模型通过在大规模医学影像与放射报告数据进行预训练,通过文本编码器对高质量医疗知识图谱进行隐空间嵌入,利用视觉 - 语言模型联合训练实现了知识增强的表征学习。在不需要任何额外标注情况下,KAD 模型即可直接应用于任意胸片相关疾病的诊断,为开发人工智能辅助诊断的基础模型提供了一条切实可行的技术路线。

KAD 具有零样本(zero-shot)诊断能力,无需下游任务微调,展现出与专业医生相当的精度;

KAD 具有开放疾病诊断(open-set diagosis)能力,可应用于胸片相关的任意疾病诊断;

KAD 具有疾病定位能力,为模型预测提供可解释性。

研究论文《Knowledge-enhanced Visual-Language Pre-training on Chest Radiology Images》已被知名国际期刊《自然 - 通讯》(Nature Communications)接收。论文作者为张小嫚、吴超逸、张娅教授,谢伟迪教授(通讯),王延峰教授(通讯)。

论文链接:https://arxiv.org/pdf/2302.14042.pdf

代码模型链接:https://github.com/xiaoman-zhang/KAD

模型介绍 KAD 模型的核心是利用医学先验知识引导基础模型预训练,第一阶段,该研究利用医学知识图谱训练一个文本知识编码器,对医学知识库在隐空间进行建模;第二阶段,该研究提出放射报告中提取医学实体和实体间关系,借助已训练的知识编码器来指导图像与文本对的视觉表征学习,最终实现了知识增强的模型预训练。具体流程如图 1 所示。

c197efd0-1c16-11ee-962d-dac502259ad0.png

图 1:KAD 的模型架构 知识编码器 知识编码器的核心是在特征空间隐式地建立医学实体之间的关系。具体来说,该研究将统一医学语言系统 (Unified Medical Language System,UMLS) 作为医学知识库,如图 1a 所示;通过对比学习训练文本编码器,将医学知识注入模型,如图 1b 所示。 知识引导的视觉表征学习 知识编码器训练完成后,模型在文本特征空间已经建立了医学实体之间的关系,即可用于引导视觉表征学习。具体来说,如图 1c 所示,基于胸片 - 报告对的数据,首先进行实体提取,得到常见疾病的集合及其标签,该研究尝试了三种方法:基于 UMLS 启发式规则的实体提取、基于报告结构化工具 RadGraph 的实体提取以及基于 ChatGPT 的实体提取;在模型层面,该研究提出了基于 Transformer 架构的疾病查询网络(Disease Query Networks),以疾病名称作为查询 (query) 输入,关注 (attend) 视觉特征以获得模型预测结果;在模型训练过程中,该研究联合优化图像 - 文本对比学习和疾病查询网络预测的多标签分类损失。 经过上述两阶段的训练,在模型使用阶段,如图 1d 所示,给定一张图像以及查询的疾病名称,分别输入图像编码器和知识编码器,经过疾病查询网络,即可得到查询疾病的预测。同时可以通过疾病查询网络得到注意力图对病灶进行定位,增强模型的可解释性。 实验结果 研究团队将仅在 MIMIC-CXR [1] 上使用图像和报告预训练的 KAD 模型,在多个具有不同数据分布的公开数据集上进行了系统性评测,包括 CheXpert [2], PadChest [3], NIH ChestX-ray [4] 和 CheXDet10 [5]。MIMIC-CXR 数据收集于贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center,BIDMC)是,CheXpert 数据收集于美国斯坦福医院(Stanford Hospital),PadChest 数据收集于西班牙圣胡医院(San Juan Hospital),NIH ChestX-ray 和 CheXDet10 数据来自于美国国立卫生研究院(National Institutes of Health)临床 PACS 数据库。 (1) KAD 零样本诊断能力与专业放射科医生精度相当 如图 2 所示,该研究将预训练的 KAD 模型在 CheXpert 数据上进行评测,在其中的五类疾病诊断任务与放射科医生进行了比较,图中 Radiologists 表示三名放射科医生的平均结果。KAD 在五类疾病诊断任务上的平均 MCC 超过了 Radiologists,且在其中三类疾病的诊断结果显著优于放射科医生,肺不张 atelectasis (KAD 0.613 (95% CI 0.567, 0.659) vs. Radiologists 0.548);肺水肿 edema (KAD 0.666 (95% CI 0.608, 0.724) vs. Radiologists 0.507);胸腔积液 pleural effusion (KAD 0.702 (95% CI 0.653, 0.751) vs. Radiologists 0.548)。该结果证实了基于知识增强的模型预训练的有效性。

c1a3f3c0-1c16-11ee-962d-dac502259ad0.png

图 2:KAD 在 CheXpert 数据集上与基线模型以及放射科医生的比较 (2) KAD 零样本诊断能力与全监督模型相当,支持开放集疾病诊断 如图 3a 所示,在 PadChest 上的零样本诊断性能大幅度超越此前所有多模态预训练模型(例如 Microsoft 发布的 BioVIL [6],Stanford 发布的 CheXzero [7]),与全监督模型 (CheXNet [8]) 相当。此外,全监督的模型的应用范围受限于封闭的训练类别集合,而 KAD 可以支持任意的疾病输入,在 PadChest 的 177 个未见类别的测试中,有 31 类 AUC 达到 0.900 以上,111 类 AUC 达到 0.700 以上,如图 3b 所示。

c209d7c6-1c16-11ee-962d-dac502259ad0.png

图 3:KAD 在 PadChest 数据集上与基线模型的比较 (3) KAD 具有疾病定位能力,为模型预测提供可解释性 除了自动诊断能力,可解释性在人工智能辅助医疗的作用同样关键,能够有效帮助临床医生理解人工智能算法的判断依据。在 ChestXDet10 数据集上对 KAD 的定位能力进行了定量分析与定性分析。如图 4 所示,KAD 的定位能力显著优于基线模型。图 5 中,红色方框为放射科医生提供的标注,高亮区域为模型的热力图,从中可以看出模型所关注的区域往往能与医生标注区域对应上,随着输入图像的分辨率增加,模型的定位能力也显著增强。 需要强调 这是模型设计的优势,是在无需人工病灶区域标注情况下获得的副产品

c2850c2a-1c16-11ee-962d-dac502259ad0.png

图 4: KAD 在 ChestXDet10 数据集上与基线模型的比较

图 5:KAD 的定位结果可视化 总结 医疗领域的专业性,导致通用基础模型在真实临床诊疗场景下的应用十分受限。KAD 模型的提出为基于知识增强的基础模型预训练提供了切实可行的解决方案。KAD 的训练框架只需要影像 - 报告数据,不依赖于人工注释,在下游胸部 X-ray 诊断任务上,无需任何监督微调,即达到与专业放射科医生相当的精度;支持开放集疾病诊断任务,同时以注意力图形式提供对病灶的位置定位,增强模型的可解释性。值得注意的是,该研究提出的基于知识增强的表征学习方法不局限于胸部 X-ray,期待其能够进一步迁移到医疗中不同的器官、模态上,促进医疗基础模型在临床的应用和落地。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    41

    文章

    3360

    浏览量

    131537
  • 模型
    +关注

    关注

    1

    文章

    2704

    浏览量

    47685
  • 大数据
    +关注

    关注

    64

    文章

    8649

    浏览量

    136587

原文标题:Nature子刊!上海交大&上海AI Lab提出胸部X-ray疾病诊断基础模型

文章出处:【微信号:CVer,微信公众号:CVer】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    一文详解知识增强的语言预训练模型

    等,在实际应用场景中效果不好。为了解决这个问题,将知识注入到PLMs中已经成为一个非常活跃的研究领域。本次分享将介绍三篇知识增强的预训练语言模型
    的头像 发表于 04-02 17:21 8912次阅读

    Pytorch模型训练实用PDF教程【中文】

    本教程以实际应用、工程开发为目的,着重介绍模型训练过程中遇到的实际问题和方法。在机器学习模型开发中,主要涉及三大部分,分别是数据、模型和损失
    发表于 12-21 09:18

    医疗模型训练系统是什么?

    医疗模型训练系统是为满足广大医学生的需要而设计的。我国现代医疗模拟技术的发展处于刚刚起步阶段,大部分仿真系统产品都源于国外,虽然对于模拟人仿真已经出现一些产品,但那些产品只是就模拟人的某一部分,某一个功能实现的仿真,没有一个完
    发表于 08-19 08:32

    嵌入式AI的相关资料下载

    ,小网络是一个学生让小网络逐渐学习到大网络的能力三、边缘侧的训练方法传统的机器学习训练方法是把数据在服务器上训练好,然后使用联邦学习是用户不把数据上传,而是把模型下发到对应的用户那里用
    发表于 12-14 06:57

    优化神经网络训练方法有哪些?

    优化神经网络训练方法有哪些?
    发表于 09-06 09:52

    新的预训练方法——MASS!MASS预训练几大优势!

    专门针对序列到序列的自然语言生成任务,微软亚洲研究院提出了新的预训练方法:屏蔽序列到序列预训练(MASS: Masked Sequence to Sequence Pre-training)。MASS对句子随机屏蔽一个长度为k的连续片段,然后通过编码器-注意力-解码器
    的头像 发表于 05-11 09:34 6801次阅读
    新的预<b class='flag-5'>训练方法</b>——MASS!MASS预<b class='flag-5'>训练</b>几大优势!

    检索增强型语言表征模型训练

    如果有一种预训练方法可以 显式地 获取知识,如引用额外的大型外部文本语料库,在不增加模型大小或复杂性的情况下获得准确结果,会怎么样?
    的头像 发表于 09-27 14:50 1766次阅读

    一种侧重于学习情感特征的预训练方法

    transformers编码表示)的基础上,提岀了一种侧重学习情感特征的预训练方法。在目标领域的预练阶段,利用情感词典改进了BERT的预训练任务。同时,使用基于上下文的词粒度情感预测任务对掩盖词情感极性进行分类,获取偏向情感特征的文本表
    发表于 04-13 11:40 4次下载
    一种侧重于学习情感特征的预<b class='flag-5'>训练方法</b>

    现代交互技术下的儿童语言表达训练方法

    现代交互技术下的儿童语言表达训练方法
    发表于 06-27 11:27 3次下载

    介绍几篇EMNLP&apos;22的语言模型训练方法优化工作

    来自:圆圆的算法笔记 今天给大家介绍3篇EMNLP 2022中语言模型训练方法优化的工作,这3篇工作分别是: 针对检索优化语言模型 :优化语言模型
    的头像 发表于 12-22 16:14 713次阅读

    如何度量知识蒸馏中不同数据增强方法的好坏?

    知识蒸馏(knowledge distillation,KD)是一种通用神经网络训练方法,它使用大的teacher模型来 “教” student模型,在各种AI任务上有着广泛应用。
    的头像 发表于 02-25 15:41 536次阅读

    首个中文医学知识LLM:真正的赛华佗—华驼(HuaTuo)

    通过医学知识图谱和 GPT 3.5 API 构建了中文医学指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在医疗领域的问答效果。
    的头像 发表于 05-08 11:30 1245次阅读
    首个中文<b class='flag-5'>医学知识</b>LLM:真正的赛华佗—华驼(HuaTuo)

    基于生成模型的预训练方法

    with Deep Generative Models,我认为是个挺强挺有趣的自监督方面的工作。DreamTeacher 用于从预训练的生成网络向目标图像 Backbone 进行知识蒸馏,作为一种通用的预训练机制
    的头像 发表于 08-11 09:38 977次阅读
    基于生成<b class='flag-5'>模型</b>的预<b class='flag-5'>训练方法</b>

    混合专家模型 (MoE)核心组件和训练方法介绍

    ) 的 Transformer 模型在开源人工智能社区引起了广泛关注。在本篇博文中,我们将深入探讨 MoEs 的核心组件、训练方法,以及在推理过程中需要考量的各种因素。 让我们开始吧! 简短总结 混合专家模型 (MoEs
    的头像 发表于 01-13 09:37 493次阅读
    混合专家<b class='flag-5'>模型</b> (MoE)核心组件和<b class='flag-5'>训练方法</b>介绍

    谷歌模型训练软件有哪些功能和作用

    谷歌模型训练软件主要是指ELECTRA,这是一种新的预训练方法,源自谷歌AI。ELECTRA不仅拥有BERT的优势,而且在效率上更胜一筹。
    的头像 发表于 02-29 17:37 394次阅读