大语言模型精馏用于临床信息高效提取

目标:大语言模型 (LLM) 在临床信息提取方面表现出色,但其计算需求限制了实际部署。知识蒸馏——将知识从较大模型迁移到较小模型的过程——提供了一种潜在的解决方案。我们评估了经过蒸馏的 BERT 模型在临床命名实体识别 (NER) 任务中的性能,这些模型的规模比现代大语言模型小约 1000 倍。
材料与方法:在材料与方法方面,我们利用最先进的大语言模型(Gemini 和 OpenAI 模型)和医学本体(RxNorm 和 SNOMED)作为教师标记器来提取药物、疾病和症状,并将经过蒸馏的 BERT 模型与教师标记器以及在人工标签上微调的 BERT 模型进行了比较。使用来自 MedAlign 数据集的临床病历进行了外部验证。
结果:结果显示,疾病提取的 F1 分数为 0.82(教师模型)、0.89(在人工标签上训练的 BioBERT)和 0.84(BioBERT-distilled);药物提取的 F1 分数分别为 0.84(教师模型)、0.91(BioBERT-human)和 0.87(BioBERT-distilled);症状提取的 F1 分数为 0.73(教师模型)和 0.68(BioBERT-distilled)。经过蒸馏的 BERT 模型不仅具有更快的推理速度(分别比 GPT-4o、o1-mini 和 Gemini Flash 快 12 倍、4 倍和 8 倍),而且成本更低(分别比 GPT-4o、o1-mini 和 Gemini Flash 便宜 85 倍、101 倍和 2 倍)。在外部验证数据集上,经过蒸馏的 BERT 模型实现了 0.883(药物)、0.726(疾病)和 0.699(症状)的 F1 分数。
结论:结论表明,经过蒸馏的 BERT 模型在 NER 任务上取得了与最先进的 LLM 相似的性能,但成本降低了 101 倍,速度提高了 12 倍。对于临床信息提取而言,蒸馏为大型大语言模型提供了一种计算效率高且可扩展的替代方案。

1. 论文内容

1.1 研究目标

这篇论文的研究目标是利用知识蒸馏(Knowledge Distillation)技术,将大型语言模型(Large Language Models, LLMs)在临床信息提取方面的能力迁移到更小、更高效的BERT类模型上,从而在保持高性能的同时,降低计算成本和部署难度,使其更适用于实际临床应用。

1.2 实际问题

论文指出,当前临床信息提取主要面临以下几个问题:

  • 传统的基于规则和医学本体(如UMLS)的方法虽然解释性强、计算效率高,但难以捕捉临床实体(如疾病、药物、症状)的多样化表达,包括同义词、缩写、细微描述和拼写错误。

  • 基于机器学习的方法,特别是BERT类模型,虽然性能更优,但目前的临床NER模型通常只针对特定领域或实体类型,适用范围有限。此外,微调这些模型需要大量标注数据,而标注数据的获取既昂贵又耗时。

  • 大型语言模型(LLMs)通过零样本或少样本提示(zero-shot or few-shot prompting)在临床NER任务中表现出色,减少了对大量标注数据的依赖。然而,LLMs计算资源消耗巨大,部署成本高昂,而且很多LLMs是闭源的,需要HIPAA兼容的接口来处理受保护的健康信息(Protected Health Information, PHI),这进一步增加了在医疗场景中部署的难度。

总而言之,这篇论文想要解决的实际问题是:如何在临床信息提取任务中,兼顾模型性能和计算效率,降低对大量标注数据的依赖,同时解决LLMs部署的难题。

1.3 是否是一个新问题

将知识蒸馏用于临床信息提取并不是一个全新的问题。这篇论文也提到了以前的一些相关研究,例如使用UMLS本体生成弱标签来训练BERT模型的TROVE方法。然而,这篇论文指出,现有的方法存在一些局限性:

"However, existing approaches have several limitations. First, they typically focus on single note type (e.g., discharge summaries) or single entity type (e.g., medications only), limiting their practical utility across diverse clinical settings. Second, prior work has not rigorously investigated the generalizability of distilled models through external validation using notes from different health systems and note types. Third, existing approaches rely on single teacher models rather than exploring the potential benefits of combining multiple teacher labelers that leverage both LLMs and medical ontologies."

因此,这篇论文的创新之处在于:

  1. 不局限于单一的笔记类型或实体类型,而是针对多种临床笔记类型(肿瘤学进展记录、出院总结、放射学报告、科学摘要)和多种实体类型(药物、疾病、症状)进行信息提取。

  2. 它通过在外部数据集(MedAlign)上进行验证,更严格地评估了蒸馏模型的泛化能力

  3. 探索了多种教师模型(LLMs和医学本体)的组合,而不仅仅依赖于单一的教师模型,以提高蒸馏模型的性能。

1.4 科学假设

这篇论文的核心科学假设是:通过结合多个LLMs和医学本体作为教师模型,利用知识蒸馏技术训练得到的较小的BERT类模型,可以在临床NER任务上达到与大型LLMs相媲美的性能,同时显著降低计算成本和部署难度。

1.5 相关研究及分类

论文中提到的相关研究可以归为以下几类:

  • 基于规则和医学本体的临床信息提取方法:例如使用UMLS进行字符串匹配的方法。这类方法的优点是解释性强、计算效率高,缺点是难以处理临床实体的多样化表达。

  • 基于机器学习的临床信息提取方法:例如BERT、BioBERT、ClinicalBERT等。这类方法的优点是性能好,缺点是需要大量标注数据,且通常只针对特定领域或实体类型。

  • 基于LLMs的临床信息提取方法:例如使用GPT-4进行零样本或少样本提示。这类方法的优点是性能好,对标注数据的依赖较少,缺点是计算成本高,部署难度大。

  • 基于知识蒸馏的模型压缩方法:例如将GPT-4的知识蒸馏到LLaMA,或将BERT的知识蒸馏到更小的模型。这类方法旨在将大模型的知识迁移到小模型,以降低计算成本和部署难度。

  • 医学领域的知识蒸馏应用:例如DistilFLERT和distilled PubMedBERT。这些研究表明知识蒸馏在医学领域具有应用潜力。

  • 利用弱监督进行临床信息提取的方法:例如TROVE,使用UMLS本体生成弱标签来训练BERT模型。这类方法旨在减少对大量人工标注数据的依赖。

1.6 领域内值得关注的研究员

这篇论文的通讯作者是 Nigam H. Shah 教授,他是斯坦福大学医学信息学领域的知名学者,在利用机器学习和自然语言处理技术进行临床信息提取和临床决策支持方面有丰富的研究经验。他的团队在医学领域的人工智能应用方面发表了大量有影响力的论文。

除了Nigam H. Shah教授,以下几位学者也在临床信息提取和医学人工智能领域值得关注:

  • Hua Xu:德克萨斯大学健康科学中心教授,专注于临床自然语言处理和信息提取研究。

  • Hongfang Liu:梅奥诊所教授,在生物医学文本挖掘和信息提取方面有深入研究。

  • Imon Banerjee:埃默里大学教授,研究方向包括临床自然语言处理、机器学习和医学影像分析。

2. 论文提出的新思路、方法、模型及解决方案的关键

2.1 新思路

这篇论文的主要新思路是利用多个LLMs和医学本体作为教师模型,通过知识蒸馏技术训练得到一个通用的、高效的临床NER模型。 这种方法综合了LLMs强大的零样本/少样本学习能力和医学本体的结构化知识,同时利用知识蒸馏降低了模型大小和计算成本。

2.2 方法和模型

论文提出的方法主要包括以下几个步骤:

  1. 构建教师标签数据集

    • 选择多个公开的临床数据集,涵盖不同的临床笔记类型和实体类型。

    • 使用四种LLMs(GPT-4o, GPT-4o-mini, o1-mini, Gemini 1.5 Flash)和医学本体(RxNorm, SNOMED CT)作为教师模型,对临床文本进行标注。

    • 评估所有可能的教师模型组合(31种),选择在开发集上F1分数最高的组合作为最终的教师标签生成器。

  2. 模型蒸馏

    • 将教师模型生成的标签转换为"Inside-Outside"(IO)格式。例如,“阿司匹林”可以被标注为 “阿司匹林(I-MED)”,其中"I-MED"表示这是一个药物实体。

    • 使用教师模型生成的标签,对三种BERT类模型(BERT base, BioBERT, BioClinBERT)进行微调。

  3. 模型评估

    • 在各个数据集的测试集上评估蒸馏后的BERT模型的性能,使用token级别的精确率(precision)、召回率(recall)和F1分数作为评价指标。

    • 将蒸馏模型的性能与直接使用教师模型以及使用人工标注数据微调的BERT模型进行比较。

    • 在外部数据集MedAlign上进行验证,评估模型的泛化能力。

    • 分析模型的推理时间(inference time)和成本,评估模型的效率。

2.3 解决方案的关键

这篇论文提出的解决方案的关键在于:

  • 多教师模型的组合:通过组合不同的LLMs和医学本体,可以捕捉到临床实体的不同方面,提高标注质量。论文通过实验发现,不同的教师模型组合在不同的实体类型上表现不同,例如对于症状提取,Gemini 1.5 flash + GPT-4o的组合效果最好,而对于疾病提取,o1-mini表现最好。这表明,结合多个教师模型可以提高模型的鲁棒性和准确性。

  • 知识蒸馏技术的应用:通过将大型教师模型的知识迁移到较小的BERT模型,可以在保持高性能的同时,显著降低计算成本和部署难度。论文中的实验结果表明,蒸馏后的BERT模型比LLMs快12倍,便宜101倍。

  • 针对多种临床笔记和实体类型:该方法不局限于单一的笔记类型或实体类型,而是针对多种临床笔记和实体类型进行训练和评估,提高了模型的通用性和实用性。

2.4 与之前方法的比较

与之前的方法相比,这篇论文提出的方法具有以下特点和优势:

  • 更强的通用性:以前的方法通常只针对特定类型的临床笔记或实体,而这篇论文的方法可以处理多种类型的临床笔记和实体。

  • 更好的泛化能力:通过在外部数据集上进行验证,这篇论文的方法展示了更好的泛化能力。

  • 更高的效率:通过知识蒸馏,这篇论文的方法显著降低了计算成本和部署难度,使其更适用于实际临床应用。

  • 更全面的教师模型:以前的方法通常只使用单一的教师模型,而这篇论文的方法探索了多种教师模型的组合,提高了标注质量和模型性能。

例如,与TROVE方法相比,这篇论文的方法不局限于使用UMLS本体生成弱标签,而是结合了LLMs和医学本体,可以更好地捕捉临床实体的多样化表达。与直接使用LLMs进行信息提取相比,这篇论文的方法通过知识蒸馏显著降低了计算成本和部署难度。

3. 论文的实验设计、数据、结果及对科学假设的支持

3.1 实验设计

论文的实验设计主要包括以下几个方面:

  1. 数据集选择

    • 药物提取:使用n2c2 2018 Track 2 Medication Extraction数据集,包含505个出院总结,其中303个用于训练,202个用于测试,25个用于开发。

    • 疾病提取:使用NCBI Disease Corpus,包含793个PubMed摘要,按照官方划分进行训练、开发和测试。

    • 症状提取:使用CORAL数据集,包含40个病人的去标识化进展记录,随机选择5个作为开发集,35个作为测试集,其余用于通过教师标签进行训练。

    • 为了构建教师标签数据集,除了上述数据集的训练集外,还从MIMIC-III中抽取了1000个临床笔记,涵盖不同的文档类型(进展记录、护理记录、出院总结、放射学报告)。最终的教师标签数据集包含2096个文档。

    • 外部验证:使用MedAlign数据集,包含276个病人的电子健康记录,从中抽取了不同类型的笔记(250个进展记录,129个护理记录,117个出院总结,250个手术记录)。由于MedAlign没有NER标签,两位医学生对10个随机选择的笔记进行了标注。

  2. 教师模型选择和组合

    • 选择了四种LLMs(GPT-4o, GPT-4o-mini, o1-mini, Gemini 1.5 Flash)和医学本体(RxNorm, SNOMED CT)作为教师模型。

    • 对这五种教师模型的所有可能组合(31种)进行了评估,选择在开发集上F1分数最高的组合作为最终的教师标签生成器。

  3. 模型训练

    • 对三种BERT类模型(BERT base, BioBERT, BioClinBERT)进行微调,使用教师模型生成的标签作为训练数据。

    • 使用标准的超参数设置:学习率2x10e-5,批大小8,权重衰减0.01,训练10个epoch。

  4. 模型评估

    • 在各个数据集的测试集上评估模型的性能,使用token级别的精确率、召回率和F1分数作为评价指标。

    • 将蒸馏模型的性能与直接使用教师模型以及使用人工标注数据微调的BERT模型进行比较。

    • 在MedAlign数据集上进行外部验证,评估模型的泛化能力。

    • 分析模型的推理时间和成本,评估模型的效率。

3.2 实验数据和结果

论文中报告了大量的实验数据和结果,这里列举一些关键的数据:

  • 教师模型组合的性能(表1):

    任务最佳教师模型组合F1分数
    疾病提取o1-mini0.787
    药物提取Gemini-1.5-flash + GPT-4o0.881
    症状提取Gemini-1.5-flash + GPT-4o0.801
  • 蒸馏模型、教师模型和人工标注模型的性能比较(表2):

    任务模型F1分数
    疾病提取人工标注 + BERT0.89
    教师标签 + BERT0.84
    教师模型0.82
    药物提取人工标注 + BERT0.91
    教师标签 + BERT0.87
    教师模型0.84
    症状提取教师标签 + BERT0.68
    教师模型0.73
  • 不同BERT变体的性能(表10):

    任务模型F1分数
    疾病提取BioBERT0.865
    BaseBERT0.830
    BioClinBERT0.830
    药物提取BioBERT0.890
    BaseBERT0.885
    BioClinBERT0.890
    症状提取BioBERT0.340
    BaseBERT0.330
    BioClinBERT0.340
  • 外部验证结果(表11):

    任务F1分数
    疾病提取0.726
    药物提取0.883
    症状提取0.699
  • 推理时间和成本(表4):

    模型推理时间/笔记 (秒)成本/笔记 (美元)
    蒸馏BioBERT0.140.000187
    GPT-4o1.660.0159
    o1-mini0.580.0189
    Gemini 1.5 Flash1.170.000460

3.3 对科学假设的支持

论文中的实验结果很好地支持了需要验证的科学假设

  1. 蒸馏后的BERT模型可以达到与LLMs相媲美的性能:在疾病提取和药物提取任务上,蒸馏模型的F1分数(0.84和0.87)接近甚至超过了直接使用教师模型(0.82和0.84)以及使用人工标注数据微调的BERT模型(0.89和0.91)。这表明知识蒸馏技术可以有效地将LLMs的知识迁移到较小的BERT模型,同时保持较高的性能。虽然症状提取任务上的性能还有提升空间。

  2. 蒸馏模型比LLMs更高效:蒸馏BioBERT的推理时间(0.14秒/笔记)和成本(0.000187美元/笔记)远低于LLMs(例如GPT-4o的1.66秒/笔记和0.0159美元/笔记)。这表明蒸馏模型在实际应用中更具优势。

  3. 多教师模型组合可以提高性能:论文中对不同教师模型组合的评估表明,不同的组合在不同的实体类型上表现不同,选择最佳组合可以提高模型的性能。

  4. 蒸馏模型具有一定的泛化能力:在外部数据集MedAlign上的验证结果表明,蒸馏模型对不同来源和类型的临床笔记具有一定的泛化能力,尤其是在药物和疾病提取任务上。

总而言之,论文的实验结果表明,通过结合多个LLMs和医学本体作为教师模型,利用知识蒸馏技术训练得到的较小的BERT类模型,可以在临床NER任务上达到与大型LLMs相媲美的性能,同时显著降低计算成本和部署难度,具有很好的应用前景。

4. 论文的贡献、影响、应用场景、商业机会及工程师关注点

4.1 论文的贡献

这篇论文的主要贡献在于:

  1. 提出了一种新的基于知识蒸馏的临床NER方法,该方法结合了多个LLMs和医学本体作为教师模型,可以处理多种类型的临床笔记和实体。

  2. 通过实验证明了该方法的有效性和高效性,蒸馏后的BERT模型在保持高性能的同时,显著降低了计算成本和部署难度。

  3. 评估了不同教师模型组合的性能,为如何选择和组合教师模型提供了指导。

  4. 在外部数据集上验证了模型的泛化能力,证明了该方法在实际应用中的潜力。

  5. 开源了代码, 方便其他研究者复现和改进。

4.2 论文的研究成果将给业界带来什么影响

这篇论文的研究成果将给业界带来以下几方面的影响:

  1. 推动临床信息提取技术的发展:该论文提出的方法为临床NER提供了一种新的、高效的解决方案,有助于提高临床信息提取的准确性和效率。

  2. 促进LLMs在医疗领域的应用:通过知识蒸馏技术,该论文降低了LLMs在医疗领域应用的门槛,有助于推动LLMs在临床决策支持、医学研究等方面的应用。

  3. 加速医疗信息化的进程:高效、准确的临床信息提取技术是医疗信息化的基础,该论文的研究成果有助于加速医疗信息化的进程,提高医疗服务的质量和效率。

4.3 潜在的应用场景和商业机会

这篇论文提出的方法具有广泛的应用场景和商业机会,包括:

  1. 临床决策支持:从电子病历中提取关键信息,辅助医生进行诊断和治疗决策。

  2. 临床试验患者招募:根据临床试验的入组和排除标准,从电子病历中筛选出符合条件的患者。

  3. 药物不良反应监测:从临床笔记中提取药物不良反应信息,用于药物安全性的监测和评估。

  4. 医学研究:从大量的临床文本中提取关键信息,用于疾病的流行病学研究、预后因素分析等。

  5. 医疗保险理赔:从临床记录中提取关键信息,用于医疗保险理赔的审核和处理。

  6. 开发临床信息提取工具和服务:基于该论文提出的方法,可以开发出高效、准确的临床信息提取工具和服务,提供给医疗机构、制药公司、保险公司等使用。

  7. 构建医疗知识图谱:将提取出的临床实体和关系构建成知识图谱,用于医学知识的表示、推理和应用。

4.4 工程师应该关注哪些方面

作为工程师,应该关注这篇论文的以下几个方面:

  1. 知识蒸馏技术的实现细节:了解如何将LLMs的知识蒸馏到较小的BERT模型,包括如何构建教师标签数据集、如何选择和组合教师模型、如何进行模型训练和优化等。

  2. 不同BERT变体的性能差异:论文中比较了BERT base, BioBERT和BioClinBERT三种模型的性能,工程师可以根据具体的应用场景选择合适的模型。

  3. 模型的推理时间和成本:工程师需要关注模型的效率,选择在性能和效率之间达到平衡的模型。

  4. 模型的部署方式:工程师需要考虑如何将训练好的模型部署到实际的临床环境中,例如可以将其封装成API接口,供其他系统调用。

  5. 代码复现和改进:工程师可以利用论文提供的开源代码,复现实验结果,并在此基础上进行改进和优化。

5. 未来研究方向、挑战、新技术和投资机会

5.1 值得进一步探索的问题和挑战

这篇论文的研究还存在一些局限性,未来可以从以下几个方面进行进一步的探索:

  1. 提高症状提取的性能:论文中症状提取的性能相对较低,未来可以探索更好的教师模型组合、更有效的蒸馏方法或引入更多的数据来提高性能。

  2. 处理更复杂的NER任务:论文中主要关注实体识别,未来可以扩展到更复杂的任务,例如关系抽取(例如药物-剂量关系)、事件抽取(例如手术事件)、属性识别(例如实体的极性、时态)等。

  3. 探索更有效的教师模型:论文中主要使用了几种通用的LLMs和医学本体,未来可以探索更专业的医学LLMs或其他类型的教师模型,例如基于医学知识图谱的模型。

  4. 改进知识蒸馏的方法:可以探索不同的知识蒸馏方法,例如使用对抗训练、多任务学习等技术来提高蒸馏模型的性能。

  5. 解决数据隐私和安全问题:在实际应用中,需要考虑如何保护患者的隐私和数据安全,例如可以使用联邦学习、差分隐私等技术。

  6. 模型的可解释性:提高模型的可解释性,帮助医生理解模型的决策过程,增加医生对模型的信任。

  7. 标注数据的质量和一致性问题:论文中提到,人工标注数据存在一定的错误和不一致,这会影响模型的性能。未来可以探索如何提高标注数据的质量,例如使用主动学习、众包标注等方法。

5.2 可能催生的新技术和投资机会

这篇论文的研究可能会催生以下新技术和投资机会:

  1. 更强大的医学LLMs:随着LLMs在医疗领域应用的深入,可能会出现更专业的医学LLMs,这些模型可以提供更高质量的教师标签,从而提高蒸馏模型的性能。

  2. 更先进的知识蒸馏技术:为了提高知识蒸馏的效率和效果,可能会出现更先进的知识蒸馏技术,例如基于对抗训练、多任务学习的知识蒸馏方法。

  3. 联邦学习在临床信息提取中的应用:为了解决数据隐私和安全问题,联邦学习技术可能会在临床信息提取中得到更广泛的应用。

  4. 主动学习和众包标注技术:为了提高标注数据的质量和效率,主动学习和众包标注技术可能会得到更多的关注和应用。

  5. 可解释的临床信息提取模型:为了提高模型的可解释性,可能会出现更多关注模型可解释性的研究和应用。

  6. 垂直领域的临床信息提取解决方案:针对不同的临床专科(例如肿瘤科、心脏科)和应用场景(例如临床决策支持、药物不良反应监测),可能会出现更多垂直领域的临床信息提取解决方案。

这些新技术和应用的发展,将带来大量的投资机会,例如:

  1. 投资于医学LLMs的研发:开发更强大的医学LLMs,可以为临床信息提取和其他医疗应用提供更好的支持。

  2. 投资于知识蒸馏技术的研究:开发更先进的知识蒸馏技术,可以提高模型压缩的效率和效果。

  3. 投资于基于联邦学习的临床信息提取平台:开发基于联邦学习的临床信息提取平台,可以在保护数据隐私的同时,利用多机构的数据训练模型。

  4. 投资于临床信息提取工具和服务:开发高效、准确的临床信息提取工具和服务,可以满足医疗机构、制药公司、保险公司等的需求。

6. 论文的不足、缺失及需进一步验证和存疑之处 (Critical Thinking)

6.1 论文的不足和缺失

从critical thinking的角度来看,这篇论文还存在一些不足和缺失:

  1. 症状提取的性能有待提高:论文中症状提取的F1分数只有0.68,远低于疾病提取和药物提取。这可能是由于症状的多样性和复杂性,也可能是由于CORAL数据集的标注质量问题。

  2. 缺乏对不同LLMs的prompt engineering的探索:论文中对所有LLMs使用了相同的prompt,没有针对不同的LLMs进行prompt engineering。不同的LLMs可能对prompt的格式和内容有不同的偏好,因此进行prompt engineering可能会提高教师模型的性能。

  3. 没有考虑计算资源的异构性:论文中假设所有机构都拥有相同的计算资源(4xH100 GPUs),但在实际应用中,不同机构的计算资源可能存在很大的差异。

  4. 缺乏对模型部署的详细讨论:论文中主要关注模型的训练和评估,对如何将模型部署到实际的临床环境中没有进行详细的讨论。

  5. 没有考虑伦理问题:论文中没有讨论临床信息提取可能涉及的伦理问题,例如数据隐私、算法偏见等。

  6. 测试集的标注质量存疑:论文在错误分析部分指出,模型输出的很多"假阳性"实际上是正确的,这表明测试集的标注质量可能存在问题。这会影响到模型性能评估的准确性。

6.2 需要进一步验证和存疑之处

  1. 外部验证的样本量较小:论文中在MedAlign数据集上进行外部验证时,只标注了10个笔记,样本量较小,可能无法充分评估模型的泛化能力。

  2. 教师模型组合的选择是否最优:论文中通过在开发集上评估F1分数来选择教师模型组合,但这种方法可能存在过拟合的风险。

  3. 知识蒸馏是否真的必要:论文中提到,使用人工标注数据微调的BERT模型性能最好,那么是否还需要进行知识蒸馏?知识蒸馏带来的效率提升是否足以弥补性能的损失?

  4. BioBERT是否是最佳的基础模型:BioBERT在三个任务上都取得了最佳性能,但是否还有其他更适合临床NER任务的预训练模型?



–EOF–
转载须以超链接形式标明文章原始出处和作者信息及版权声明.

No comments: