面向医学文本摘要的幻觉识别:一种基于事实核控的评估方法

在大型语言模型(LLM)对医患对话进行摘要的过程中,模型产生的幻觉内容对患者的医疗护理与临床决策制定均构成严重威胁。然而,目前临床领域对此现象的研究尚不充分,且通用领域的幻觉检测方法在临床场景的适用性尚不明确。此外,临床文本中幻觉现象的偶发性与随机性也为相关研究带来了更大挑战。

本文对医学领域的幻觉检测方法进行了评估,并为此构建了两个专用数据集:其一为基于事实控制的“N项剔除法”(Leave-N-out)数据集,该数据集通过系统性地移除源对话中的部分事实,以在摘要中诱导产生幻觉内容;其二为自然幻觉数据集,包含了在基于LLM的医学摘要生成过程中自然产生的幻觉。研究表明,通用领域的检测器在检测临床特有幻觉方面表现不佳,并且其在“事实受控型”幻觉上的检测性能,并不能可靠地推广至对“自然发生型”幻觉的识别效果。

为此,我们进一步开发了基于事实的幻觉计数方法,这种方法提供了现有检测手段所不具备的可解释性。值得注意的是,我们利用“事实受控型”幻觉数据训练的基于LLM的幻觉检测器,在检测真实临床场景下的幻觉方面展现出良好的泛化能力。本研究为学界贡献了一套由专家标注数据集支持的专用评估指标,旨在推动构建内容忠实可靠的临床摘要系统。

一、论文研究目标

  1. 研究目标与实际问题

    • 研究目标:本文旨在对医疗领域内文本摘要任务中的幻觉检测方法进行评估,并为此构建了两个专门的数据集。同时,开发并验证新的基于事实的幻觉检测方法,特别是基于LLM的方法,以期提升临床摘要系统的忠实度。
    • 实际问题
      • 大型语言模型(LLMs)在总结患者与临床医生对话时产生的幻觉 (hallucinations)(即摘要中包含源文本中未出现或被曲解的信息)对患者护理和临床决策构成重大风险
      • 临床领域中的幻觉现象研究不足,通用领域的幻觉检测器是否适用于临床尚不明确
      • 幻觉的罕见性和随机性使其研究进一步复杂化
      • 缺乏适用于临床环境、能够控制幻觉类型和程度的特定数据集,阻碍了有效幻觉检测方法的发展
  2. 是否为新问题及科学假设

    • 问题的新颖性:虽然幻觉是LLMs普遍存在的问题,但针对临床对话摘要这一特定且高风险场景的幻觉检测研究,尤其是通过事实控制方法系统性地研究和生成用于评估的数据集,是相对较新的。论文指出临床领域的幻觉现象研究不足
    • 科学假设:本文主要验证以下科学假设:
      1. RQ1 (如何评估医疗任务的幻觉检测):可以通过构建包含受控幻觉和自然幻觉的专门数据集,并使用事实比对的方法来评估幻觉检测。
      2. RQ2 (合成数据上的性能是否能迁移到真实临床数据):在事实控制的合成幻觉数据上表现良好的检测指标,不一定能可靠地预测其在自然产生的临床幻觉上的有效性 。但论文后续也证明其开发的LLM检测器可以很好地泛化
      3. RQ3 (如何最好地实现基于事实的幻觉检测):基于LLM进行多步骤的事实提取和对齐,比单一提示或传统方法能更有效地检测幻觉,并提供可解释性
  3. 相关研究与归类: 论文的“Related Work”部分回顾了多种幻觉(或事实一致性)检测方法,可归为:

    • 传统词汇和语义重叠指标:如ROUGE ,BLEU ,BERT-Score 。这类方法实现简单,但在语义理解上存在不足
    • 基于蕴含的指标 (Entailment-based metrics):如FactCC ,SummaC ,AlignScore
    • 基于问答的指标 (Question-answering based metrics):如FEQA ,QuestEval
    • 基于信息论的指标 (Information theory-based metrics):如InfoLM
    • 集成方法 (Ensemble approaches):如FENICE
    • 基于LLM的指标 (LLM-based metrics):如DocLens ,但DocLens部分依赖参考摘要,且不直接针对幻觉计数
  4. 值得关注的研究员

    • 论文作者团队:来自Amazon的Suhas BN, Han-Chin Shing, Lei Xu, Mitch Strong, Jon Burnsky, Jessica Ofor, Jordan R. Mason, Susan Chen, Sundararajan Srinivasan, Chaitanya Shivade, Jack Moriarty, Joseph Paul Cohen等。他们在医疗AI和NLP领域有深入研究。
    • 相关工作中被引用的重要研究者:如开发SummaC的Laban等人 ,开发AlignScore的Zha等人 ,开发FENICE的Scirè等人 ,以及其他在事实一致性和幻觉检测领域有开创性工作的学者。
    • 临床自然语言处理(Clinical NLP)和医疗AI安全领域的知名学者和研究机构。

二、论文的思路、方法或模型

  1. 新的思路、方法或模型

    • 数据集构建新方法
      • Leave-N-Out (LNO) 数据集:这是一种事实控制的合成幻觉数据集 。其核心思想是:
        1. 从原始临床对话的摘要中,使用LLM(如Sonnet 3.5)识别出原子事实
        2. 选择N个相互独立的原子事实。
        3. 使用LLM重写原始对话记录(transcript),确保移除这N个事实的所有相关表述,同时保持对话的自然流畅性 。摘要保持不变,从而使得摘要中包含对话记录里已被移除的事实,人为地制造了幻觉
        4. 例如,将“患者是35岁男性,患有高血压”分解为三个事实:“患者35岁”,“患者是男性”,“患者患有高血压” 。移除这些事实则N=3
        5. 这些编辑后的记录会由医学专业人员(medical scribes)验证和手动校对
      • Natural Hallucination (NH) 数据集:这是一个包含自然产生幻觉的数据集
        1. 使用不同复杂度的提示(简单、中等、复杂)和不同规模的LLM(Claude Sonnet 3.5, Mistral Large, Llama 3.1 70B和8B)生成临床摘要
        2. 临床专家对生成的摘要进行标注,将每个陈述分为:幻觉、推断(Inference)、误解(Misunderstanding)或无事实错误
        3. 将前三类错误聚合起来,得到每个摘要的错误总数,作为NH数据集中的“N”值
    • 新的幻觉检测方法 (基于事实):论文开发了多种基于LLM的事实检测方法,旨在提供可解释的幻觉计数
      • 单一提示方法 (Single Prompt Approaches)
        • Single Prompt Counting:直接提示LLM(Claude Sonnet 3.5)计算摘要中相对于对话记录未支持事实的数量
        • Single Prompt List:提示LLM列出所有未支持的原子事实,然后对列表进行计数
      • 链式提示方法 (Chain-of-Prompts Approaches):将复杂任务分解
        1. 事实提取:分别从对话记录和摘要中提取简洁、原子、独立的事实
        2. 事实对齐与计数:判断摘要中的事实是否在对话记录的事实中得到支持 。具体对齐方法有:
          • LLM Alignment:将提取出的两组事实列表输入给LLM,让其识别并计数摘要中未被对话记录事实支持的事实 。图2展示了此过程
          • Embedding Alignment:使用句子转换器(如all-MiniLM-L6-v2 或 BioBERT )计算摘要事实和对话记录事实的嵌入向量,通过计算余弦相似度并设定阈值(0.75)来判断事实是否匹配
      • 对话记录查找方法 (Transcript Lookup Approaches)
        • Embedding Transcript Lookup: 将摘要中提取的每个事实的嵌入与对话记录中每一句的嵌入进行比较,取最大相似度,若超过阈值则认为支持
        • LLM Transcript Lookup: 提示LLM将摘要中提取的事实与完整的对话记录(而非提取的事实列表)进行比较。
  2. 解决方案之关键

    • 事实控制与自然场景结合:通过LNO数据集系统性地研究特定类型的幻觉,并通过NH数据集确保方法在真实场景中的有效性
    • 基于LLM的细粒度事实比对:利用LLM强大的自然语言理解能力,将摘要和源文本分解为原子事实,并进行对齐和比较,从而识别不一致之处
    • 可解释性:与一些黑箱模型不同,基于事实计数的方法能够明确指出哪些具体事实是幻觉,增强了检测结果的可解释性
  3. 跟之前的方法相比有什么特点和优势

    • 针对临床领域的特异性:通用领域的幻觉检测器在临床领域表现不佳 。本文的方法和数据集都是针对医疗对话摘要这一特定场景设计的。
    • 可控的幻觉生成与研究:LNO数据集的创建方法允许研究人员精确控制幻觉的类型和数量,便于系统性评估检测器的能力
    • 更高的检测性能:实验结果表明,论文提出的基于LLM(特别是事实对齐)的方法在检测临床幻觉方面显著优于传统的词汇重叠、语义相似度及一些现有的基线方法 。例如,LLM Alignment在NH数据集上的相关性达到0.34-0.36
    • 更好的可解释性:与仅输出一个相似度分数的传统指标不同,论文提出的方法(如Single Prompt List, LLM Alignment)可以列出具体的幻觉内容,如图2所示 ,这对于理解和修复幻觉至关重要。
    • 对高危幻觉的关注:论文特别关注并评估了对患者护理有重大影响的高危类别幻觉(如诊断、治疗计划相关的幻觉)的检测性能

三、论文实验设计

  1. 实验设计

    • 数据集
      • Leave-N-Out (LNO) Dataset:基于ACI-Bench数据集 构建,通过LLM从摘要中识别原子事实,并重写对话记录以移除N个事实,摘要保持不变,从而引入受控幻觉 。共生成570个修改后的对话记录
      • Natural Hallucination (NH) Dataset:同样源于ACI-Bench,使用不同LLM和提示复杂度生成摘要,由临床专家标注幻觉、推断、误解等错误
      • XSum Hallucination Annotations:一个新闻摘要数据集,用于跨领域验证幻觉检测方法 。包含500篇文章,每篇对应5个LLM生成的摘要,共2500对,每对有3个独立判断
    • 评估方法
      • 主要评估指标是幻觉检测方法输出的幻觉分数/数量与数据集中预设的被移除事实数量 (N for LNO) 或专家标注的错误总数 (N for NH) 之间的皮尔逊相关性 (Pearson correlation) 。越高的(绝对值)相关性表明检测方法越能准确反映幻觉的程度。
      • 对高危类别幻觉的检测性能也进行了单独评估和报告
    • 对比方法 (Baselines):包括传统的ROUGE ,BLEU,BERT-Score ,以及更先进的FactCC ,SummaC ,AlignScore ,QuestEval ,InfoLM ,FENICE
    • 提出的方法:包括单一提示计数/列表,以及链式提示中的LLM对齐和嵌入对齐,还有对话记录查找方法和纯语义相似度方法。
  2. 实验数据和结果 (关键数据和引用见Table 1 )

    • 基线方法表现
      • 大多数现有指标在检测临床幻觉方面表现不佳,尤其是在NH数据集上
      • FENICE在LNO上相关性最高 (0.45),但在NH上降至0.10
      • SummaC_ZS 在LNO上相关性为0.20,但在NH上显著下降
      • AlignScore在LNO上相关性为0.15,但在NH上表现不佳
    • 提出的LLM单一提示方法
      • Single Prompt Counting在LNO上相关性为0.34,NH上为0.09
      • Single Prompt List在LNO上为0.13,NH上为0.15
      • 作者认为单一提示方法表现尚可,但可能因任务过载而性能未达最优
    • 提出的LLM链式提示方法 (事实提取+对齐)
      • Sum. & Transcript Fact Extract + LLM Alignment (即事实提取后用LLM做对齐) 表现最佳:LNO相关性0.43,LNO高危相关性0.41,NH相关性0.34,NH高危相关性0.36,XSum相关性0.19 。作者认为这种方法聚焦核心事实,减少了噪音,简化了分析,从而提升了性能和效率
      • Sum. & Transcript Fact Extract + Emb. Alignment (miniLM):LNO 0.43 (原文表格此处为3.43,疑似笔误,应为0.43),NH 0.29
      • Sum. & Transcript Fact Extract + Emb. Alignment (bioBERT):LNO 0.42,NH 0.33
    • 提出的对话记录查找方法 (摘要事实提取+完整对话记录比对)
      • 使用完整对话记录进行查找,效果反而不如基于提取事实的对齐方法 。例如,Sum. Fact Extract + LLM Transcript Lookup 在LNO上相关性0.22,NH上0.12 。作者推测可能是当前查找方法未能有效利用上下文信息,或事实对齐通过减少搜索空间和增加信息密度使LLM能更高效地关注不一致性
    • 语义相似度(无事实提取,句对句比较)
      • Semantic Emb. Similarity Score (miniLM) 在LNO上0.30,NH上0.15
      • 表现优于BERTScore,可能是因为更严格的句子级别匹配和基于精度的度量使其对细微幻觉更敏感
  3. 对科学假设的支持

    • RQ1 (如何评估医疗任务的幻觉检测):通过构建LNO和NH这两个特点鲜明的数据集,并采用与“真实幻觉数量”的相关性作为主要评价标准,论文提供了一套可行的评估框架。LNO数据集的成功构建和应用本身就支持了这一假设。
    • RQ2 (合成数据上的性能是否能迁移到真实临床数据):实验结果部分支持了这一复杂假设。一些在LNO上表现尚可的基线方法(如FENICE)在NH上表现大幅下降 ,说明LNO上的高分不总能迁移。然而,论文提出的基于LLM的特定方法(如事实对齐)在LNO和NH上均表现出较好的泛化能力(例如,LLM Alignment在LNO和NH上相关性分别为0.43和0.34/0.36),表明如果方法本身足够鲁棒且关注核心事实,迁移是可能的。
    • RQ3 (如何最好地实现基于事实的幻觉检测):实验结果强烈支持基于LLM的链式提示(特别是事实提取+LLM对齐)是实现基于事实幻觉检测的较好方法 。它不仅性能优越,而且如图2所示,提供了明确的幻觉事实列表,具有良好的可解释性

四、论文贡献

  1. 论文贡献

    • 创新的数据集构建方法:提出了事实控制的Leave-N-Out (LNO) 方法,能够系统性地生成用于评估幻觉检测的领域特定基准数据集,解决了自然幻觉难以大量获取的问题
    • 临床幻觉数据集:构建并提供了两个新的专门用于临床对话摘要幻觉检测的数据集 (LNO 和 NH),填补了该领域的空白 。其中一部分已在线提供
    • 对现有检测方法的全面评估:系统评估了多种基线幻觉检测方法在临床领域的表现,揭示了它们在检测临床幻觉方面的局限性
    • 有效的基于事实的LLM检测方法:开发并验证了新的基于LLM的幻觉检测方法,特别是链式提示中的事实对齐 (Fact Alignment),这些方法在临床幻觉检测上表现出优越性能和良好的泛化能力,并提供可解释性
    • 推动临床摘要系统忠实度:为提升临床摘要系统的准确性和可靠性提供了新的评估工具和方法论,有助于开发更安全的医疗AI应用
  2. 业界影响

    • 提高对医疗AI幻觉问题的重视:论文突出了临床摘要中幻觉的风险以及当前检测手段的不足,将促使业界更加关注并投入资源解决这一问题。
    • 指导幻觉检测器的开发与选型:研究结果为医疗AI开发者在选择或设计幻觉检测模块时提供了重要参考,表明基于LLM的事实核查方法是未来趋势。
    • 促进医疗AI的标准化评估:LNO和NH这样的数据集和评估框架,有助于建立更标准化的医疗AI幻觉评估流程,方便不同模型和方法进行公平比较。
    • 加速可信医疗AI的落地:通过提供更有效的幻觉检测手段,降低AI在临床应用中的风险,从而增强医生和患者对AI系统的信任,加速其在医疗实践中的应用。
  3. 潜在的应用场景和商业机会

    • 临床对话摘要系统的质控模块:将论文中提出的高效幻觉检测方法(如LLM事实对齐)集成到自动生成SOAP笔记或其他临床文档的AI系统中,作为实时的质量控制和风险预警模块。
      • 商业机会:为医疗AI软件供应商提供幻觉检测API或SDK;开发独立的医疗文本事实核查工具。
    • 医疗AI模型的基准测试和认证服务
      • 场景:利用LNO和NH这类数据集或类似方法,为第三方医疗AI模型提供幻觉评估和基准测试服务。
      • 商业机会:成立医疗AI模型测评和认证机构。
    • 自动化临床试验数据核查:在临床试验中,大量文本数据(如不良事件报告、研究者笔记)的准确性至关重要。幻觉检测技术可用于辅助核查这些文档的事实一致性。
    • 医学教育和培训:利用LNO数据集的生成方法,创建包含特定“错误”的教学案例,用于培训医学生或AI模型识别和处理信息不一致问题。
    • “负责任的AI”咨询服务:针对医疗机构和AI开发者,提供关于如何设计、部署和监控能减少幻觉、确保事实准确性的AI系统的咨询服务。
  4. 作为工程师应该关注的方面

    • LLM作为评估工具的应用 (LLM-as-a-judge):深入理解如何设计有效的提示(prompt engineering)来引导LLM进行事实提取、比对和幻觉判断。关注链式提示(Chain-of-Prompts)的思路。
    • 事实的定义与提取:关注如何将复杂的医学陈述分解为“原子事实” 。这涉及到语义理解、信息抽取等NLP技术。论文也指出这是个难点
    • 嵌入技术与语义相似度计算:理解如何使用句子嵌入(如MiniLM, BioBERT )来衡量事实之间的语义相似性,以及如何选择合适的模型和相似度阈值
    • 数据集构建与增强技术:学习LNO数据集的构建思路,即通过程序化或半程序化的方式修改源数据以生成特定类型的训练/评估样本。
    • 模型泛化能力评估:关注模型在不同类型数据集(如LNO vs. NH,医疗领域 vs. XSum)上的表现差异,理解如何评估和提升模型的泛化能力。
    • 可解释性AI (XAI):论文强调其方法提供了可解释性 。关注如何让AI的判断过程更透明,不仅仅是给出一个分数,而是能指出问题所在。
    • 错误分析与迭代优化:理解不同幻觉检测方法的优劣(如Table 1所示 ),例如为何“Transcript Lookup”表现不如预期 ,以及如何根据错误分析来改进模型或方法。
    • 计算效率与成本:LLM评估方法虽然效果好,但计算成本高 。关注如何平衡效果与效率,例如使用更小的专用模型,或优化提示策略。

五、值得进一步探索的问题和挑战

  1. 值得进一步探索的问题和挑战

    • 更细粒度的幻觉分类与检测:目前的NH数据集将幻觉、推断和误解归为一类错误 。未来可以研究更细致的错误类型(如实体混淆、关系错误、时序错乱等)及其针对性的检测方法。
    • 幻觉的自动修正:不仅仅是检测幻觉,更进一步研究如何自动或半自动地修正摘要中的幻觉内容,使其与源文本事实一致。
    • 多模态幻觉检测:临床信息往往是多模态的(如文本、影像、检验数据)。研究如何检测在融合多模态信息生成的摘要中的幻觉。
    • 个性化与上下文感知幻觉检测:幻觉的严重性可能取决于患者的具体情况和当前的临床上下文。研究如何让幻觉检测更具个性化和上下文感知能力。
    • 提高对隐晦和复杂幻觉的检测能力:某些幻觉可能非常微妙,或者需要深层次的医学知识和推理才能发现。如何提升模型对这类复杂幻觉的敏感度。
    • 解决事实定义和提取的模糊性:论文提到这是个限制 。如何更标准化、更准确地定义和提取“原子事实”是一个持续的挑战。
    • 降低高性能幻觉检测的成本:如何开发出既准确又高效(计算成本低)的幻觉检测方法,使其能广泛部署于实际应用中。
    • 用户信任与交互:即使用高精度的检测器,如何将检测结果有效地呈现给临床医生,并建立他们对系统的信任,是一个人机交互和界面设计的问题。
  2. 可能催生的新技术和投资机会

    • 高级幻觉检测与修正平台
      • 新技术:集成细粒度幻觉分类、自动修正建议、上下文感知风险评估等功能的综合性平台。
      • 投资机会:专注于医疗AI安全和质量保证的SaaS公司。
    • 可信多模态医疗AI系统
      • 新技术:能够有效融合和交叉验证来自文本、影像、EHR等多源医疗数据,并内置强大幻觉检测与防御机制的AI系统。
      • 投资机会:研发下一代多模态医疗诊断或决策支持系统的公司。
    • 自动化医疗数据注释与增强工具
      • 新技术:利用AI辅助(甚至部分自动化)临床文本和多模态数据的注释,特别是针对幻觉、事实一致性等细粒度标签;以及类似LNO的、可定制化的合成数据生成工具。
      • 投资机会:医疗数据服务公司,AI数据解决方案提供商。
    • 轻量级、高效的端侧幻觉检测模型
      • 新技术:通过模型压缩、知识蒸馏等技术,将强大的幻觉检测能力部署到边缘设备或嵌入到现有医疗软件中,实现低延迟、保护隐私的检测。
      • 投资机会:专注于边缘AI和高效模型部署的公司。
    • “AI审计员”与“AI可解释性”工具
      • 新技术:专门用于审计医疗AI系统(特别是LLM应用)是否存在幻觉、偏见等风险的工具;以及能清晰解释AI何以做出特定判断或标记某个内容为幻觉的XAI工具。
      • 投资机会:AI伦理、合规和可解释性技术公司。

六、论文存在哪些不足及缺失

  1. 论文本身的潜在不足及缺失

    • LNO数据集的局限性:虽然LNO通过事实移除创造了受控幻觉,但这种“移除型”幻觉可能无法完全代表所有自然幻觉的复杂性,例如模型凭空捏造原文完全没有提及的信息(extrinsic hallucination的一种),或对原文信息进行过度引申和错误推理。论文提到XSum有区分intrinsic和extrinsic hallucination ,但LNO似乎主要关注前者(摘要中的事实在修改后的原文中找不到对应)。
    • NH数据集中“N”值定义的粗糙度:将幻觉、推断和误解三类错误简单相加作为错误总数“N” ,可能掩盖了不同错误类型的特性及其对检测方法难度的不同影响。例如,检测明显的凭空捏造可能比检测基于原文的细微误解更容易(或更难)。
    • 对“高危幻觉”定义的依赖性:将除“年龄和性别”外的所有类别都视为高危 ,虽然合理,但不同“高危”类别之间的实际风险差异可能很大。例如,一个错误的诊断和一个错误的检查结果都属高危,但其具体影响和检测难度可能不同。
    • LLM评估的主观性和LLM自身偏见:论文中大量使用LLM(Sonnet 3.5)进行事实提取、对话记录重写以及部分检测方法的实现 。这些过程可能受到所用LLM自身能力、潜在偏见或提示设计的影响。
    • 跨领域验证的深度:虽然使用了XSum进行跨领域验证 ,但XSum的幻觉类型和标注标准(二元分类 )与医疗领域的细粒度错误分类有所不同,这可能影响比较的直接性。在XSum上的相关性普遍低于医疗数据集,也可能暗示了这一点。
    • 对计算成本的讨论不足:论文提及LLM评估方法计算昂贵是其局限性之一 ,但未提供各种提出的LLM检测方法的具体计算开销对比,这使得难以评估其在实际大规模应用中的可行性。
  2. 需要进一步验证和存疑之处

    • LNO数据集能否有效泛化到所有类型的自然幻觉:论文提到LNO有助于方法开发,但其上表现好不总能迁移到NH 。需要更深入分析LNO数据与真实世界中各种微妙、复杂幻觉的差距。
    • “事实对齐”方法对事实提取质量的敏感度:LLM Alignment等方法依赖于第一步的事实提取 。如果事实提取不准确或不完整(论文也承认这是个挑战 ),后续的对齐和计数准确性会受到多大影响?
    • 在不同LLM上的可复现性:论文提出的检测方法(特别是LLM Alignment)主要基于Claude Sonnet 3.5 。这些方法在其他LLM(如GPT系列、开源模型)上的表现如何,是否依然有效,需要验证。
    • 阈值选择的鲁棒性:对于Embedding Alignment等方法,相似度阈值(如0.75 )的选择对结果影响很大。这个阈值是如何确定的?在不同数据集或场景下是否需要调整?其鲁棒性如何?
    • “Transcript Lookup”表现不佳的深层原因:论文推测了几个原因 ,但为何提供更多上下文(完整对话记录)反而导致性能下降,值得更深入探究。是LLM难以在长文本中精确定位信息,还是当前的提示策略不适合这种场景?
    • 对“推断”和“误解”的界定与处理:在NH数据集中,这两类与“幻觉”一起被视为错误 。但在某些临床情境下,合理的推断可能是允许甚至有益的。如何区分有害的错误推断/误解与合理的临床判断,以及检测方法对此的敏感性,是存疑的。
    • 真实临床工作流程中的实用性:即使检测方法准确率高,它们能否无缝集成到快节奏的临床工作流程中,并被医生有效利用,而不增加额外负担,仍需实际检验。

–EOF–
转载须以超链接形式标明文章原始出处和作者信息及版权声明.

No comments: