锚定技术、数据、伦理三轮驱动,近年来犹如雨后春笋般涌现的医疗大模型,表明医疗领域正成为人工智能最具应用潜力的商业蓝海之一。
从“可用”迈向“可靠”逐步解决“幻觉”难题
“医疗大模型应用空间广泛,其落地方向包括:做医生的成长工具,通过医疗大模型的使用降低医生的培训成本;做患者的管理工具,借助医疗大模型打造直接面向消费者的AI健康智能体;释放医生时间和精力,让医生更多参与到审核环节,而非全流程操作。”京东健康探索研究院首席科学家王国鑫说。
医疗大模型的“可用”与“幻觉”问题的逐步解决密切相关。在技术层面,传统AI大模型由于数据噪声和知识盲区容易产生“幻觉”,一旦模型在生成内容时出现偏差,医疗场景中的错误推断将导致严重后果。
对此,技术人员通过多种方式消除大模型“幻觉”:一是设立“安全围栏”,限制模型处理超出能力范围的问题;二是广泛使用外部工具,以实时内容为核心,补充人工智能对当前情境的理解;三是从模型底层能力入手。
“前两种方式是抑制幻觉,后一种是实现推理过程白盒化,即便有错误也可以被人识别。”王国鑫介绍,目前,这三种方式相互配合,可在一定程度上抑制“幻觉”问题。
DeepSeek助力高质量数据成关键支撑
降低技术门槛、优化模型部署效率……作为国产开源大模型,DeepSeek为医疗大模型落地提供了重要突破口:医院可采用“大模型基座+小样本微调+专业知识融合”的方式,直接基于DeepSeek进行微调。
“这并非传统意义上从零训练,而是仅需较小数据和计算资源就能快速开发适用于自身场景的AI应用。”复旦大学附属儿科医院副院长张晓波介绍。但她也认识到,想要训练出高质量医疗大模型,仍需综合运用大规模高质量数据资源。
受访业内人士表示,医疗大模型最需要的真实医疗数据是临床专家的应用数据以及临床医生的培训数据,这部分数据往往是以多模态的形式存放在不同的医疗机构。
“先进的数据蒸馏技术能大幅提升模型表现。”北京大学信息科学技术学院研究员杨仝建议,统一数据格式,提高数据互操作性,并请医学专家深度参与数据蒸馏过程。
“专家团队要准确记录患者的症状、体征、诊断过程、治疗方案以及治疗效果等信息,并对其中的关键信息进行标注和解读,通过人机协同优化模型诊断能力。”麒麟合盛网络技术股份有限公司董事长兼首席执行官李涛表示,可通过开展医学研究项目,邀请专家共同参与,收集更多有价值的医疗数据。
完善治理体系筑牢安全与伦理防线
在将大模型应用于医疗的过程中,伦理风险始终受到业界重点关注。中国工程院院士、清华大学临床医学院(北京清华长庚医院)院长董家鸿分析,大模型本质上是一种统计模型,难免会产生事实错误、逻辑错误等,模型的“黑箱”特性使医疗决策逻辑难以被理解,增加了伦理审查的难度。
受访业内人士表示,医疗大模型伦理风险治理的复杂性源于其需同时考虑医学伦理与科技伦理两个维度,所处视角不同,且均涉及复杂而广泛的问题,并存在彼此交叉,亟待“多维”规范。
第一,在医疗等需要透明度的领域,大模型需提高解释性,帮助用户理解决策过程和建立信任,并通过使用多样化的数据集和开发新算法,确保模型在不同人群中的公平表现,消除潜在的偏见与歧视。
第二,应构建贯穿技术全生命周期的伦理治理闭环,以“科技向善”为原则打造智慧医疗新范式。
第三,医疗数据大多涉及患者隐私,大模型未来的发展趋势必将强化数据隐私保护措施。