来源:HIT专家网 作者:龚晨
2025年7月3日,在由全球数字经济大会组委会主办,北京协和医院、北京信息化协会信息技术应用创新工作委员会(简称“北京信创工委会”)承办的“生成式人工智能与医疗:机遇与挑战”论坛上,多位来自医院临床部门、信息部门与人工智能企业的嘉宾齐聚一堂,围绕当下业界普遍关注的生成式医疗AI的落地场景、成本、质量安全这三重挑战开深度探讨。
挑战一:如何从临床痛点出发,筛选高价值场景
“医疗大模型应用场景的选择,不能仅凭想象,也不能人云亦云、盲从跟风。”北京协和医院信息中心主任周翔说。他的另一个身份是重症医学专家。
周翔认为,当前在大型三甲医院,大模型辅助门诊病历生成的实地落地效果不如预期:医生日常接诊非常忙碌,若强制使用AI工具反增负担;从患者角度来看,相比自行填写“预问诊”信息,更倾向于与医生面对面交流。这也导致当前多数医院的“AI预问诊”使用率不足20%——这样的收效与投入相比,显然不够让人满意。
临床医生真正的痛点是什么?只有找到与其工作模式与需求高度适配的应用场景,才能挖掘出高价值的AI落地空间。周翔认为,“会诊场景”是优质的切入点之一。医生会诊时80%的时间用于整理病历,通过大模型自动生成结构化的会诊资料,可大幅缩短信息整理时间,且会诊过程本身有多学科专家参与审核,能有效控制大模型的幻觉风险。在协和实践中,该场景的医生接受度高,会诊效率提升显著。
另一个高价值场景是罕见病诊断。罕见病单病种患者稀少,但病种繁多,能诊断罕见病的医生很少,超70%的病例存在误诊、漏诊。北京协和医院研发的“协和·太初”罕见病AI大模型,采用极小样本冷启动的方式,仅需少量数据与医学知识的融合,即可实现覆盖全流程的辅助决策功能,而且使用便捷,患者与大模型多轮交互后,在短时间内即可完成问诊咨询并获得初步诊疗建议。该大模型的研发及落地应用,推动了罕见病精准诊断新范式。
在区域医疗协同中,可优先探索大模型在“目标患者精准识别”方向的潜力。有着骨肿瘤外科专家背景的四川大学华西医院信息中心主任石锐介绍,华西医院通过模型API开放能力,辅助基层医生快速发现需转诊的目标患者,避免漏诊。而且,此场景不直接涉及核心诊疗决策,风险可控,价值明显。
“人工智能最该发力的领域,应是人类不愿投入精力的重复与繁琐环节。”中山大学附属第一医院医疗大数据与人工智能研究中心主任王海波说。
医疗AI应用应聚焦“高频刚需小场景”。作为国产打印设备提供商,奔图电子有限公司研发总监蒋宝旭介绍,在服务临床方面,奔图电子采用AI技术使打印机自动适配不同纸型,减少医生操作;在服务患者方面,自助机的语音交互功能,帮助老年患者完成挂号、缴费、打印等操作;在IT运维方面,通过AI模型,预测打印机何时需要更换耗材、何时可能会出现故障等,减少工作流程断点。
挑战二:投入产出比的现实考量
在医疗AI领域,早就流传着一句名言:“前端有多智能,后端就有多人工。”生成式AI能否逃离这一窠臼?
“医疗大模型应用必须直面投入产出比的现实考量。如果见不到效益,大家的积极性难免受挫。”复旦大学附属中山医院大数据人工智能中心主任张纪阳坦承,当前全行业还处于摸索阶段,很难在一开始就将落地场景选得“又对又好”,特别是将效益问题纳入考量因素之后,往往需要在试错中逐步探索、动态筛选。
张纪阳建议,患者服务场景相对风险小,对模型规模、数据治理等方面的投入要求都会低一些,具有更优的投入产出比。复旦中山医院打造的“AI医健助手”,在院内为住院患者提供围术期咨询服务,降低因术前准备不足、术后自我护理有误导致的并发症发生率,同时有效减少院区护士的重复答疑工作量。该应用已在胃肠外科病区落地,在无人力推广情况下,每周约有30%-50%病区患者主动使用、交流推荐,获得好评。
而将大模型应用于专科诊疗,不仅前期投入规模大、回收周期长,且受限于高质量专科语料的稀缺性,一旦训练数据存在偏差,反而可能形成错误的模型认知,甚至干扰临床决策。“建议医院在这一领域的投入不妨放缓节奏,待基础条件成熟后再逐步推进。”张纪阳说。
此外,在医疗AI应用的效益评价方面,病案质控、DRG支付管理这类有明确规则框架和量化指标的场景,评价体系相对成熟,结果也更易衡量;而其他领域因涉及环节复杂、影响因素多元,效益评价仍面临不少挑战。
比如,在重点科室试点大模型应用时,先期参与试点的医生可能因AI素养较高,适应“人工+AI”的协同模式,工作效率提升明显;但推广至全科后,受医生使用习惯差异影响,效率提升效果往往难以复制。至于经济效益的量化评估,更是尚未形成统一标准,难以精准衡量。
在讨论投入产出时,算力是必须考虑的问题。中国移动成都产业研究院副总经理唐本亭介绍,中国移动建成4+N+X算力部署体系,并通过东数西算、东数西训等算力调度体系,以规模效应提升投入产出比。“不过,医疗行业有自身特点,对数据安全要求非常高,中国移动也推出了训推一体、虚拟专网等方案,在保障数据安全的基础上降低医疗算力成本。”
华为战略研究院医疗健康产业发展专家王巍建议,医疗机构算力部署需做好统一规划、分布实施,避免重复建设。针对医疗场景的分层需求,基层医院无需配置高端训练芯片,可采用低成本推理卡满足基础诊疗辅助需求,更符合投入产出的实际考量。
挑战三:质量安全是“生命线”
可解释性、透明度与临床验证标准,对构建医疗AI信任体系起到至关重要的作用。守牢医疗质量与安全的生命线,这是医疗机构、医护人员与患者接纳大模型应用的核心前提。
大模型的“幻觉”问题,与其技术底层逻辑相关。王海波谈到,大模型的核心机制是“预测下一个词”,当输入信息不完整或存在偏差时,极易产生发散性输出。“幻觉的根源在于输入信息的质量与完整性。大模型回答的可靠性,完全取决于我们收集数据的全面性和精准度。”在临床应用中,需通过RAG(检索增强生成)技术,引入权威知识库,同时借助“输出熵值”“自信区间”等技术手段,“让模型知道自己不知道”,降低幻觉风险。
可解释性不足,仍是临床信任大模型应用的主要障碍。张纪阳指出,人工智能早期发展阶段强调“收敛性”,也即“输入一致则结果必然一致”。为追求泛化能力,大模型放弃了数学层面的严密性,往往表面呈现“可解释”的输出形式,内在推理逻辑却难以形成统一标准,这在医疗领域应用时暗藏风险。“不能仅依赖模型的自我解释,必须通过人工校验的模式弥补缺陷。”他建议,未来可探索医务监管、多学科专家评审等机制,与模型解释功能形成互补,构建双重保障。
神州医疗科技股份有限公司董事长史文钊介绍,神州医疗采用“大模型+可解释小模型”融合模式,既能利用大模型提升医疗数据的提取与整合效率,又通过小模型在临床推理环节严格遵循循证医学逻辑。其核心在于联合领域顶尖专家构建专属知识库,以此约束垂直模型的输出边界。神州医疗在与复旦中山医院合作研发腹透专科大模型时,就采用了这种模式。
在当前技术条件下,医疗生成式人工智能的可解释性需达到何种临界点,才能实现投入与应用的平衡?
“大模型的边界在于与物理世界的交互。随着交互范围的扩大,包括可解释性在内的核心能力也将同步提升。”王海波将大模型比作“正在进化的认知系统”,其进阶需要“具身智能”,也即融入真实临床场景,在万千病例中积累实践经验。这一过程需依赖医院信息中心通过数据采集、治理等工作搭建完善的AI生态,让大模型在真实诊疗场景中不断接受校验、迭代进化。
为此,医院的人工智能研究和应用部门要与信息部门深度协同,前者聚焦临床需求的精准转化,后者夯实数据与算力基础,共同推动技术成熟。
“对未来越有信心,对当下越要有耐心。”与会嘉宾一致认为,医疗AI信任体系的构建无法一蹴而就,唯有经过技术迭代与临床实践的长期磨合,才能在严谨验证中稳步前行。(根据现场研讨内容整理,未经嘉宾本人审阅确认。)

精彩不容错过!
【责任编辑:陈曦】
评论前必须登录!
注册