问题——人工智能加速进入诊疗、影像、管理等场景,正在重塑医疗服务模式,但医疗活动具有高度专业性、强伦理约束和高风险特征,一旦技术应用安全底线失守,轻则造成诊疗质量波动与资源浪费,重则可能危及患者生命。
全国政协委员、中国科学院院士、浙江大学医学院附属第二医院院长王建安表示,当前人工智能医疗在从试点走向规模化的关键阶段,安全保障体系建设必须同步提速,不能“先上车后补票”。
原因——王建安在调研中发现,风险主要来自四方面:一是算法可解释性不足,关键决策路径不透明,容易形成“看似正确但难以论证”的输出,临床医生难以快速判断其与患者具体病情是否匹配,从而影响在急危重症和高风险操作中的可用性与可控性。
二是数据安全与隐私保护压力持续上升,医疗数据高度敏感且具有可关联特征,若分类分级不清、脱敏不当或流转链条过长,可能出现“再识别”与越权访问。
三是模型上线后的持续监测与审计机制不健全,更新迭代频繁但缺少统一的评估尺度与留痕要求,容易形成监管盲区。
四是网络与对抗攻击风险上升,医疗系统正成为高价值目标,一旦通过对抗样本、参数篡改等方式干扰模型输出,可能直接影响诊断建议与处置路径。
影响——从行业层面看,安全隐患若得不到有效控制,将抬高医疗机构应用门槛,延缓成熟产品从“点状示范”迈向“系统普及”,并可能在个别事件中放大社会风险,削弱公众对数字化医疗的信任。
从发展层面看,权威机构预测,全球人工智能医疗相关市场在2030年前后有望达到约3万亿元规模、保持较快增长。
我国以公立医院为主体的医疗服务体系在数据规模、场景丰富度、组织动员与协同治理方面具备优势,在单点应用上积累较好基础,但要在新赛道实现从“并跑”到“领跑”,必须把安全、合规、伦理作为可持续竞争力的重要组成部分。
对策——围绕“可解释、可追溯、可审核”的核心要求,王建安提出三方面建议:其一,建立医疗人工智能安全可追溯强制标准,针对高风险应用设置更严格准入条件,将可解释性评估、证据链留存、责任边界划分等纳入产品注册、采购和临床使用的关键环节,做到“能用、好用、用得明白”。
其二,强化医疗数据全链条安全治理,完善数据分类分级与授权使用制度,明确采集、存储、加工、调用、共享、销毁各环节责任,推广“数据可用不可见”的技术路线,降低隐私泄露和再识别风险。
其三,构建覆盖研发、测试、部署、运行、更新的全生命周期监管体系,对模型漂移、性能衰减、异常输出设置监测预警与复核机制,强化第三方测评与安全审计,并将关键医疗人工智能系统纳入重点保护范围,提高对网络攻击与恶意篡改的防护能力。
前景——王建安认为,人工智能赋能医疗既是提升诊疗效率与服务均衡的重要抓手,也是我国卫生健康事业实现跨越式发展的战略机遇。
随着标准体系更完善、数据治理更规范、监管机制更细密,人工智能将在辅助诊断、疾病预测、临床决策支持、慢病管理和医院精细化运营等方面释放更大潜力。
同时,应坚持以临床需求为牵引、以患者权益为中心,推动“技术进步”与“风险可控”同向发力,使创新成果真正转化为可感可及的健康收益。
医疗AI的发展正处在关键机遇期,安全与发展如同车之两轮,必须协同推进。
只有筑牢安全底座,才能让技术创新行稳致远,真正实现"健康中国"战略下医疗服务质量的全面提升。
这既需要政策引导,也需要行业自律,更需要全社会形成对技术应用的理性认知,共同守护医疗安全的生命线。