更严峻的风险在于制度性错配:一旦AI生成内容未经人工实质性复核即被系统自动标记为"已签署病历",并进入HIS归档、医保结算与司法存证流程,便意味着一段由非执业主体产出的文字,获得了等同于医师亲笔签名的法律效力。而现行法规体系中,既无AI的执业许可,亦无算法开发方的医疗过错连带责任认定机制。当一个被默认采纳的AI诊断建议导致误治,追责链条极易坍缩为"黑箱输出-厂商免责协议-医生'形式签字'"的真空断层--最终承担代价的,永远是躺在病床上的活生生的人。
张文宏以临床中极具张力的案例直指技术盲区:一位接受CAR-T治疗的淋巴瘤患者突发发热伴低氧,血常规显示白细胞正常但中性粒细胞比例下降。若AI病历系统仅依据"发热+肺部影像异常"模板推送"社区获得性肺炎"诊断,便可能掩盖其真实的细胞因子释放综合征(CRS)或噬血样反应--前者需紧急托珠单抗干预,后者则需激素冲击。此类高度依赖"病程动态解读"与"治疗背景解码"的临床判断,恰是当前任何大语言模型或视觉识别系统尚无法内化的"情境智能"。
数据主权问题亦不容轻忽。病历文本是健康信息的"皇冠数据",其敏感性远超一般个人信息:既包含基因倾向、精神诊疗、传染病史等法定敏感字段,也隐含家庭关系、经济状况、社会支持等脆弱性标识。若AI服务提供商以"优化模型性能"为由,将脱敏不彻底的病历片段用于外部训练;或在未获患者逐项明示授权、未建立独立数据沙箱与联邦学习架构的前提下接入云端推理服务,则不仅触碰《个人信息保护法》第28条红线,更可能动摇公立医疗机构作为健康数据"守门人"的公信根基--某些商业模型正悄然构建"临床数据喂养-产品迭代加速-市场壁垒加厚"的闭环,实则是将全民健康资产转化为私有算法优势。










