随着人工智能(AI)技术在医疗领域的快速渗透,从辅助诊断到急诊分诊,AI系统正重塑医疗实践模式。然而,这种技术跃进也伴随着新的风险:算法偏见可能导致误诊,数据质量缺陷可能放大健康不平等,而过度依赖自动化决策可能削弱医务人员的专业判断。特别是在麻醉学、重症监护和急诊医学等高风险领域,AI系统的任何失误都可能直接危及患者生命。面对这一挑战,欧盟颁布了全球首部综合性人工智能法规——《人工智能法案》(AI Act),试图在促进创新与保障安全之间寻找平衡点。
为了厘清AI Act对医疗实践的影响,维也纳医科大学麻醉、重症监护与疼痛医学系的Oliver Kimberger教授与数字健康与患者安全领域的法律专家Elisabeth Steindl博士合作,在《An?sthesie Nachrichten》发表了深度分析。研究人员系统解读了AI Act的法律框架,特别聚焦于高风险AI系统的监管要求,并探讨了这些规定对临床工作流程、医学教育和医疗技术产业的现实意义。
本研究主要采用法律文本分析与政策影响评估方法,结合医疗AI应用的具体场景,对AI Act的关键条款进行逐条解读。研究人员参考了欧盟官方文件、行业立场声明以及现有学术文献,重点分析了法案中与医疗实践密切相关的数据治理、人类监督和透明度要求。
高风险AI系统的界定与适用范围
分析表明,AI Act采用风险分级监管模式,将医疗设备和体外诊断设备(需第三方符合性评估的)以及急诊分诊和调度系统明确归类为高风险AI系统。这类系统从2026年8月起需满足严格的安全要求,包括建立风险管理系统、保证数据质量、实施全面文档记录和确保有效的人类监督。
数据质量与治理的核心要求
研究发现,AI Act第10条对训练、验证和测试数据集提出了详尽要求。数据集必须具有代表性、尽可能无错误且完整,需涵盖系统将使用的各种地理、上下文、行为或功能条件。特别值得注意的是,法案明确允许为消除偏见而处理特殊类别个人数据(包括健康数据),这为医疗AI开发中的偏差校正提供了法律依据。
人类监督机制的具体实施
根据第14条规定,高风险AI系统必须设计成允许自然人进行有效监督。监督人员需具备理解系统能力与局限、识别自动化偏见、正确解读输出,并能在必要时决定不使用系统、忽略、覆盖或撤销系统输出的能力。这意味着医疗机构需要为相关医务人员提供专门培训并明确授权。
医学教育中AI素养的整合需求
研究指出,奥地利目前的医学教育中AI内容仍呈碎片化,缺乏系统整合。作者呼吁建立从基础课程到临床实习年的贯穿式课程,涵盖数据质量、方法论、模型局限以及临床实践技能,如安全适应症确定、”人在回路”、错误与偏见识别、性能指标解读等核心能力。
医疗技术产业的关切与挑战
从产业视角看,欧洲医疗技术组织MedTech Europe对AI Act可能带来的监管重叠、标准不协调和竞争力下降表示担忧。特别是对临床研究中”测试设备”是否被视为”投入运营”的界定模糊,可能导致监管悖论:需要研究数据来证明合规性,但进行研究本身可能已被视为需要事先合规。
医疗专业人员的即时行动指南
对医务人员而言,AI Act已产生实际影响:自2025年起,供应商和运营商需加强用户的AI素养;医疗机构应建立标准操作规程(SOP),确保人类监督的组织落实,严格按预期用途使用系统,并建立结构化事件报告系统。对于直接与患者交互的AI应用,还需履行透明度义务,告知患者正在与AI系统互动。
该研究的结论部分强调,AI Act显著扩展了所有参与方的责任范围,虽然具体实施效果尚待观察,但AI素养和扎实的数据保护知识将在数字医疗中扮演关键角色。对于医疗专业人员而言,系统掌握AI能力不仅是提升医疗质量的核心,也是履行监管义务、保障患者安全的前提。随着2026年高风险AI系统规定的全面生效,医疗机构需尽快完成系统清单梳理、培训体系建设和监督机制完善,从而在享受AI技术红利的同时,最大限度降低潜在风险。








