郑志峰: 积极应对医疗人工智能的法律风险
近年来,得益于医疗大数据、深度学习算法的迅猛发展,人工智能与大健康产业正在深度融合,覆盖医疗、医药、医学等各个领域。目前,我国相继批准了肺结节CT影像辅助检测软件、冠脉CT造影图像血管狭窄辅助分诊软件、糖尿病视网膜病变眼底图像辅助诊断软件等多款医疗人工智能产品上市。医疗人工智能依托强大的数据挖掘和深度学习能力,能够自主得出诊断结论和推荐治疗方案,广泛而深刻地影响着医疗决策的过程和结果,并且在速度、精准度方面具有强大优势,能够在相关领域提升诊疗水平、缓解医疗资源紧张的问题。
科技是发展的利器,也可能成为风险的源头。医疗人工智能的发展,为我们呈现了一个美好前景。与此同时,相较于自动驾驶汽车、人脸识别技术等,医疗人工智能直接应用于医疗活动当中,与患者的生命健康利益紧密关联,给现行法律规制提出了更大挑战。尤其是医疗损害发生后的法律责任承担以及医疗数据的保护和利用等问题存在较多不明确之处,亟待探讨解决。
第一,医疗数据的治理难题。医疗人工智能的深度学习需要收集并分析海量的、高质量的数据资源。由于医疗数据具有特殊性、隐私性,大规模的共享利用难度很大,数据孤岛的现象严重。这导致目前医疗人工智能的数据来源较为有限,常常局限于某个地区的一家或者几家医疗机构,训练数据的质量与数量还无法得到保证,这直接影响医疗人工智能的准确率和实用性。
第二,患者知情同意权的保护难题。医疗活动中的检查诊断流程是一套基于现象与结果之间因果关系的经验演绎,采取的诊断与治疗措施依据的也都是长期反复的临床经验总结。与此不同的是,医疗人工智能的核心是数据和算法,而深度学习算法本质上是一套基于统计学的数学模型,输入层与输出层更多的是基于某种概率相关性而非因果关系,由此会产生黑箱医疗问题。这意味着医疗人工智能可以给出精准的机器判断,却无法解释这些判断是如何作出的。这对于将知情同意规则视为基本原则的医疗领域来说,其中冲突该如何解决值得思考。
第三,医疗事故的责任承担难题。理想的情况下,医疗人工智能每次作出的判断都是正确的,医务人员采纳机器判断不仅不存在医疗过失,而且医疗效果更好。然而,医疗人工智能无法保证百分百安全。实践证明,医疗人工智能误诊或误操作等现象难以避免。面对医疗人工智能作出的判断,医务人员究竟是该坚持自己的判断还是采纳机器判断?如果医务人员接受或者拒绝机器判断,进而让患者受到损害的话,那么该如何认定医务人员的医疗过失?医疗人工智能又是否可以适用产品责任?传统医患关系之间发生纠纷及其责任认定问题在我国以民法典侵权编为代表的法律规定中有较为完善的规定,人工智能医疗的介入对现有医疗损害责任承担体系产生了冲击。
面对医疗人工智能带来的上述挑战,需要坚持医疗人工智能的辅助定位,通过加强解释和完善立法,建立医疗人工智能的技术准入标准,完善医疗损害的法律归责制度,平衡好患者、医务人员、医疗机构、技术设计者和生产者的利益与责任,通过配置妥当的法律规则,以安全、可靠、可控的技术产品,来保障技术发展与人民群众的健康安全。
分层分类完善医疗数据保护与利用规则。医疗数据的类型非常多样,既有患者的个人数据,如医保数据、病历数据等,也有患者与医疗机构、医疗人工智能企业共同产生的数据,如临床数据、实验数据等。其中,患者产生的医疗数据多涉及患者的隐私,属于敏感个人信息,应当遵守个人信息保护法的规定,其处理必须有特定的目的以及充分的必要性。对于各方共同产生的数据,则可以通过合理的利益分配机制,提高各方共享医疗数据的内生动力,推动医疗数据的长效利用。此外,应当重视技术解决方案,通过匿名化、去标识化、联邦学习等方法,增强医疗数据的利用价值,打破医疗数据的孤岛。
强化患者知情同意权保护。患者知情同意是医疗行为特别是侵入性医疗行为具有正当性的前提。我国民法典第1219条规定:“医务人员在诊疗活动中应当向患者说明病情和医疗措施。需要实施手术、特殊检查、特殊治疗的,医务人员应当及时向患者具体说明医疗风险、替代医疗方案等情况,并取得其明确同意。”患者对医疗人工智能应用充分知情并同意使用,才能使人工智能辅助医疗行为具有正当性。面对医疗人工智能的黑箱属性,确立医务人员的算法解释义务至关重要。这种算法解释义务应当是针对具体决策的解释,而非针对系统功能的解释,并且需要转换为患者易于理解的要素,包括决策依据、数据来源、各要素的权重等。此外,医务人员还应当扩大告知的范围,将医疗人工智能的质量控制指标告知患者,包括诊疗准确率、信息采集准确率、诊疗平均时间、重大并发症发生率等,尽可能帮助患者了解各方情况。
合理分配医疗事故责任。医疗人员是否存在过失,是认定医疗责任的核心要件之一。根据《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》的有关规定,医务人员诊疗过失的判断除适用当时医疗水平标准外,还需依据法律、行政法规、规章及其他有关诊疗规范,同时综合考虑患者病情的紧急程度、患者个体差异、当地的医疗水平、医疗机构与医务人员资质等因素。这一判断标准被称作“合理医生”标准。一方面,对于医务人员来说,无论医疗人工智能多么智能,其只能是提供辅助诊疗的工具。这意味着医务人员必须要对机器判断进行合理的再判断,否则即存在医疗过失。对此,可以通过“合理医生”标准来加以灵活判断,即医务人员在既有情况下是否尽到一位理性医生应当尽到的注意义务,如是否运用了自己的专业知识进行直接验证,是否考虑了算法成熟度、数据质量等间接因素。另一方面,虽然医疗人工智能常常以软件形式出现,但在满足一定条件时仍然可以适用产品责任。如果医疗人工智能的表现远低于医务人员,如系统频繁漏诊明显的病灶、开出的药方经常违背基本医理,根本起不到应有的辅助作用,那么可以认定其存在产品缺陷,生产者需与医疗机构共同承担产品责任。
(来源:学习时报)