欢迎访问智慧医疗网 | 网站首页
 
当前位置:首页 > 资讯 > 观点

AI时代的卫生健康新机遇⑥ | 我国医疗AI治理体系的发展与展望

发布时间:2025-06-20 来源:中国卫生杂志 浏览量: 字号:【加大】【减小】 手机上观看

打开手机扫描二维码
即可在手机端查看

忽如一夜春风来,人工智能(AI)正以惊人的速度改变着世界。“智变”必将引发“质变”。我们应以何种姿态进入AI纪元,让AI成为撬动行业变革的杠杆?当技术一路飞奔,我们又该如何守住数据安全的底线、筑起伦理的护栏?近日,我们邀请相关研究机构和高校专家,请他们分享观察与思考。

生成式人工智能(AI)技术的出现,正促使各行各业进行升级和重构。在医疗健康这一关乎人类生命安全的特殊领域,AI的治理工作凸显出其复杂性和独特性。当前,相关部门正在按照AI发展规律构建、完善其使用规则和监管框架,以规范AI技术的合理应用,并推动医疗健康事业的有序发展。

我国医疗AI治理体系的发展方向
当前,我国对医疗AI有着严格的管控机制,在审评要点、指导原则、质量管理体系等方面出台了多项政策,严格约束AI在医疗中的使用规范,为AI医疗领域建立风险可控的发展路径。相关的法律法规建设呈现出以下三个显著的发展方向。
从分散管理到系统规范
早期政策《中华人民共和国网络安全法》(2017)从数据安全角度单方面切入,其中第21条明确要求网络运营者采取数据分类、重要数据备份和加密等措施;第37条则首次提出“关键信息基础设施运营者在中华人民共和国境内运营中收集和产生的个人信息和重要数据应当在境内存储”的要求,这对医疗AI企业处理CT、MRI等影像数据产生了直接影响。
2021年出台的《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》形成了“数据采集——处理——应用”的全链条监管。《中华人民共和国个人信息保护法》第28条将医疗健康信息列为“敏感个人信息”,要求处理此类信息需取得个人单独同意,并告知处理的必要性及对个人权益的影响。该法第24条还对自动化决策做出专门规定,要求保证决策的透明度和结果公平公正,这对AI辅助诊断系统的算法设计提出了明确要求。
《国家AI产业综合标准化体系建设指南(2024版)》的出台,标志着AI监管向标准化、体系化方向发展。该指南详细列出了基础共性标准、关键技术标准、产品服务标准、行业应用标准等,这些都为AI在医疗行业的应用提供了依据和标准。
从安全底线到创新促进
政策导向已从单纯防范风险转向安全与发展并重,2019年科技部发布《国家新一代AI创新发展试验区建设工作指引》,支持北京、上海、深圳等城市建设AI试验区,推动场景创新和产业集聚,同时对企业给予税收优惠。2021年修订的《中华人民共和国科学技术进步法》第103条中,要求建立科技伦理委员会,为AI医疗创新划定伦理边界;在第38条新增“引导建立社会化、专业化、网络化、信息化和智能化的技术交易服务体系和创新创业服务体系,推动科技成果的应用和推广。”的表述,说明国家在保障安全的同时,更注重发展和应用。
从国内治理到国际协同
2017年国务院印发《新一代AI发展规划》,这是我国首个系统性AI战略文件,提出了“三步走”目标,即:2020年AI总体技术与世界先进水平同步;2025年AI基础理论实现重大突破;2030年成为世界主要AI创新中心。
此外,2023年我国提出的《全球AI治理倡议》指出,AI治理攸关全人类命运,是世界各国面临的共同课题。在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重的原则,通过对话与合作凝聚共识,构建开放、公正、有效的治理机制,促使AI技术造福于人类,推动构建人类命运共同体。协议一经提出,就获得了世界各国的响应,到目前为止,多个国家和组织公开支持该倡议并签署了协议,这也表明我国的AI治理已走到了国际舞台的前沿。
我国医疗AI治理体系的最新进展
当前,我国医疗AI领域问题最为突出的是AI立法缺失、数据安全问题和伦理问题。近年来,治理体系围绕三个方面开展了一系列的工作。
在产品准入方面,2023年4月,国家互联网信息办公室就《生成式AI服务管理办法(征求意见稿)》公开征求意见,率先就生成式AI监管这一议题给出中国方案。在AI法未立法之前,为了适应社会需求,各部门出台了很多相应的管理制度和政策。国家药品监督管理局2021年发布《AI医用软件产品分类界定指导原则》,将AI软件分为三类管理,细化了AI医疗产品审批标准。2022年,国家药监局器审中心发布了《AI医疗器械注册审查指导原则》,规范了AI医疗器械的注册申报资料和技术审评要求,以确保产品的安全性和有效性。
在数据治理方面,医疗AI的发展高度依赖海量的患者医疗数据,这些数据包含敏感个人信息(如基因、病史),因此,匿名化处理不足或数据泄露可能导致法律纠纷和伦理危机。
为解决相应的问题,除了提高技术能力、开放共享程度,更需要一个统一的标准,在此方面中国电子商会发布了一项数据分类团体标准,根据医疗健康数据的影响对象和影响程度,并参考数据重要程度、敏感程度、数据规模、数据精度等因素,确定医疗健康数据的安全等级。国家卫生健康委发布的《卫生健康行业数据分类分级指南》明确了责任“谁管业务,谁管数据,谁管数据安全”,并将数据分为三级:核心数据——基因序列、罕见病病例等(禁止出境);重要数据——住院病历、体检报告等(安全评估后可出境);一般数据——挂号信息、健康科普等(可自由流动),并针对各类数据制定了相应的管理办法。
在伦理规范方面,现有的医学伦理审查规范在AI医疗领域存在很多空白,无法全面涵盖AI技术应用所带来的伦理问题。例如,在AI算法的设计和应用过程中,可能存在算法偏见,导致对某些特定人群的不公平对待;在AI误诊或技术故障发生时,如何界定开发者、医疗机构和医生的责任,缺乏明确的法律规范等。
我国《新一代AI发展规划》提出了建立AI伦理框架,强调医疗领域需保障数据安全。2023年由中国电子技术标准化研究院发布的《AI伦理治理标准化指南》要求医疗AI系统需通过伦理审查,确保透明可追溯。同年5月科技部发布了《人类遗传资源管理条例实施细则》,对AI医疗研究做出特别规定:使用500例以上基因数据需伦理审查,跨国合作研究需科技部备案,数据出境需通过安全评估。
在责任划分方面,《中华人民共和国民法典》中规定,若AI产品缺陷致损,生产者承担无过错责任,但医生“合理使用”可免责。某些地区的政策中要求医院保留AI决策日志,作为责任判定依据。
我国医疗AI治理体系的运用前景
综上,我国的AI治理体系还需要进一步完善。在法律法规与标准建设方面,一要完善《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》在医疗领域的实施细则,制定医疗AI专用法规。二是要推动医疗AI算法、数据标注、系统测试等全流程标准化,建立统一的伦理审查框架。
在数据安全与隐私保护方面,要建立医疗数据分级分类管理制度,明确医疗机构、企业和患者的数据权限。在伦理与公平性保障方面,要防范对特定人群误诊风险的算法偏见,确保医疗资源的公平可及。在动态监管与多方协同方面,要求政府、医疗机构、科技企业、伦理委员会和公众共同参与,共同制定治理规则。
医疗AI将逐步从“替代人力”转向“增强人力”,提升医疗质量、降低医疗成本和促进公平,成为“健康中国”战略的重要支柱。医疗AI治理体系的建设则需在技术创新与风险管控之间找到平衡,才能朝着更加规范化、透明化的方向发展。


作者:锦州医科大学健康管理现代产业学院副院长 胡树煜

特别声明:智慧医疗网转载其他网站内容,出于传递更多信息而非盈利之目的,同时并不代表赞成其观点或证实其描述,内容仅供参考。版权归原作者所有,若有侵权,请联系我们删除。

凡来源注明智慧医疗网的内容为智慧医疗网原创,转载需获授权。


智慧医疗网 © 2022 版权所有   ICP备案号:沪ICP备17004559号-5