欢迎访问智慧医疗网 | 网站首页
 
当前位置:首页 > 研究 > 行情

AI在智慧医疗领域应用的伦理风险,禁止AI替代医师和生成处方!

发布时间:2024-02-28 来源:医信邦 浏览量: 字号:【加大】【减小】 手机上观看

打开手机扫描二维码
即可在手机端查看

伴随人工智能的迅速发展和广泛应用,人类正在进入一个“人机物”相融合的万物智能互联时代,人工智能技术的应用在给人们带来生活和工作便利的同时,也带来了系列伦理挑战。2022 年 3 月,中共中央办公厅国务院办公厅印发《关于加强科技伦理治理的意见》,对科技伦理治理工作进行了系统部署,将人工智能列入科技伦理治理的重点领域。


中国信息通信研究院首次发布《人工智能伦理治理研究报告》蓝皮书。本报告在总结分析人工智能伦理治理相关特点的基础上,对人工智能生成内容、自动驾驶、智慧医疗三个典型应用场景的伦理风险进行分析,并结合国内外人工智能伦理治理实践,提出人工智能伦理治理的四点展望,以期为更加广泛深入的讨论提供参考。


微信图片_20240228100418.png微信图片_20240228100421.png

蓝皮书指出,人工智能在医疗卫生领域的应用带来显著的机遇,为病灶诊断药物研发、疾病风险预测等提供了重要的工具。根据斯坦福大学最新发布的《人工智能指数报告》,2022 年与医疗健康领域相关的人工智能投资超过 60 亿美元,是吸引最多投资的人工智能应用领域。

然而,由于在医疗卫生领域应用人工智能技术直接影响生命健康,需要谨慎评估人工智能在该领域应用的伦理风险,特别要关注人类监督、隐私保护和医患知情权。

一是缺乏人类监督引发安全控制风险。

由于人工智能可用于医学图像、诊断特征匹配等医学场景,能够影响医疗决策,在直接面向患者的智慧医疗领域,缺乏专业人员介入和监督的医疗诊断风险极大。

二是隐私泄露与数据保护风险。

医疗活动产生和收集大量个人信息,医生也需要依靠患者既往病史等做出判断。随着电子病历、基因检测等应用,以及生成式人工智能在医疗领域应用开发,敏感个人信息被大量收集和处理,一旦发生泄露、非法使用、篡改等,将可能对患者隐私、患者诊疗等产生严重危害。

三是缺乏透明风险。

目前谷歌、亚马逊、微软等公司已与医疗保健组织开展合作,开发应用于医疗保健领域的大模型,但若急于将缺乏完整理解和透明性的大模型用于医疗,将可能会影响专业人员的诊断,对患者造成损害。

确保人类监督和决策案例:禁止人工智能替代医师和生成处方

2023年8月,北京市卫生健康委发布《北京市互联网诊疗监管实施办法(试行)》(征求意见稿),明确人工智能软件不得代替医师提供诊疗,禁止使用人工智能等自动生成处方。

微信图片_20240228100425.png微信图片_20240228100428.png


智慧医疗网 © 2022 版权所有   ICP备案号:沪ICP备17004559号-5