欢迎访问智慧医疗网 | 网站首页
 
当前位置:首页 > 医疗人工智能

人工智能伦理治理研究报告:医疗领域AI应用需特别关注三大风险

发布时间:2024-02-17 来源:大健康派 浏览量: 字号:【加大】【减小】 手机上观看

打开手机扫描二维码
即可在手机端查看

人工智能技术快速应用,同时也带来了一系列伦理挑战,并且这些伦理挑战已从理论研讨变为现实风险。根据 OECD AI Incidents Monitor 的统计,仅 2023 年 11 月一个月,人工智能事件就超过 280 件。对人工智能伦理问题的关切覆盖人工智能全生命周期的各个阶段,通过人工智能治理的多种机制促进人工智能健康发展已成为普遍共识。



为应对人工智能技术应用带来的风险,世界各国积极推动人工智能伦理国际治理合作。各国政府通过出台人工智能伦理原则、发布人工智能伦理治理指引、提供技术治理工具等,加强本国本地区的人工智能伦理治理监管。

我国通过积极完善人工智能伦理制度规范,探索人工智能伦理治理技术化、工程化、标准化落地措施,加强人工智能治理国际合作等举措推动人工智能向善发展。
中国信息通信研究院日前首次发布了《人工智能伦理治理研究报告》蓝皮书。在总结分析人工智能伦理治理相关特点的基础上,对人工智能生成内容、自动驾驶、智慧医疗三个典型应用场景的伦理风险进行了分析。


微信图片_20240217194044.png微信图片_20240217194047.png

智慧医疗网 © 2022 版权所有   ICP备案号:沪ICP备17004559号-5