欢迎访问智慧医疗网 | 网站首页
 
当前位置:首页 > 资讯 > 观点

AI时代大模型如何构建“安全围栏”

发布时间:2025-06-24 来源:国信息化周报 浏览量: 字号:【加大】【减小】 手机上观看

打开手机扫描二维码
即可在手机端查看

内蒙古一位公司老板与好友进行微信视频通话,对方声称在外地竞标,急需430万元保证金,并希望借用公司账户转账。视频聊天中,由于对方的面孔和声音与好友无异,科技公司老板深信不疑,分两笔将钱款转入对方银行账户。然而,事后经电话确认,好友并未借款,老板方知受骗。骗子运用AI换脸和拟声技术,伪造了好友的身份进行诈骗。

这一事件并非孤例。随着生成式AI技术的快速普及,大模型在提升效率的同时,也暴露出前所未有的安全隐患:AI换脸诈骗、训练数据泄露、恶意代码生成、深度伪造攻击等问题频发。《2025-2030年全球及中国人工智能行业市场现状调研及发展前景分析报告》显示,超过60%的企业级大模型部署至少遭遇一种安全事件。如何为AI大模型筑起一道坚固的“安全围栏”,已成为全球技术界和产业界的共同命题。


为何AI需要“安全围栏”

在近日举办的A2M人工智能创新峰会上,数美科技CTO分享了当前大模型存在的安全风险和解决方案。

DeepSeek、百川智能为代表的开源平台幅降低了技术门槛生出”的化应用生。然而,当AI技术从实验室走向千家万户,攻击面也呈几何级扩张

统计,全球大模型安全事件损失2023年的85亿美元,剧增2024年的143亿美元,预计2025损失突破235亿美元。

攻击者只需一侵即可获利,而防守方的企业要应海量威胁。开源AI具被攻击者滥用,降低网络攻击门槛使得网络攻击。而大模型使得攻击分析、攻击手段更加精准化持续化挑战传统防护手段的同时检测的攻击代码和海量零样本”恶意程序,以传统检测规则给网络安全攻防带来度对抗性

AI时代的安全风险与防控本呈指数级增长,安全挑战也已经从简单的技术问题上升为影响商业模式、稳定甚文明发展的关键议题。

如何构建大模型“安全围栏”

提出规划-训练-三阶段防御体系,在大模型开进行风险防控往往是被动堵漏”,应从开发阶段就将安全要求融AI基因

规划阶段建立风险行业特性划分数据保等级如金融客交易数据为绝密级,医疗基因数据为机密最小权限原则”,通过角色权限控制(RBAC多因素认证MFA)限制数据访围。例如,算法程师仅可访问训练所需子禁止接触量机密数据。

在训练阶段语言处理技术NLP原始语料进行自动化筛查识别拦截包含敏感词机密违规数据的样本。对医疗影像、产品设计图纸高密级数据进行识化处理。通过规则引擎机器学习模型检测用户入的高危指令,通过强化学习引导模型优先选择安全数据,对违规输出行为进行负向惩罚

在模型运营阶段,在用户与模型交互环节设置访控制闸门”,结合正匹配与意图识别模型,拦截风险内入,为不同级的知设置访壁垒(记录仅限特定访

风险场景,动态风险+安全代机制,对生成内进行时安全分,预置回复模板,敏感问题:必须回答的问题如国政策必须纠错的问题如用户的表中有错误,需向引导的问题供犯罪,转而引导用户话题至向)风险拦截、中风险转人工、风险留痕审

有大模型能解决大模型的问题”,梁出。未安全防护依赖更模的模型进行对训练。例如,通过训练“攻击模型”模拟行为,防御模型进行优化

大模型安全面临的挑战

智能时代的AI大模型防御体系在不但仍挑战一,风险,当千亿数成为大模型标力饥荒正蔓延。据工信部统计2024,全国力总突破230EFLOPS亿亿次浮点/但供缺口仍达35%,中企业险的是算力黑产。例如,浙江某云计算平台客利价值3700万元的力资源。

AI系统处理超过10亿数据时,哪怕的数据存在0.1%偏差,经过算法大后演变系统性视。就像拍摄世界,现的。例如,美国医疗AI训练数据中非者样本致糖尿病并发症误诊42%造成数百人延误治

风险,大模型于深度学习架构,通过海量数据训练复杂网络如同黑箱”,用户直观逻辑据,易引发决危机

第三+智能风险。大模型已经被广泛用于无人领域自动控制AI智能运行,其幻觉问题不仅是文错误,而接引错误。例如在自动驾驶场景中,智能识别交通标便致物

当技术奇点临近,安全界成为人类掌AI堡垒。这道“安全围栏”的造,将决我们驾驭AI浪潮被浪潮吞没

特别声明:智慧医疗网转载其他网站内容,出于传递更多信息而非盈利之目的,同时并不代表赞成其观点或证实其描述,内容仅供参考。版权归原作者所有,若有侵权,请联系我们删除。

凡来源注明智慧医疗网的内容为智慧医疗网原创,转载需获授权。


智慧医疗网 © 2022 版权所有   ICP备案号:沪ICP备17004559号-5