世界科技研究与发展 ›› 2026, Vol. 48 ›› Issue (1): 69-79.doi: 10.16507/j.issn.1006-6055.2025.12.005 cstr: 32308.14.1006-6055.2025.12.005
• 科技前沿与态势 • 上一篇
卫霞1 张文俊2
WEI Xia1 ZHANG Wenjun2
摘要: 随着大语言模型(LLMs)在各个领域的广泛应用,其在隐私治理及自身风险方面的问题日益凸显。本文系统探讨了LLMs在隐私保护中的双面性:一方面,LLMs作为智能工具可增强数据安全防护能力,如提升代码漏洞检测任务的准确率;另一方面,面临梯度泄露、成员推理及个人身份信息泄漏等典型隐私攻击,LLMs具有较大的隐私风险。基于我国网络空间治理的法律框架,按照预防义务、处理规则、权利保障、事件响应的结构,本文梳理LLMs在隐私保护方面的合规性应用情况;同时分析针对LLMs隐私的典型攻击及防御手段,并从“数据—训练—推理”全生命周期角度探讨了提升LLMs安全性的举措,指出未来需着重解决模型规模扩张与隐私保护需求之间的根本矛盾。