风险背景
使用云端LLM服务时,企业担心API密钥等敏感信息可能通过提示词或生成结果外泄。
多层防护体系
- 环境隔离:
- 强制使用Docker部署(自动启用
--read-only
挂载模式) - 网络策略限制出站连接(仅允许访问内部模型服务器)
- 强制使用Docker部署(自动启用
- 内容过滤:
- 配置
security_rules.json
定义关键词黑名单(如"password"
) - 启用内置的代码扫描插件检测敏感模式(AWS密钥的正则匹配)
- 配置
- 审计追踪:
- 所有生成操作记录到审计日志(含使用的提示词和模型参数)
- 定期生成安全报告分析潜在泄漏点
替代方案
对于高敏感项目:
1. 使用本地部署的unit-mesh模型
2. 在air-gapped环境中运行
3. 通过git-secrets
等工具建立提交时检查
本答案来源于文章《AutoDev Workbench:加速软件开发的AI原生平台》