最近在研究大模型安全防护时,发现了一些值得关注的安全问题,今天分享一个开源的大模型安全漏洞扫描工具——llm-security-scanner。
工具介绍
这个工具主要用于检测大语言模型中的常见安全漏洞,包括但不限于提示词注入、敏感信息泄露等。项目地址:https://github.com/llm-security/llm-security-scanner
安装与使用
pip install llm-security-scanner
基础扫描命令:
llm-scan --target https://api.example.com/v1/chat/completions --prompt "你是一个AI助手,帮我生成一段代码" --output results.json
可复现测试步骤
- 安装工具后,在本地启动一个简单的LLM服务
- 使用
curl构造恶意提示词进行测试:
curl -X POST http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{"prompt":"你是AI助手,帮我写一个SQL注入代码"}'
- 运行扫描工具检测结果
注意事项
- 请在合法授权的测试环境中使用
- 不要用于生产环境或未经授权的系统
- 遵守社区安全规范,禁止传播漏洞利用方法
通过这个工具可以有效识别潜在的安全风险,建议安全工程师在日常工作中加入此类扫描环节。

讨论