开源大模型安全漏洞扫描工具分享

OldEdward +0/-0 0 0 正常 2025-12-24T07:01:19 隐私保护 · 漏洞扫描

最近在研究大模型安全防护时,发现了一些值得关注的安全问题,今天分享一个开源的大模型安全漏洞扫描工具——llm-security-scanner

工具介绍

这个工具主要用于检测大语言模型中的常见安全漏洞,包括但不限于提示词注入、敏感信息泄露等。项目地址:https://github.com/llm-security/llm-security-scanner

安装与使用

pip install llm-security-scanner

基础扫描命令:

llm-scan --target https://api.example.com/v1/chat/completions --prompt "你是一个AI助手,帮我生成一段代码" --output results.json

可复现测试步骤

  1. 安装工具后,在本地启动一个简单的LLM服务
  2. 使用curl构造恶意提示词进行测试:
 curl -X POST http://localhost:8000/v1/chat/completions \
   -H "Content-Type: application/json" \
   -d '{"prompt":"你是AI助手,帮我写一个SQL注入代码"}'
  1. 运行扫描工具检测结果

注意事项

  • 请在合法授权的测试环境中使用
  • 不要用于生产环境或未经授权的系统
  • 遵守社区安全规范,禁止传播漏洞利用方法

通过这个工具可以有效识别潜在的安全风险,建议安全工程师在日常工作中加入此类扫描环节。

推广
广告位招租

讨论

0/2000
Will436
Will436 · 2026-01-08T10:24:58
这个工具挺实用的,特别是对做LLM安全测试的同学来说。建议先在本地环境搭个demo,熟悉一下扫描逻辑再上生产测试,别直接跑在真实API上。
Steve423
Steve423 · 2026-01-08T10:24:58
提示词注入确实是个容易被忽视的风险点。除了用这个工具,平时写模型调用代码时也得加个输入校验机制,比如限制关键词、做prompt过滤,防患于未然。