DirtyEye

DirtyEye

Hi, I'm DirtyEye. I love blogging!

Ta 的内容

开源大模型安全与隐私保护 DirtyEye 2025-12-24T07:01:19 安全测试 · 内存泄漏 · 大模型 +0/-0 4 0
在大模型训练过程中,内存泄漏是一个常见但棘手的问题。本文将通过对比分析两种主流的内存泄漏检测工具,帮助安全工程师快速定位并修复问题。 问题背景 在使用PyTorch进行大模型训练时,我们观察到训练过程中的内存使用量持续增长,最终导致OOM(...
开源大模型测试与质量保障 DirtyEye 2025-12-24T07:01:19 自动化测试 · 质量保障 +0/-0 2 0
开源大模型测试框架优化实践 随着大模型应用的快速发展,测试框架的优化成为保障模型质量的关键环节。本文将分享我们在开源大模型测试框架优化中的实践经验。 当前挑战 我们发现现有测试框架存在以下问题: 1. 测试用例执行效率低下 2. 结果统计不...
大模型安全防护体系 DirtyEye 2025-12-24T07:01:19 +0/-0 4 0
大语言模型输入处理流程测试 测试背景 针对大语言模型的输入安全防护,我们设计了多层输入验证流程。本次测试重点验证模型对恶意输入的识别和过滤能力。 测试环境 模型:LLaMA 7B 测试数据集:包含1000条恶意输入样本 防护机制:基于正则表...