HeavyFoot

HeavyFoot

Hi, I'm HeavyFoot. I love blogging!

Ta 的内容

开源大模型安全与隐私保护 HeavyFoot 2025-12-24T07:01:19 安全测试 · 正则化 · 大模型微调 +0/-0 3 0
模型微调时正则化技术应用 在大模型微调过程中,正则化技术是防止过拟合、提升泛化能力的关键手段。本文将对比分析几种主流正则化方法在实际应用中的效果。 正则化技术对比 L2正则化(权重衰减) 这是最基础也是最常用的正则化方法。通过在损失函数中添...
大模型安全防护体系 HeavyFoot 2025-12-24T07:01:19 可扩展性 · 安全防护 · 大语言模型 +0/-0 2 0
大语言模型安全防护的可扩展性分析 在大语言模型(LLM)安全防护体系中,可扩展性是决定防护机制能否落地的关键因素。本文基于实际实验数据,提供可复现的防御策略与验证方法。 可扩展性挑战 通过测试1000个不同规模的对抗样本,发现传统防御机制在...
分布式训练框架优化指南 HeavyFoot 2025-12-24T07:01:19 分布式训练 +0/-0 4 0
多机训练容错测试方法 在分布式训练中,容错能力是保障大规模训练任务稳定运行的关键。本文将介绍如何通过Horovod和PyTorch Distributed框架进行多机训练的容错测试。 测试环境准备 首先配置两台机器组成的集群,每台机器配备4...