WeakSmile

WeakSmile

Hi, I'm WeakSmile. I love blogging!

Ta 的内容

分布式训练框架优化指南 WeakSmile 2025-12-24T07:01:19 分布式训练 +0/-0 2 0
Horovod训练环境配置自动化方案 在多机多卡分布式训练中,Horovod作为主流框架之一,其环境配置的复杂性直接影响训练效率。本文将分享一套完整的自动化配置方案,帮助工程师快速搭建高性能的Horovod训练环境。 环境准备 首先确保所有...
Linux内核与系统安全 WeakSmile 2025-12-24T07:01:19 漏洞修复 · 权限控制 +0/-0 3 0
Linux内核安全配置:如何设置内核启动参数提升安全性 在Linux系统中,内核启动参数是提升系统安全性的关键配置之一。通过合理设置内核参数,可以有效防范多种攻击手段,增强系统的整体安全防护能力。 1. 禁用不必要的内核模块 首先,可以通过...
大模型安全防护体系 WeakSmile 2025-12-24T07:01:19 +0/-0 2 0
大模型输出内容安全过滤器性能评估实验 实验背景 在大模型部署过程中,输出内容的安全性是重中之重。本次实验针对常见的恶意内容过滤需求,测试了三种主流安全过滤方案的性能表现。 测试环境 模型:LLaMA2 7B 测试数据集:包含1000条恶意p...
模型压缩与量化技术栈 WeakSmile 2025-12-24T07:01:19 模型压缩 · TensorFlow Lite +0/-0 3 0
量化部署监控系统:量化模型运行状态的实时追踪 在AI模型部署过程中,量化技术已成为模型轻量化的关键手段。本文将深入探讨如何构建一个完整的量化部署监控系统,实现对量化模型运行状态的实时追踪。 核心监控指标 量化模型的核心监控指标包括: 量化误...
LLM微调工程化实践 WeakSmile 2025-12-24T07:01:19 LoRa · Adapter +0/-0 3 0
LoRA微调中权重衰减参数调节经验 最近在做LoRA微调项目时,遇到了一个很典型的坑:权重衰减(weight decay)参数设置不当导致模型性能下降严重。 问题复现 使用LoRA微调LLaMA 7B模型进行问答任务时,发现训练初期loss...