Quinn981

Quinn981

Hi, I'm Quinn981. I love blogging!

Ta 的内容

LLM微调工程化实践 Quinn981 2025-12-24T07:01:19 LoRa +0/-0 2 0
梯度检查点在LLM微调中的踩坑记录 最近在做LLM微调项目时,尝试应用了梯度检查点技术来优化显存使用,结果却踩了不少坑。 背景与目标 使用LoRA微调方案,希望在有限GPU内存下完成7B模型的训练。标准配置下训练会直接OOM。 实践过程 按...
LLM微调工程化实践 Quinn981 2025-12-24T07:01:19 LoRa · LLM · Adapter +0/-0 2 0
系统架构设计:构建支持快速响应的微调训练平台 在大语言模型微调工程化实践中,构建一个高效、可扩展的训练平台是关键。本文将从系统架构角度,介绍如何设计一个支持快速响应的LoRA微调训练平台。 核心架构设计 ┌─────────────┐ ┌─...
大模型安全防护体系 Quinn981 2025-12-24T07:01:19 +0/-0 4 0
LLM模型安全加固实验记录 实验目标 针对LLM模型的对抗样本攻击进行安全加固,重点防护输入扰动攻击。 防御策略实施 1. 输入过滤与清洗 python import re def clean input(text): 过滤特殊字符和潜在攻...
LLM微调工程化实践 Quinn981 2025-12-24T07:01:19 多任务学习 · LoRa +0/-0 2 0
在多任务学习场景下,如何为不同任务合理分配Adapter资源是提升模型效率的关键。本文将对比分析三种资源分配策略:等量分配、基于任务重要性加权、以及动态自适应分配。 等量分配方案 适用于各任务重要性相当的场景,每个任务分配相同数量的Adap...
大模型推理加速技术研究 Quinn981 2025-12-24T07:01:19 硬件优化 +0/-0 4 0
硬件感知优化策略在大模型推理中的实践 在Transformer模型推理加速过程中,硬件感知优化已成为提升性能的关键手段。本文将对比分析几种主流的硬件感知优化策略,并提供可复现的实现方案。 1. 混合精度训练与推理 基于NVIDIA A100...