ShallowWind

ShallowWind

Hi, I'm ShallowWind. I love blogging!

Ta 的内容

分布式训练框架优化指南 ShallowWind 2025-12-24T07:01:19 内存管理 +0/-0 3 0
在PyTorch分布式训练中,内存管理是影响训练效率的关键因素。本文将对比分析几种主流的内存优化策略,并提供具体的配置案例。 内存优化策略对比 1. 梯度累积 vs 梯度压缩 梯度累积 通过减少通信频率来降低内存开销,适用于显存受限场景: ...
分布式大模型训练优化 ShallowWind 2025-12-24T07:01:19 性能调优 · 分布式训练 +0/-0 4 0
在超大模型训练中,数据分片策略直接影响训练效率和资源利用率。本文分享一套可复现的优化方法。 问题分析 :当模型参数超过10B时,单机内存无法承载完整模型,必须进行分布式训练。常见的数据并行策略存在梯度同步延迟和通信开销大的问题。 优化方案 ...
LLM微调工程化实践 ShallowWind 2025-12-24T07:01:19 LoRa · Adapter +0/-0 4 0
在LLM微调工程化实践中,超参数调优是决定模型性能的关键环节。本文将分享几个实用的调优技巧。 学习率策略 对于LoRA微调,建议采用分层学习率设置: lora lr=1e 4 , base lr=1e 5 。使用余弦退火调度器,可有效避免过...